Intelligenza artificiale. Seconda parte: estinzione o immortalità?

Sommario:

Intelligenza artificiale. Seconda parte: estinzione o immortalità?
Intelligenza artificiale. Seconda parte: estinzione o immortalità?

Video: Intelligenza artificiale. Seconda parte: estinzione o immortalità?

Video: Intelligenza artificiale. Seconda parte: estinzione o immortalità?
Video: Представлены С-350 «Витязь», Россия Новые обновленные системы ПВО поля боя 2024, Novembre
Anonim
Intelligenza artificiale. Seconda parte: estinzione o immortalità?
Intelligenza artificiale. Seconda parte: estinzione o immortalità?

Prima di te c'è la seconda parte di un articolo della serie "Aspetta, come tutto questo può essere reale, perché non se ne parla ancora ad ogni angolo". Nella serie precedente, si è saputo che un'esplosione di intelligenza si sta gradualmente avvicinando alle persone del pianeta Terra, sta cercando di svilupparsi dall'intelligenza strettamente focalizzata all'intelligenza universale e, infine, alla superintelligenza artificiale.

"Forse siamo di fronte a un problema estremamente difficile e non si sa quanto tempo è concesso per la sua soluzione, ma il futuro dell'umanità potrebbe dipendere dalla sua soluzione". - Nick Bostrom.

La prima parte dell'articolo iniziava in modo abbastanza innocente. Abbiamo discusso dell'intelligenza artificiale strettamente focalizzata (AI, che è specializzata nella risoluzione di un problema specifico come determinare percorsi o giocare a scacchi), ce n'è molto nel nostro mondo. Quindi hanno analizzato perché è così difficile coltivare l'intelligenza artificiale direzionale generale (AGI, o AI, che, in termini di capacità intellettuali, può essere paragonata a un essere umano nella risoluzione di qualsiasi problema), è così difficile. Abbiamo concluso che il tasso esponenziale del progresso tecnologico suggerisce che l'AGI potrebbe essere dietro l'angolo molto presto. Alla fine, abbiamo deciso che non appena le macchine avessero raggiunto l'intelligenza umana, sarebbe potuto accadere subito quanto segue:

Immagine
Immagine
Immagine
Immagine
Immagine
Immagine
Immagine
Immagine

Come al solito, guardiamo lo schermo, non credendo che la superintelligenza artificiale (ISI, che è molto più intelligente di qualsiasi persona) possa apparire durante la nostra vita, e scegliendo le emozioni che meglio rifletterebbero la nostra opinione su questo tema.

Prima di addentrarci nello specifico dell'ISI, ricordiamoci cosa significa per una macchina essere superintelligente.

La differenza principale sta tra la superintelligenza veloce e la superintelligenza di qualità. Spesso, la prima cosa che viene in mente quando si pensa a un computer superintelligente è che può pensare molto più velocemente di una persona - milioni di volte più veloce, e in cinque minuti capirà cosa impiegherebbe una persona a dieci anni. ("Conosco il kung fu!")

Sembra impressionante e l'ISI dovrebbe davvero pensare più velocemente di chiunque altro, ma la principale caratteristica di separazione sarà la qualità della sua intelligenza, che è completamente diversa. Gli umani sono molto più intelligenti delle scimmie, non perché pensano più velocemente, ma perché il loro cervello contiene una serie di ingegnosi moduli cognitivi che eseguono rappresentazioni linguistiche complesse, pianificazione a lungo termine, pensiero astratto, di cui le scimmie non sono capaci. Se acceleri mille volte il cervello di una scimmia, non diventerà più intelligente di noi - anche dopo dieci anni non sarà in grado di assemblare un costruttore secondo le istruzioni, il che richiederebbe a una persona un paio d'ore al massimo. Ci sono cose che una scimmia non imparerà mai, non importa quante ore trascorra o quanto velocemente funzioni il suo cervello.

Inoltre, la scimmia non sa come umanamente, perché il suo cervello semplicemente non è in grado di rendersi conto dell'esistenza di altri mondi: la scimmia potrebbe sapere cos'è una persona e cos'è un grattacielo, ma non capirà mai che un grattacielo è stato costruito da le persone. Nel suo mondo, tutto appartiene alla natura e il macaco non solo non può costruire un grattacielo, ma capisce anche che chiunque può costruirlo. E questo è il risultato di una piccola differenza nella qualità dell'intelligenza.

Nello schema generale dell'intelligenza di cui stiamo parlando, o semplicemente secondo gli standard degli esseri biologici, la differenza nella qualità dell'intelligenza tra umani e scimmie è minima. Nell'articolo precedente, abbiamo posto le abilità cognitive biologiche su una scala:

Immagine
Immagine

Per capire quanto sarà seria una macchina superintelligente, posizionala due tacche più in alto della persona su quella scala. Questa macchina può essere solo un po' superintelligente, ma la sua superiorità sulle nostre capacità cognitive sarà la stessa della nostra, sulle scimmie. E proprio come uno scimpanzé non capirà mai che un grattacielo può essere costruito, potremmo non capire mai cosa capirà una macchina un paio di passi più in alto, anche se la macchina cerca di spiegarcelo. Ma questo è solo un paio di passaggi. La macchina più intelligente vedrà le formiche in noi - ci insegnerà le cose più semplici dalla sua posizione per anni, e questi tentativi saranno completamente senza speranza.

Il tipo di superintelligenza di cui parleremo oggi si trova ben oltre questa scala. Questa è un'esplosione di intelligenza: quando più un'auto diventa intelligente, più velocemente può aumentare la propria intelligenza, aumentando gradualmente lo slancio. Potrebbero volerci anni prima che una macchina come questa superi gli scimpanzé in intelligenza, ma forse un paio d'ore per superare noi di un paio di tacche. Da quel momento in poi, l'auto può già saltare quattro gradini ogni secondo. Ecco perché dovremmo capire che molto presto dopo la comparsa della prima notizia che la macchina ha raggiunto il livello di intelligenza umana, potremmo affrontare la realtà della convivenza sulla Terra con qualcosa che sarà molto più alto di noi su questa scala (o forse, e milioni di volte superiore):

Immagine
Immagine

E visto che abbiamo stabilito che è del tutto inutile cercare di capire la potenza di una macchina che è solo due gradini sopra di noi, definiamo una volta per tutte che non c'è modo di capire cosa farà l'ISI e quali saranno le conseguenze di questo sarà per noi. Chiunque affermi il contrario semplicemente non capisce cosa significhi superintelligenza.

L'evoluzione ha lentamente e gradualmente evoluto il cervello biologico nel corso di centinaia di milioni di anni, e se gli umani creano una macchina superintelligente, in un certo senso trascenderemo l'evoluzione. Oppure farà parte dell'evoluzione - forse l'evoluzione funziona in modo tale che l'intelligenza si sviluppi gradualmente fino a raggiungere un punto di svolta che preannuncia un nuovo futuro per tutti gli esseri viventi:

Immagine
Immagine

Per ragioni che discuteremo più avanti, una vasta parte della comunità scientifica crede che la domanda non sia se arriveremo a questo punto di svolta, ma quando.

Dove andiamo a finire dopo questo?

Penso che nessuno in questo mondo, né io né te, sarà in grado di dire cosa accadrà quando raggiungeremo il punto di non ritorno. Il filosofo di Oxford e il principale teorico dell'intelligenza artificiale Nick Bostrom crede che possiamo riassumere tutti i possibili risultati in due grandi categorie.

Innanzitutto, guardando alla storia, sappiamo quanto segue sulla vita: le specie compaiono, esistono per un certo tempo, e poi inevitabilmente cadono dalla trave di equilibrio e si estinguono.

Immagine
Immagine

"Tutte le specie muoiono" è stata una regola affidabile nella storia come "tutte le persone muoiono un giorno". Il 99,9% delle specie è caduto da un registro di vita, ed è abbastanza chiaro che se una specie si blocca su questo registro per troppo tempo, una raffica di vento naturale o un improvviso asteroide capovolgerà il registro. Bostrom chiama estinzione lo stato di un attrattore - un luogo in cui tutte le specie si equilibrano per non cadere dove nessuna specie è ancora tornata.

E sebbene la maggior parte degli scienziati ammetta che l'ISI avrà la capacità di condannare le persone all'estinzione, molti credono anche che l'uso delle capacità dell'ISI consentirà agli individui (e alla specie nel suo insieme) di raggiungere il secondo stato dell'attrattore: l'immortalità della specie. Bostrom crede che l'immortalità di una specie sia un attrattore tanto quanto l'estinzione di una specie, cioè, se arriviamo a questo, saremo condannati all'esistenza eterna. Quindi, anche se tutte le specie fino ad ora cadessero da questo bastone nel vortice dell'estinzione, Bostrom crede che il tronco abbia due lati, e semplicemente non è apparsa sulla Terra una tale intelligenza che capirebbe come cadere dall'altra parte.

Immagine
Immagine

Se Bostrom e altri hanno ragione e, a giudicare da tutte le informazioni a nostra disposizione, potrebbero essere così, dobbiamo accettare due fatti molto scioccanti:

L'emergere dell'ISI per la prima volta nella storia aprirà la strada a una specie per raggiungere l'immortalità e uscire dal fatale ciclo di estinzione.

L'emergere dell'ISI avrà un impatto così inimmaginabile che, molto probabilmente, spingerà l'umanità fuori da questo registro in una direzione o nell'altra.

È possibile che quando l'evoluzione raggiunge un tale punto di svolta, mette sempre fine al rapporto delle persone con il flusso della vita e crea un nuovo mondo, con o senza persone.

Questo porta a una domanda interessante che solo una delusione non farebbe: quando arriveremo a questo punto di svolta e dove ci porterà? Nessuno al mondo conosce la risposta a questa doppia domanda, ma molte persone intelligenti hanno cercato di capirlo per decenni. Per il resto dell'articolo, scopriremo da dove vengono.

* * *

Cominciamo con la prima parte di questa domanda: quando dovremmo raggiungere il punto di svolta? In altre parole: quanto tempo rimane prima che la prima macchina raggiunga la superintelligenza?

Le opinioni variano da caso a caso. Molti, tra cui il professor Vernor Vinge, lo scienziato Ben Herzel, il co-fondatore di Sun Microsystems Bill Joy, il futurista Ray Kurzweil, erano d'accordo con l'esperto di machine learning Jeremy Howard quando ha presentato il seguente grafico al TED Talk:

Immagine
Immagine

Queste persone condividono l'idea che l'ISI arriverà presto: questa crescita esponenziale, che oggi ci sembra lenta, esploderà letteralmente nei prossimi decenni.

Altri, come il cofondatore di Microsoft Paul Allen, lo psicologo ricercatore Gary Marcus, l'esperto di computer Ernest Davis e l'imprenditore tecnologico Mitch Kapor, credono che pensatori come Kurzweil stiano seriamente sottovalutando l'entità del problema e pensano che non siamo così vicini a un punto di non ritorno.

Il campo di Kurzweil sostiene che l'unica sottovalutazione che si verifica è il disprezzo per la crescita esponenziale, e i dubbiosi possono essere paragonati a coloro che hanno guardato Internet in lenta espansione nel 1985 e hanno sostenuto che non avrebbe avuto alcun impatto sul mondo nel prossimo futuro.

I dubbiosi possono respingere che è più difficile per il progresso compiere ogni passo successivo quando si tratta dello sviluppo esponenziale dell'intelligenza, che neutralizza la tipica natura esponenziale del progresso tecnologico. Eccetera.

Il terzo campo, in cui si trova Nick Bostrom, non è d'accordo né con il primo né con il secondo, sostenendo che a) tutto ciò può assolutamente accadere nel prossimo futuro; e b) non vi è alcuna garanzia che ciò accada o che impiegherà più tempo.

Altri, come il filosofo Hubert Dreyfus, credono che tutti e tre i gruppi credano ingenuamente che ci sarà un punto di svolta e che molto probabilmente non arriveremo mai all'ISI.

Cosa succede quando mettiamo insieme tutte queste opinioni?

Nel 2013, Bostrom ha condotto un sondaggio in cui ha intervistato centinaia di esperti di IA in una serie di conferenze sul seguente argomento: "Quali saranno le tue previsioni per raggiungere l'AGI a livello umano?" e ci ha chiesto di nominare un anno ottimista (in cui avremo AGI con una probabilità del 10 percento), un'ipotesi realistica (un anno in cui avremo un AGI con una probabilità del 50 percento) e un'ipotesi fiduciosa (il primo anno in cui AGI apparirà dal 90% di probabilità). Ecco i risultati:

* Anno medio ottimista (10%): 2022

* Anno medio realistico (50%): 2040

* Anno medio pessimista (90%): 2075

Gli intervistati medi ritengono che in 25 anni avremo AGI piuttosto che no. Una probabilità del 90% che l'AGI si verifichi entro il 2075 significa che se sei ancora abbastanza giovane ora, molto probabilmente accadrà nel corso della tua vita.

Uno studio separato recentemente condotto da James Barratt (autore dell'acclamato e ottimo libro Our Latest Invention, estratti da Ho presentato all'attenzione dei lettori Hi-News.ru) e Ben Hertzel alla Conferenza AGI, la Conferenza annuale AGI, hanno semplicemente mostrato le opinioni della gente sull'anno in cui si arriva ad AGI: 2030, 2050, 2100, dopo o mai. Ecco i risultati:

* 2030: 42% degli intervistati

* 2050: 25%

* 2100: 20%

Dopo il 2100: 10%

Mai: 2%

Simile ai risultati di Bostrom. Nel sondaggio di Barratt, più di due terzi degli intervistati ritiene che AGI sarà qui entro il 2050 e meno della metà crede che AGI apparirà nei prossimi 15 anni. È anche sorprendente che solo il 2% degli intervistati, in linea di principio, non veda AGI nel nostro futuro.

Ma l'AGI non è un punto di svolta come l'ISI. Quando, secondo gli esperti, avremo un ISI?

Bostrom ha chiesto agli esperti quando raggiungeremo l'ASI: a) due anni dopo aver raggiunto l'AGI (cioè quasi istantaneamente a causa di un'esplosione di intelligenza); b) dopo 30 anni. Risultati?

L'opinione media è che la rapida transizione da AGI a ISI avverrà con una probabilità del 10%, ma tra 30 anni o meno avverrà con una probabilità del 75%.

Da questi dati, non sappiamo in quale data gli intervistati chiamerebbero una probabilità del 50% di un ASI, ma in base alle due risposte sopra, supponiamo che siano 20 anni. Cioè, i maggiori esperti mondiali di IA ritengono che la svolta arriverà nel 2060 (AGI comparirà nel 2040 + ci vorranno 20 anni per il passaggio da AGI a ISI).

Immagine
Immagine

Naturalmente, tutte le statistiche di cui sopra sono speculative e rappresentano semplicemente l'opinione di esperti nel campo dell'intelligenza artificiale, ma indicano anche che le persone più interessate concordano sul fatto che entro il 2060 è probabile che arrivi l'IA. In soli 45 anni.

Passiamo alla seconda domanda. Quando arriveremo al punto di svolta, quale lato della scelta fatale ci determinerà?

La superintelligenza avrà il potere più potente e la domanda cruciale per noi sarà la seguente:

Chi o cosa controllerà questo potere e quale sarà la loro motivazione?

La risposta a questa domanda dipenderà dal fatto che l'ISI otterrà uno sviluppo incredibilmente potente, uno sviluppo incommensurabilmente terrificante o qualcosa nel mezzo.

Naturalmente, anche la comunità di esperti sta cercando di rispondere a queste domande. Il sondaggio di Bostrom ha analizzato la probabilità di possibili conseguenze dell'impatto dell'AGI sull'umanità, e si è scoperto che con una probabilità del 52 percento tutto andrà molto bene e con una probabilità del 31 percento che tutto andrà male o estremamente male. Il sondaggio allegato alla fine della parte precedente di questo argomento, condotto tra voi, cari lettori di Hi-News, ha mostrato circa gli stessi risultati. Per un risultato relativamente neutro, la probabilità era solo del 17%. In altre parole, crediamo tutti che l'AGI sarà un grosso problema. Vale anche la pena notare che questa indagine riguarda l'emergere dell'AGI - nel caso dell'ISI, la percentuale di neutralità sarà inferiore.

Prima di approfondire la riflessione sui lati positivi e negativi della domanda, uniamo entrambi i lati della domanda: "quando accadrà?" e "questo è buono o cattivo?" in una tabella che copre le opinioni della maggior parte degli esperti.

Immagine
Immagine

Parleremo del campo principale tra un minuto, ma prima decidi la tua posizione. È probabile che tu sia nello stesso posto in cui mi trovavo prima che iniziassi a lavorare su questo argomento. Ci sono diversi motivi per cui le persone non pensano affatto a questo argomento:

* Come accennato nella prima parte, i film hanno seriamente confuso persone e fatti, presentando scenari irrealistici con l'intelligenza artificiale, il che ha portato al fatto che non dovremmo prendere affatto sul serio l'IA. James Barratt ha paragonato questa situazione all'emissione da parte dei Centers for Disease Control (CDC) di un serio avvertimento sui vampiri nel nostro futuro.

* A causa dei cosiddetti pregiudizi cognitivi, è molto difficile per noi credere che qualcosa sia reale finché non abbiamo le prove. Si può tranquillamente immaginare che gli scienziati informatici del 1988 discutono regolarmente delle conseguenze di vasta portata di Internet e di ciò che potrebbe diventare, ma la gente difficilmente credeva che avrebbe cambiato le loro vite fino a quando non è realmente accaduto. È solo che i computer non sapevano come farlo nel 1988 e le persone guardavano i loro computer e pensavano: "Davvero? È questo che cambierà il mondo?" La loro immaginazione era limitata da ciò che avevano imparato dall'esperienza personale, sapevano cos'era un computer ed era difficile immaginare di cosa sarebbe stato capace un computer in futuro. Lo stesso sta accadendo ora con l'intelligenza artificiale. Abbiamo sentito che diventerà una cosa seria, ma poiché non l'abbiamo ancora incontrata di persona e, in generale, osserviamo manifestazioni piuttosto deboli di AI nel nostro mondo moderno, è piuttosto difficile per noi credere che sarà radicalmente cambia la nostra vita. È contro questi pregiudizi che numerosi esperti di tutti i campi, così come le persone interessate, si oppongono a cercare di attirare la nostra attenzione attraverso il rumore dell'egocentrismo collettivo quotidiano.

* Anche se credessimo in tutto questo - quante volte oggi hai pensato al fatto che trascorrerai il resto dell'eternità nel nulla? Un po', d'accordo. Anche se questo fatto è molto più importante di qualsiasi cosa tu faccia giorno dopo giorno. Questo perché il nostro cervello è solitamente concentrato su piccole cose quotidiane, non importa quanto sia deludente la situazione a lungo termine in cui ci troviamo. È solo che siamo fatti.

Uno degli obiettivi di questo articolo è farti uscire dal campo chiamato "Mi piace pensare ad altre cose" e metterti nel campo degli esperti, anche se ti trovi solo all'incrocio tra le due linee tratteggiate nel quadrato sopra, completamente indeciso.

Nel corso della ricerca, diventa ovvio che le opinioni della maggior parte delle persone si spostano rapidamente verso il "campo principale" e tre quarti degli esperti cadono in due sottocampi nel campo principale.

Immagine
Immagine

Visiteremo entrambi questi campi per intero. Cominciamo con il divertimento.

Perché il futuro potrebbe essere il nostro sogno più grande?

Mentre esploriamo il mondo dell'IA, troviamo sorprendentemente molte persone nella nostra zona di comfort. Le persone nella piazza in alto a destra ronzano di eccitazione. Credono che cadremo dalla parte buona del ceppo, e credono anche che arriveremo inevitabilmente a questo. Per loro il futuro è tutto solo il meglio che si può solo sognare.

Il punto che distingue queste persone dagli altri pensatori non è che vogliono essere dalla parte felice, ma che sono sicuri che sia lei ad aspettarci.

Questa fiducia nasce dalle polemiche. I critici credono che derivi da un'eccitazione abbagliante che mette in ombra i potenziali lati negativi. Ma i sostenitori dicono che le previsioni cupe sono sempre ingenue; la tecnologia continua e ci aiuterà sempre più che danneggiarci.

Sei libero di scegliere una qualsiasi di queste opinioni, ma metti da parte lo scetticismo e guarda bene il lato felice della trave, cercando di accettare il fatto che tutto ciò di cui hai letto potrebbe essere già successo. Se mostrassi ai cacciatori-raccoglitori il nostro mondo di comfort, tecnologia e abbondanza infinita, sembrerebbe loro una finzione magica - e ci comportiamo abbastanza modestamente, incapaci di ammettere che la stessa incomprensibile trasformazione ci attende in futuro.

Nick Bostrom descrive tre percorsi che un sistema di intelligenza artificiale superintelligente può intraprendere:

* Un oracolo in grado di rispondere a qualsiasi domanda esatta, comprese le domande difficili a cui gli umani non possono rispondere, ad esempio "come rendere più efficiente il motore di un'auto?" Google è un tipo primitivo di "oracolo".

* Un genio che eseguirà qualsiasi comando di alto livello, utilizzando un assemblatore molecolare per creare una nuova versione più efficiente di un motore automobilistico, e aspetterà il comando successivo.

* Un sovrano che avrà ampio accesso e la capacità di funzionare liberamente nel mondo, prendendo le proprie decisioni e migliorando il processo. Inventerà un mezzo di trasporto privato più economico, più veloce e più sicuro di un'auto.

Queste domande e questi compiti, che ci sembrano difficili, sembreranno al sistema superintelligente come se qualcuno chiedesse di migliorare la situazione "la mia matita è caduta dal tavolo", in cui semplicemente la raccogli e la rimetti a posto.

Eliezer Yudkowski, uno specialista americano in intelligenza artificiale, ha detto bene:

“Non ci sono problemi difficili, solo problemi difficili per un certo livello di intelligenza. Fai un passo in più (in termini di intelligenza) e alcuni problemi passeranno improvvisamente dalla categoria di "impossibile" al campo di "ovvio". Un passo più in alto - e diventeranno tutti ovvi".

Ci sono molti scienziati, inventori e imprenditori impazienti che hanno scelto una zona di sicuro conforto dal nostro tavolo, ma abbiamo solo bisogno di una guida per camminare al meglio in questo migliore dei mondi.

Ray Kurzweil è ambiguo. Alcuni idolatrano le sue idee, altri lo disprezzano. Alcuni rimangono nel mezzo - Douglas Hofstadter, discutendo le idee dei libri di Kurzweil, ha eloquentemente osservato che "è come se prendessi molto buon cibo e un po' di cacca di cane, e poi mescolassi tutto in modo tale che sia impossibile capire cosa è bene e cosa è male".

Che ti piacciano o meno le sue idee, è impossibile passarle senza un'ombra di interesse. Ha iniziato a inventare cose da adolescente e negli anni successivi ha inventato diverse cose importanti, tra cui il primo scanner piano, il primo scanner per convertire il testo in parlato, il noto sintetizzatore musicale Kurzweil (il primo vero pianoforte elettrico) e il primo riconoscitore vocale di successo commerciale. È anche autore di cinque libri sensazionali. Kurzweil è apprezzato per le sue previsioni audaci e il suo curriculum è abbastanza buono: alla fine degli anni '80, quando Internet era ancora agli inizi, predisse che entro gli anni 2000 il Web sarebbe diventato un fenomeno globale. Il Wall Street Journal ha definito Kurzweil un "genio irrequieto", Forbes una "macchina pensante globale", Inc. Magazine - "L'erede legittimo di Edison", Bill Gates - "il migliore di coloro che predicono il futuro dell'intelligenza artificiale". Nel 2012, il co-fondatore di Google Larry Page ha invitato Kurzweil alla carica di CTO. Nel 2011, ha co-fondato la Singularity University, che è ospitata dalla NASA ed è in parte sponsorizzata da Google.

La sua biografia conta. Quando Kurzweil parla della sua visione del futuro, suona come un pazzo pazzo, ma la cosa davvero pazzesca è che è tutt'altro che pazzo: è una persona incredibilmente intelligente, istruita e sana. Potresti pensare che sia sbagliato nelle sue previsioni, ma non è uno sciocco. Le previsioni di Kurzweil sono condivise da molti esperti di comfort zone, Peter Diamandis e Ben Herzel. Questo è ciò che pensa accadrà.

Cronologia

Kurzweil crede che i computer raggiungeranno il livello di intelligenza artificiale generale (AGI) entro il 2029, ed entro il 2045 non avremo solo una superintelligenza artificiale, ma anche un mondo completamente nuovo: il tempo della cosiddetta singolarità. La sua cronologia dell'intelligenza artificiale è ancora considerata scandalosamente esagerata, ma negli ultimi 15 anni il rapido sviluppo di sistemi di intelligenza artificiale (IA) altamente focalizzati ha costretto molti esperti a schierarsi con Kurzweil. Le sue previsioni sono ancora più ambiziose di quelle del sondaggio di Bostrom (AGI entro il 2040, ISI entro il 2060), ma non di molto.

Secondo Kurzweil, la Singolarità del 2045 è guidata da tre rivoluzioni simultanee in biotecnologia, nanotecnologia e, soprattutto, intelligenza artificiale. Ma prima di continuare - e la nanotecnologia segue da vicino l'intelligenza artificiale - prendiamoci un momento per la nanotecnologia.

Immagine
Immagine

Qualche parola sulla nanotecnologia

Di solito chiamiamo tecnologie nanotecnologiche che si occupano della manipolazione della materia nell'intervallo 1-100 nanometri. Un nanometro è un miliardesimo di metro, o un milionesimo di millimetro; nell'intervallo di 1-100 nanometri, possono essere ospitati virus (100 nm di diametro), DNA (10 nm di larghezza), molecole di emoglobina (5 nm), glucosio (1 nm) e altri. Se la nanotecnologia diventasse mai soggetta a noi, il prossimo passo sarà manipolare singoli atomi che sono meno di un ordine di grandezza (~, 1 nm).

Per capire dove gli umani incontrano problemi nel cercare di manipolare la materia su tale scala, passiamo a una scala più ampia. La Stazione Spaziale Internazionale si trova a 481 chilometri sopra la Terra. Se gli umani fossero giganti e colpissero l'ISS con la testa, sarebbero 250.000 volte più grandi di quanto non siano ora. Se ingrandisci qualcosa da 1 a 100 nanometri 250.000 volte, ottieni 2,5 centimetri. La nanotecnologia è l'equivalente di un essere umano, in orbita attorno alla ISS, che cerca di manipolare cose delle dimensioni di un granello di sabbia o di un bulbo oculare. Per arrivare al livello successivo - il controllo dei singoli atomi - il gigante dovrà posizionare con cura oggetti con un diametro di 1/40 di millimetro. La gente comune avrà bisogno di un microscopio per vederli.

Per la prima volta, Richard Feynman parlò di nanotecnologia nel 1959. Poi disse: “I principi della fisica, per quanto ne so, non parlano contro la possibilità di controllare le cose atomo per atomo. In linea di principio, un fisico potrebbe sintetizzare qualsiasi sostanza chimica che un chimico abbia annotato. Come? Ponendo gli atomi dove il chimico dice di prendere la sostanza. Questa è tutta la semplicità. Se sai come spostare singole molecole o atomi, puoi fare quasi tutto.

La nanotecnologia è diventata un serio campo scientifico nel 1986 quando l'ingegnere Eric Drexler ha presentato le sue basi nel suo libro fondamentale Machines of Creation, ma lo stesso Drexler crede che coloro che vogliono saperne di più sulle idee moderne nella nanotecnologia dovrebbero leggere il suo libro del 2013. Full Abundance (Radical Abbondanza).

Qualche parola su "grey goo"

Approfondiamo la nanotecnologia. In particolare, il tema del "grey goo" è uno degli argomenti poco piacevoli nel campo delle nanotecnologie, che non possono essere ignorati. Le versioni precedenti della teoria della nanotecnologia proponevano un metodo di nanoassemblaggio che prevedeva la creazione di trilioni di minuscoli nanorobot che avrebbero lavorato insieme per creare qualcosa. Un modo per creare trilioni di nanorobot è crearne uno in grado di autoreplicarsi, ovvero da uno a due, da due a quattro e così via. Diversi trilioni di nanorobot appariranno in un giorno. Questo è il potere della crescita esponenziale. Divertente, non è vero?

È divertente, ma esattamente finché non porta all'apocalisse. Il problema è che il potere della crescita esponenziale, che lo rende un modo abbastanza conveniente per creare rapidamente un trilione di nanobot, rende l'autoreplicazione una cosa spaventosa a lungo termine. E se il sistema si blocca e invece di interrompere la replica per un paio di trilioni, i nanobot continuano a riprodursi? E se l'intero processo dipendesse dal carbonio? La biomassa della Terra contiene 10^45 atomi di carbonio. Un nanobot dovrebbe essere dell'ordine di 10^6 atomi di carbonio, quindi 10^39 nanobot divoreranno tutta la vita sulla Terra in sole 130 repliche. Un oceano di nanobot ("grey goo") inonderà il pianeta. Gli scienziati pensano che i nanobot possano replicarsi in 100 secondi, il che significa che un semplice errore può uccidere tutta la vita sulla Terra in sole 3,5 ore.

Potrebbe essere anche peggio, se terroristi e specialisti sfavorevoli arrivassero nelle mani della nanotecnologia. Potrebbero creare diversi trilioni di nanobot e programmarli per diffondersi silenziosamente in tutto il mondo in un paio di settimane. Poi, con la semplice pressione di un pulsante, in soli 90 minuti mangeranno proprio tutto, senza possibilità.

Sebbene questa storia dell'orrore sia stata ampiamente discussa per anni, la buona notizia è che è solo una storia dell'orrore. Eric Drexler, che ha coniato il termine "grey goo", ha recentemente affermato quanto segue: "La gente ama le storie dell'orrore e questa è una delle storie dell'orrore degli zombi. Questa idea di per sé sta già mangiando cervelli".

Una volta che arriviamo al fondo della nanotecnologia, possiamo usarla per creare dispositivi tecnici, abbigliamento, cibo, prodotti biologici - cellule del sangue, combattenti di virus e cancro, tessuto muscolare e così via - qualunque cosa. E in un mondo che utilizza le nanotecnologie, il costo di un materiale non sarà più legato alla sua scarsità o alla complessità del suo processo di fabbricazione, ma piuttosto alla complessità della sua struttura atomica. Nel mondo delle nanotecnologie, un diamante potrebbe essere più economico di una gomma.

Non ci siamo nemmeno avvicinati ancora. E non è del tutto chiaro se sottovalutiamo o sopravvalutiamo la complessità di questo percorso. Tuttavia, tutto va al punto che la nanotecnologia non è lontana. Kurzweil presume che entro il 2020 li avremo. Gli stati del mondo sanno che le nanotecnologie possono promettere un grande futuro, e quindi stanno investendo molti miliardi in esse.

Immagina solo quali possibilità avrebbe un computer superintelligente se arrivasse a un affidabile assemblatore su nanoscala. Ma la nanotecnologia è la nostra idea e stiamo cercando di cavalcarla, è difficile per noi. E se fossero solo uno scherzo per il sistema ISI, e lo stesso ISI si inventasse tecnologie che saranno molte volte più potenti di qualsiasi cosa possiamo, in linea di principio, supporre? Eravamo d'accordo: nessuno può immaginare di cosa sarà capace la superintelligenza artificiale? Si ritiene che il nostro cervello non sia in grado di prevedere nemmeno il minimo di ciò che accadrà.

Cosa potrebbe fare l'IA per noi?

Immagine
Immagine

Armata di superintelligenza e di tutta la tecnologia che la superintelligenza potrebbe creare, l'ISI sarà probabilmente in grado di risolvere tutti i problemi dell'umanità. Il riscaldamento globale? L'ISI fermerà prima le emissioni di carbonio inventando una serie di modi efficienti per generare energia che non sono legati ai combustibili fossili. Quindi troverà un modo efficace e innovativo per rimuovere la CO2 in eccesso dall'atmosfera. Cancro e altre malattie? Non è un problema: l'assistenza sanitaria e la medicina cambieranno in modi inimmaginabili. La fame nel mondo? ISI utilizzerà la nanotecnologia per creare carne identica alla carne naturale, da zero, vera.

La nanotecnologia sarà in grado di trasformare un mucchio di spazzatura in una vasca di carne fresca o altro cibo (non necessariamente nemmeno nella sua forma abituale - immagina un cubo di mela gigante) e distribuire tutto questo cibo in tutto il mondo utilizzando sistemi di trasporto avanzati. Naturalmente, questo sarà ottimo per gli animali che non devono più morire per il cibo. L'ISI può anche fare molte altre cose, come preservare le specie in via di estinzione o persino riportare in vita quelle estinte dal DNA immagazzinato. L'ISI può risolvere i nostri problemi macroeconomici più difficili - i nostri dibattiti economici più difficili, le questioni etiche e filosofiche, il commercio globale - tutto ciò sarà dolorosamente ovvio per l'ISI.

Ma c'è qualcosa di molto speciale che ISI potrebbe fare per noi. Seducente e allettante che cambierebbe tutto: L'ISI può aiutarci a far fronte alla mortalità … Comprendendo gradualmente le capacità dell'IA, forse riconsidererai tutte le tue idee sulla morte.

Non c'era motivo per l'evoluzione di prolungare la durata della nostra vita più di quanto non faccia ora. Se viviamo abbastanza a lungo da dare alla luce e crescere i bambini al punto in cui possono provvedere a se stessi, l'evoluzione è sufficiente. Da un punto di vista evolutivo, 30+ anni sono sufficienti per lo sviluppo e non c'è motivo per le mutazioni di prolungare la vita e ridurre il valore della selezione naturale. William Butler Yates definì la nostra specie "un'anima attaccata a un animale morente". Non molto divertente.

E poiché un giorno moriamo tutti, viviamo con l'idea che la morte sia inevitabile. Pensiamo all'invecchiamento nel tempo, continuando ad andare avanti e non essendo in grado di fermare questo processo. Ma il pensiero della morte è infido: catturati da essa, ci dimentichiamo di vivere. Richard Feynman ha scritto:

“C'è una cosa meravigliosa in biologia: non c'è niente in questa scienza che parlerebbe della necessità della morte. Se vogliamo creare una macchina del moto perpetuo, ci rendiamo conto di aver trovato abbastanza leggi in fisica che indicano l'impossibilità di ciò, o che le leggi sono sbagliate. Ma non c'è nulla in biologia che indichi l'inevitabilità della morte. Questo mi porta a credere che non sia così inevitabile, ed è solo questione di tempo prima che i biologi scoprano la causa di questo problema, questa terribile malattia universale, sarà curata.

Il fatto è che l'invecchiamento non ha nulla a che fare con il tempo. L'invecchiamento è quando i materiali fisici del corpo si consumano. Anche le parti dell'auto si degradano, ma l'invecchiamento è inevitabile? Se ripari la tua auto perché le parti si consumano, durerà per sempre. Il corpo umano non è diverso, solo più complesso.

Kurzweil parla di nanobot intelligenti e connessi al Wi-Fi nel flusso sanguigno che potrebbero svolgere innumerevoli compiti per la salute umana, inclusa la riparazione o la sostituzione regolare di cellule usurate in qualsiasi parte del corpo. Migliorare questo processo (o trovare un'alternativa suggerita da un ASI più intelligente) non solo manterrà il corpo sano, ma può invertire l'invecchiamento. La differenza tra il corpo di un sessantenne e di un trentenne è una manciata di problemi fisici che potrebbero essere corretti con la giusta tecnologia. L'ISI potrebbe costruire un'auto in cui una persona entrerebbe a 60 anni e uscirà a 30 anni.

Anche un cervello degradato potrebbe essere rinnovato. L'ISI saprebbe sicuramente come farlo senza alterare i dati del cervello (personalità, ricordi, ecc.). Un uomo di 90 anni affetto da un completo degrado cerebrale potrebbe sottoporsi a riqualificazione, rinnovarsi e tornare all'inizio della sua vita. Può sembrare assurdo, ma il corpo è una manciata di atomi, e l'ISI potrebbe certamente manipolarli facilmente, qualsiasi struttura atomica. Non è così assurdo.

Kurzweil crede anche che i materiali artificiali si integreranno sempre di più nel corpo col passare del tempo. Per cominciare, gli organi potrebbero essere sostituiti con versioni di macchine super avanzate che sarebbero durate per sempre e non si sarebbero mai guastate. Quindi potremmo fare una riprogettazione completa del corpo, sostituendo i globuli rossi con perfetti nanobot che si muovono da soli, eliminando del tutto la necessità di un cuore. Potremmo anche migliorare le nostre capacità cognitive, iniziare a pensare miliardi di volte più velocemente e accedere a tutte le informazioni disponibili per l'umanità attraverso il cloud.

Le possibilità di comprendere nuovi orizzonti sarebbero davvero infinite. Le persone sono riuscite a dotare il sesso di un nuovo scopo, lo fanno per piacere, non solo per la riproduzione. Kurzweil crede che possiamo fare lo stesso con il cibo. I nanobot potrebbero fornire la nutrizione ideale direttamente alle cellule del corpo, consentendo alle sostanze malsane di passare attraverso il corpo. Il teorico della nanotecnologia Robert Freitas ha già sviluppato un sostituto per le cellule del sangue, che, se implementato nel corpo umano, può permettergli di non respirare per 15 minuti - e questo è stato inventato da una persona. Immagina quando l'ISI prenderà il potere.

Dopotutto, Kurzweil crede che gli umani raggiungeranno il punto in cui diventeranno completamente artificiali; il tempo in cui guardiamo i materiali biologici e pensiamo a quanto fossero primitivi; tempo in cui leggeremo delle prime fasi della storia umana, stupiti di come germi, incidenti, malattie o semplicemente la vecchiaia possano uccidere una persona contro la sua volontà. Alla fine, gli umani sconfiggeranno la propria biologia e diventeranno eterni: questo è il percorso verso il lato felice della trave di equilibrio di cui abbiamo parlato fin dall'inizio. E le persone che credono in questo sono anche sicure che un futuro del genere ci aspetta molto, molto presto.

Probabilmente non sarai sorpreso dal fatto che le idee di Kurzweil abbiano attirato forti critiche. La sua singolarità nel 2045 e la successiva vita eterna per le persone furono chiamate "l'ascensione dei nerd" o "creazione intelligente di persone con un QI di 140". Altri hanno messo in dubbio il lasso di tempo ottimistico, la comprensione del corpo umano e del cervello, ricordando la legge di Moore, che non è ancora scomparsa. Per ogni esperto che crede nelle idee di Kurzweil, ce ne sono tre che pensano che abbia torto.

Ma la cosa più interessante di questo è che la maggior parte degli esperti che non sono d'accordo con lui, nel complesso, non dicono che ciò sia impossibile. Invece di dire "cazzate, questo non accadrà mai", dicono qualcosa come "tutto questo accadrà se arriviamo all'ISI, ma questo è il problema". Bostrom, uno degli acclamati esperti di intelligenza artificiale che mettono in guardia dai pericoli dell'IA, ammette anche:

“Non è rimasto quasi nessun problema che la superintelligenza non possa risolvere, o anche solo aiutarci a risolvere. Malattie, povertà, distruzione ambientale, sofferenze di ogni tipo: tutta questa superintelligenza con l'aiuto della nanotecnologia può risolversi in un attimo. La superintelligenza può anche darci una durata illimitata fermando e invertendo il processo di invecchiamento usando la nanomedicina o la capacità di caricarci sul cloud. La superintelligenza può anche creare opportunità per aumenti infiniti delle capacità intellettuali ed emotive; può aiutarci a creare un mondo in cui vivremo nella gioia e nella comprensione, avvicinandoci ai nostri ideali e realizzando regolarmente i nostri sogni.

Questa è una citazione di uno dei critici di Kurzweil, tuttavia, che ammette che tutto ciò è possibile se si crea un'ASI sicura. Kurzweil ha semplicemente definito cosa dovrebbe diventare la superintelligenza artificiale, se possibile. E se è un buon dio.

La critica più ovvia dei sostenitori della zona di comfort è che possono sbagliarsi dannatamente quando valutano il futuro dell'ISI. Nel suo libro The Singularity, Kurzweil ha dedicato 20 pagine su 700 potenziali minacce ISI. La domanda non è quando arriviamo all'ISI, la domanda è quale sarà la sua motivazione. Kurzweil risponde a questa domanda con cautela: “L'ISI deriva da molti sforzi disparati e sarà profondamente integrato nell'infrastruttura della nostra civiltà. In effetti, sarà strettamente incorporato nel nostro corpo e nel nostro cervello. Rifletterà i nostri valori perché sarà uno con noi.

Ma se la risposta è, perché così tante persone intelligenti in questo mondo sono preoccupate per il futuro dell'intelligenza artificiale? Perché Stephen Hawking dice che lo sviluppo dell'ISI "potrebbe significare la fine della razza umana"? Bill Gates dice che "non capisce le persone che non si preoccupano" al riguardo. Elon Musk teme che stiamo "evocando un demone". Perché molti esperti considerano l'ISI la più grande minaccia per l'umanità?

Ne parleremo la prossima volta.

Consigliato: