Gli scienziati hanno paura della minaccia dell'intelligenza artificiale

Gli scienziati hanno paura della minaccia dell'intelligenza artificiale
Gli scienziati hanno paura della minaccia dell'intelligenza artificiale

Video: Gli scienziati hanno paura della minaccia dell'intelligenza artificiale

Video: Gli scienziati hanno paura della minaccia dell'intelligenza artificiale
Video: FRIULI VENEZIA GIULIA Ep. 04 – Le trincee del Carso, Redipuglia, Caporetto, Risiera San Sabba 2024, Aprile
Anonim

L'intelligenza artificiale (AI) auto-migliorante in futuro può schiavizzare o uccidere le persone se lo desidera. Lo ha detto lo scienziato Amnon Eden, il quale ritiene che i rischi derivanti dallo sviluppo di una coscienza di pensiero libero e altamente intelligente siano molto alti, e "se non ti occupi delle questioni del controllo dell'IA già nell'attuale fase di sviluppo, allora il domani potrebbe semplicemente non venire". Secondo l'edizione inglese Express, l'umanità, secondo Amnon Eden, è oggi al "punto di non ritorno" per l'attuazione della trama del famoso film epico "The Terminator".

Vale la pena notare che il Dr. Amnon Eden è un capo progetto il cui obiettivo principale è analizzare i potenziali effetti devastanti dell'IA. Senza una corretta comprensione delle conseguenze della creazione dell'intelligenza artificiale, il suo sviluppo può minacciare il disastro, crede lo scienziato. Attualmente, la nostra società è poco informata sul dibattito che è in corso nella comunità scientifica sull'analisi del potenziale impatto dell'IA. "Nel prossimo 2016, l'analisi dei possibili rischi dovrà diventare significativamente più diffusa nel pensiero di aziende e governi, politici e coloro che sono responsabili delle decisioni", afferma Eden.

Lo scienziato è sicuro che la fantascienza, che descrive la distruzione dell'umanità da parte dei robot, potrebbe presto diventare il nostro problema comune, poiché il processo di creazione dell'IA è andato fuori controllo. Ad esempio, Elon Musk, con il supporto dell'imprenditore Sam Altman, ha deciso di creare una nuova organizzazione no profit da 1 miliardo di dollari che sviluppa un'IA open source che dovrebbe superare la mente umana. Allo stesso tempo, lo stesso miliardario americano Elon Musk classifica l'intelligenza artificiale tra le "più grandi minacce alla nostra esistenza". Steve Wozniak, co-fondatore di Apple, ha affermato lo scorso marzo che "il futuro sembra scoraggiante e molto pericoloso per le persone… alla fine verrà il giorno in cui i computer penseranno più velocemente di noi e si libereranno delle persone lente per in modo che le aziende possano lavorare in modo più efficiente."

Immagine
Immagine

Vale la pena notare che molti scienziati vedono la minaccia dell'IA. Decine di noti scienziati, investitori e imprenditori, le cui attività sono, in un modo o nell'altro, legate allo sviluppo dell'intelligenza artificiale, hanno firmato una lettera aperta chiedendo maggiore attenzione al tema della sicurezza e dell'utilità sociale del lavoro nel campo dell'IA. L'astrofisico Stephen Hawking e il fondatore di Tesla e SpaceX Elon Musk sono tra i firmatari di questo documento. La lettera, insieme a un documento di accompagnamento, redatto dal Future of Life Institute (FLI), è stata scritta tra le crescenti preoccupazioni sull'impatto dell'intelligenza artificiale sul mercato del lavoro e persino sulla sopravvivenza a lungo termine di tutta l'umanità in un ambiente in cui le capacità di robot e macchine cresceranno in modo quasi incontrollabile.

Gli scienziati comprendono il fatto che il potenziale dell'IA oggi è molto ampio, quindi è necessario indagare a fondo le possibilità del suo utilizzo ottimale per noi al fine di evitare le insidie che l'accompagnano, osserva la lettera di FLI. È imperativo che i sistemi di intelligenza artificiale creati dall'uomo facciano esattamente ciò che vogliamo che facciano. Vale la pena notare che il Future of Life Institute è stato fondato solo l'anno scorso da una serie di appassionati, tra cui l'ideatore di Skype, Jaan Tallinn, al fine di "minimizzare i rischi per l'umanità" e stimolare la ricerca con una "visione ottimista". del futuro". Prima di tutto, stiamo parlando dei rischi che sono causati dallo sviluppo dell'intelligenza artificiale e della robotica. L'Advisory Board di FLI comprende Musk e Hawking, insieme all'acclamato attore Morgan Freeman e ad altri personaggi famosi. Secondo Elon Musk, lo sviluppo incontrollato dell'intelligenza artificiale è potenzialmente più pericoloso delle armi nucleari.

Il famoso astrofisico britannico Stephen Hawking alla fine del 2015 ha cercato di spiegare il suo rifiuto delle tecnologie AI. Secondo lui, nel tempo, le macchine superintelligenti considereranno le persone come materiali di consumo o formiche che semplicemente interferiscono con la soluzione dei loro compiti. Parlando con gli utenti del portale Reddit, Stephen Hawking ha notato che non crede che tali macchine superintelligenti saranno "creature malvagie" che vogliono distruggere tutta l'umanità a causa della loro superiorità intellettuale. Molto probabilmente, sarà possibile parlare del fatto che semplicemente non noteranno l'umanità.

Immagine
Immagine

“I media hanno costantemente distorto le mie parole ultimamente. Il rischio principale nello sviluppo dell'IA non è la malizia delle macchine, ma la loro competenza. L'intelligenza artificiale superintelligente farà un ottimo lavoro, ma se essa ei nostri obiettivi non coincidono, l'umanità avrà problemi molto seri ", spiega il famoso scienziato. Come esempio, Hawking ha citato una situazione ipotetica in cui un'intelligenza artificiale super potente è responsabile dell'operazione o della costruzione di una nuova diga idroelettrica. Per una macchina del genere, la priorità sarà quanta energia genererà il sistema affidato e il destino delle persone non avrà importanza. “Ci sono pochi di noi che calpestano i formicai e calpestano le formiche per rabbia, ma immaginiamo una situazione: controlli una potente centrale idroelettrica che genera elettricità. Se hai bisogno di aumentare il livello dell'acqua e come risultato delle tue azioni un formicaio sarà allagato, è improbabile che i problemi di annegamento degli insetti ti disturbino. Non mettiamo le persone al posto delle formiche ", ha detto lo scienziato.

Il secondo potenziale problema per l'ulteriore sviluppo dell'intelligenza artificiale, secondo Hawking, potrebbe essere la "tirannia dei proprietari di macchine" - la rapida crescita del divario nel livello di reddito tra i ricchi che saranno in grado di monopolizzare la produzione di macchine intelligenti e il resto della popolazione mondiale. Stephen Hawking propone di risolvere questi possibili problemi nel modo seguente: rallentare il processo di sviluppo dell'IA e passare allo sviluppo di un'intelligenza artificiale non "universale", ma altamente specializzata, che può risolvere solo una gamma molto limitata di problemi.

Oltre a Hawking e Musk, la lettera è stata firmata dal premio Nobel e professore di fisica del MIT Frank Wilczek, dal direttore esecutivo del Machine Intelligence Research Institute (MIRI) Luc Mühlhauser, nonché da molti specialisti di grandi aziende IT: Google, Microsoft e IBM, nonché imprenditori che hanno fondato le società di intelligenza artificiale Vicarious e DeepMind. Gli autori della lettera osservano che non mirano a spaventare il pubblico, ma intendono evidenziare sia gli aspetti positivi che quelli negativi associati alla creazione dell'intelligenza artificiale. "Attualmente, tutti concordano sul fatto che la ricerca nel campo dell'IA sta progredendo costantemente e che l'influenza dell'IA sulla società umana moderna non farà che aumentare", afferma la lettera, "le opportunità che si aprono agli umani sono enormi, tutto ciò che la civiltà moderna ha da offrire è stato creato dall'intelligenza. Non siamo in grado di prevedere cosa saremo in grado di ottenere se l'intelligenza umana può essere moltiplicata dall'intelligenza artificiale, ma il problema di sbarazzarsi della povertà e delle malattie non è più infinitamente difficile.”

Immagine
Immagine

Numerosi sviluppi nel campo dell'intelligenza artificiale sono già inclusi nella vita moderna, inclusi sistemi di riconoscimento vocale e di immagini, veicoli senza equipaggio e molto altro. Gli osservatori della Silicon Valley stimano che più di 150 startup siano attualmente in fase di implementazione in quest'area. Allo stesso tempo, gli sviluppi in questo settore stanno attirando sempre più investimenti e sempre più aziende come Google stanno sviluppando i loro progetti basati sull'intelligenza artificiale. Pertanto, gli autori della lettera ritengono che sia giunto il momento di prestare maggiore attenzione a tutte le possibili conseguenze del boom osservato per gli aspetti economici, sociali e legali della vita umana.

La posizione secondo cui l'intelligenza artificiale può rappresentare un pericolo per gli esseri umani è condivisa da Nick Bostrom, professore all'Università di Oxford, noto per il suo lavoro sul principio antropico. Questo specialista crede che l'IA sia arrivata al punto che sarà seguito dalla sua incompatibilità con gli umani. Nick Bostrom sottolinea che, a differenza dell'ingegneria genetica e del cambiamento climatico, per i quali i governi stanno stanziando fondi sufficienti per il controllo, "non viene fatto nulla per controllare l'evoluzione dell'IA". Secondo il professore, per quanto riguarda l'intelligenza artificiale è attualmente in corso una "politica di un vuoto giuridico da colmare". Anche tecnologie come le auto a guida autonoma, che appaiono innocue e utili, sollevano una serie di interrogativi. Ad esempio, un'auto del genere dovrebbe eseguire una frenata di emergenza per salvare i suoi passeggeri e chi sarà responsabile in caso di incidente commesso da un veicolo senza equipaggio?

Discutendo dei potenziali rischi, Nick Bostrom ha osservato che "il computer non è in grado di determinare i benefici e i danni per l'uomo" e "non ha nemmeno la minima idea della moralità umana". Inoltre, i cicli di auto-miglioramento nei computer possono verificarsi a una velocità tale che una persona semplicemente non può tenerne traccia, e anche su questo non si può fare quasi nulla, afferma lo scienziato. "Nella fase di sviluppo in cui i computer possono pensare da soli, nessuno può prevedere con certezza se questo porterà al caos o migliorerà significativamente il nostro mondo", ha affermato Nick Bostrom, citando come esempio una semplice soluzione possibile per un computer: lo spegnimento nei paesi con il riscaldamento del clima freddo per migliorare la salute delle persone e aumentare la loro resistenza, il che "può arrivare alla testa dell'intelligenza artificiale".

Immagine
Immagine

Inoltre, Bostrom solleva anche il problema di scheggiare il cervello umano per aumentare la nostra biointelligenza. “In molti modi, una tale procedura può essere utile se tutti i processi sono controllati, ma cosa succede se il chip impiantato può riprogrammarsi? A quali conseguenze può portare questo: l'emergere di un superuomo o l'emergere di un computer che assomiglierà solo a un essere umano? " - chiede il professore. Il modo in cui i computer risolvono i problemi umani è molto diverso dal nostro. Ad esempio, negli scacchi, il cervello umano considera solo una serie ristretta di mosse, scegliendo l'opzione migliore da esse. A sua volta, il computer considera tutte le mosse possibili, scegliendo quella migliore. Allo stesso tempo, il computer non si aspetta di sconvolgere o sorprendere il suo avversario nel gioco. A differenza di un essere umano, giocando a scacchi, un computer può fare una mossa astuta e sottile solo per caso. L'intelligenza artificiale può calcolare nel modo migliore: eliminare l'errore da qualsiasi sistema rimuovendo il "fattore umano" da lì, ma, a differenza di un essere umano, un robot non è pronto per eseguire imprese che salverebbero la vita delle persone.

Tra l'altro, l'aumento del numero di macchine intelligenti rappresenta il palcoscenico di una nuova rivoluzione industriale. A sua volta, ciò significa che nel prossimo futuro l'umanità dovrà affrontare inevitabili cambiamenti sociali. Nel tempo, il lavoro diventerà il destino di specialisti altamente qualificati, poiché quasi tutti i compiti semplici possono essere svolti da robot e altri meccanismi. Gli scienziati ritengono che l'intelligenza artificiale "ha bisogno di un occhio e un occhio" in modo che il nostro pianeta non si trasformi in un pianeta dei cartoni animati "Zhelezyaka", che era abitato da robot.

In termini di sempre maggiore automazione dei processi produttivi, il futuro è già arrivato. Il World Economic Forum (WEF) ha presentato il suo rapporto, secondo il quale l'automazione porterà al fatto che entro il 2020 più di 5 milioni di persone che lavorano in vari campi perderanno il lavoro. Questo è l'impatto dei robot e dei sistemi robotici sulle nostre vite. Per compilare il rapporto, i dipendenti del WEF hanno utilizzato i dati di 13,5 milioni di dipendenti in tutto il mondo. Secondo loro, entro il 2020 scomparirà il fabbisogno totale di oltre 7 milioni di posti di lavoro, mentre la crescita prevista dell'occupazione negli altri settori ammonterà a poco più di 2 milioni di posti di lavoro.

Consigliato: