
Nell’elenco degli scenari del giorno del giudizio che potrebbero spazzare via la razza umana, i robot assassini super intelligenti sono piuttosto in alto nella coscienza pubblica. E nei circoli scientifici, un numero crescente di esperti di intelligenza artificiale concorda sul fatto che gli esseri umani alla fine creeranno un’intelligenza artificiale in grado di pensare oltre le nostre capacità. Questo momento, chiamato singolarità, potrebbe creare un’utopia in cui i robot automatizzano le forme comuni di lavoro e gli esseri umani si rilassano in mezzo a risorse abbondanti. Oppure potrebbe portare l’intelligenza artificiale, o intelligenza artificiale, a sterminare qualsiasi creatura che consideri concorrenti per il controllo della Terra: saremmo noi. Stephen Hawking vede da tempo quest’ultimo come più probabile e ha reso nuovamente noti i suoi pensieri in una recente intervista alla BBC. Ecco alcuni commenti di Hawking e di altre persone molto esperte che concordano sul fatto che, sì, potrebbe portare a questo.
Stephen Hawking
“Lo sviluppo della piena intelligenza artificiale potrebbe segnare la fine della razza umana”, ha detto il fisico di fama mondiale alla BBC . “Decollerebbe da solo e si riprogetterebbe a un ritmo sempre crescente. Gli esseri umani, che sono limitati dalla lenta evoluzione biologica, non potrebbero competere e verrebbero sostituiti”. Hawking ha espresso questa visione apocalittica per un po’. In una colonna di maggio in risposta a Trascendenza, il film di fantascienza sulla singolarità interpretato da Johnny Depp, Hawking ha criticato i ricercatori per non aver fatto di più per proteggere gli esseri umani dai rischi dell’IA. “Se una civiltà aliena superiore ci mandasse un messaggio dicendo: ‘Arriveremo tra qualche decennio’, risponderemmo semplicemente: ‘OK, chiamaci quando arrivi qui, lasceremo le luci accese’? Probabilmente no, ma questo è più o meno ciò che sta accadendo con l’IA”, ha scritto .
Elon Musk
Conosciuto per le sue attività all’avanguardia della tecnologia, come Tesla e SpaceX, Musk non è un fan dell’IA. In una conferenza al MIT in ottobre, Musk ha paragonato il miglioramento dell’intelligenza artificiale all’“ evocazione del demone ” e l’ha definita la più grande minaccia esistenziale della razza umana. Ha anche twittato che l’IA potrebbe essere più pericolosa delle armi nucleari. Musk ha chiesto l’istituzione di regolamenti nazionali o internazionali sullo sviluppo dell’IA.
Nick Bostrom
Il filosofo svedese è il direttore del Future of Humanity Institute dell’Università di Oxford, dove ha passato molto tempo a pensare ai potenziali risultati della singolarità. Nel suo nuovo libro Superintelligence , Bostrom sostiene che una volta che le macchine superano l’intelletto umano, potrebbero mobilitarsi e decidere di sradicare gli esseri umani in modo estremamente rapido utilizzando un numero qualsiasi di strategie (distribuire agenti patogeni invisibili, reclutare umani dalla loro parte o semplice forza bruta). Il mondo del futuro diventerebbe sempre più tecnologicamente avanzato e complesso, ma non saremmo in giro per vederlo. “Una società di miracoli economici e straordinarietà tecnologica, senza nessuno a trarne vantaggio”, scrive . “Una Disneyland senza figli.”
James Barrat
Barrat è uno scrittore e documentarista che ha intervistato molti ricercatori e filosofi di intelligenza artificiale per il suo nuovo libro, “La nostra invenzione finale: l’intelligenza artificiale e la fine dell’era umana”. Sostiene che gli esseri intelligenti sono innatamente spinti a raccogliere risorse e raggiungere obiettivi, il che inevitabilmente metterebbe un’IA super intelligente in competizione con gli umani, i più grandi maiali di risorse che la Terra abbia mai conosciuto. Ciò significa che anche una macchina che avrebbe dovuto giocare a scacchi o svolgere altre semplici funzioni potrebbe avere altre idee se fosse abbastanza intelligente. “Senza istruzioni meticolose e compensative, un sistema consapevole di sé, auto-miglioramento e ricerca degli obiettivi farà di tutto per raggiungere i suoi obiettivi”, scrive nel libro.
Vernor Vinge
Si pensa che Vinge, matematico e scrittore di narrativa, abbia coniato il termine “la singolarità” per descrivere il punto di flesso in cui le macchine superano in astuzia gli umani. Vede la singolarità come un’inevitabilità, anche se emergono regole internazionali che controllano lo sviluppo dell’IA. “Il vantaggio competitivo – economico, militare, persino artistico – di ogni progresso nell’automazione è così irresistibile che approvare leggi, o avere consuetudini, che vietano tali cose assicura semplicemente che qualcun altro le otterrà prima”, scrisse in un saggio del 1993 . Quanto a cosa succede quando colpiamo la singolarità? “L’estinzione fisica della razza umana è una possibilità”, scrive.
Fonte: https://time.com/


Dona
GRAZIE DI ❤️
3,00 €