“Last Crusade” di Henry Kissinger: fermare la pericolosa intelligenza artificiale.
All’età di 98 anni, l’ex segretario di Stato americano Henry Kissinger ha un campo di interesse completamente nuovo: l’intelligenza artificiale. Era incuriosito dal campo dopo essere stato convinto da Erik Schmid, allora CEO di Google, a partecipare a una conferenza sull’argomento alla conferenza Bilderberg nel 2016.
Insieme al preside del College of Informatics del MIT, Daniel Hatenloher, stanno lavorando alla scrittura di un nuovo libro, The Age of Artificial Intelligence, sulle implicazioni della rapida crescita e implementazione dell’intelligenza artificiale, che dicono “Predice una rivoluzione nelle vicende umane».
Il libro sostiene che i processi di intelligenza artificiale sono diventati così potenti, così immersi nelle vicende umane e così imprevedibili che se non gestiti con cura possono mandare la storia umana in una direzione pericolosa.
Dott. Kissinger, sei un vecchio statista. Perché pensavi che l’intelligenza artificiale fosse un argomento così importante per te? Quando ero studente universitario, ho scritto la mia tesi di 300 pagine – che è stata vietata dalla pubblicazione – dal titolo “Capire la storia”.
Il tema della comprensione della storia e di dove stiamo andando come società mi ha incuriosito per tutta la vita. La meraviglia tecnologica non mi affascina tanto. Quello che mi intriga è il fatto che stiamo attraversando un nuovo periodo della coscienza umana, che ancora non comprendiamo appieno.
Quando dico un nuovo periodo della coscienza umana, intendo la percezione che la percezione del mondo sarà diversa, almeno tanto diversa quanto tra l’era illuminista e il periodo medievale, quando il mondo occidentale passò dalla percezione religiosa del mondo alla percezione del mondo basata sulla ragione.
Questa transizione sarà più rapida, poiché c’è una differenza significativa. Nell’era dell’Illuminismo, c’era un mondo concettuale basato sulla fede in Dio. Così, Galileo Galilei ei successivi pionieri dell’Illuminismo avevano una filosofia prevalente contro la quale dovevano mettere alla prova il loro sistema di pensiero.
Possiamo trovare tracce della teoria dell’evoluzione in quel sistema. Viviamo in un mondo che di fatto non ha filosofia; non esiste una visione filosofica prevalente.
In queste condizioni, i tecnologi possono avanzare rapidamente. Possono sviluppare cose che cambiano il mondo, ma nessuno può dire oggi: “Dobbiamo integrarlo in qualcosa”. Quando hai incontrato Erik Schmid e lui ti ha invitato a parlare con Google, hai detto che consideravi l’azienda una minaccia per la civiltà. Perchè la pensi così?
Non volevo che un’organizzazione avesse il monopolio della fornitura di informazioni. Ho pensato che fosse estremamente pericoloso per una singola azienda poter fornire informazioni, e poter adattare ciò che offriva, studiando ciò che il pubblico voleva o considerava credibile.
In questo modo, la verità è diventata relativa. Questo era tutto ciò che sapevo in quel momento. E il motivo per cui mi ha invitato a incontrare il suo gruppo algoritmico, è stato per rendersi conto che questo non era arbitrario, ma che dietro c’erano alcuni pensieri e analisi.
Dato che molte persone pensano che non ci si possa fidare di molte aziende tecnologiche, perché molte delle manipolazioni che hanno usato per migliorare il loro business non sono state necessariamente grandi per la società, quale ruolo pensi che stiano giocando i leader tecnologici in questo nuovo sistema?
Penso che le aziende tecnologiche stiano guidando il mondo in una nuova era della coscienza umana, come hanno fatto generazioni di illuministi quando sono passate dalla religione alla ragione.
Oggi i tecnologi ci mostrano come mettere in relazione la ragione con l’intelligenza artificiale. È un diverso tipo di conoscenza per certi aspetti, e giustamente – il mondo in cui sono cresciuto – ogni test supporta l’altro.
Nel caso dell’intelligenza artificiale, la cosa più sorprendente è che arrivi a una conclusione corretta. Ma non so il motivo. E questa è una sfida completamente nuova. Quindi, per certi aspetti, ciò che hanno inventato è pericoloso. Ma fa avanzare la nostra cultura.
Staremmo meglio se non fosse mai stato inventato? Questo non lo so. Ma ora che esiste, dobbiamo capirlo, perché non può scomparire. Quale pensi sia la principale implicazione geopolitica dell’aumento dell’intelligenza artificiale? Non credo che abbiamo considerato adeguatamente questo problema. Se immaginiamo una guerra tra Cina e Stati Uniti, oggi abbiamo armi dotate di intelligenza artificiale.
E come qualsiasi intelligenza artificiale, sono più efficaci in ciò che è pianificato. Inoltre, possono essere molto efficaci in quello che pensano sia il loro obiettivo. Quindi viviamo in un mondo con minori insicurezze. In secondo luogo, poiché nessuno ha realmente testato queste cose in un’operazione su larga scala, non si può dire esattamente cosa accadrà quando i caccia interagiranno da entrambe le parti.
Quindi la tua preoccupazione è che l’intelligenza artificiale sia molto efficace? E non sappiamo esattamente perché stanno facendo quello che stanno facendo? Il computer “Deep Think” ha imparato a giocare a scacchi contro se stesso per 4 ore.
E ha giocato una partita a scacchi che nessun essere umano aveva mai visto prima.
I nostri migliori computer si picchiano di tanto in tanto. Se questo accade in altre aree, correttamente e lo è, è qualcosa per cui il nostro mondo non è affatto preparato. Una delle cose di cui scrivi nel libro è che l’intelligenza artificiale ha dei lati positivi e negativi.
Cosa vuoi dire con questo? In pratica avevo in mente quello che ho detto su Google. Finora l’umanità ha ritenuto che il suo progresso tecnologico fosse utile o gestibile. Diciamo che può essere molto utile. Può essere gestibile, ma ci sono aspetti nella parte gestionale che non abbiamo studiato affatto o non abbastanza. Sono preoccupato. Non sto dicendo che dovremmo eliminarlo, poiché è già con noi.
Ma abbiamo bisogno di creare una filosofia per guidare la ricerca in questo settore. Chi dovrebbe formulare questa filosofia? Qual’è il prossimo passo? Abbiamo bisogno di un numero di piccoli gruppi che facciano domande. Quando mi sono laureato, le armi nucleari erano nuove. E all’epoca, un certo numero di professori preoccupati ad Harvard, MIT e Caltech si incontravano quasi tutti i sabati pomeriggio per chiedere: qual è la risposta? Come trattarlo?
E hanno avuto l’idea di controllare queste armi. Dott. Kissinger, quando dopo 50 anni qualcuno cerca il tuo nome su Google, quale vorresti fosse per te il primo fatto? Che ho dato un contributo alla concezione della pace.
Inoltre, vorrei essere ricordato per alcune cose che ho fatto. Ma se mi chiedi di riassumerlo in una frase, penso che se leggi quello che ho scritto, tutto funziona di nuovo verso lo stesso argomento.
Segui gli aggiornamenti “social” cliccando “mi piace” sulla pagina Facebook di OndaSana.