Probabilmente Sam Altman non ricorda com’era vestito suo marito, Oliver Mulherin, nel giorno del loro primo appuntamento.
Ma di certo rimembra ancora dove si trovava quando ha visto ChatGpt scrivere linee di codice complesse. Un compito per cui il chatbot non era stato programmato.
“Non pensavamo che la nostra IA sarebbe stata così eccezionale” ha detto un anno fa, non senza imbarazzo, Ilya Sutskever, l’informatico russo tra i principali artefici di ChatGpt.
E invece.
Altman quel giorno ha osservato il chatbot e ha detto: “Ecco fatto. Ci siamo”.
E in quel momento, forse, si è trasformato nel Robert Oppenheimer dei nostri giorni. Chiamato nel 1942 a capo del Progetto Manhattan, il programma atomico statunitense che ha portato alle bombe di Hiroshima e Nagasaki, Oppenheimer era consapevole di lavorare a un’arma letale.
Allo stesso modo il 39enne Sam Altman,co-fondatore e Ceo di OpenAI, l’azienda di San Francisco che ha creato ChatGpt, ha capito quasi immediatamente di avere tra le mani una tecnologia potenzialmente devastante.
“Ciò che mi fa perdere il sonno è l’idea, ipotetica, che abbiamo già fatto qualcosa di veramente brutto lanciando ChatGpt” ha detto Altman. Eppure ha deciso di aprirla al pubblico. Il 30 novembre del 2022. Innescando una rivoluzione che Sundar Pichai, il Ceo di Alphabet, ha paragonato alla scoperta del fuoco e dell’elettricità.
Altri, come Bill Gates ed Elon Musk, hanno ipotizzato che questa nuova intelligenza artificiale, capace di comprendere il linguaggio naturale e di esprimersi come farebbe un essere umano, produrrà una ricchezza e un’abbondanza di risorse tale da accorciare, se non eliminare, il lavoro dell’uomo.
“Se l’IA farà tutto meglio di noi, dovremo dare un nuovo significato alle nostre vite” ha detto Musk, ipotizzando uno scenario positivo in cui “probabilmente nessuno di noi avrà un lavoro”.
“C’è l’80% che accada tutto questo” ha aggiunto Musk, che insieme ad Altman ha fondato OpenAI nel 2015. Poi, tre anni dopo, Musk se n’è andato. Voleva il comando. Ma gli altri non erano d’accordo.
All’epoca OpenAI era un laboratorio di ricerca sull’intelligenza artificiale no-profit. Altman e gli altri fondatori – sostenuti dagli investimenti di Reid Hoffman, Peter Thiel e dello steso Musk – avevano reclutato i ricercatori più bravi con lo scopo di raggiungere l’AGI, l’intelligenza artificiale generale con capacità cognitive eguali o superiori all’uomo. Per il bene dell’umanità.
Per Altman, l’AGI corrisponde all’intelligenza di “un essere umano medio”.
A gennaio scorso il Ceo di OpenAI ha detto che questa IA arriverà “entro la prossima decade”. E a maggio scorso, tornando sul tema, ha aggiunto: “Non mi importa se spenderemo 50 miliardi di dollari all’anno. Finché avremo il denaro per pagare i conti, lavoreremo all’AGI”.
E di soldi ne ha trovati, Altman, che nel 2019 ha assunto la guida di OpenAI e ha creato, accanto alla no-profit, una sussidiaria omonima che invece insegue il profitto.
Perché il costo dell’IA è talmente elevato da far “lacrimare gli occhi”, ha scritto Sam sui social a novembre 2022. E così OpenAI ha accettato i miliardi di Microsoft – 13 finora – e in cambio ha fornito al colosso di Redmond l’IA necessaria a rendere più intelligenti i suoi servizi, a partire dal pacchetto Microsoft 365 usato da innumerevoli aziende nel mondo.
La svolta for-profit di Altman ha causato terremoti interni: nel 2019, dopo il primo miliardo elargito da Microsoft, i fratelli italoamericani Dario e Daniela Amodei hanno lasciato OpenAI. Due anni dopo hanno fondato Anthropic, una società che sviluppa intelligenza artificiale in cui Amazon ha investito 4 miliardi di dollari.
A novembre del 2023 il board di OpenAI, preoccupato dalla spinta commerciale impressa all’azienda, ha licenziato all’improvviso Sam Altman per i suoi atteggiamenti “poco trasparenti”.
La decisione del board ha innescato un dramma aziendale e una lotta per il potere degni della serie tv Succession.
Dopo cinque giorni, Altman è tornato al suo posto, più forte di prima. E OpenAI ha perso altri pezzi: Ilya Sutskever ha fondato un’altra startup – Safe Superintelligence – più orientata all’allineamento dell’intelligenza artificiale ai valori umani.
In realtà Altman è stato tra i primi a implorare una legislazione specifica per l’IA. Ha firmato lettere che paragonano i rischi di questa tecnologia a quelli delle pandemie e delle armi nucleari.
E poi ha avvertito i membri del Congresso Usa: “I benefici degli strumenti che abbiamo creato superano di gran lunga i rischi, ma garantire la loro sicurezza è vitale. Se questa tecnologia dovesse andare storta, potrebbe andare molto storta”.
Per molti esperti di IA, l’AGI è una chimera. Non sappiamo ancora alla perfezione come funziona un cervello umano, dicono, figuriamoci se saremo in grado di replicare le sue funzioni.
Yann LeCun, il capo dell’IA di Meta, uno dei pionieri delle reti neurali, è tra coloro che ritengono eccessive le teorie più apocalittiche.
“L’IA renderà l’umanità migliore – dice LeCun – sapremo gestirla, sarà a nostra disposizione”.
Quando aveva 8 anni, davanti al suo primo computer Mac LC II, il giovane Altman si era convinto che i computer un giorno sarebbero riusciti a pensare. Quell’idea oggi non è più così bizzarra. E il merito – o la colpa, chissà – è anche suo.