Per essere un’azienda che promette di cambiare il mondo, OpenAI continua ad avere livelli di dramma al suo interno degni di un reality show. Si parla tanto dei rilasci avvenuti e delle prossime release, ma non si fermano neanche le controversie, continuano le dimissioni e secondo i ben informati un altro bel colpo di teatro come quello del novembre 2023 sarebbe dietro l’angolo.
Insomma, non passa giorno senza che qualche nuova polemica travolga il colosso dell’intelligenza artificiale. Che si tratti di accuse di pressioni indebite sui dipendenti, di controversie sulla leadership o di sospetti “prestiti” di voci di celebrità, OpenAI continua navigare in acque agitate. Ma cosa sta succedendo?
Dimissioni etc.
Partiamo dalle ultime defezioni eccellenti. Solo nelle ultime settimane Ilya Sutskever, co-fondatore di OpenAI, e Jan Leike, a capo del team dedicato ai rischi a lungo termine dell’IA, hanno entrambi annunciato il loro addio. E non si tratta di uscite di scena pacifiche: in particolare Leike ha accusato l’azienda di aver messo in secondo piano la cultura della sicurezza e i processi a favore di “prodotti luccicanti” e capaci di generare ricavi nell’immediato. Decisamente un cambio di prospettiva rispetto agli esordi della no-profit!
Ma la notizia ancora più clamorosa è degli ultimi giorni; OpenAI ha infatti sciolto l’intero team dedicato ai rischi a lungo termine dell’IA, appena un anno dopo aver annunciato in pompa magna la sua creazione. All’epoca l’annuncio fu seguito da una promessa: dedicare il 20% della propria potenza di calcolo a questa iniziativa per i prossimi quattro anni! Beh, sembra che le priorità siano cambiate e non di poco. E se possibile questo solleva anche ulteriori interrogativi inquietanti sulla reale volontà di OpenAI di affrontare seriamente le sfide etiche e di sicurezza poste dall’intelligenza artificiale. Non esattamente un comportamento da leader di mercato … ma si sa Microsoft ha uno stile tutto suo. E cosa dire del CEO di OpenAI Sam Altman?
Il CEO con più vite di un gatto
A novembre dello scorso anno era stato silurato dal consiglio di amministrazione per non essere stato “costantemente sincero nelle sue comunicazioni“. Una roba da poco e di nessun valore. Salvo poi essere reintegrato nel giro di una settimana, tra le dimissioni di massa del CdA e le minacce di rivolta dei dipendenti e con Microsoft che, schivando l’antitrust, diventa di fatto il padrone di tutta la baracca. Una saga davvero degna di una telenovela, che però getta ombre sulla solidità della governance di un’azienda che sta giocando con tecnologie potenzialmente dirompenti.
Ora, sia chiaro: nessuno vuole demonizzare OpenAI o negare le straordinarie innovazioni che sta portando avanti. Ma è innegabile che questo susseguirsi di polemiche e scossoni ai vertici non sia esattamente un biglietto da visita rassicurante per un’azienda che ambisce a plasmare il futuro dell’umanità e che non perde occasione per ricordarci che l’AI con la quale abbiamo a che fare oggi è poco più di un giocattolo. Cos’altro ci nascondono?
La voce delle bugie
L’ultimo capitolo della saga è riuscito a suscitare interesse anche dei quotidiani e dei TG nostrani: è il caso della voce di Scarlett Johansson. Durante la presentazione del nuovo modello GPT-4o, in molti hanno notato una somiglianza curiosa tra la voce del chatbot “Sky” e quella dell’attrice e cantante statunitense. Tra l’altro proprio la Johansson aveva prestato proprio la sua voce all’intelligenza artificiale del film HER. Coincidenze? Difficile da credere! La stessa Johansson si è detta “scioccata” e “arrabbiata“, ma è andata anche oltre sostenendo di aver rifiutato nei mesi passati proprio un’offerta di Altman per prestare la sua voce al nuovo chatbot.
Ovviamente OpenAI si è affrettata a smentire, dichiarando che la voce di Sky appartiene a un’altra attrice professionista e che non si tratta di un’imitazione di Johansson. Ma i dubbi restano, alimentati anche, ce ne fosse bisogno, da un ambiguo tweet di Altman stesso che, durante la demo del nuovo prodotto, ha scritto semplicemente “her”. Un riferimento al film o una mezza ammissione di colpa? Ma ancora di più … perchè?! Sembra che la scuola Elon Musk abbia fatto proseliti anche tra quelli che gli vanno più contro.
Sia come sia, l’episodio getta un’ombra (un’altra?) sulla trasparenza di OpenAI e sulla sua capacità di gestire questioni eticamente sensibili come l’uso delle voci e delle sembianze altrui. In un mondo in cui l’AI sta diventando sempre più brava a replicare e manipolare i tratti umani, è cruciale che le aziende leader del settore diano l’esempio con pratiche cristalline e rispettose della privacy e della dignità delle persone.
Ma con OpenAI siamo sicuro visto che hanno un team dedicato proprio alla sicurezza a lungo termine, vero? VERO?! Oh wait!
Tra annunci roboanti e realtà
A questo punto della storia la cosa che sorprende è che nonostante queste ombre, l’hype attorno a OpenAI non accenna a diminuire. Anzi! Dalle anticipazioni che trapelano dalla conferenza VivaTech, sembra che l’azienda sia pronta a stupirci con un nuovo modello che potrebbe non chiamarsi “GPT-5”. E chissà quali meraviglie ci riserverà la demo che, si mormora, potrebbe andare ben oltre le capacità di ChatGPT.
Non voglio essere ingenuo: l’innovazione porta sempre con sé una certa dose di caos e di improvvisazione. Ma quando si ha a che fare con tecnologie che potrebbero ridefinire il concetto stesso di intelligenza e di umanità, forse un pizzico di prudenza in più non guasterebbe.
Perché se vogliamo davvero costruire un futuro in cui l’AI sia al servizio dell’umanità, come recita la mission di OpenAI, forse dovremmo partire dal mettere ordine in casa nostra. O almeno, evitare di trasformare ogni giorno in una nuova puntata di Beautiful.
Sempre avanti, condannati all’ottimismo!
Giuseppe