L'unico vero rischio dell'AI: la solitudine (#109)


SONG OF THE WEEK: Sly & The Family Stone – Everyday People

La scorsa settimana ero in ascensore con tre persone. Quattro piani di viaggio, circa 30 secondi. Tutti e quattro con lo smartphone in mano, tutti e quattro che scrollavamo in silenzio. Nessuno che si guardava, nessuno che parlava. L’unico suono era il ticchettio dei pollici sui display.

Poi sono arrivato al Talent Garden e ho visto la differenza sostanziale dei nostri spazi – gente che si saluta, che si ferma a chiacchierare, che spontaneamente fa cose – ho pensato: “Ecco, questo è quello che stiamo perdendo nel resto del mondo.”

E lì ho capito, forse, qual è il vero problema dell’intelligenza artificiale…

Il nemico che non vediamo arrivare

Mentre tutti discutono di AGI, di sicurezza dell’AI e di regolamentazioni, il vero pericolo dell’AI è già qui e per certi versi sta già facendo danni. L’intelligenza artificiale non ci sta attaccando frontalmente; ci sta seducendo dolcemente verso l’isolamento.

E il bello è che non ce ne accorgiamo nemmeno, perché questa seduzione ha sei volti molto convincenti.

Il partner perfetto (che non esiste): Con l’AI abbiamo finalmente trovato qualcuno che ci capisce sempre, che non ci giudica mai, che risponde istantaneamente ai nostri bisogni. ChatGPT non ha mai una giornata storta, Claude non si offende se gli chiediamo la stessa cosa per la quinta volta, Copilot non ci fa sentire stupidi quando commettiamo errori banali. È la relazione perfetta, senza attrito, senza conflitto, senza… umanità.

La bolla di conferma infinita: Gli algoritmi ci isolano in bolle sempre più piccole e confortevoli. Spotify sa esattamente che musica vogliamo sentire, Netflix sa che film ci piaceranno, LinkedIn sa che contenuti ci interessano. Non dobbiamo più confrontarci con gusti diversi, opinioni contrastanti, prospettive che ci mettono in discussione. È come vivere in una casa con gli specchi al posto delle finestre.

Il potere del refresh: Con l’AI possiamo “spegnere” quando vogliamo. Se ChatGPT ci dà una risposta che non ci piace, possiamo semplicemente fare refresh e provare di nuovo. Se un chatbot ci annoia, lo chiudiamo. Con gli esseri umani non funziona così. Gli umani hanno i loro tempi, i loro umori, le loro complessità. Che fatica!

Addio vulnerabilità: Per crescere, come persone ed individui, abbiamo bisogno di esporci, di rischiare, di essere vulnerabili. Ma perché dovremmo farlo quando l’AI ci offre supporto senza giudizio? Perché aprirsi con un amico quando GPT può darci consigli perfetti senza che dobbiamo ammettere le nostre debolezze?

Zero manutenzione relazionale: Mantenere relazioni umane richiede energia, compromessi, pazienza. L’AI no. È sempre disponibile, sempre ottimizzata per le nostre esigenze, sempre “on”. Non dobbiamo ricordarci il compleanno di ChatGPT o chiedergli come sta andando la sua relazione.

L’era del “sempre sì”: E questo è forse il più insidioso. L’AI non ci dice mai di no. Non ci rifiuta, non ci delude, non ci fa sentire inadeguati. Ma il rifiuto è una parte fondamentale dell’esperienza umana. È quello che ci insegna l’empatia, la resilienza, la capacità di negoziare e compromettere. Senza rifiuto, non impariamo a essere umani.

Ecco questi sei volti mi sembrano il vero “pericolo” di una adozione di massa dell’AI, anche perchè la situazione ad oggi non è esattamente rosea.

Boomerismo

Forse pensi che io stia esagerando, che stia facendo il solito “boomer” che si lamenta della tecnologia. Allora lasciamo parlare i numeri, che sono molto più eloquenti delle mie preoccupazioni.

L’Organizzazione Mondiale della Sanità ha dichiarato la solitudine una “minaccia sanitaria globale” nel 2023. Non una preoccupazione, non un problema emergente: una minaccia globale. Stiamo parlando di 1,8 miliardi di persone nel mondo che si sentono sole. Quasi una persona su quattro.

E l’Italia? Beh, siamo campioni anche in questo, ma non nel senso buono. Secondo Eurostat, il 13,2% degli italiani over 16 non ha una singola persona a cui chiedere aiuto. La percentuale più alta d’Europa, più del doppio della media europea del 6%. L’11,9% di noi non ha nemmeno qualcuno con cui parlare dei propri problemi personali.

Ma i dati più spaventosi riguardano i giovani, quelli che stanno crescendo con l’AI come compagna naturale. In Italia abbiamo almeno 100.000 hikikomori – giovani che si ritirano completamente dalla vita sociale, confinandosi nelle proprie stanze. E questo numero è probabilmente sottostimato.

La Generazione Z italiana mostra livelli di ansia digitale che farebbero preoccupare qualsiasi genitore: il 94% ha sofferto o soffre di ansia legata alla propria immagine digitale, il 57% modifica abitualmente le foto prima di pubblicarle. Quasi la metà percepisce una disconnessione tra vita online e offline, con conseguenti sentimenti di… indovina un po’?

Solitudine, frustrazione e ansia.

E qui viene il paradosso più assurdo: il 73% dei giovani adulti associa la tecnologia a un aumento dei sentimenti di disconnessione sociale. Ma invece di usare meno tecnologia, ne usano di più. È come se sapessero che l’alcol gli fa male al fegato ma continuassero a bere per dimenticare il mal di fegato.

E sul lavoro? Gli Osservatori Digital Innovation del Politecnico di Milano documentano che 3,55 milioni di lavoratori italiani operano da remoto. La “solitudine digitale sul lavoro” è diventata una nuova sindrome riconosciuta. I dipendenti che interagiscono frequentemente con sistemi di AI mostrano maggiori probabilità di sperimentare solitudine, che porta a insonnia e aumento del consumo di alcol dopo il lavoro.

Ecco, questi non sono numeri. Sono persone. Sono #figlia1 e #figlia2 che potrebbero crescere pensando che un algoritmo sia un migliore confidente dei loro genitori. Siamo noi che rischiamo di dimenticare cosa significa essere veramente compresi da un altro essere umano. Ecco, ma cosa significa, esattamente?

Cosa ci rende realmente umani

C’è una citazione che mi ha colpito profondamente mentre preparavo questa newsletter. Viene da uno psicologo che studia le relazioni umane e che ho conosciuto a Stanford qualche anno fa, Brian Lowery: “What makes you human is your interactions with other human beings. Like that people see you and experience you as a full human in that that’s what in some sense makes you human.

Pensaci bene. Non diventiamo umani da soli. Non è il nostro DNA, non è il nostro cervello, non sono le nostre capacità cognitive che ci rendono umani. È il fatto che altri esseri umani ci riconoscono come tali. È un processo relazionale, non individuale.

Quando mia figlia mi guarda e dice “Papà, sei triste?“, in quel momento non sta solo osservando il mio stato emotivo. Mi sta riconoscendo come essere umano complesso, con emozioni, vulnerabilità, profondità. E questo riconoscimento, letteralmente, mi rende più umano.

L’AI può simulare questo riconoscimento, ma non può darcelo davvero. Può dirmi “Sembra che tu sia stressato oggi, Giuseppe“, ma dietro quell’osservazione non c’è un altro essere umano che ha scelto di vedermi, di riconoscere la mia umanità, di prendersi cura di me.

E qui sta la differenza fondamentale tra connessione e interazione autentica. Io posso essere connesso a ChatGPT 24 ore al giorno, ma non sarò mai in relazione con ChatGPT. La relazione richiede reciprocità, vulnerabilità, rischio. Richiede che due esseri umani scelgano di essere presenti l’uno per l’altro, nonostante le difficoltà, nonostante i conflitti, nonostante l’imperfezione.

Come ho scritto più volte qui, sono convinto che il significato della vita non viene dai nostri successi personali, ma dal ruolo che giochiamo nelle storie di altre persone. E per giocare un ruolo nella storia di qualcuno, dobbiamo prima essere riconosciuti da quella persona come esseri umani degni di fiducia, di tempo, di attenzione.

L’AI può darci informazioni, soluzioni, anche compagnia. Ma non può darci significato. Perché il significato emerge dall’interconnessione umana, dal fatto che la nostra esistenza ha un impatto su altre vite umane, che le nostre scelte contano per qualcuno che conta per noi.

Quando preferiamo l’AI agli umani perché è più facile, più prevedibile, più controllabile, stiamo rinunciando a qualcosa di fondamentale: la possibilità di essere veramente visti, compresi e amati per quello che siamo. Imperfezioni incluse.

Le 5 buone abitudini per non farsi rubare l’umanità dall’AI

Ok, basta con la teoria. Come possiamo concretamente evitare che l’AI ci isoli? Ecco le mie cinque buone abitudini quotidiane, testate sul campo (e sui miei errori):

1. Il caffè “senza agenda”. Almeno una conversazione face-to-face al giorno, senza agenda. Non meeting di lavoro, non chiamate Zoom con obiettivi precisi. Una chiacchierata vera, dove non sai dove andrà a finire. Può essere con il barista, con un collega, con tua madre. Ma deve essere dal vivo, con tutte le interruzioni, i silenzi imbarazzanti e le tangenti inaspettate che rendono umana una conversazione.

2. La vulnerabilità settimanale Una volta a settimana, condividi qualcosa di personale con qualcuno. Non un post sui social, non un messaggio WhatsApp. Una confessione vera, un dubbio, una paura, un sogno. Qualcosa che ti fa sentire esposto. Perché è nell’esposizione che creiamo connessioni autentiche, e nell’autenticità che troviamo significato.

3. La serendipità obbligatoria Frequenta almeno un posto a settimana dove potresti incontrare persone diverse da te. Un corso, un evento, uno spazio di co-working come TAG, una conferenza in un settore che non è il tuo. Mettiti nella condizione di essere sorpreso da prospettive che non avresti mai cercato su Google.

4. Il supporto attivo Aiuta qualcuno nella sua storia ogni settimana. Non dare consigli via chat, non condividere link utili. Dedicare tempo, energie, attenzione a qualcuno che sta lottando con qualcosa. Perché è partecipando alle storie degli altri che la nostra vita acquisisce significato.

5. IL limite tecnologico Stabilisci chiaramente quando l’AI va bene e quando serve l’umano. Per me: ChatGPT per ricerche e bozze, umani per feedback e decisioni importanti. AI per ottimizzare, umani per innovare. Algoritmi per analizzare, persone per interpretare. E nel dubbio, scegli sempre l’umano.

L’AI come ponte

Ora, non fraintendermi. Non sto dicendo che l’AI sia il demonio e che dovremmo tornare a scrivere con la macchina da scrivere. L’intelligenza artificiale ha un potenziale incredibile paradossalmente anche per aiutarci a combattere la solitudine.

Una ricerca di Harvard Business School ha dimostrato che i compagni AI (gli AI Companion) possono ridurre efficacemente la solitudine, con punteggi che migliorano di 17 punti su una scala di 100. ElliQ, un robot sociale progettato per gli anziani, ha registrato una riduzione del 95% della solitudine dopo un anno di utilizzo.

Ma ecco il punto: l’AI funziona meglio come ponte verso le relazioni umane, non come sostituto. Come un gesso che ti aiuta a guarire l’osso rotto, ma che poi devi togliere per tornare a camminare normalmente.

L’AI può aiutare una persona timida a esercitarsi nelle conversazioni. Può dare coraggio a qualcuno che ha paura di esporsi. Può fornire supporto temporaneo a chi sta attraversando un momento difficile. Ma l’obiettivo deve sempre essere quello di facilitare il ritorno alle relazioni umane, non di sostituirle.

Perché alla fine, quando tutto è detto e fatto, quando tutte le newsletter sono scritte e tutti i progetti sono completati, quello che resta di noi è appunto il ruolo che abbiamo giocato nelle storie di altre persone. E quello, nessuna intelligenza artificiale potrà mai rubarcelo.

Ecco, forse il vero pericolo non è che l’AI diventi troppo umana. È che noi diventiamo troppo artificiali.

Sempre avanti, condannati all’ottimismo!

Giuseppe