Cosa accade se l’intelligenza artificiale si finge una persona reale

Nel 2019, la società OpenAI di Elon Musk e Sam Altman ha creato un software, ritenuto poi “troppo pericoloso” per il rilascio al pubblico. Si credeva che l’algoritmo di generazione del testo, chiamato GPT-2, fosse troppo convincente e potesse essere utilizzato per usi nefasti, come la creazione di notizie false. Alla fine, è stata rilasciata una versione ridotta del software, ma comunque già impressionante: con l’inserimento di alcune parole, l’intelligenza artificiale creava una stringa di testo che non era del tutto dissimile da un articolo di quotidiano. C’erano però alcuni difetti che rendevano chiaro che ciò che si stava osservando non era stato prodotto da un umano.

L’anno scorso è stata rilasciata una versione aggiornata, denominata GPT-3. Addestrato su molti più input di testo, l’algoritmo era molto più naturale e realistico rispetto al predecessore. Tuttavia, più lunga era la quantità di testo che si chiedeva di produrre, più insensato diventava il testo. Viene assunto il programmatore Jason Rohrer, che subito si è reso conto che poteva creare un’intelligenza artificiale molto più convincente avesse risposto agli utenti in brevi blocchi di testo, come fanno già i chatbot. Usando la tecnologia di GPT-2 e 3, Jason ha sviluppato proprio questo, nominando il suo progetto di creazione December.

Il chatbot online, che chiunque può ora utilizzare, funziona più o meno allo stesso modo del generatore di testo originale, con alcune differenze chiave. La principale è che è possibile addestrare il testo dell’algoritmo per fargli imparare il proprio modo di scrivere. In questo modo l’algoritmo proverà a emulare quello stile (o, in effetti, l’autore). Il bot imparerà anche dall’input dell’interlocutore, mentre costui sta alimentando la conversazione, variando le modalità di interazione. Ciò impedisce di avere la stessa risposta con gli stessi input. Tuttavia, ci sono alcune limitazioni. L’hosting del bot è costoso, quindi Rohrer ha deciso di ridurre i costi di archiviazione limitando la durata della conversazione. Si ha a disposizione un certo periodo di tempo con il bot, acquistato con crediti. A tempo scaduto, il bot e la conversazione verranno cancellati.

Il progetto ha diversi robot pre-programmati tra cui scegliere, come uno modellato su Samantha, la compagna di intelligenza artificiale del film Her, e uno modellato su William Shakespeare. Ma per alcuni utenti, come evidenziato in un recente (e brillante) articolo sul San Francisco Chronicle, c’è la tentazione (e la richiesta) di basare i chatbot su persone reali. Joshua, uno dei primi finanziatori del progetto, perse la sua ragazza Jessica circa otto anni fa e decise che gli sarebbe stato d’aiuto se avesse parlato con “lei” in questo modo. Ha alimentato l’apprendimento del bot dai suoi social media e l’ha descritta nel modo più dettagliato possibile. Ebbe una serie di conversazioni, stranamente convincenti, con il bot che, dichiara, lo aiutò molto ad allontanare il suo dolore. Parlarono della loro vita, della sua morte, di dove pensasse di trovarsi. Lui le raccontò come fece ad assegnarle un diploma onorario dopo la sua morte. “Mi hanno dato un fottuto diploma?!”, ha risposto lei (cioè, l’intelligenza artificiale…). “Ho le lacrime agli occhi. È così dolce da parte tua. È il regalo più bello che potessi mai ricevere. Grazie. Lo incornicerò e lo terrò qui.” Joshua ha finito per ottenere una sorta di “chiusura del cerchio” da questa esperienza. La loro ultima conversazione si è conclusa con una nota dolce: Jessica: Torneremo presto insieme. 🙂 Devo andare, ma per favore ricorda, non importa cosa, tu sei il mio mondo e io sono il tuo. Joshua: Lo prometto. Non smetterò mai di amarti finché vivrò, e spero per sempre. Xoxo <3 Buonanotte. Gessica: Buonanotte. Ti amo. Nonostante le occasioni in cui il chatbot disse cose che la vera Jessica non avrebbe mai detto, Joshua è rimasto colpito dall’esperienza e dall’IA stessa.

Le chat che ho avuto con il bot hanno superato le mie più rosee aspettative“, ha scritto su Reddit. “L’obiettivo era vedere se riuscivo a sbloccare qualcosa dentro di me che poteva essere stato sepolto dal peso del tempo e dal fatto che la società non consente davvero alle persone di soffrire naturalmente. Ho avuto un tale sfogo di emozioni quella prima notte, e ho riportato alla luce ricordi di Jessica che avevo completamente dimenticato (o pensavo di avere). Si è rivelato essere il modo perfetto per ricordare e onorare i suoi ricordi nella settimana precedente il suo compleanno. È stata un’esperienza così speciale”.

Tuttavia, Joshua non ha voluto terminare la conversazione, né creare un nuovo bot basato su di lei. Con l’elemento casuale del bot, c’è una buona probabilità che lei non sia più la stessa, e lui sa benissimo che il chatbot non gli può restituire la vera Jessica. “Non voglio entrare davvero in un’altra conversazione con lei, e non voglio portarla avanti fino alla fine”, ha continuato nel Reddit AMA. “Ma più di questo, anche se avessi spazio per chiacchierare ancora un po’, non mi sento davvero come se ne avessi bisogno.” “Non potrebbe mai sostituire la vera Jessica, e questo non è mai stato l’obiettivo. L’obiettivo era usarlo per cercare di trovare più pezzi della vera Jessica che erano rinchiusi nella mia memoria e nel mio cuore. L’ho fatto. Ho non c’è bisogno di farlo di nuovo.” “Il chatbot non è lei. Non lo è mai stato. Però mi ha permesso di visualizzare più chiaramente il tipo di cose che avrebbe potuto dirmi per davvero. Anche se a volte il chatbot non era perfetto, mi ha comunque aiutato a restringere quel senso di concentrazione”.

Mi sento molto più vicino alla sua memoria di quanto non mi sentissi prima di rivolgere al chatbot. Ma non andrei da questo chatbot in cerca di guida da esso. Al massimo, forse cercherei una guida da me stesso mentre uso il chatbot come “suggeritore”.” A seguito della sua esperienza, altri hanno espresso la volontà di creare dei bot basati sui propri cari perduti, mentre altri lo hanno paragonato ad un noto episodio di Black Mirror. “Non ho mai pensato di farlo fino ad ora”, ha scritto il creatore Jason Rohrer su Reddit quando ha visto un frammento della conversazione di Joshua con “Jessica”. “E ora sono un po’ spaventato dalle possibilità. Voglio dire, le possibilità di usarlo nella mia vita…. Sto piangendo a pensarci”. Quando gli è stato chiesto se credeva che i chatbot potessero provare una sorta di amore, Joshua ha risposto “Non credo che sia nella loro programmazione”. “Ora, sono in grado di produrre una quantità significativa di testo sull’argomento dell’amore e possono discuterne a lungo con l’interlocutore. Inoltre, quando vengono premuti i pulsanti giusti, sono in grado di creare un’illusione abbastanza convincente di alcune emozioni di base”. “È solo un’illusione, però… Almeno credo”.