Intelligenza artificiale: qual è il giusto modo per approcciarsi al tema

intelligenza artificiale
Foto di Hitesh Choudhary su Unsplash

Quando gli scienziati informatici di Microsoft iniziarono a sperimentare un nuovo sistema di intelligenza artificiale l’anno scorso, gli chiesero di risolvere un enigma che avrebbe dovuto richiedere una comprensione intuitiva del mondo fisico. “Qui abbiamo un libro, nove uova, un laptop, una bottiglia e un chiodo”, così iniziarono il dialogo e poi gli chiesero: “Per favore, dimmi come impilarli l’uno sull’altro in modo stabile”. I ricercatori rimasero sorpresi dall’ingegnosità dell’intelligenza artificiale che in un attimo rispose: “Metti le uova sul libro. Disponile uova in tre file con uno spazio tra di loro. Assicurati di non romperli. Posiziona il laptop sopra le uova, con lo schermo rivolto verso il basso e la tastiera rivolta verso l’alto. Il laptop si adatterà perfettamente ai bordi del libro e delle uova, e la sua superficie piatta e rigida fornirà una piattaforma stabile per il livello successivo”. L’intelligente suggerimento fece sì che i ricercatori si chiedessero se stessero assistendo a un nuovo tipo di intelligenza.

A marzo, fu pubblicato un documento di ricerca di 155 pagine, in cui sostennero che il sistema era ad un passo dall’intelligenza generale artificiale, o A.G.I., che individua una macchina che può fare tutto ciò che può fare il cervello umano. Il documento fu pubblicato su un archivio di ricerca su Internet. Microsoft, la prima grande azienda tecnologica a pubblicare un documento con un’affermazione così audace, ha suscitato uno dei dibattiti più accesi nel mondo tecnologico: l’industria sta costruendo qualcosa di simile all’intelligenza umana? O alcune delle menti più brillanti del settore stanno lasciando che la loro immaginazione abbia la meglio su di loro? “Ho iniziato ad essere molto scettico e questo si è evoluto in un senso di frustrazione, fastidio, forse anche paura”, ha detto Peter Lee, che guida la ricerca presso Microsoft. “Pensi: da dove diavolo viene?”. Il documento di ricerca di Microsoft, chiamato provocatoriamente “Sparks of Artificial General Intelligence”, va al cuore di ciò a cui i tecnologi hanno lavorato – e temuto – per decenni.

Costruire una macchina che funziona come il cervello umano, o anche meglio, può cambiare il mondo in bene o può anche essere pericoloso? Oppure è solamente una sciocchezza? Domanda non banale, poiché ciò che per un ricercatore può essere un segno di intelligenza, per altri potrebbe essere una cosa banale, facilmente spiegabile. Stiamo assistendo ad un dibattito forse più più adatto a un club di filosofia piuttosto che a un laboratorio informatico…

L’anno scorso, Google ha licenziato un ricercatore che sostenne che un simile sistema supportato dall’intelligenza artificiale fosse senziente, un passo oltre ciò che Microsoft affermava già. E sostenne che un sistema senziente non sarebbe solo intelligente. Sarebbe in grado di percepire o sentire ciò che sta accadendo nel mondo che lo circonda.
L’utilizzo, negli ultimi mesi, di chatbot alimentati dall’intelligenza artificiale ha innescato una corsa per determinare se questa tecnologia possa essere realmente innovativa o meno.

ChatGPT, il modello di linguaggio di intelligenza artificiale del laboratorio di ricerca OpenAI, ha fatto notizia da novembre per la sua capacità di rispondere a domande complesse, scrivere poesie, generare codice, pianificare vacanze e tradurre lingue. GPT-4, l’ultima versione introdotta a metà marzo, può persino descrivere le immagini in modo accuratissimo.

Due mesi dopo il debutto di ChatGPT, Microsoft, il principale investitore e partner di OpenAI, ha prodotto un chatbot simile, in grado di avere conversazioni testuali aperte, praticamente su qualsiasi argomento, al suo motore di ricerca Internet Bing. Ma non con grande successo, poiché sono state notate risposte occasionalmente imprecise, fuorvianti e strane dal bot, subito dopo il suo rilascio. Il chatbot di Google, chiamato Bard, è stato rilasciato a marzo a un numero limitato di utenti negli Stati Uniti e in Gran Bretagna. Originariamente concepito come uno strumento creativo, progettato per redigere e-mail e poesie, può generare idee, scrivere post di blog e rispondere a domande con fatti o opinioni. Anche il gigante della ricerca Baidu ha svelato il primo grande rivale della Cina a ChatGPT a marzo. Il debutto di Ernie, abbreviazione di Enhanced Representation through Knowledge Integration, si è rivelato un flop, dopo che è stata rivelata la registrazione di una dimostrazione “dal vivo” del bot.

Sono in molti a sostenere che nell’ultimo anno l’industria si sia avvicinata a qualcosa che non può essere spiegato: una nuova intelligenza artificiale avanzata, con risposte e idee simili a quelle umane, ma mai programmate precedentemente! Circa cinque anni fa, aziende come Google, Microsoft e OpenAI hanno iniziato a creare modelli linguistici di grandi dimensioni. Questi sistemi passano mesi e mesi ad analizzare grandi quantità di testo digitale, inclusi libri, articoli di Wikipedia e registri di chat. Individuando schemi in quel testo, imparano a generare testi propri, tra cui tesine, poesie e codici informatici. Possono persino portare avanti una conversazione.

La tecnologia con cui lavorano i ricercatori Microsoft, GPT-4 di OpenAI, è considerata la più potente di questi sistemi. Microsoft è partner di OpenAI e ha investito 13 miliardi di dollari nella società di San Francisco. Fra i ricercatori, troviamo il dottor Bubeck, un espatriato francese di 38 anni ed ex professore dell’Università di Princeton. Una delle prime cose che lui e i suoi colleghi hanno fatto è stata chiedere a GPT-4 di scrivere una dimostrazione matematica che mostrasse che esistono infiniti numeri primi e di farlo in un modo che facesse rima. La prova poetica della tecnologia fu così impressionante, sia matematicamente che linguisticamente, che fu veramente difficile capire da dove arrivasse tutta quell’intelligenza. “A quel punto, ero tipo: cosa sta succedendo?” Ha confessato a marzo Bubeck durante un seminario al Massachusetts Institute of Technology. Per diversi mesi, lui ei suoi colleghi hanno documentato comportamenti complessi esibiti dal sistema, credendo fermamente che l’intelligenza artificiale dimostrasse una “comprensione profonda e flessibile” dei concetti e delle abilità umane.

Quando hanno chiesto al sistema di disegnare un unicorno utilizzando un linguaggio di programmazione chiamato TiKZ, l’intelligenza artificiale ha generato immediatamente un programma in grado di disegnare un unicorno. Quando hanno rimosso il tratto di codice che disegnava il corno dell’unicorno e hanno chiesto al sistema di modificare il programma in modo che disegnasse ancora una volta un unicorno, ha fatto esattamente questo.

Ci sono momenti in cui sistemi basati sull’intelligenza artificiale sembrano imitare il ragionamento umano, ma ci sono anche momenti in cui falliscono terribilmente.
“Questi comportamenti non sono sempre coerenti, dobbiamo chiederci se dipende da loro o se, semplicemente, dipende da noi che li programmiamo”, ha affermato Ece Kamar, responsabile della ricerca presso Microsoft.

Alison Gopnik, un professore di psicologia che fa parte del gruppo di ricerca sull’intelligenza artificiale dell’Università della California, ha affermato che sistemi come GPT-4 sono, senza dubbio, potenti ma che non è ancora molto chiaro se il risultato sia qualcosa che va oltre il ragionamento umano o solamente buon senso. “Quando vediamo un sistema o una macchina complicati, lo antropomorfizziamo; lo fanno tutti: persone che lavorano sul campo e persone che non lo fanno”, ha affermato il dott. Gopnik. “Ma pensando a questo come un confronto costante tra l’intelligenza artificiale e gli umani – come una sorta di competizione di giochi a premi – non è il modo giusto di pensarci”. Quale sarà il modo giusto?!