Le domande che gli investitori in intelligenza artificiale devono porre

Gli investitori nelle prime società tecnologiche di intelligenza artificiale (AI) ​​che servono l’industria della difesa, come Palantir, Primer e Anduril, stanno realizzando forti guadagni.  Anduril, per esempio, ha raggiunto una valutazione di oltre $ 4 miliardi in meno di quattro anni. Molte altre aziende che realizzano tecnologie IA per uso generale, come l’etichettatura delle immagini, ricevono buona parte (non ben divulgata) delle loro entrate dall’industria della difesa.

Gli investitori in aziende tecnologiche basate sull’intelligenza artificiale che non sono destinate a servire l’industria della difesa spesso scoprono che queste aziende, alla fine, (e talvolta inavvertitamente) aiutano altre potenti istituzioni, come le forze di polizia, le agenzie municipali e le società di media, a perseguire i loro doveri.

La maggior parte di queste fa un ottimo lavoro, come DataRobot, che aiuta le agenzie a comprendere la diffusione di COVID, HASH che esegue simulazioni di distribuzione di vaccini o Lilt che rende disponibili le comunicazioni scolastiche ai genitori immigrati in un distretto scolastico degli Stati Uniti.

Il primo passo per essere consapevoli di cosa si sta finanziando è sapere cosa sta succedendo, visto che molti investitori in fase di avvio ignorano la necessità di sapere cosa sta succedendo all’interno dei modelli basati sull’intelligenza artificiale.

Tuttavia, ci sono anche alcuni esempi meno positivi: la tecnologia realizzata dalla società di cyber-intelligence israeliana NSO, come abbiamo già visto, sarebbe stata utilizzata per hackerare 37 smartphone appartenenti a giornalisti, attivisti per i diritti umani, dirigenti aziendali e la fidanzata del giornalista saudita assassinato Jamal Khashoggi, secondo un rapporto del Washington Post e di 16 media partner. Secondo il rapporto i telefoni erano su un elenco di oltre 50.000 numeri con sede in paesi che sorvegliano i loro cittadini e che sono noti per aver utilizzato i servizi dell’azienda israeliana.

Agli investitori di queste società possono ora essere poste domande impegnative da altri fondatori, soci accomandanti e governi sul fatto che la tecnologia sia troppo potente, troppo “abilitante” o che venga applicata in modo troppo esagerato. Queste sono domande, addirittura, di corsi universitari, ma a volte non vengono nemmeno poste quando si effettua un investimento.

L’intelligenza artificiale non solo offre alle persone la possibilità di mettere le mani su cose più complesse (ad esempio robot) o di analizzare più dati (analisi complesse), ma dà anche loro la possibilità di prevedere eventi nel tempo (analisi previsionali). Quando le persone possono fare previsioni e imparare mentre giocano, possono imparare velocemente. Quando le persone possono imparare velocemente, possono agire velocemente.

Come ogni strumento, si possono usare nel bene e nel male. Puoi usare una roccia per costruire una casa o puoi lanciarla a qualcuno. Puoi usare la polvere da sparo per bellissimi fuochi d’artificio o sparare proiettili.
Modelli di visione artificiale basati sull’intelligenza artificiale sostanzialmente simili possono essere utilizzati per capire le mosse di un gruppo di danza o di un gruppo terroristico. I droni basati sull’intelligenza artificiale possono puntare una telecamera su di noi mentre ci lanciamo nei trampolini, ma possono anche puntare un’arma contro un obiettivo.

Gli investitori e i membri del consiglio di amministrazione di queste società devono assumersi la responsabilità, almeno parziale, delle decisioni delle realtà in cui investono.
Gli investitori influenzano i fondatori, che lo vogliano o meno. I fondatori chiedono costantemente agli investitori quali prodotti costruire, a quali clienti rivolgersi e quali accordi eseguire. Lo fanno per imparare e migliorare le loro possibilità di vincita. Lo fanno anche, in parte, per mantenere gli investitori coinvolti e informati perché possono essere, comunque, sempre una preziosa fonte di capitale.

Loro possono pensare di operare in modo del tutto socratico, come cassa di risonanza per i fondatori delle società sulle quali loro investano, ma la realtà è che, volenti o nolenti, influenzano comunque le decisioni chiave anche solo ponendo domande… figuriamoci dando consigli specifici su cosa costruire, come venderlo e quanto far pagare. Questo è il motivo per cui gli investitori hanno bisogno di un vero e proprio “quadro normativo” (che non esiste) per investire responsabilmente nell’intelligenza artificiale, per non influenzare un risultato negativo.
Le loro responsabilità sono molteplici e raramente sanno definirle in questo campo: all’inizio, e spesso anche nelle fasi successive, non riescono a riconoscere il potenziale impatto del loro lavoro. Forse la soluzione è sviluppare proprio una solida normativa internazionale da applicare in modo coerente.
Fino ad allora, si spera che gli investitori che conoscono le basi, le metriche e la politica avranno una buona influenza sui costruttori di questa tecnologia più potente.