Oggi siamo testimoni viventi di un cambiamento epocale, in cui le intelligenze artificiali stanno prendendo il posto delle vecchie tecnologie. Grazie alla loro capacità di apprendere, adattarsi e migliorarsi, il futuro che ci si prospetta è più efficiente. Ma dietro questa patina scintillante ricca di promesse potrebbero nascondersi molti pericoli. Per questo motivo si parla tanto del Blocco IA, e non solo per l’Italia.
Lo stesso Elon Musk ha scritto un appello per fermare lo sviluppo dell’Intelligenza Artificiale. Ma perché lo stesso co-fondatore di OpenAi ora starebbe cercando di mettere un freno a questa tecnologia che lui, da sempre, sostiene? Anche se non si parla davvero (forse) di scenari alla Terminator, le preoccupazioni sono davvero tante.
Lo scenario Terminator e il lungotermismo
I toni della lettera aperta, firmata anche da Elon Musk, sono catastrofici e palesemente volti a incutere un senso di timore per il futuro. Per questo motivo si parla da una parte di “scenario Terminator” e dall’altra di “lungotermismo”. Basta leggere un estratto dell’appello che racchiude il concetto di entrambe le espressioni:
Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti.
Ci viene prospettato un futuro in cui le intelligenze artificiali hanno sostituito l’essere umano e l’umanità ha perso il controllo della sua civiltà. Un asservimento alle macchine, insomma, che fa eco alla serie di film Terminator. Ma c’è altro: nell’universo fantascientifico del film l’intelligenza artificiale chiamata Skynet che ha preso il controllo del mondo, cerca anche di annientare l’umanità. Attualmente questa tipologia di narrazione è considerata dagli esperti del settore assolutamente assurda, ma c’è chi dà credito a questi timori.
In particolare, parliamo dei lungotermisti. Il lungotermismo è una nuova filosofia, a quanto pare molto in voga tra le élite tecnologiche della Silicon Valley. Nasce dall’idea di guardare la situazione globale a lungo termine, in modo tale da poter affrontare i problemi con la massima urgenza prima che vadano fuori controllo. A guardarla così è difficile non essere d’accordo, specialmente se pensiamo alla lotta al cambiamento climatico o alle nuove epidemie. Tuttavia, quando lo sguardo cade un po’ troppo oltre, come ad esempio ad un’eventuale estinzione di massa dovuta alle Intelligenze Artificiali, le cose cambiano un po’.
I veri rischi alla base del blocco IA
Nonostante la sesta estinzione di massa al momento sembri davvero poco realizzabile, ci sono anche dei pericoli reali. Nell’appello vengono appena menzionati all’inizio di un crescendo: “dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità?”. Eppure, questo è uno dei problemi più immediati di cui tutti ci siamo resi conto. Nei giorni scorsi, infatti, è diventata virale la foto del Papa che indossava un giubbotto bianco da trapper. La fotografia solo su Twitter ha ricevuto oltre 26 milioni di visualizzazioni ed è rimbalzata su tutti i social. Peccato che si trattasse di un’immagine generata proprio con l’intelligenza artificiale. In altre parole, di una fake news.
Per quanto questo sia un esempio abbastanza innocuo, le potenzialità per generare danni sono infinite e vengono scoperte giorno dopo giorno. Altre immagini create con l’IA sono per esempio quelle del finto arresto di Trump o quello di Putin. Ancora più grave, il caso dei ragazzi che hanno usato un’app che sfrutta l’Intelligenza Artificiale per modificare le foto di alcune compagne di classe per creare nudi.
Il blocco IA sarebbe però controproduttivo
Questi casi ci dovrebbero effettivamente far riflettere su come non ci sia una regolamentazione efficace per l’uso delle Intelligenze Artificiali. ChatGPT-4 è stata rilasciata praticamente subito al grande pubblico ed è diventato un caso, non solo in Italia. Il punto, sostenuto da diverse personalità nel settore, è che uno stop, anche solo di 6 mesi, non porterebbe a niente, anzi, sarebbe dannoso. Le leggi devono essere al passo con la tecnologia, ma è importante anche che la tecnologia si perfezioni per venire incontro alla legge.
Prendendo un’Intelligenza Artificiale che è in grado di migliorarsi attraverso l’esperienza, un blocco significherebbe un freno al proprio miglioramento. Monitorare le violazioni della privacy, le fake news e il copyright è necessario ma si fa in corso d’opera. Inoltre c’è anche da considerare che in questo caso parliamo degli effetti evidenti, ma i veri sviluppi si hanno all’interno degli spazi dove quest’IA viene programmata. Sarebbe davvero complicato, come spiega a Wired Francesca Rossi, manager di IBM e AI Ethics Global Leader, controllare il blocco IA in quegli ambienti.