Negli ultimi giorni sui media è apparsa una notizia che ha fatto fremere gli appassionati di nuove tecnologie. Google ha richiamato in sede i due fondatori, Page e Brin, che si erano allontanati dall’azienda quasi quattro anni fa; nel frattempo, però, Google aveva anche licenziato 12 mila persone. Cosa lega questi due fatti? Semplice, la paura che l’Intelligenza Artificiale possa scalfire il potente algoritmo di Google, PageRank, modificando i criteri di valutazione e sfalsando l’utilizzo commerciale dei dati presenti in internet. In realtà i licenziamenti hanno coinvolto quasi tutte le grandi società di sviluppo informatico (Facebook-Meta, Microsoft e, in un altro campo, Amazon) che avevano avuto un boom durante i primi due anni della pandemia per la necessità di permettere la remotizzazione delle attività, ma il richiamare Page e Brin da parte di Alphabet, il fondo proprietario del maggior motore di ricerca al mondo, è dettato anche da un nuovo, potente pericolo appena affacciatosi sul mercato. A novembre è stato lanciato un ChatBot, ChatGPT, di facile utilizzo e potentissimo, e la società produttrice OpenAI parrebbe in trattativa con Microsoft per integrarla in Bing, il motore di ricerca della casa di Redmond, ponendo un forte ostacolo allo strapotere degli algoritmi di Google.
A parte i titoloni, qual è l’interesse della notizia per noi comuni mortali? Il fatto che nel mondo del lavoro e nella vita quotidiana non solo l’Intelligenza Artificiale sia sempre più presente, ma che stia facendo passi da gigante; e, per chi ha i figli in età scolare, che ChatBot riesca anche a creare dei testi originali basati sull’elaborazione dei dati che ha in memoria. Testi tra i quali troviamo le relazioni scolastiche e accademiche.
L’AI è una materia affascinante che ha sofferto di ciclici periodici di entusiasmo seguiti dai cosiddetti periodi di “inverno”; già a metà degli anni cinquanta del ventesimo secolo si ipotizzavano sviluppi imponenti nel campo delle traduzioni automatiche – curiosamente dal russo all’inglese, per essere precisi – che si sono scontrati con l’insufficienza di calcolo delle macchine e, di conseguenza, su una progettazione di programmi per forza di cose limitata.
L’elaborazione dei dati necessari per far lavorare un’intelligenza artificiale ha bisogno di hardware molto potenti ed energivori su cui possano girare software sempre più sofisticati: gli attuali meccanismi lavorano su reti che imitano le reti neurali umane, ovviamente in maniera molto più limitata rispetto a quelle reali. Tutto ciò richiede fondi, in grandissima quantità: non è difficile capire come, tolte le funzionalità da “guerra fredda” che stimolarono i primi studi sull’analisi del linguaggio naturale, a partire dagli anni ottanta in poi furono le industrie a fornire la liquidità necessaria alla costruzione di macchine e alla creazione di programmi per l’intelligenza artificiale. Industrie che, ovviamente, debbono trovare uno sfruttamento commerciale al prodotto finanziato. L’utilizzo dell’AI non incontra però solamente problematiche di impatto economico: mai come in passato si vede citare il GDPR, il General Data Protection Regulation o Regolamento generale UE sulla protezione dei dati 2016/679 operativo dal maggio 2018 in tutti i paesi aderenti. A differenza degli Stati Uniti, infatti, l’Unione europea sin dagli anni settanta del ventesimo secolo ha adottato una ferrea politica di tutela dei dati personali dei cittadini: secondo il GDPR i titolari dei dati devono prevenire le problematiche relative alla tutela dei dati personali (privacy by default) adottando tutte le misure tecniche ed organizzative adeguate al trattamento (privacy by design). Questo rende il mercato europeo dei dati molto meno appetibile di quelli in cui si applica una deregulation totale; inoltre, la Commissione europea adotterà entro la fine del 2023 l’Artificial Intelligence Act, un regolamento che vuole creare fiducia verso l’AI, impedendone l’abuso. Sarà basato su quattro livelli, stabilendo o tentando di stabilire i campi in cui l’AI potrà o non potrà essere utilizzata: quelli con rischio minimo, limitato, alto, inaccettabile. Si prevede, ad esempio, il divieto assoluto del social scoring con cui le persone vengono giudicate in base ai propri comportamenti.
L’AI comunque non è un vaporware, una tecnologia di cui si parla tantissimo per un periodo per poi rivelarsi deludente o di scarsissimo utilizzo: è già tra noi, e da anni. Assistenti vocali, software di riconoscimento della scrittura, interpreti del linguaggio naturale sono di uso comune, ed è interessante notare come alcune delle applicazioni più comuni sono derivate da o nate come tecnologie assistive per le persone con disabilità, soprattutto visiva. Sono lì i primi utilizzi concreti nei sistemi di smistamento di PEC, assai più sofisticati degli antispam in uso da lustri.
Cosa ci aspetta? Non è facile prevederlo: come già detto, l’AI ha vissuto negli ultimi settanta anni continui cicli di entusiasmo e scoramento. Il fatto che l’Unione europea abbia deciso di occuparsene in maniera organica e con una timeline serrata fa però presagire un utilizzo dell’intelligenza artificiale ben più concreto che la creazione di relazioni scolastiche da parte di un bot.
di Matteo Mercuri