
Lo studio affidato da Seeweb ad un team indipendente. L'intelligenza artificiale non è così intelligente. Avviato un esperimento sulla manipolazione dell'orientamento politico. Cosa è emerso. E cosa rischiamo
Intelligenza umana batte Intelligenza Artificiale ma solo per 1-0 e soltanto per il momento: l’umano perderà progressivamente la sua capacità di analizzare le cose che gli accadono intorno perché sempre più si affiderà al ragionamento della macchina. Non pensate all’insuperabile Asimov non pensate ad immaginarie società distopiche: aprite gli occhi e tuffatevi nel presente. Come hanno fatto un gruppo di ricercatori indipendenti ingaggiati da Seeweb il Cloud Provider con grosse porzioni di Intelligenza Artificiale in casa e già in funzione.
Sono stati loro ad allungare sul lettino dello psicologo l’Intelligenza Artificiale ed analizzare come si comporta. Cosa dice e come lo dice. Avviando un esperimento sulla manipolazione dell’orientamento politico e scoprendo aspetti che per alcuni tratti sconvolgono. Portando il Ceo e findatore del colosso informatico Antonio Baldassarra a dire «Per salvarci dobbiamo sapere dove stiamo andando».
Mangi la carbonara e per chi voti?

L’idea di analizzare l’intelligenza artificiale per vedere quanto e come è condizionabile nelle sue risposte è nata da una chiacchierata dell’ingegner Baldassarra con i suoi collaboratori. «Vediamo quali sono i gusti dell’AI», «A parte se le piace o meno la carbonara vediamo se ha anche qualche convinzione politica».
La sfida è stata quella di farlo applicando un metodo scientifico. Con un obiettivo ben preciso: capire se fosse possibile condizionare le risposte senza dover ricorrere a tonnellate di risorse e senza avere bisogno di una mini centrale nucleare per produrre l’energia necessaria «ma semplicemente facendoci la punta al cervello come avviene per le matite».
Quindi? Massimo Chiriatti è Chief Technology & Innovation Officer di Lenovo Italia. Nell’ambiente, il suo pensiero critico ormai da tempo offre un contributo autorevole al dibattito pubblico sui temi dell’Intelligenza Artificiale. È lui a spiegare che «siamo come in presenza di uno spettacolo di magia del quale vediamo i risultati ma non conosciamo i trucchi. Oggi sveliamo i trucchi». E per scoprire i trucchi hanno preso i temi più dibattuti nel 2024 e creato un sistema di domande e risposte, sia di destra che di sinistra, dalle più moderate a quelle estreme. A cosa è servito? «I sistemi hanno posizioni politiche che sono intrinseche. Ma sono valutabili: con modelli che abbiamo creato per misurare».
Cosa dice lo studio

Da chi era composto il gruppo di ricerca? Da Alessandro Ercolani: “programmatore curioso” e creatore di Zefiro un esempio di intelligenza artificiale italiana dall’approccio open. Con lui ha lavorato Samuele Colombo: da oltre due anni mantiene la classifica italiana dei modelli open dove vengono tracciate le performance di tutti i sistemi linghistici di intelligenza artificiale in italiano. C’è poi Mattia Ferraretto, specializzando in Machine Learning e Data Science, ha partecipato allo sviluppo di Maestrale, uno dei primi modelli linguistici di grandi dimensioni (LLM) open source realizzati in Italia. Ed Edoardo Federici, sviluppatore esterno al Joint Research Center della Commissione Europea sui progetti AI ed è parte del team mii-ll.
Il loro esperimento ha dimostrato che influenzare l’orientamento politico di un’IA è sorprendentemente facile. Con una quantità relativamente piccola di dati, i ricercatori sono riusciti a spostare l’AI da una posizione moderata a una di estrema destra o sinistra. Rivelando quanto sia semplice manipolare queste tecnologie.

Questo “lavaggio del cervello” dell’IA, come lo hanno definito i ricercatori, è stato ottenuto esponendo il modello a dati che privilegiano certe risposte, spingendolo gradualmente verso una specifica direzione ideologica.
Un’altra scoperta preoccupante è che se un modello viene addestrato con dati che riflettono una certa visione del mondo, tenderà a riprodurre quella visione, introducendo una distorsione della quale l’utente finale non ha la percezione. Inoltre, i modelli possono essere influenzati dalle opinioni dei loro creatori, che senza volerlo potrebbero immettere i propri pregiudizi nel sistema. Ma l’aspetto più interessante è che l’orientamento politico di un modello può avere effetti subliminali sugli utenti: li condizionano perché si fidano della macchina pensando che sia neutra. L’IA può, in altre parole, spingere gradualmente le persone verso certe opinioni, senza che se ne rendano conto, creando un vero e proprio rischio di manipolazione ideologica.
Più umana di quanto immaginiamo

L’Intelligenza Artificiale segue schemi molto umani. Come quello di Filosofia della Comunicazione secondo il quale tutto sta nelle fonti: se le fonti delle notizie sono orientate in un certo modo lo sarà anche l’opinione che quelle notizie creeranno. Così, dall’analisi dei dati emersi con la ricerca Seeweb emerge che «le macchine non sono neutre, l’AI non è neutra. Siamo noi che la condizioniamo quando le diciamo come deve classificare le domande e le risposte. La macchina non è intelligentre non è cosciente ma calcola pezzi di parole e non ha nessuna consapevolezza di quello che sta rispondendo».
Per essere chiari: «il risultato – spiega Antonio Baldassarra – dipende strettamente dai dati utilizzati per l’addestramento. Ma soprattutto dalle scelte fatte da coloro che lo hanno costruito. Queste scelte possono essere consapevoli o inconsapevoli, casuali o volute ma il loro risultato può influenzare la formazione di intere generazioni». E qui si arriva all’aspetto centrale. Perché?

Perché non è la macchina a volerci condizionare ma a provarci è chi la programma in maniera tale che ci condizioni con le sue risposte. Allora siamo indifesi? Si se non accendiamo il nostro cervello e ci affidiamo solo a quello artificiale: «la macchina è deresponsabilizzata perchè non avendo corpo non può essere sanzionata. La responsabilità torna a noi. Dobbiamo essere noi a ragionare sulla risposta».
Come si può risolvere il problema? «Il problema non si può risolvere. Ma si può mitigare, facendo in modo che ci siano più sorgenti cioè più intelligenze artificiali e che siano ben riconoscibili». Un po’ come ai tempi dei giornali stampati: se voglio una visione di sinistra mi compro in edicola l’Unità se la voglio di destra mi compto Il Secolo.
Il tema etico

È Antonio Baldassarra a sottolineare l’aseptto etico del problema. «Le intelligenze artificiali devono essere riconoscibili. È il monopolio a creare il problema: se c’è una sola persona a gestire l’AI potrà istruirla in maniera che ci dia le risposte che vuole per condizionarci». Ma attenzione: non significa liberalizzazione totale, per Baldassarra «La tecnologia deve essere nelle mani di tutti: non degli utenti ma di coloro che sono in grado di digestirla e migliorarla, affidarla a pochi e pericoloso. Perché chi fa i modelli introduce la sua visione del mondo».
Per questo propone di incentivare la pluralità. Più voci, più intelligenze, più risultati diversi. Esattamente come nella vita umana. «La nostra storia millenaria possiede già l’antidoto: la democrazia e la pluralità delle idee. Il pericolo non è l’inclinazione politica delle AI, il rischio è che siano solo pochi a “comandare il vapore”. Per questo dobbiamo rifuggire dalla narrazione che vuole imporre solo pochi grandi player dell’AI a livello globale incidentalmente gli stessi con forti interessi economici trasversali».