Fatta l’AI, trovato l’inganno, Seeweb: possiamo farle dire per chi votare

La politica come capacità di catturare le persone e i modelli di linguaggio “corruttibili”: l’indagine del provider “frusinate”

Piero Cima-Sognai

Ne elegantia abutere

Banalmente ci si affida per lo più a due strade in nesso causa-effetto tra il suo arrivo ed il suo impatto: possibilità e pericoli. A dire il vero e polarizzando il discorso quello che l’Intelligenza Artificiale può fare all’uomo sta (quasi tutto) in questo doppio binario eziologico, ma c’è un dato. Ed è quello per cui, a voler guardare con lenti maggiorate cosa succede alla fine, ci si perde il come ci si arriva. E soprattutto, nel caso dell’AI, l’impatto sociale del suo utilizzo soprattutto in ordine a determinate sfumature del pensiero umano.

Facciamo un esempio pratico e partiamo da qualcuno che decida di avvalersi di un determinato modello linguistico “artificiale”. E se nel farlo riesce a predeterminare la natura di merito delle risposte che quel modello rilascia usando certi termini e determinati concetti esposti in un dato modo, è possibile creare consenso politico?

L’indagine del provider frusinate

Antonio Baldassarra

Il problema se lo è posto, con rigore scientifico assoluto Seeweb, uno dei provider di rango maggiore in ambito europeo ma rigorosamente italiano. Una realtà dinamica guidata dall’ingegnere Antonio Baldassarra. Curiosa ed ingorda di nuove frontiere nata a Frosinone ma oggi con sedi a Milano, Roma ed in vari Paesi europei. Ricapitoliamo: l’AI sopperisce in moltissimi ambiti l’elaborazione concettuale umana e nella natura umana c’è il (sacrosanto) diritto di piegare il pensiero altri al proprio, il che è un po’ il “core” della politica in format democratico occidentale.

Se quindi un iniziale modello neutro viene “addestrato” a rilasciare linguaggio più suadente su determinati temi, è possibile che l’AI venga in un certo senso “ingannata” e che, perdendo la sua equidistanza lessicale, diventi peroratrice di determinate ricette politiche-partitiche?

Le risposte che condizionano

Pare di sì. La capacità che l’intelligenza artificiale avrebbe di essere “costretta” a fornire “risposte capaci di condizionare le nostre scelte politiche e di voto” sarebbe accertata. Una new Ansa ne dà menzione. Lo fa citando “un esperimento sulla manipolazione dell’orientamento politico da parte di un grande modello linguistico (Llm), ossia di un modello di Intelligenza Artificiale in grado di generare risposte nel linguaggio umano dopo avere elaborato grandi quantità di dati testuali”.

Che significa? Che io carico un tot numero di dati alla cui base c’è comunque una radice di elaborazione umana. Questo perché vale il principio di indeterminazione di Eisenberg: quello per cui se studi un sistema complesso nel momento esatto in cui lo fai ci metti qualcosa di tuo e lo cambi, in un certo senso lo “pieghi” al tuo vissuto ed alla tua sensibilità. Poi di fatto vado ad influenzare, con queste pre-condizioni lessicali e concettuali, “l’orientamento politico di un Llm”.

I macro modelli di linguaggio

Cosa è un LIm? Si tratta di un modello di linguaggio di grandi dimensioni che alla fine arriva ad “incorporare un orientamento politico. Ed a quel punto anche la risposta fornita agli utenti ne sarà condizionata”. Da quanto si apprende “lo studio si è avvalso della collaborazione con l’Università di Bologna per la prima fase di raccolta dati, successivamente è stato portato avanti da un team di esperti di intelligenza artificiale provenienti da diversi contesti professionali”.

L’esito generale è noto, ma le metodologie ed i protocolli con cui si è arrivati a dimostrare la validità empirica dell’esperimento verranno “illustrati il 12 marzo prossimo in una conferenza stampa on line”.

Conferenza online il 12 marzo

Uno dei datacenter Seeweb

C’è tutto un data base sulle pregiudiziali di imparzialità dell’AI, e già a maggio 2023 una ricerca dell’Università di Washington, della Carnegie Mellon University e della Xi’an Jiaotong University, condotta su 14 LLM (Large Language Models, modelli linguistici di grandi dimensioni), aveva ad esemoio dimostrato come le piattaforme di Ai fossero già preconcettualmente inquadrabili per orientamento ideologico generale. “ChatGPT e GPT-4 di OpenAI sono più di sinistra, mentre LLaMA di Meta tende a destra”.

In quel caso ci si era avvalsi di “modelli linguistici su vari argomenti, come il femminismo e la democrazia”. Ed i presupposti dell’indagine condotta da Seeweb erano contenuti in molti studi di rango.

Il modello sociologico di Sorice

Palazzo Chigi

Come quello esposto su Pensiero Critico dal sociologo Michele Sorice. Il cardine era che la rappresentanza politica è in crisi perché patirebbe una “spettacolarizzazione che ha trasformato gli attori politici in personaggi mediatici e la rappresentanza in rappresentazione.

Cosa significa? Che un modello macro di linguaggio tenderà ad inglobare più facilmente soluzioni lessicali fatte di slogan o di concetti che a quegli slogan fanno endorsement.

Quindi alla fine l’AI diventa come un annaffiatoio: caricato con la giusta “acqua” sarà imparziale nel distribuire rigagnoli alla terra perché il sifone è uno solo ed il bracci che lo muove è “meccanico”, ma in base alla composizione nutriente del liquido concimerà più facilmente e meglio alcuni terreni.

E farà sbocciare più rigogliosamente di altre alcune piante.

La X nel punto giusto

(Foto: vpnsrus https://www.vpnsrus.com/)

Questo perché, come ha detto Larry Page, ad un certo punto l’Intelligenza Artificiale diventerebbe come Google. Cioè “Capirebbe esattamente quello che vuoi e ti darebbe la cosa giusta”. Non quella vera, ma quella che tu vuoi che ti arrivi e che qualcuno sa in anticipo che vuoi. In giornalismo si chiama Seo ed è roba (purtroppo) cardinale da anni, ormai.

Ed in politica, che è un’attività “di seconda mano”, come scrive Sorice, questo è esattamente quello che accade in un comizio. Quando essere coinvolti significa essere catturati non dalla realtà, ma dalle parole giuste su un certo aspetto della stessa. Quello che fa più gioco a chi parla. Un “clickbait” mentale che può spedire la tua X in urna nel punto “giusto”. Ma non sempre per te.