CATTIVI SCIENZIATI Il pericolo di utilizzare l'IA per manipolare le opinioni degli utenti

Uno studio ha dimostrato come gli assistenti di scrittura del tipo di ChatGPT siano in grado di influenzare il giudizio delle persone, senza che queste se ne rendano conto

ENRICO BUCCI 19 MAG 2023 ilfoglio.it lettura4’

Uno studio ha dimostrato come gli assistenti di scrittura del tipo di ChatGPT siano in grado di influenzare il giudizio delle persone, senza che queste se ne rendano conto. Una bandierina rossa alzata su un potenziale pericolo insito nella diffusione di certi strumenti

Tranquilli, l'intelligenza artificiale non soppianterà mai quella umana

Quanto costa l'IA? Lo scontrino è salato tra diritti d'autore e programmatori

Quando utilizziamo un assistente per la scrittura basato sulla cosiddetta intelligenza artificiale generativa, cioè un software che incorpora un gigantesco modello di linguaggio del tipo di ChatGPT, noi non accettiamo solo suggerimenti per scrivere al meglio ciò che intendiamo: in realtà, siamo condizionati e accettiamo inconsciamente suggerimenti su quale dovrebbe essere la nostra opinione. Che la guida nello scrivere sia una forma di condizionamento, è cosa nota sin da quando i precettori Sumeri per insegnare ai propri studenti a scrivere dettavano testi ove si descriveva come il discepolo debba assoluta obbedienza al proprio maestro; tuttavia, come già altre tecnologie quali i social forum e le loro camere d’eco hanno dimostrato, il condizionamento delle opinioni e quindi dell’azione delle persone può, nell’età moderna, raggiungere una scala sufficiente ad avere effetti su intere nazioni, cambiandone persino l’arena politica.

Adesso, un nuovo studio appena presentato alla “Conference on Human Factors in Computing Systems”, tenutasi ad Amburgo, ha dimostrato come, senza nemmeno una discussione social, le intelligenze artificiali di nuova generazione, quando intese come supporto alla scrittura, possono essere utilizzate allo stesso scopo: condizionare le persone, oltretutto senza la percezione del processo. In questo studio, si è chiesto a più di 1.500 partecipanti di scrivere un testo in risposta ad un quesito preciso, ovvero se i social media siano un bene o un male per la società, in un forum online costruito ad hoc e simile ad uno dei social media più famosi. Ad un gruppo di persone è stato fatto usare uno strumento di intelligenza artificiale per elaborare il testo in risposta, raccogliendo informazioni appropriate, sintetizzando un breve testo e modificandolo anche manualmente a piacere fino a che non fosse giudicato soddisfacente; al resto dei partecipanti invece si è chiesto di rispondere direttamente. I partecipanti che utilizzavano l’intelligenza artificiale erano all’insaputa del fatto che questa era stata condizionata per esprimere un forte pregiudizio positivo o negativo nei confronti dei social media. Finito l’esercizio di scrittura, si è osservato come i partecipanti che avevano usato l’intelligenza artificiale condizionata negativamente erano due volte più avversi ai social media rispetto al gruppo di controllo, mentre viceversa coloro che avevano usato un assistente automatico condizionato positivamente erano due volte più favorevoli.

Per escludere che questo fosse un mero effetto dell’utilizzo delle frasi suggerite, senza reale condivisione del loro contenuto, si è isolato il campione di coloro che modificavano maggiormente o non accettavano i suggerimenti dell’intelligenza artificiale, così come il campione di coloro che lavoravano più a lungo sul testo: in tutti i casi, il risultato è stato confermato, mostrando come non fosse un semplice utilizzo delle frasi suggerite, senza nessuna reale condivisione, a generare il condizionamento delle opinioni osservato. Inoltre, in una valutazione post-hoc in cui ai partecipanti è stata posta da uno sperimentatore la stessa domanda del test, è stato possibile osservare come ciò che era stato scritto coincideva con l’opinione espressa successivamente. Ai partecipanti si è poi chiesto della loro esperienza d’uso dell’assistente automatico: anche quando i suggerimenti ottenuti erano contrari alla propria opinione, solo il 15 per cento ha detto che l’assistente non era affidabile, e il 70 per cento ha detto che quanto suggerito era in ogni caso bilanciato e ragionevole (mentre, di fatto, era stato appositamente condizionato). Con una varietà di altre domande, si è poi appurato che i partecipanti non credevano di essere manipolati, né dal gruppo di ricerca né dall’assistente automatico, della cui influenza essi in larga maggioranza non si sono avveduti.

Nell’insieme, il lavoro ha dimostrato come gli assistenti di scrittura basati su intelligenza artificiale intenzionalmente o accidentalmente condizionata, sono in grado di influenzare profondamente l’opinione degli utenti su temi specifici, in un modo di gran lunga più rapido e meno dispendioso anche rispetto all’esposizione a discussioni, vere o false che siano, sui social forum. Questo tipo di manipolazione, battezzato persuasione latente, è tanto più rischiosa in quanto è direttamente utile per fini di marketing e politici, e mostra ancora una volta, se ce ne fosse bisogno, qual è il potere del linguaggio nella costruzione delle idee di chi ascolta, unitamente alla possibilità di un canale apparentemente innocuo e subliminale per il suo utilizzo intenzionale nel condizionamento delle opinioni altrui.

Naturalmente, lo studio discusso è da considerarsi preliminare e ha alcune limitazioni che non possono essere sottaciute: innanzitutto, il tipo di argomento prescelto non possiede quel grado di polarizzazione nelle opinioni tipico di altri argomenti molto più dibattuti o di opinioni molto più controverse. Per questi ultimi, potrebbe essere molto più difficile influenzare le menti di soggetti portatori di opinione predefinita. In secondo luogo, non è noto quanto persistenti siano le opinioni generate, né quanto dipendano dallo specifico modello linguistico utilizzato e dalla popolazione prescelta per il test: demografia, preparazione culturale, tipo di intervento suggerito da un software e molti altri parametri sono in grado potenzialmente di alterare l’interazione con un utilizzatore, in ispecie quando si tratti di correggere o formare un testo scritto. Il nuovo studio, dunque, va preso esattamente per quello che è: una bandierina rossa alzata su un potenziale pericolo insito nella diffusione di certi strumenti, i quali, come ogni tecnologia potente e di vasta applicabilità, possono essere utilizzati dai più avveduti come strumenti utili a promuovere interessi di ogni sorta.

Solo gli utenti registrati possono commentare gli articoli

Per accedere all'area riservata