Project Debater: l’AI di IBM che partecipa alle discussioni

by Redazione
algoritmo di project debater

Può una macchina convincere le persone? È la domanda che si sono posti alcuni ricercatori dell’IBM di Haifa, che per dare una risposta esaustiva hanno pensato di “sperimentare una discussione” con l’intelligenza artificiale da loro realizzata.

L’algoritmo in questione si chiama Project Debater, e discute quasi come un essere umano. Ad approfondire l’argomento è stata la rivista Nature, che ha scritto un editoriale su questo straordinario esperimento, dietro il quale si intravede uno spiraglio di futuro, caratterizzato dall’AI.

L’esperimento di IBM

L’esperimento messo in campo dall’IBM di Haifa è stato semplice quanto sorprendente. Di fronte si sono trovati a discutere una macchina dotata di intelligenza artificiale con una persona in carne ed ossa. A giudicare il loro scambio di battute un pubblico, altrettanto vero, che ha valutato le risposte e la capacità di interagire e relazionarsi della macchina, rivelatesi molto credibili e simili a quelle di un essere umano. Un risultato che dimostra come l’intelligenza artificiale sia arrivata, per capacità di imitazione ed elaborazione, a replicare il linguaggio umano.

I risultati di questa ricerca evidenziano però un problema di urgente risoluzione. È necessario infatti rendere più trasparente il funzionamento della macchina, in modo che l’interlocutore di turno capisca se si sta relazionando con un altro essere umano oppure con un intelligenza artificiale. Ancora più preoccupante è il tema, che necessita di regolamentazione, riguardante la manipolazione che una persona potrebbe subire, che rende imprescindibile una supervisione.

L’algoritmo di Project Debater

Project Debater è programmato per sostenere dibattiti su almeno 100 argomenti, e se a sorprendere non è l’idea in sé, fondata sull’AI che non è certo un tema nuovo e inesplorato, ciò che lascia senza parole è l’accuratezza e la qualità delle informazioni e la strategia comunicativa della macchina, capace di sostenere le proprie opinioni senza cadere nella polemica, arrivando ad utilizzare strutture linguistiche complesse e raffinate.

L’esperimento vero e proprio è iniziato con una dichiarazione di quattro minuti, fatta da ciascun interlocutore, alla quale sono seguite diverse risposte ed un riepilogo finale. Lo spettro degli argomenti, ampio e di largo respiro, ha toccato tematiche rilevanti e di una certa importanza, come le sovvenzioni da parte dello stato verso le scuole materne. Ebbene, l’AI ha ricevuto valutazioni positive da parte del pubblico che l’ha ascoltata, anche se, pur eguagliando i suoi interlocutori umani per conoscenza dei temi e capacità di persuasione, non sempre la fluidità di linguaggio è stata all’altezza.

Project Debater riesce ad affrontare un vero e proprio dibattito, proponendo argomentazioni di qualità e senza cadere nella polemica.

Project Debater è un algoritmo programmato per costruire argomentazioni e discorsi su un gran numero di dati pre-esistenti. Il suo database è composto da oltre 400 milioni di articoli di quotidiani e giornali. Quando si trova a dover trattare un argomento estrapola dalla sua enorme banca dati i testi che hanno attinenza con il tema e infine ordina e prepara il materiale che può risultare utile e pertinente in fase di dibattito.

L’idea si basa sul deep learning, la generazione del linguaggio e la sua interpretazione. Un sistema già in uso da diverso tempo e che negli ultimi anni ha fatto passi da gigante, aprendo il campo alle straordinarie potenzialità ancora inesplorate dell’intelligenza artificiale. A fare da pioniere è stato il modello GPT (Generative Pretrained Transformer) ideato da OpenAI, una società situata in California, a San Francisco, superato e migliorato poi dalla versione GPT-2 e GPT-3, strutturato da miliardi di parole catturate da siti web, articoli e libri.

La necessità di una regolamentazione

Un anno fa l’AI di GPT-3 è stata utilizzata per scrivere un articolo sul quotidiano The Guardian. All’interno del testo la macchina sottolineava come non avesse la minima intenzione di sostituirsi all’essere umano o recare alcun fastidio o danno. Si può credere a questa affermazione visto che si tratta di un’intelligenza artificiale di produzione umana, che da questi ultimi prende spunti e ispirazione. E se allora cominciasse a replicare, imitando i suoi modelli, i pregiudizi umani? Il razzismo? L’odio? L’intolleranza?

Il tema è scottante e da più parti, compresi gli esperti che si occupano di AI, è unanime il parere che le persone debbano essere consapevoli che l’interlocutore con il quale si stanno relazionando sia una macchina, piuttosto che un essere umano. In merito la posizione dell’IBM è chiara: gli algoritmi di Project Debater sono aperti al pubblico e a disposizione di chiunque voglia consultarli e inoltre il suo sintetizzatore vocale non è modificato in modo da somigliare alla voce umana, proprio per poterlo riconoscere.

È fondamentale saper gestire gli algoritmi, disciplinandone l’utilizzo con regole che impediscano qualsiasi forma di manipolazione da parte della macchina.

Sebbene attualmente sia piuttosto irrealistico ipotizzare che questo modello possa condizionare le decisioni e i giudizi delle persone, occorre però riflettere sulla possibilità che questo un domani possa succedere. Quando cioè l’AI non solo attingerà le informazioni dal suo database, ma metterà in campo anche quelle strategie, proprie della mente umana, quali l’interpretazione del suo pubblico e la scelta delle parole più giuste, per convincere e persuadere, con il risultato che gli algoritmi possano divenire più manipolatori. Il rischio è quello di vedere una macchina capace di ricorrere a un linguaggio persuasivo, facendo leva sull’emotività, sicuramente più efficace della logica nell’arte della persuasione.

È ampiamente dimostrato che gli oratori più capaci non sono quelli che si basano sui fatti, né quelli che dicono necessariamente cose vere, bensì coloro che sanno parlare al cuore e smuovono emozioni.
Capacità che l’AI attuale non è ancora in grado di interpretare, ma prima che il danno sia fatto, è preferibile anticipare i tempi e regolamentare fin da subito le possibili conseguenze di un’intelligenza artificiale in grado di essere anche empatica.

Condividi questo articolo su:
0 comment
0

Leggi altri articoli sul tema!

La tua opinione sull'argomento!