Immaginate uno strumento informatico che automaticamente ci faccia capire quali sono le recensioni false e quelle vere circa un hotel, un ristorante, un servizio alberghiero in genere.

I maleintenzionati usano l’intelligenza artificiale per diffondere falsità e sconvolgere le elezioni, ma gli stessi strumenti possono essere riutilizzati per difendere la verità.

Le elezioni spagnole

Mancano ancora quasi quattro mesi alle elezioni regionali spagnole, ma Irene Larraz e il suo team di Newtral sono già pronti per l’impatto. Ogni mattina, metà del team di Larraz della società di media con sede a Madrid stabilisce un programma di discorsi e dibattiti politici, preparandosi a verificare le dichiarazioni dei politici. L’altra metà, che smaschera la disinformazione, analizza il web alla ricerca di falsità virali e lavora per infiltrarsi nei gruppi che diffondono bugie. Dopo le elezioni di maggio, prima della fine dell’anno dovrà essere indetta un’elezione nazionale, che probabilmente provocherà un’ondata di falsità online. “Sarà molto difficile”, afferma Larraz. “Ci stiamo già preparando”.

La proliferazione della disinformazione e della propaganda online ha comportato una battaglia in salita per i fact-checkers di tutto il mondo, che devono vagliare e verificare grandi quantità di informazioni in situazioni complesse o in rapida evoluzione, come l’invasione russa dell’Ucraina, la pandemia di Covid-19 o le campagne elettorali. Questo compito è diventato ancora più difficile con l’avvento dei chatbot che utilizzano modelli linguistici di grandi dimensioni, come ChatGPT di OpenAI, in grado di produrre testi dal suono naturale con un semplice clic, automatizzando essenzialmente la produzione di disinformazione.

Di fronte a questa asimmetria, le organizzazioni di fact-checking devono costruire i propri strumenti basati sull’IA per automatizzare e accelerare il loro lavoro. Non si tratta di una soluzione completa, ma i fact-checkers sperano che questi nuovi strumenti possano almeno evitare che il divario tra loro e gli avversari si allarghi troppo velocemente, in un momento in cui le aziende di social media stanno riducendo le proprie operazioni di moderazione.

“La gara tra i fact-checkers e coloro che controllano è impari”, afferma Tim Gordon, cofondatore di Best Practice AI, una società di consulenza per la strategia e la governance dell’intelligenza artificiale, e fiduciario di un ente di beneficenza britannico per il fact-checking.

“I fact-checkers sono spesso organizzazioni minuscole rispetto a quelle che producono disinformazione”, afferma Gordon. “La portata di ciò che l’IA generativa è in grado di produrre, e il ritmo con cui può farlo, significa che questa gara diventerà sempre più difficile”.

Newtral ha iniziato a sviluppare il suo modello linguistico AI multilingue, ClaimHunter, nel 2020, finanziato dai profitti della sua ala televisiva, che produce uno show di fact-checking sui politici e documentari per HBO e Netflix.

BERT … il tuo amico

Utilizzando il modello linguistico BERT di Microsoft, gli sviluppatori di ClaimHunter hanno utilizzato 10.000 dichiarazioni per addestrare il sistema a riconoscere le frasi che sembrano includere dichiarazioni di fatto, come dati, numeri o confronti. “Abbiamo insegnato alla macchina a svolgere il ruolo di un fact-checker”, spiega Rubén Míguez, chief technology officer di Newtral.

Individuare semplicemente le affermazioni fatte da personaggi politici e account di social media che devono essere verificate è un compito arduo. ClaimHunter rileva automaticamente le affermazioni politiche fatte su Twitter, mentre un’altra applicazione trascrive in testo i video e gli audio dei politici. Entrambe identificano ed evidenziano le dichiarazioni che contengono un’affermazione rilevante per la vita pubblica che può essere provata o confutata – cioè dichiarazioni che non sono ambigue, domande o opinioni – e le segnalano ai fact-checkers di Newtral per la revisione.

Il sistema non è perfetto e a volte segnala opinioni come fatti, ma i suoi errori aiutano gli utenti a riqualificare continuamente l’algoritmo. Secondo Míguez, il sistema ha ridotto del 70-80% il tempo necessario per identificare le affermazioni da verificare.

“Avere questa tecnologia è un enorme passo avanti per ascoltare più politici, trovare più fatti da verificare [e] sfatare più disinformazione”, dice Larraz. “Prima potevamo fare solo una piccola parte del lavoro che facciamo oggi”.

Newtral sta inoltre collaborando con la London School of Economics e con l’emittente ABC Australia per sviluppare uno strumento di “matching” delle affermazioni che identifica le dichiarazioni false e ripetute dei politici, facendo risparmiare tempo ai fact-checkers grazie al riciclo dei chiarimenti e degli articoli esistenti che sfatano le affermazioni.

La ricerca di automatizzare il fact-checking non è nuova. Il fondatore dell’organizzazione americana di fact-checking Politifact, Bill Adair, ha sperimentato per la prima volta nel 2013 uno strumento di verifica istantanea chiamato Squash presso il Reporters’ Lab della Duke University. Squash confrontava in diretta i discorsi dei politici con le precedenti verifiche dei fatti disponibili online, ma la sua utilità era limitata. Non aveva accesso a una biblioteca sufficientemente ampia di documenti verificati per incrociare le affermazioni, e le sue trascrizioni erano piene di errori che gli esseri umani dovevano ricontrollare.

“Squash è stato un primo passo eccellente che ci ha mostrato le promesse e le sfide del fact-checking dal vivo”, spiega Adair a WIRED. “Ora dobbiamo coniugare ciò che abbiamo fatto con i nuovi progressi dell’intelligenza artificiale e sviluppare la prossima generazione”.

Ma a distanza di un decennio, il fact-checking è ancora lontano dall’essere completamente automatizzato. Sebbene i modelli linguistici di grandi dimensioni (LLM) come ChatGPT siano in grado di produrre un testo che sembra scritto da una persona, non sono in grado di rilevare le sfumature del linguaggio e hanno la tendenza a inventare le cose e ad amplificare pregiudizi e stereotipi.

“I LLM non sanno cosa siano i fatti”, afferma Andy Dudfield, responsabile dell’intelligenza artificiale di Full Fact, un’associazione britannica di fact-checking, che ha anche utilizzato un modello BERT per automatizzare parti del suo flusso di lavoro di fact-checking. “Il fact-checking è un mondo molto sottile di contesti e avvertenze”.

Il punto di vista di A.I.LoveTourism

Dalla Politica alle camere di albergo

Riportiamo il tutto al topic dell’articolo. Potremmo utilizzare la stessa tecnologia per capire la qualità di un servizio alberghiero? Comprendere se i nostri soldi saranno ben spesi in quella camera, in quel ristorante, in quel bar?
Secondo il parere di A.I.LoveTourism, il nostro parere, tutto dipenderà da quanto il software rimarrà in forma “aperta” e non si trasformerà nel solito servizio a pagamento.
Essenzialmente, per due motivi: 1) la gratuità permetterà di far affluire continui dati e informazioni alla libreria Bert, con maggiore accuratezza nel fact checking; 2) un sistema “aperto” garantisce la neutralità del servizio stesso, con una accuratezza obbiettiva nella ricerca della veridicità delle recensioni.
Scrivici e …

Viaggia con Noi …nel poco noto

info@ailovetourism.com

via Ammiraglio Millo 9 .

Alberobello, Bari.

📞 +39 339 5856822

Nome
Email
Cognome
Messaggio libero
The form has been submitted successfully!
There has been some error while submitting the form. Please verify all form fields again.