Non solo siti web e social network, ma anche l’intelligenza artificiale sarebbe al centro di una massiccia campagna di propaganda orchestrata dal governo di Tel Aviv. Secondo i giornalisti di Haaretz, si tratterebbe di un investimento di 100 milioni di dollari che negli ultimi mesi sono stati usati per promuovere l’immagine di Israele negli Stati Uniti. Il progetto che la testata israeliana associa al concetto di Hasbara, termine ebraico che può essere tradotto come “diplomazia pubblica israeliana”, ha come obiettivo dichiarato quello di influenzare categorie di cittadini dell’area conservatrice che un tempo erano considerate automaticamente come sostenitrici di Israele e che oggi avrebbero assunto posizioni più critiche. In particolare i giovani repubblicani e le comunità evangeliche.
I contratti conclusi con società specializzate nella comunicazione online prevedono un’accurata profilazione dei bersagli della campagna di propaganda, anche attraverso strumenti che permettono di individuarne il luogo di residenza. Il contratto più importante è stato firmato lo scorso agosto e coinvolge Clock Tower X, società di proprietà di Brad Parscale a cui si è già rivolto Donald Trump fin dal 2016. Parscale è oggi a capo di Salem Media Network, un gruppo cristiano conservatore che può contare su oltre 200 stazioni radio e siti web.
Stando alle informazioni raccolte da Haaretz, il volume di fuoco messo in campo sarebbe impressionante e prevederebbe la pubblicazione di più di 5.000 contenuti al mese, realizzati anche attraverso il coinvolgimento di influencer. L’aspetto più inquietante, però, riguarda il fatto che uno degli obiettivi del programma Hasbara sarebbe quello di andare a influenzare i chatbot alimentati da intelligenza artificiale generativa, come ChatGPT e Claude. In pratica, la strategia prevede di inondare il web di contenuti filo-israeliani per influenzare gli algoritmi, spostandone così il baricentro e garantendosi un trattamento più favorevole nel momento in cui gli utenti chiedono informazioni su argomenti spinosi come l’antisemitismo o l’attacco nella striscia di Gaza.
Chi usa l’intelligenza artificiale per cercare informazioni tende a considerare i chatbot come una fonte affidabile e oggettiva. In realtà, numerosi studi dimostrano come sia possibile influenzare gli algoritmi semplicemente diffondendo contenuti con particolari caratteristiche, che vengono utilizzati dall’AI per aggiornare i suoi dati. Il condizionamento dell’AI generativa, che tecnicamente viene definito con il termine di poisoning, cioè avvelenamento, è uno dei temi caldi del momento. Fino a ora, però, era considerato solo come un problema di sicurezza. Adesso rischia di diventare uno degli strumenti più efficaci nelle mani di chi fa propaganda online, trasformandosi in qualcosa di ben più pericoloso delle semplici campagne di fake news a cui abbiamo assistito negli scorsi anni sui social network.


