I francesi hanno introdotto un’innovazione: d’ora in poi l’intelligenza artificiale bloccherà i commenti pieni di incitamento all’odio

“Il torneo di tennis Roland-Garros 2023 di quest’anno è stato il primo evento di questa portata a utilizzare la piattaforma di filtraggio dei social media Bodyguard.ai”. Questo programma ha garantito un migliore stato emotivo dei tennisti durante il torneo e ha impedito loro di chiudersi in se stessi a causa di feedback negativi. In questo modo gli atleti potrebbero concentrarsi meglio durante la partita e non essere distratti dai contenuti dei social media”, afferma Justina Antropik, responsabile dei contenuti dei canali digitali di Tele2.

Filtraggio dell’incitamento all’odio

I francesi hanno presentato una tecnologia innovativa – “Guardia del corpo.aiè un programma potenziato dall’intelligenza artificiale in grado di filtrare lo spazio pubblico e bloccare istantaneamente l’accesso a post e commenti odiosi.

“Questa applicazione è progettata per proteggere le persone famose da contenuti negativi su di loro. Può essere utilizzata da atleti, personaggi famosi, star degli eSport. Sfortunatamente, in questo momento questo servizio non è offerto ai privati”, osserva J. Antropik.

Perché è necessario filtrare i social media?

Filtrare l’incitamento all’odio aiuta gli atleti a evitare le distrazioni e a concentrarsi sulle emozioni negative. Gli atleti del Roland-Garros 2023 che hanno utilizzato il servizio Bodyguard.ai hanno visto i contenuti trapelare sui loro account sui social media non solo durante l’evento, ma anche nei giorni precedenti e successivi.

Gli atleti o le celebrità che desiderano iniziare a utilizzare il filtro dei social media devono solo scansionare il codice QR prima di aprire i propri account sui social media. Questo plugin non filtra i messaggi privati, quindi le conversazioni rimangono private. Puoi anche vedere le statistiche generali: il rapporto tra commenti negativi e positivi e il numero di commenti nascosti.

Come funziona il filtraggio dei social media?

Bodyguard.ai fornisce il filtraggio dei contenuti in sei lingue: inglese, francese, spagnolo, italiano, portoghese e tedesco. L’app controlla i commenti nel suo sistema per volgarità, insulti o commenti dispregiativi.

Il programma, che viene costantemente migliorato, è in grado di rilevare in modo specifico insulti scritti male, emoticon ambigue. I commenti vengono quindi ordinati in tre categorie: quelli nascosti automaticamente, quelli che si consiglia di nascondere e quelli positivi.

Per adattarsi a ogni ambito e alla cultura dei propri utenti, l’applicazione consente di modificare il filtraggio. Ad esempio, gli e-sport sono caratterizzati da espressioni più appassionate, i commenti usano spesso volgarità, quindi la barra del filtro può essere più bassa.

Vota questo articolo

Per migliorarti, ti diamo l’opportunità di valutare il contenuto di LOGIN.LT che leggi.

(3 persone valutato)

3.6667

Cecilio Fiorentini

"Ninja di Twitter. Esploratore devoto. Fanatico del web. Secchione della birra. Difensore di Internet amante degli hipster."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *