La faccenda riguarda da vicino QAnon, vista la sua discendenza dalle campagne di Trump, pesantemente basata su alt-media, chat, bioards e forum.(da wired, 14 sett 2018)
I meme sono le munizioni più efficienti e abbondanti, ed una AI che riesca a bloccarli significa una vera e propria censura del pensiero, pre-cog, quasi.
MILIARDI DI messaggi DI TESTO , foto e video vengono caricati sui social media ogni giorno, un insieme di informazioni che è impossibile per i moderatori umani esaminare in modo completo. E così aziende come Facebook e YouTube hanno a lungo fatto affidamento sull'intelligenza artificiale per aiutare a far emergere cose come lo spam e la pornografia.
Qualcosa come un meme supremacista bianco, tuttavia, può essere più difficile per le macchine da contrassegnare, poiché l'attività richiede l'elaborazione di diversi elementi visivi contemporaneamente. I sistemi automatici devono rilevare e "leggere" le parole che sono sovrapposte sulla parte superiore della foto, nonché analizzare l'immagine stessa. I meme sono anche complicati artefatti culturali, che possono essere difficili da comprendere fuori dal contesto. Nonostante le sfide che portano, alcune piattaforme sociali stanno già utilizzando l'intelligenza artificiale per analizzare meme, tra cui Facebook, che questa settimana ha condiviso dettagli su come utilizza uno strumento chiamato Rosetta per analizzare foto e video che contengono testo.
Facebook dice che utilizza già Rosetta per aiutare a rilevare automaticamente i contenuti che violano le cose come la sua politica di incitamento all'odio. Con l'aiuto dello strumento, Facebook ha annunciato anche questa settimana che sta espandendo il suo sforzo di controllo di terze parti per includere foto e video, non solo articoli basati su testo. Rosetta aiuterà nel processo verificando automaticamente se le immagini e i video che contengono testo sono stati precedentemente contrassegnati come falsi.
Rosetta funziona combinando la tecnologia di riconoscimento ottico dei caratteri (OCR) con altre tecniche di apprendimento automatico per elaborare il testo trovato in foto e video. Innanzitutto, utilizza l'OCR per identificare dove si trova il testo in un meme o video. Probabilmente hai già usato qualcosa come l'OCR; è ciò che ti permette di scansionare rapidamente un modulo cartaceo e trasformarlo in un documento modificabile. Il programma automatizzato sa dove si trovano i blocchi di testo e può distinguerli dal luogo in cui si suppone che tu firmi il tuo nome.
Una volta che Rosetta sa dove sono le parole, Facebook utilizza una rete neurale che può trascrivere il testo e comprenderne il significato. Quindi può alimentare quel testo attraverso altri sistemi, come quello che controlla se il meme riguarda una beffa virale già ridimensionata.
I ricercatori dietro a Rosetta dicono che lo strumento ora estrae il testo da ogni immagine caricata pubblicamente su Facebook in tempo reale, e può "leggere" il testo in più lingue, tra cui inglese, spagnolo, tedesco e arabo. (Facebook dice che Rosetta non è usata per scansionare le immagini che gli utenti condividono in privato sulle loro linee temporali o nei messaggi diretti).
Rosetta può analizzare immagini che includono testo in molte forme, come foto di segni di protesta, menu di ristoranti, vetrine e altro. Viswanath Sivakumar, un software engineer di Facebook che lavora su Rosetta, ha dichiarato in una email che lo strumento funziona bene sia per identificare il testo in un paesaggio, come in un segnale stradale, sia per i meme, ma che quest'ultimo è più impegnativo. "Nel contesto del rilevamento proattivo di discorsi di incitamento all'odio e di altri contenuti che violano le norme, le immagini in stile meme rappresentano la sfida più complessa dell'IA", ha scritto.
A differenza degli umani, un'IA ha anche bisogno di vedere decine di migliaia di esempi prima che possa imparare a completare un compito complicato, dice Sivakumar. Ma i meme, anche per Facebook, non sono infinitamente disponibili e anche la raccolta di esempi sufficienti in diverse lingue può rivelarsi difficile. Trovare dati di formazione di alta qualità è una sfida continua per la ricerca sull'intelligenza artificiale in generale. Spesso i dati devono essere scrupolosamente etichettati con le mani e molti database sono protetti dalle leggi sul copyright .
"Nel contesto del rilevamento proattivo di discorsi di incitamento all'odio e di altri contenuti che violano le norme, le immagini in stile meme rappresentano la sfida più complessa dell'IA."
VISWANATH SIVAKUMAR, FACEBOOK
Per addestrare Rosetta, i ricercatori di Facebook hanno utilizzato immagini pubblicate pubblicamente sul sito che contenevano qualche forma di testo, insieme alle didascalie e alla posizione da cui erano state pubblicate. Hanno anche creato un programma per generare ulteriori esempi, ispirato a un metodo ideato da un team di ricercatori dell'Università di Oxford nel 2016. Ciò significa che l'intero processo è automatizzato in una certa misura: un programma sputa automaticamente i meme, e poi un altro cerca di analizzare loro.
Diverse lingue sono impegnative per il team AI di Facebook in altri modi. Ad esempio, i ricercatori hanno dovuto trovare una soluzione alternativa per far funzionare Rosetta con lingue come l'arabo, che vengono lette da destra a sinistra, al contrario di altre lingue come l'inglese. Rosetta "legge" l'arabo all'indietro, quindi dopo l'elaborazione, Facebook inverte i caratteri. "Questo trucco funziona sorprendentemente bene, permettendoci di avere un modello unificato che funzioni per entrambe le lingue, da sinistra a destra e da destra a sinistra", hanno scritto i ricercatori nel loro post sul blog.
Mentre i sistemi automatici possono essere estremamente utili per la moderazione dei contenuti, non sono sempre infallibili. Ad esempio, WeChat , il social network più popolare in Cina, utilizza due diversi algoritmi per filtrare le immagini, che un team di ricercatori dell'Universisty of Toronto Citizen Lab è riuscito a trucidare con successo. Il primo, un programma basato su OCR, filtra le foto che contengono testo su argomenti proibiti, mentre l'altro censura immagini che sembrano simili a quelle su una lista nera probabilmente creata dal governo cinese.
I ricercatori sono stati in grado di eludere facilmente i filtri di WeChat modificando le proprietà di un'immagine, come la colorazione o il modo in cui era orientata. Mentre la Rosetta di Facebook è più sofisticata, probabilmente non è perfetta neanche; il sistema potrebbe essere bloccato da un testo difficile da leggere o da caratteri deformati. Tutti gli algoritmi di riconoscimento delle immagini sono ancora potenzialmente suscettibili agli esempi di contraddittorio , immagini leggermente alterate che sembrano identiche agli umani ma che fanno sì che l'intelligenza artificiale vada in tilt.
Facebook e altre piattaforme come Twitter, YouTube e Reddit sono sottoposte a tremende pressioni in diversi paesi per controllare determinati tipi di contenuti. Mercoledì scorso, l'Unione Europea ha proposto una nuova legislazioneche impone alle società di social media di rimuovere i posti di terroristi entro un'ora dalla notifica, o di affrontare multe. Rosetta e altri strumenti simili sono quelli che aiutano già Facebook e altre piattaforme a rispettare leggi simili in posti come la Germania.
E stanno migliorando il loro lavoro: due anni fa il CEO Mark Zuckerberg ha affermato che i sistemi di intelligenza artificiale di Facebook hanno catturato proattivamente solo metà del contenuto dell'azienda; la gente doveva prima contrassegnare il resto. Ora, Facebook afferma che i suoi strumenti di intelligenza artificiale rilevano quasi il 100% dello spam che viene rimosso, così come il 99,5% dei contenuti di terroristi e l'86% di violenza grafica. Altre piattaforme, come YouTube, hanno riscontrato un successo simile utilizzando i sistemi di rilevamento automatico dei contenuti.
Ma quei numeri promettenti non significano che i sistemi di IA come Rosetta sono una soluzione perfetta, specialmente quando si tratta di forme più sfumate di espressione. A differenza di un menu del ristorante, può essere difficile analizzare il significato di un meme senza conoscere il contesto in cui è stato pubblicato. Ecco perché ci sono interi siti Web dedicati a spiegarli. I meme spesso raffigurano scherzi, o sono altamente specifici per una certa sottocultura online. E AI non è ancora in grado di comprendere un meme o un video nello stesso modo in cui lo farebbe una persona. Per ora, Facebook dovrà comunque fare affidamento su moderatori umani per prendere decisioni in merito alla possibilità di eliminare un meme.
Nessun commento:
Posta un commento