Facebook chiude miliardi di account fake, i dati del report di moderazione

facebook, Zuckerberg
Immagine da Pixabay

Facebook irrigidisce sempre più la policy di moderazione dei contenuti. Mark Zuckerberg ha fatto sapere che miliardi di account fasulli sono stati chiusi. Se la pratica delle immagini proibite fila liscio, restano i problemi legati ai content scritti

Facebook si fa intelligente, ce lo dice Zuckerberg. Il sistema di moderazione artificiale sembra inizi a funzionare e anche bene. Tuttavia resta ostico il campo della gestione dei contenuti scritti. Se si scova con molta facilità l’utilizzo di immagini non adatte a girare sui social, più complicato è mettere i puntini sulle i quando si tratta di conversazioni.

Il problema riguarda la difficile distinzione tra offesa e scherzo verbale che ad oggi l’intelligenza artificiale di Facebook non è ancora in grado di rilevare. Questi dati emergono dal terzo Community Standards Enforcement Report, pubblicato da Mark Zuckerberg. Il rapporto riguarda l’ultimo quarto del 2018 e il primo affondare del 2019.

Questo dettagliato cronogramma di dati spiega come nell’arco di tempo analizzato, immagini di violenza, terrorismo e pedopornografiche siano state scovate e rimosse. Resta alto invece il tasto d’emergenza del cyber bullismo, progettato dagli haters e dei cosiddetti leoni da testiera. Se nel caso delle immagini il tempestivo intervento del team di Facebook sale al 65% dei casi, per gli episodi di odio in rete resta ferma al 14%.

Per quanto riguarda i fake su Facebook, Zuckerberg ci tiene a precisare con orgoglio, che nel 2018 sono stati chiusi 1,2 miliardi. Dato cresciuto nell’anno in corso fino a 2,19 miliardi nel solo primo trimestre. “Non è abbastanza, ma i risultati sono incoraggianti” ha dichiarato Guy Rosen, vice presidente di Facebook.

Una possibile manovra di superamento di questi limiti legati al linguaggio, potrebbe risiedere secondo Zuckerberg nella disciplina legislativa. Quindi un ricorso a regole ben precise e regolamentate, potrebbero rappresentare il giusto supporto al team di moderazione che ogni giorno lotta contro l’odio online. Il programma è dispendioso, il budget supera i guadagni di Facebook fatturati nel 2015, tuttavia necessario.