16 junio, 2024
Tecnología

Se usara inteligencia artificial contra noticias falsas y peligrosas hacia Facebook.

Facebook ha sido objetivo claro de muchas críticas ya que el año pasado por parte de personas dicen que la compañía no está haciendo lo suficiente para detener las múltiples criticas de odio de acoso en línea y difusión de noticias falsas. Para ser justos, la tarea de vigilar las actividades de 1,62 mil millones de usuarios diarios que generan 4 petabytes de datos, incluidas 350 millones de fotos, diarios  no es una tarea pequeña ya que no es fácil ser la plataforma social más grande del mundo.

La compañía ha sido sumamente criticada por decenas de grupos llevados por el odio difundan publicaciones ofensivas y amenazantes también por permitir grupos conspiracionistas y de ultraderecha, como QAnon, difundan libremente acusaciones políticas falsas. Los análisis académicos y gubernamentales de las elecciones presidenciales de 2016 revelaron evidencia de interferencia masiva por parte de actores nacionales y extranjeros, y parece que también se realizaron esfuerzos similares en las elecciones de 2020.  En facebook se emplea a 15.000 moderadores de contenido para realizar y revisar informes de mala conducta que van desde políticos hasta acoso, amenazas terroristas y explotación infantil. Por lo regular se han abordado los informes cronológicamente, y con frecuencia permiten que las acusaciones más graves no se aborden durante días mientras se revisan los problemas menores. Este viernes, Facebook informo que incorporará el aprendizaje automático al proceso de moderación. Se utilizaran algoritmos para detectar los problemas más graves y asignárselos a moderadores humanos. Los moderadores de software continuarán manejando el bajo nivel, como infracción de derechos de autor y el spam.

Se evaluarán publicaciones problemáticas según los criterios: viralidad, gravedad y probabilidad de que estén rompiendo las reglas. publicaciones llenas de obscenidades que amenacen con violencia en el sitio de disturbios raciales, por ejemplo, tendría la máxima prioridad, ya sea eliminada automáticamente por una máquina o asignada a un moderador para evaluación y acción inmediatas.