• 3 diciembre, 2022

#Facebook elimina 583 millones de cuentas falsas en el primer trimestre de 2018

PorRicardo Cotta

May 15, 2018

Luego de los acontecimientos no favorables para Facebook, la compañía da nuevos indicios de confianza a sus usuarios.

Recientemente Facebook publicó su primer Informe de cumplimiento de normas comunitarias, que detalla qué tipo de acción tomó sobre el contenido que muestra violencia gráfica, desnudez de adultos y actividad sexual, propaganda terrorista, discurso de odio y correo no deseado.

Entre los números más notables: Facebook dijo que eliminó 583 millones de cuentas falsas en los tres meses que abarca el Q1 2018, frente a los 694 millones en el cuarto trimestre de 2017. Esto soporta las declaraciones que Facebook ha hecho al respecto al decir que son «millones» de cuentas falsas que la compañía atrapa antes de que puedan terminar de registrarse.

El informe llega unas semanas después de que Facebook publicara por primera vez directrices internas detalladas sobre cómo impone la eliminación del contenido.

Los números le dan a los usuarios una mejor idea del gran volumen de cuentas falsas que enfrenta Facebook. La compañía se ha comprometido en los últimos meses a utilizar la tecnología de reconocimiento facial, que también utiliza para sugerir a los amigos de Facebook que deben etiquetar en las fotos, para detectar cuentas falsas que podrían estar usando la foto de otra persona en sus fotos de perfil.

Sin embargo, un informe reciente del Washington Post descubrió que la tecnología de reconocimiento facial de Facebook puede estar limitada en la efectividad con la que puede atrapar cuentas falsas, ya que la herramienta aún no escanea una foto en contra de todas las imágenes publicadas por los 2.2 mil millones de usuarios del sitio para buscar cuentas falsas.

Facebook también proporcionó un desglose de la cantidad de contenido indeseable que eliminó durante el primer trimestre de 2018, así como la cantidad de información que marcó sus sistemas o los usuarios:

  • Se eliminaron 21 millones de piezas de contenido que muestran desnudez y actividad sexual adultas inapropiadas, el 96 por ciento de las cuales fueron marcadas primero por las herramientas de Facebook.
  • 3.5 millones de piezas de contenido violento fueron retiradas con una etiqueta de advertencia, 86% de las cuales fueron marcadas por las herramientas de Facebook.
  • Se eliminaron 2,5 millones de discursos de odio, 38% del cual fue marcado por las herramientas de Facebook.

Los números muestran que Facebook todavía depende predominantemente de otras personas para captar el discurso de odio, del que el CEO Mark Zuckerberg ha hablado antes, diciendo que es mucho más difícil construir un sistema de IA que pueda determinar un discurso como un «ataque directo contra personas basado en características protegidas: raza, etnia, origen nacional, afiliación religiosa, orientación sexual, sexo, género, identidad de género y discapacidad o enfermedad grave».

Facebook dice que continuará proporcionando números actualizados cada seis meses. El informe publicado el día hoy abarca desde octubre de 2017 hasta marzo de 2018, con un desglose que compara el contenido con el que la compañía tomó medidas en varias categorías en el cuarto trimestre de 2017 y el primer trimestre de 2018.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.