Hoy, Facebook lanzó su primer Informe de cumplimiento de normas comunitarias al público. Este informe incluye un inventario preliminar de contenido que infringe las reglas y la acción de eliminación que Facebook asumió.

El informe que se incluyó en el Informe general de transparencia de la compañía, cubre en gran parte el contenido en violación de los Estándares de la comunidad de Facebook que fue descubierto y eliminado de octubre de 2017 a marzo de 2018.

Se centra en el contenido que se divide en seis categorías principales:

  1. Violencia gráfica
  2. Desnudez y actividad sexual de adultos
  3. Propaganda terrorista (ISIS, al-Qaeda y afiliados)
  4. Discurso de odio
  5. Correo no deseado
  6. Cuentas falsas

A principios de este año, Facebook publicó su moderación de contenido y directrices internas de normas comunitarias, con la esperanza de arrojar luz sobre por qué ciertos elementos se eliminan de la red. En el contexto de este informe recién publicado, tal vez fue una movida anticipatoria antes de publicar las cifras de eliminación de contenido.

Aquí se presenta la naturaleza y el alcance de la eliminación de contenido en las seis categorías anteriores.

Facebook publica su primera … Ever Community Enforcement Enforcement Report

1. Graphic Violence

Facebook eliminó o colocó etiquetas de advertencia sobre aproximadamente 3,5 millones de fragmentos de contenido violento en el primer trimestre de 2018, 86% del cual fue marcado por su sistema de inteligencia artificial (IA) antes de que alguien lo reportara a Facebook.

El informe de cumplimiento de normas incluye una estimación del porcentaje total de vistas de contenido que consta de violencia gráfica. Por ejemplo, de todo el contenido visto en Facebook en el primer trimestre de 2018, la compañía informa que entre el 0,22% y el 0,27% violaron las normas de violencia gráfica.

 Captura de pantalla 2018-05-15 a las 11.04.29 a.m.

: Facebook

Eso es un aumento del 0.16% al 0.19% estimado en el cuarto trimestre de 2017 – "a pesar de las mejoras en nuestra tecnología de detección en el primer trimestre de 2018". La explicación de eso, dice el informe, se debe simplemente a una mayor cantidad de contenido de esta naturaleza publicado en Facebook.

Además, los 3.5 millones de contenido dentro de esta categoría – en la que Facebook tomó medidas – también es un aumento. El volumen de contenido detectado en el primer trimestre de 2018 aumentó de 1,2 millones en el cuarto trimestre de 2017.

Por lo tanto, aunque era probable que el contenido de este tipo compartido en la red aumentara, es probable que crezca el número de Facebook debido, dice el informe, a mejoras en sus sistemas de detección de IA.

2. Desnudez y actividad sexual para adultos

Facebook eliminó 21 millones de fragmentos de contenido que contiene desnudez y actividad sexual en el primer trimestre de 2018: el 96% de eso fue descubierto por su tecnología AI antes de que se informara.

Se predice que 0.07% a 0.09 % de todo el contenido visto en Facebook en Q1 2018 violó las normas para la desnudez y la actividad sexual de adultos en el 1T de 2018, por lo que aproximadamente siete a nueve vistas de cada 10.000.

 Screen Shot 2018-05-15 a las 11.15.32 a. m.

Fuente: Facebook

Eso es un aumento de seis a ocho visitas en el trimestre anterior, que es demasiado pequeño para que Facebook cuente qué podría estar causando eso. En el trimestre anterior, Facebook también tomó medidas sobre una cantidad similar de piezas de contenido dentro de esta categoría.

3. Propaganda terrorista

Facebook no cuenta actualmente con estadísticas sobre la prevalencia de la propaganda terrorista en su sitio, pero informa que eliminó 1.9 piezas de dicho contenido de la red en el primer trimestre de 2018.

 Captura de pantalla 2018-05 -15 at 11.21.19 AM

Fuente: Facebook

La interceptación de Facebook de 1.9 millones de fragmentos de contenido extremista ha aumentado más del 72% en el anterior trimestre, cuando se eliminó 1.1 millones de piezas de contenido de propaganda terrorista. [19659000] Una vez más, Facebook acredita a sus sistemas de detección de IA por este aumento: 99.5% de dicho contenido eliminado en Q1 2018 fue eliminado por estos sistemas, en comparación con 96.9% en el cuarto trimestre de 2017.

Facebook clasifica la propaganda terrorista como la que está "específicamente relacionada con ISIS, al-Qaeda y sus afiliados".

4. Hate Speech

Uno de los puntos de jactancia de Facebook en este informe es el hecho de que sus sistemas de inteligencia artificial fueron responsables de marcar y eliminar una buena parte del contenido que viola las normas en muchas de estas categorías.

Pero cuando se trata de discurso de odio, escribe el VP de Facebook de Product Management Guy Rosen en una declaración "nuestra tecnología todavía no funciona tan bien".

La revisión humana sigue siendo necesaria para captar todas las instancias de discurso de odio, Rosen explica, haciendo eco de muchas de las declaraciones hechas sobre Ética AI durante F8, la conferencia anual de desarrolladores de Facebook.

No solo se matiza el discurso del odio, sino también los humanos (que entrenan las máquinas artificialmente inteligentes diseñadas para ayudar a moderar el contenido ) tienen sus propios sesgos implícitos, que a veces pueden causar fallas en la forma en que se señala algo tan relativamente subjetivo como el discurso de odio.

No obstante, Facebook eliminó 2,5 millones de discursos de odio en Q1 2018, 38% del cual fue marcado por la tecnología AI. Actualmente no tiene estadísticas sobre la prevalencia de incitación al odio dentro de todo el contenido visto en el sitio.

 Captura de pantalla 2018-05-15 a las 11.23.31 a.m.

Fuente: Facebook

5. Spam

Facebook define el spam como "actividad no auténtica que es automática (publicada por bots o scripts, por ejemplo) o coordinada (usando múltiples cuentas para difundir y promover contenido engañoso)."

Representa otra categoría para la que Facebook no lo hace actualmente tiene cifras exactas de prevalencia, ya que dice que todavía está "actualizando los métodos de medición para este tipo de violación".

Sin embargo, el informe dice que 837 millones de piezas de contenido no deseado fueron eliminadas en Q1 2018 – un 15% aumento desde el cuarto trimestre de 2017.

 Captura de pantalla 2018-05-15 a las 11.39.38 a.m.

Fuente: Facebook

6. Cuentas falsas

"La clave para combatir el correo no deseado", escribe Rosen, "es eliminar las cuentas falsas que lo propagan".

Facebook eliminó aproximadamente 583 millones de cuentas falsas en el 1T 2018 – una disminución de más del 30%, muchos de los cuales fueron anulados casi inmediatamente después de su registro.

Y a pesar de estos esfuerzos, la compañía estima que entre el 3-4% de todas las cuentas activas en Facebook durante el Q1 2018 fueron falsas.

En cuanto a la disminución en la eliminación de cuentas falsas del trimestre anterior, Facebook señala "factores externos" como ciberataques que a menudo vienen con un diluvio de creación de cuentas falsas en la red, generalmente a través de scripts y bots, con el objetivo de difundir la mayor cantidad de spam y la información engañosa posible.

Debido a que estos factores ocurren con "variación", dice Facebook, el número de cuentas falsas en las que la empresa actúa puede variar de trimestre a trimestre .

Por qué Facebook publica esta información

En una declaración escrita por el VP de analítica de Facebook Alex Schultz, las razones de la compañía para hacer públicas estas cifras son bastante simples: en transparencia, hay responsabilidad.

"Medida realizada Right ayuda a las organizaciones a tomar decisiones inteligentes sobre las opciones que enfrentan ", escribe Schultz," en lugar de confiar únicamente en la anécdota o la intuición ".

Y a pesar de las sólidas ganancias del primer trimestre de 2018 también como una respuesta entusiasta de la audiencia en F8 Facebook todavía enfrenta un alto grado de escrutinio.

Mañana, por ejemplo, trae otra audiencia congresual sobre el Cambridge Analytica escándalo, donde el denunciante Christopher Wylie debe testificar ante el Comité Judicial del Senado de los EE. UU.

Esta semana, Facebook ha emitido un gran volumen de declaraciones y anuncios sobre sus crecientes esfuerzos en las áreas de transparencia y protección del usuario. La última vez que Facebook emitió un gran volumen de este tipo de contenido fue en las semanas previas a las audiencias del congresista Mark Zuckerberg.

Estos últimos anuncios podrían indicar preparativos para futuras audiencias, algunas fuera del

Facebook – Zuckerberg, específicamente – también está bajo creciente presión de las autoridades internacionales para testificar sobre la privacidad de los usuarios y la utilización de armas en su red para influir en las principales elecciones.

El Parlamento Europeo sigue presionando a Zuckerberg para que aparezca en una audiencia (ahora, está dispuesto a hacerlo en una sesión a puertas cerradas, según algunos informes ) después de que los rumores iniciales de tal testimonio surgieron en abril.

Además, los miembros del Parlamento del Reino Unido han sido particularmente acérrimos con la aparición de Zuckerberg ante ellos, después de que el reciente testimonio del CTO Mike Schroepfer presuntamente dejó varias preguntas sin respuesta.

En una carta abierta a Facebook del 1 de mayo, el presidente del Comité de Cultura de la Cámara de los Comunes, Damian Collins, escribió que "el comité decidirá emitir una citación formal para que [Zuckerberg] aparezca cuando sea el siguiente en Reino Unido. "

Ayer, Facebook de Reino Unido La jefa de políticas públicas Rebecca Stimson emitió una respuesta escrita a esa carta, en la que resumía las respuestas a las 39 preguntas que, según el Comité, no fueron respondidas por el testimonio de Schroepfer.

"Es decepcionante que una compañía con los recursos de Facebook decida no proporcionar un nivel suficiente de detalle y transparencia en varios puntos", respondió Collins ] hoy. "Esperábamos tanto detalles como datos, y en varios casos obtuvimos excusas".

Crédito de la imagen destacada: Facebook



Source link