Facebook publicó su “Reporte de Transparencia” donde, por primera vez, brinda información sobre cómo implementa sus estándares corporativos de cumplimiento de sus términos de servicio para la remoción de contenidos o eliminación de cuentas de usuarios que realizó por decisión propia y no por exigencia de autoridades estatales o de terceros (reclamos de propiedad intelectual, por ejemplo).

El reporte focaliza en distintos tipos de “contenido inapropiado” a partir de seis áreas definidas como: violencia gráfica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas.

El Reporte de Transparencia informa que sólo en el primer trimestre de 2018 Facebook eliminó 837 millones de mensajes no deseados (spam) y desactivó 583 millones de cuentas falsas. La compañía estima que las cuentas falsas representan entre el 3 y 4% de los usuarios activos mensuales. Además, se eliminaron 21 millones de publicaciones de “desnudos de adultos o material pornográfico”; se dieron de baja o se colocaron advertencias sobre 3,5 millones de publicaciones de “contenido violento” y se eliminaron 2,5 millones de artículos que contenían “discurso de odio”.

El informe de Facebook enfatiza sobre el rol de la tecnología (algoritmos) en la detección de las violaciones a sus términos y condiciones, antes de que lo adviertan los usuarios de la red social.

Si bien esta información representa un avance en términos de transparencia y rendición de cuentas hacia los usuarios (aún en un plano voluntario), estas cifras precisan de un mayor grado de desagregación, acompañado de un análisis profundo en materia de su impacto en la libertad de expresión. El uso de términos vagos como “contenido inapropiado” o “contenido violento” no se corresponden con los estándares internacionales que exigen establecer criterios precisos y claros, y una información más detallada sobre las razones de la eliminación de contenidos de sus usuarios podría mostrar que no se estén eliminado del debate público informaciones, imágenes y discursos que están protegidos por el derecho a la libertad de expresión.

Por ejemplo, para evitar que dentro del término “contenido inapropiado” no haya casos como los reportados por el gobierno de Brasil en 2016 ante la Comisión Interamericana de Derechos Humanos (CIDH) por el ejercicio de censura privada de contenidos, a partir de un episodio por el cual la red social había removido en abril de 2015 una imagen de indígenas desnudos, que el Ministerio de Cultura utilizaba para promocionar una muestra de fotografía.

Otro caso emblemático de censura privada fue el de la remoción de la imagen de la “niña del napalm” de Vietnam que había sido publicada por la Primer Ministro de Noruega, Erna Solberg.

El informe de Facebook llega luego del escándalo de Cambridge Analytica y la presentación de Marc Zuckerberg ante el Senado de Estados Unidos. Allí terminó por afirmar que no estaba seguro “que no debamos ser regulados… Pienso que la pregunta es más cuál es la regulación correcta que si sí o no debería ser regulado”.

Pero en un intento por aferrarse al terreno de la autorregulación o regulación privada, la compañía optó por dar un primer paso hacia una mayor transparencia de la “fórmula de los algoritmos” con la difusión de los criterios que utiliza para el cumplimiento de sus normas de servicio y ahora con estadísticas sobre la aplicación de dichos criterios.