Los usuarios pueden transmitir "en vivo" los intentos de autolesionarse porque Facebook no quiere censurar o castigar a las personas en situaciones difíciles. Los vídeos de muertes violentas, aunque marcados como "imágenes que pueden herir la sensibilidad", no siempre deben ser eliminados porque pueden ayudar a crear cocienca antes asuntos como las enfermedades mentales. Algunas fotos de abuso físico no sexual o de acoso a niños no deben ser borrados a menos que exista un elemento sádico o de celebración...
1. Comentarios como 'Alguien debe darle un tiro a Trump' deben ser eliminados, ya que como presidente se encuentra en una categoría protegida. Sin embargo, se podría permitir decir: "Para romper el cuello de un perro asegúrese de aplicar toda la presión en la mitad de su garganta" o "vete a la mierda y muérete" porque no son consideradas amenazas creíbles.
2. Los vídeos de muertes violentas no siempre tienen que ser borrados, ya que pueden ayudar a concienciar sobre problemas tales como una enfermedad mental.
3. Algunas imágenes de abuso físico no sexual y de intimidación de niños tampoco tienen que ser eliminadas a menos que haya un componente sádico.
4. Las fotos de abusos a animales se pueden compartir. Si el contenido es realmente perturbador se clasifica como tal pero no se eliminará.
5. Se puede compartir arte que muestre desnudez o actividad sexual si "está hecha a mano". Sin embargo, si se trata de arte digital de la misma temática no estará permitido.
6. Se permiten vídeos de abortos, siempre y cuando no haya desnudos.
7. Facebook permitirá retransmisiones en vivo de intentos de autolesión, ya que "no quiere censurar o castigar a personas en peligro".
8. Cualquier persona con más de 100.000 seguidores se designará como una figura pública, y se le negará todas las protecciones dadas a los individuos privados.
Hasta aquí algunas de las reglas "secretas" de Facebook, reveladas por una investigación de The Guardian, que ha examinado un largo centenar de manuales internos sobre los criterios que la red social usa para regular las imágenes y los contenidos de sexo, violencia o terrorismos entre sus 1.940 millones de usuarios en todo el mundo.
Los Facebook Files ("Papeles de Facebook") sacan a la luz las dificultades crecientes que el gigante de la redes sociales -con 18.700 empleados en todo el mundo- está teniendo para controlar los contenidos y para hacer frente a las crecientes presiones políticas en Europa y en Estados Unidos, donde se le acusa de haber contribuido a la elección de Donald Trump con la difusión de noticias falsas.
Según 'The Guardian', Facebook reconoce en un documento interno que recibe hasta 6,5 millones de quejas todas las semanas relacionadas con potenciales cuentas falsas -conocidas en erga como FNRP (fake, not real person)- usadas principalmente para la propagación de "fake news".
Pese a los esfuerzos de la compañía para detectar la difusión de "fake news" y supervisar los contenidos de la red (con la contratación de más de 3.000 nuevos moderadores), los empleados de la compañía reconocen que están desbordados por la avalancha de información y que disponen muchas veces "solamente diez segundos" para tomar una decisión.
"Facebook no puede controlar sus contenidos porque se ha hecho demasiado grande y demasiado rápido", reconoce a The Guardian un empleado de la compañía, que tiene que bregar a diario con más de 300 millones de descargas de imágenes alrededor del mundo.
Facebook ha sido acusado de ser excesivamente tolerante con los contenidos que intercambian sus usuarios y de haber convertido la red en un refugio para misóginoss y racistas. En un documento "secreto", revelado por el diario británico, la compañía reconoce que "la gente usa lenguaje violento para expresar su frustración online" y garantizar a sus usuarios que "se sientan seguros de poder hacerlo".
Los manuales internos autorizan a los moderadores a "ignorar" imágenes sexualmente explícitas (salvo que incluyan violencia sexual) o imágenes de abusos de animales (solamente las fotos o vídeos más extremos deben llevan la advertencia de "imágenes que pueden herir la sensibilidad).
Los mensajes o vídeos que ensalzar a organizaciones terroristas deben ser eliminados, aunque los mensajes en los que se critica el terrorismo pueden ser ignorados. Asuntos como el "revenge porno" o incluso el canibalismo merecen también mención aparte en los manuales internos de la red social que están causando un creciente inquietud en el Reino Unido.
El Mundo