La censura en Facebook

Exmoderador de contenido de Facebook habla de la censura que impone la red social

Ryan Hartwig trabajó como moderador de contenido de Facebook y hoy le cuenta al PanAm Post las indicaciones directas e indirectas que recibió en ese puesto y que buscaban censurar el contenido de grupos de derecha.

Dentro del ambiente conservador, libertario, y en general todo lo que se pueda ubicar del centro a la derecha, cada vez hay más quejas de la censura que ocurre en Facebook. Contenidos eliminados, restricción de publicaciones, suspensión de cuentas e incluso cierres de página, son las quejas que escuchamos a diario de los usuarios de la red social.

¿Facebook censura el contenido de izquierda y derecha en igual proporción o hay una clara orientación a censurar conservadores y derechistas? La compañía ha afirmado que su plataforma no favorece a ningún punto de vista político, sin embargo esa respuesta parece una gran mentira para muchos de los que a diario vivimos la censura por publicar opiniones de derecha, mientras vemos cómo se permiten insultos y ofensas que vienen desde la izquierda.

https://cdn.searchenginejournal.com/wp-content/uploads/2020/08/facebook-design-5f477452f2a8a-760x400.jpg

En el podcast de hoy hablamos con Ryan Hartwig, quien trabajó como moderador de contenido de Facebook y hoy le cuenta al PanAm Post las indicaciones directas e indirectas que recibió en ese puesto y que buscaban censurar el contenido de grupos de derecha, como los simpatizantes de Donald Trump y conservadores.

Ryan Hartwig trabajó para Cognizant, una compañía contratada por Facebook para manejar parte de su control manual de contenido. Hartwig junto con Project Veritas, una organización sin fines de lucro de periodismo de investigación, decidieron hacer públicas algunas de las indicaciones que se le daba a los moderadores de contenido de Facebook.

Facebook Exhibits Technologies At Innovation Hub

Hartwig, por ejemplo, ha mostrado directrices específicas que recibió sobre permitir el discurso de odio, si este tiene la «intención de crear conciencia sobre Orgullo/LGBTQ”, la directriz especificaba que “esto puede ocurrir especialmente en términos de atacar hombres blancos heterosexuales”.

En el podcast de hoy el exmoderador de contenido de Facebook nos cuenta qué tipo de entrenamientos reciben para el cargo, qué guías se les da para censurar específicamente contenido de derecha y conservador, contra qué personajes se permiten incluso amenazas de muerte, y también cuáles son los grupos y personas que gozan de especial protección y a los que sí se les permite ofender, insultar e incluso amenazar de muerte.

Así funcionan los centros de censura en Facebook

‘La naranja mecánica’ fue una película de Stanley Kubrick célebre por ser prohibida en numerosos países, debido a sus imágenes violentas y a un mensaje ambiguo que muchos podrían malinterpretar. En ella, un joven ultraviolento es capturado por las autoridades y expuesto a un test para inhibir, en su personalidad, el libre albedrío, es decir, aplicarle un método para convertirlo en buena persona. ¿Cómo lo hacían? mediante un tratamiento de choque: el sujeto es atado frente a una pantalla gigante, con los ojos permanentemente abiertos, y es obligado a ver escenas desagradables horas y horas. Cuando es liberado y siente el impulso de cometer actos violentos, las nauseas le sobrevienen, condicionado por la situación en la que días antes se había encontrado.

Así funcionan los centro de censura en Facebook

Ahora, imagina que te dedicas a ver imágenes violentas, desagradables, contenido de odio, insultos, vídeos de decapitaciones… durante ocho horas al día para una gran empresa. Tu trabajo en este centro sirve para determinar qué es lo que otros pueden ver y qué no. Trabajas para uno de los 20 centros que Facebook tiene dispuestos en el mundo para administrar la censura en relación al contenido prohibido por la red social de Mark Zuckerberg. Eldiario.es ha tenido acceso a fuentes de dichos centros en ciudades como Varsovia o Lisboa, así como a documentos que revelan las condiciones en las que tienen que aplicar la censura dichos agentes.

Según estos documentos, los agentes de la moral y la buena conducta en Facebook tienen que trabajar en unas condiciones deplorables. Oficinas sin ventanas en las que cientos de personas deben, continuamente, fijar la mirada en una pantalla donde se va sucediendo el contenido grotesco para así eliminarlo y que no se expanda. Son, como Álex en ‘La naranja mecánica’, sujetos expuestos a imágenes terribles durante ocho horas al día sin que se valore, del todo bien, cuáles pueden ser las consecuencias de tal acto. Los algoritmos de los que tanto hablamos no son sino personas, como tú y como yo.

facebook 02

Sus condiciones de trabajo físicas y mentales son extremas

Son, en total, 15.000 personas las que trabajan en centros como ese. Muchos de ellos aseguran que es imposible ser justo al 100%, que en las condiciones en las que trabajan, y debido a la naturaleza de la tarea, los fallos pueden sucederse continuamente. Los trabajadores de la censura en Facebook cobran, cada uno, 700 euros mensuales y están subcontratados a través de consultoras internacionales, estándoles prohibido decirles a nadie que trabajan para Facebook, teniéndose que referir siempre a éste como ‘el cliente. Eldiario.es ha conseguido las declaraciones de tres empleados de este tipo de centros, teniendo que mantener su anonimato.

Las condiciones de trabajo son extremas. Tienen media hora para descansar en su jornada de ocho horas y tienen que ir administrándolo para, cada hora, tomar pausas visuales, estirar las piernas, ir al baño e, incluso, comer. En la sala se encuentra, siempre, un revisor que anota y castiga el comportamiento inadecuado: que un empleado se pare, mientras selecciona imágenes, para beber agua o saque el móvil para consultar algo es motivo de sanción. Además, se alienta a los propios empleado, a través de un programa de puntos, a que se acusen los unos a los otros si ven que alguno de sus compañeros realiza alguna conducta sancionable.

Así funcionan los centros de censura en Facebook 1

¿En qué consiste su trabajo?

El trabajo funciona de la siguiente manera. El empleado tiene frente a él una pantalla donde se van sucediendo todos los contenidos que más denuncias, por parte del usuario, acumulan. El trabajador tiene, entonces, dos opciones ‘Delete’, con el que borra el contenido, 0 ‘Ignore’, si considera que no está incumpliendo las normas de Facebook. Cada persona puede llegar a analizar hasta 600 casos diarios y tienen, para pulsar uno de los dos botones de decisión, treinta segundos en total para cada uno de ellos. Normal, claro, que lleguen a cometerse injusticias, teniendo en cuenta todo lo que se conoce ahora de estos centros.

El periódico pone ejemplos de casos reales en los que han tenido que intervenir los empleados entrevistados. Por ejemplo, les aparecía esta imagen, una ilustración que alerta del cáncer de mama.

pezones

Uno de los algoritmos, éste sí automático, que ya ha comenzado a funcionar es el de las imágenes en las que se pueden ver pezones femeninos. Sin embargo, hay excepciones, como en el caso de que las imágenes tengan un carácter divulgativo. Parece evidente que, viendo la ilustración superior, el empleado deba ‘desbloquear’ la imagen ya que se trata de información de interés general acerca del cáncer y no es una imagen de carácter erótico.

meme acoso infantil

En este otro vemos cómo el trabajo que realizan estos moderadores puede ser tan complicado. ¿Se trata de un meme que supone un acto de acoso infantil? El empleado tiene que decidir, en treinta segundos, si quitarlo o no. Se trata de una captura de una entrevista real y la obesidad no se considera una incapacidad. En Facebook no se borra nada que pueda ofender a nadie salvo que ese alguien pertenezca a un grupo de discapacitados. En este caso el moderador elegiría el botón de ‘Ignorar’.

Las contradicciones de la censura en Facebook

Dos ejemplos que pueden ser más o menos claros pero que se encuentran englobados en otros tantos donde la ambigüedad de las normas de Facebook hace acto de aparición. Por ejemplo, el contenido que hace alusión a Hitler es borrado automáticamente. Sin embargo, el contenido en el que se hace apología de Franco está permitido. Uno de los revisores consultados afirma que el fascismo está permitido en Facebook. Puedes llenar tu muro de fotos de Mussolini que no pasará nada. Pero cuidado con poner a Hitler. O pezones de mujer.

Así funcionan los centros de censura en Facebook 2

Entre las decisiones más delirantes que tienen que tomar los censores de Facebook se encuentra el considerar el tamaño de la barba de los hombres árabes para ser si son o no terroristas; además, los entrevistados denuncian un claro doble rasero al tener que beneficiar a colectivos específicos. ‘Insultar a unas determinadas creencias está permitido y a otras completamente prohibido‘. Por ejemplo, el sionismo. Cualquier llamada al boicot de productos de Israel, debido a las matanzas que el país que lleva a cabo en Palestina, son censuradas. Además, la probabilidad de que eliminen contenido en Facebook tiene mucho que ver con el poder y la capacidad de organización que tenga el grupo interesado en que aquel desaparezca.

En el futuro quedará por ver las secuelas psicológicas que tendrán estos empleados de Facebook así como el peculiar uso ideológico que le dan a la moderación de contenido.

Robadatos Facebook censura imagen

  La poca transparencia y claridad sobre la forma en que Facebook decide qué imágenes sí pueden aparecer en su red social y cuáles no sigue causando problemas y conflictos entre sus usuarios.

Recientemente, el periodista noruego Tom Egeland compartió una serie de imágenes que consideraba como icónicas en la historia de las guerras, entre las que se encontraba la fotografía de Kim Phúc, una niña vietnamita que huye sin ropa de un ataque con napalm, tomada por Nick Ut en 1972.

La imagen fue reportada por un usuario y Facebook no tardó en removerla de la cuenta de Egeland e incluso suspendió temporalmente al periodista. En apoyo, el periódico Aftenposten, ciudadanos y políticos, incluyendo a la primera ministra de Noruega, reprodujeron la imagen en sus muros, donde fue una y otra vez retirada por Facebook.

Facebook se refugió en sus términos de comunidad para censurar la imagen, ya que contiene la desnudez de un menor, pero falló en reconocer la importancia histórica de la fotografía y el contexto en el que se reproducía.

“Aprecio el trabajo que Facebook y otros medios realizan para detener el contenido que muestre violencia y abuso… Pero Facebook se equivoca cuando censura estas imágenes (como la de Kim Phúc)”, declaró Erna Solsberg, primera ministra de Noruega, citada por The Guardian. En su publicación, Solsberg externó que la decisión de Facebook “prevenía la libertad de expresión”.

Una portavoz de la red social respondió a los señalamientos y aseguró que: “aunque reconocemos que esta imagen es icónica, es difícil crear una distinción entre permitir la fotografía de un infante desnudo en una instancia y no en otras. Nosotros tratamos de encontrar el justo balance entre permitir a las personas expresarse así mismo mientras mantenemos una segura y respetuosa experiencia para nuestra comunidad global”.

El día de hoy, le empresa de Marck Zuckerberg revirtió su decisión y comenzó a restituir los posts publicados con la imagen en su red social. En un comunicado al respecto, Facebook explicó que después de recibir la respuesta de su comunidad revisaron la forma en que se utilizaron sus lineamientos.

  Facebook censuró un video contra el cáncer de mama y desató la polémica

La Asociación Sueca “Cancerfonden” denunció a la red social de Zuckerberg por haber eliminado de su cuenta un video educativo sobre la enfermedad.

POLÉMIA EN PUERTA POR LA CENSURA DE FACEBOOK. No es la primera vez que la red social se maneja de esta forma.
POLÉMIA EN PUERTA POR LA CENSURA DE FACEBOOK. No es la primera vez que la red social se maneja de esta forma.

Algunos comparten fotos de comida, otros de viajes, salidas con amigos o cumple años familiares. Está en claro que las personas muestran parte de sus vidas en las redes sociales. Uno de los sitios más usados es Facebook.

La red social de Zuckerberg es un medio de comunicación muy poderoso en estos tiempos. Casi 1600 millones de usuarios activos en todo el mundo avalan su importancia.

Algunas organizaciones, conscientes de esta tendencia, usan este espacio para difundir su mensaje. Tal es el caso de ”Cancerfonden”, una Asociación Sueca que lucha contra el cáncer de mama.

Hace unas horas, la fundación protagonizó un escándalo con la red social. Publicó un video con el fin de explicar cómo se hace un autoexamen de mama y Facebook lo censuró.

En el video, la organización sueca mostraba qué había que hacer para detectar si hay bultos sospechosos y así prevenir una posible enfermedad. En la imágenes se veían figuras de mujeres dibujadas con los pechos descubiertos y Facebook bajó el material ya que lo consideró “ofensivo”.

Desde la Asociación quisieron ponerse en contacto con la red social, pero no tuvieron respuesta. Fue así como decidieron suprimir las imágenes y publicar una carta abierta a Facebook explicando que la intención del video no era ofensiva.

Como si esto fuera poco,“Cancerfond”  volvió a publicar las imágenes pero esta vez cambiaron los dibujos de los senos por cuadrados rosas. “Creemos que es incomprensible y extraño cómo alguien puede percibir información médica como si fuera ofensiva”, declararon desde la entidad.

Facebook

Ladrones e Hijos de puta