Actualización: Después de la publicación de esta entrada de blog (que aborda la entrada de blog de Meta aquí), nos enteramos de que Meta también ha revisado su política pública de "Conducta odiosa" en formas que EFF considera preocupantes. Abordamos estos cambios en esta entrada de blog, publicada el 9 de enero de 2025.
En general, la EFF apoya los movimientos que aportan más libertad de expresión y transparencia a las plataformas, independientemente de su motivación política. Nos anima el reconocimiento por parte de Meta de que el marcado automático y las respuestas a los contenidos marcados han causado todo tipo de errores en la moderación. Esta misma semana se informó de que algunos de esos "errores" censuraban en gran medida contenidos LGBTQ+. Esperamos sinceramente que las menores restricciones anunciadas por Meta se apliquen de manera uniforme, y no solamente a temas políticos candentes en Estados Unidos.
En general, la censura no es la respuesta a la desinformación. Animamos a las empresas de medios sociales a emplear diversas herramientas no censuradoras para abordar el discurso problemático en sus plataformas, y la comprobación de hechos puede ser una de esas herramientas. Las notas de la comunidad, esencialmente la comprobación de hechos por la multitud, pueden ser una herramienta muy valiosa para hacer frente a la desinformación y potencialmente dar un mayor control a los usuarios. Pero otra herramienta puede ser la comprobación de hechos por parte de organizaciones profesionales con fácil acceso a expertos en la materia. Esto se ha demostrado especialmente cierto en contextos internacionales, donde han sido fundamentales para refutar, por ejemplo, la negación del genocidio.
Así pues, aunque Meta esté cambiando la forma en que utiliza y prefiere las entidades de comprobación de hechos, esperamos que siga considerando las entidades de comprobación de hechos como una herramienta disponible. Meta no tiene por qué, ni debe, elegir un sistema en detrimento del otro.
Es importante señalar que la desinformación es solamente uno de los muchos problemas de moderación de contenidos a los que se enfrentan Meta y otras empresas de redes sociales. Esperamos que Meta también examine detenidamente sus prácticas de moderación de contenidos en relación con otros temas habitualmente censurados, como el discurso LGBTQ, la disidencia política y el trabajo sexual.
La decisión de Meta de trasladar sus equipos de contenidos de California para "ayudar a reducir la preocupación de que empleados tendenciosos censuren excesivamente los contenidos" parece más política que práctica. Por supuesto, no hay ninguna población que esté intrínsecamente libre de prejuicios y, al trasladarse a Texas, es probable que la "preocupación" no se reduzca, sino que simplemente se traslade de la percepción de "prejuicios de California" a la percepción de "prejuicios de Texas".
La moderación de contenidos a gran escala, ya sea humana o automatizada, es imposible de hacer a la perfección y casi imposible de hacer bien, ya que implica millones de decisiones difíciles. Por un lado, Meta ha moderado en exceso algunos contenidos durante años, lo que ha provocado la supresión de valiosos discursos políticos. Por otro lado, las normas anteriores de Meta han ofrecido protección frente a ciertos tipos de discurso de odio, acoso y desinformación perjudicial que no es ilegal en Estados Unidos. Aplaudimos los esfuerzos de Meta por intentar solucionar su problema de censura excesiva, pero vigilaremos de cerca para asegurarnos de que se trata de un esfuerzo de buena fe y de que se aplica de forma justa, y no de una mera maniobra política para adaptarse al próximo cambio de gobierno en Estados Unidos