Con las próximas elecciones estadounidenses, las principales plataformas con sede en los Estados Unidos han intensificado sus prácticas de moderación de contenidos, probablemente con la esperanza de evitar la culpa que se les atribuye después de las elecciones de 2016, en las que muchos las consideraron responsables de encasillar a los usuarios en burbujas ideológicas y, en el caso puntual de Facebook, el enredo de Cambridge Analytics. No está claro que los medios de comunicación social hayan desempeñado un papel más significativo que muchos otros factores, incluyendo los medios tradicionales. Pero el techlash es bastante real.
Así que no podemos culparlos por intentarlo, ni podemos culpar a los usuarios por pedírselo. La desinformación online es un problema que ha tenido consecuencias reales en los EE.UU. y en todo el mundo - se ha correlacionado con la violencia étnica en Myanmar y la India y con las elecciones de Kenya en 2017, entre otros eventos.
Pero es igualmente cierto que la moderación de contenido es un sistema, fundamentalmente, roto. Es inconsistente y confuso, y a medida que se agregan más políticas en forma de capas a un sistema que emplea tanto moderadores humanos como tecnologías automatizadas, es cada vez más propenso a errores. Incluso los esfuerzos bien intencionados para controlar la desinformación terminan inevitablemente silenciando una serie de voces disidentes y obstaculizando la capacidad de desafiar sistemas de opresión arraigados.
Hemos estado observando de cerca como Facebook, YouTube y Twitter, mientras niegan cualquier interés en ser "los árbitros de la verdad", han ajustado sus políticas en los últimos meses para tratar de arbitrar las mentiras, o al menos identificarlas. Y estamos preocupados, especialmente cuando miramos al extranjero. Ya este año, un intento por parte de Facebook de contrarrestar la desinformación electoral dirigida a Túnez, Togo, Côte d'Ivoire y otros siete países africanos dio lugar a la eliminación accidental de cuentas pertenecientes a docenas de periodistas y activistas tunecinos, algunos de los cuales habían utilizado la plataforma durante la revolución del país en 2011. Si bien se restauraron algunas de las cuentas de esos usuarios, otras -en su mayoría pertenecientes a artistas- no lo fueron.
De vuelta en los EE.UU., Twitter recientemente bloqueó un artículo del New York Post sobre el hijo del candidato presidencial Joe Biden sobre la base de que estaba basado en materiales pirateados, y luego levantó el bloqueo dos días después. Después de poner límites a la publicidad política a principios de septiembre, Facebook prometió no cambiar sus políticas antes de las elecciones. Tres semanas después anunció cambios en sus políticas de publicidad política y luego bloqueó un rango de expresión que antes permitía. En ambos casos, los usuarios, especialmente los que se preocupan por su capacidad de compartir y acceder a la información política, se preguntan qué podría ser bloqueado a continuación.
Dado el siempre cambiante paisaje de la moderación, es difícil mantener el ritmo. Pero hay algunas preguntas que los usuarios y las plataformas pueden hacerse sobre cada nueva iteración, ya sea que se aproxime o no una elección. No es coincidencia que muchas de ellas se superpongan con Los principios de Santa Clara sobre transparencia y responsabilidad en la moderación de contenidos, un conjunto de prácticas creadas por la EFF y un pequeño grupo de organizaciones y defensores, que las plataformas de medios sociales deberían asumir para proporcionar transparencia sobre por qué y con qué frecuencia retiran los mensajes, fotos, vídeos y otros contenidos de los usuarios.
¿El enfoque está estrechamente ajustado o es una prohibición categórica?
La censura absoluta no debería ser la única respuesta a la desinformación en línea. Cuando las compañías de tecnología prohíben una categoría entera de contenido, tienen un historial de sobrecorrección y censura de discursos precisos y útiles o, peor aún, de refuerzo a la desinformación. Cualquier restricción a la palabra debe ser necesaria y proporcionada.
Además, las plataformas en línea tienen otras formas de abordar la rápida difusión de la desinformación. Por ejemplo, el marcado o la comprobación de los hechos de un contenido que puede ser motivo de preocupación conlleva sus propios problemas -una vez más, significa que alguien -o alguna máquina- ha decidido qué es lo que requiere y lo que no requiere un examen ulterior, y quién es y quién no es un verificador de hechos preciso. No obstante, este enfoque tiene la ventaja de dejar el discurso disponible para quienes deseen recibirlo.
Cuando una empresa adopta una prohibición categórica, debemos preguntarnos: ¿Puede la empresa explicar qué hace que esa categoría sea excepcional? ¿Son claras y predecibles las reglas para definir sus límites, y están respaldadas por datos consistentes? ¿Cuáles son las condiciones bajo las que se eliminarán otros discursos que cuestionen el consenso establecido? ¿Quién decide lo que se califica o no de "engañoso" o "inexacto"? ¿Quién se encarga de probar y validar el posible sesgo de esas decisiones?
¿Empodera a los usuarios?
Las plataformas deben abordar una de las causas fundamentales de la propagación de la desinformación en línea: los algoritmos que deciden qué contenidos ven los usuarios y cuándo. Y deben empezar por dotar a los usuarios de herramientas más individualizadas que les permitan comprender y controlar la información que ven.
Los algoritmos utilizados por el Newsfeed de Facebook o la línea de tiempo de Twitter toman decisiones sobre qué noticias, anuncios y contenido generado por el usuario promover y cuáles ocultar. Ese tipo de curaduría puede desempeñar un papel amplificador para algunos tipos de contenido incendiario, a pesar de los esfuerzos de plataformas como Facebook por ajustar sus algoritmos para "desincentivarlo" o "desclasificarlo". Las características diseñadas para ayudar a la gente a encontrar contenido que les guste pueden canalizarlos fácilmente a un agujero de desinformación.
Los usuarios no deberían ser rehenes del algoritmo propietario de la plataforma. En lugar entregar masivamente "un algoritmo para gobernarlos a todos" y dar a los usuarios sólo unas pocas oportunidades para ajustarlo, las plataformas deberían abrir sus API para permitir a los usuarios crear sus propias reglas de filtrado para sus propios algoritmos. Los medios de comunicación, las instituciones educativas, los grupos comunitarios y los individuos deberían poder crear sus propias fuentes, permitiendo a los usuarios elegir en quién confían para conservar su información y compartir sus preferencias con sus comunidades.
Además, las plataformas deberían examinar las partes de su infraestructura que actúan como un megáfono para detectar contenidos peligrosos y abordar esa causa fundamental del problema en lugar de censurar a los usuarios.
Durante una temporada electoral, la eliminación errónea de información y comentarios precisos puede tener consecuencias de gran envergadura. En caso de que no se den circunstancias apremiantes, las empresas deben notificar al usuario y darle la oportunidad de apelar antes de que el contenido sea eliminado. Si deciden apelar, el contenido debe permanecer hasta que se resuelva la cuestión. Las plataformas más pequeñas dedicadas a servir a comunidades específicas pueden querer adoptar un enfoque más agresivo. Eso está bien, siempre y cuando los usuarios de Internet tengan una gama de opciones significativas con las que comprometerse.
¿Es transparente?
Las partes más importantes del rompecabezas aquí son la transparencia y la apertura. La transparencia sobre cómo funcionan los algoritmos de una plataforma, y las herramientas que permiten a los usuarios el abrir y crear sus propias fuentes, son fundamentales para una mayor comprensión de la curación algorítmica, el tipo de contenido que puede incentivar, y las consecuencias que puede tener.
En otras palabras, la transparencia real debería permitir a los forasteros ver y comprender qué acciones se realizan y por qué. La transparencia significativa implica inherentemente apertura y responsabilidad, y no puede satisfacerse simplemente contando las bajas. Es decir, hay una diferencia entre la "transparencia" sancionada corporativamente, que es inherentemente limitada, y la transparencia significativa que permite a los usuarios entender las acciones de Facebook y hacer responsable a la compañía.
¿Es la política coherente con los principios de derechos humanos?
Las empresas deberían ajustar sus políticas a las normas de derechos humanos. En un documento publicado el año pasado, David Kaye -el Relator Especial de las Naciones Unidas sobre la promoción y protección del derecho a la libertad de opinión y de expresión- recomienda que las empresas adopten políticas que permitan a los usuarios "desarrollar opiniones, expresarse libremente y acceder a información de todo tipo de manera compatible con la legislación sobre derechos humanos". Estamos de acuerdo, y a esa opinión se une una creciente coalición internacional de organizaciones de libertades civiles y derechos humanos.
La moderación de contenidos no es una bala de plata
No debemos apelar a los moderadores de contenido para arreglar los problemas que propiamente se encuentran con las fallas del sistema electoral. No se puede esperar que la tecnología resuelva problemas que la tecnología no ha creado. E incluso donde la moderación de contenidos tiene un papel que desempeñar, la historia nos dice que seamos cautelosos. La moderación de contenidos a escala es imposible de ejecutar perfectamente, y casi imposible de hacer bien, incluso bajo las condiciones más transparentes, sensatas y justas - que es una de las muchas razones por las que ninguna de estas opciones políticas debería ser un requisito legal. Inevitablemente, implica el trazado de líneas muy difíciles de observar y estará plagado tanto de errores como de una tonelada de decisiones con las que muchos usuarios no estarán de acuerdo. Sin embargo, hay claras oportunidades de introducir mejoras y ya es hora de que las plataformas las pongan en práctica.