Moderación de contenidos en plataformas digitales: derechos humanos y regulación frente a la decisión Trump del Oversight Board

|

Las plataformas digitales, como aquellas de generación de contenidos multimedia, de prestación de servicios o las de redes sociales, suponen un gran reto para los órganos reguladores y para los marcos jurídicos en el mundo. Entre ellas, las redes sociales deben ser de especial escrutinio normativo, ya que brindan un foro sin precedentes para el ejercicio de la libertad de expresión de sus usuarios.

Dichas redes sociales han desatado una discusión que en los últimos años se ha orientado principalmente a la libre concurrencia y la privacidad, pero en meses recientes ésta ha virado hacia aspectos como la libertad de expresión, censura y moderación de contenidos en línea. El panorama es aún más complejo al considerar que estos foros son propiedad de particulares, lo que despierta dudas respecto a quién debería decidir sobre qué tipo de expresiones son permisibles en línea (Saavedra, 2021).

En este contexto se inscribe Facebook, un gigante tecnológico que aspira a arbitrar las publicaciones controversiales en su plataforma por conducto de un cuerpo colegiado y autónomo de especialistas.

El Oversight Board Consejo Asesor de Contenidos de Facebook (CAC) es un organismo atípico, producto de la compleja tarea de regular los contenidos que se publican en redes sociales como Facebook, Instagram o Twitter, que también funcionan como plataformas para transmitir mensajes de índole política.

El propósito principal del CAC es funcionar como órgano de apelación o última instancia (Klonick, 2021) de las decisiones de Facebook e Instagram sobre la eliminación o la permanencia de contenidos y como consejero de sus políticas de contenidos. Está constituido por un fideicomiso irrevocable e independiente de la empresa de redes sociales, que supervisa las actividades de ésta con el apoyo de un grupo de expertos en libertad de expresión, acceso a la información, regulación de entornos digitales y derechos humanos. La discusión sobre su naturaleza es indispensable, ya que el pasado 4 de junio de 2021 Facebook respondió a la decisión del CAC del 5 de mayo de este mismo año (CAC, 2021). Aunque el evento del que deriva dicho fallo es por demás conocido, conviene recordarlo de forma breve.

El asalto al Capitolio y la suspensión de la cuenta de Trump

El 6 de enero de 2021, el entonces presidente Donald Trump publicó mensajes en sus cuentas de Facebook e Instagram de los que resultó el asalto al Capitolio (Sulbarán, 2021) y, con ello, la interrupción del conteo final del Colegio Electoral y la certificación de Joe Biden como vencedor de las elecciones presidenciales de noviembre de 2020. Facebook eliminó los mensajes publicados por Trump debido a que consideró que eran una apología a la violencia, por diseminar un discurso de fraude electoral y por su apoyo a los causantes de los disturbios en Washington, D. C.; para la empresa, la medida era necesaria con el fin de evitar más daños de los ya materializados, pues la intervención mediática de Trump parecía legitimar la alteración del orden público.

Además de eliminar los mensajes, la red social suspendió indefinidamente las cuentas de Instagram y de Facebook del ahora expresidente, al tiempo que remitió el caso al Consejo. Lo que la empresa sometía a escrutinio era si la decisión de suspender las cuentas por un periodo indefinido era correcta, y solicitó la opinión sobre medidas oportunas cuando el titular de la cuenta suspendida fuera un personaje relevante en la política.

La decisión del CAC y el derecho internacional de los derechos humanos

La conclusión del CAC tiene importantes consecuencias en materia de derechos humanos, pues incluso si asumimos que los Estados y las autoridades son los encargados por antonomasia de materializarlos, ello no exime, tal como recoge la decisión, que las empresas tengan algún grado de responsabilidad en la garantía de esos derechos.

En el fallo, el CAC concluyó que la decisión de imponer restricciones a las cuentas del expresidente Trump estaba justificada, pero no fue apropiado sancionarle con una suspensión indefinida. Aunque pudiera entenderse que una plataforma como Facebook excluyese a un usuario con base en sus políticas y lineamientos, el caso de Trump se había formulado por un tiempo indeterminado, una sanción no prevista dentro de las políticas de la red social y sin criterios que indicaran cuándo se reestablecería la cuenta o, incluso, si esto no ocurriría.

Para valorar si la injerencia había sido o no adecuada, el CAC realizó un test de proporcionalidad. Dicha prueba consta de tres etapas que deben ser analizadas conforme a los derechos o bienes en tensión: primero, se debe analizar la legalidad de la sanción o la interferencia; después, se estudia si la finalidad que persigue la injerencia frente al derecho es una de las finalidades protegidas (por ejemplo, la seguridad nacional o los valores democráticos de un país, entre otros), y, finalmente, si la medida que se impuso fue necesaria y proporcional para el caso concreto.

Según el CAC, el elemento de legalidad no se cubría, ya que implica dos componentes de relevancia al imponer una sanción: la accesibilidad y la previsibilidad. Estos dos elementos han sido desarrollados con mayor profundidad en la jurisprudencia de la Corte Europea de Derechos Humanos (2020) y de la Corte Interamericana de Derechos Humanos (2008). Ambos órganos han coincidido en que una norma o ley debe ser previsible, ya que debe contemplar los supuestos de hecho y qué sanciones serán consecuentes para determinadas conductas antijurídicas. Por otro lado, la accesibilidad de la norma debe responder a la posibilidad real y previa que tiene el sujeto de conocer los supuestos en los cuales se le podría imponer una sanción.

En segundo lugar, el CAC resaltó la importancia de que tanto los discursos de incitación a la violencia como los que la aprueben sean sancionados por las empresas, pero al mismo tiempo, hizo énfasis en que éstas requieren que las pautas sean claras y públicas para tener certeza sobre qué conductas quedan proscritas y lo que éstas podrían ocasionar, para efectos de prevenir arbitrariedades.       

El contexto del mensaje también es de gran relevancia, ya que cierta información por sí misma puede no constituir incitación a la violencia. En determinadas circunstancias, las palabras —incluso las imágenes— pueden generar un impacto en grupos sociales, en especial cuando quienes emiten el mensaje son agentes políticos cuyas opiniones pueden polarizar a una sociedad.

Sin perjuicio de las anotaciones anteriores, habría sido necesario que el CAC hiciera una diferencia entre las “figuras políticas” y “figuras influyentes”, dado que, aunque el organismo insiste en que no es necesario dicha distinción, resultaría fundamental conocerla. Es decir, aunque los mensajes expresados por las figuras influyentes pueden llegar a una amplia población, no necesariamente versan sobre temas de interés público; mientras que las figuras políticas, por la propia naturaleza de su investidura, inevitablemente influyen en la sociedad, lo que amerita un examen más riguroso de la información que difundan y las sanciones que se les imputen.

Un punto de interés que el CAC tampoco aborda es en qué consisten los riesgos o daños inminentes o significativos que legitimarían que la libertad de expresión de actores políticos pudiera limitarse. En el caso del asalto al Capitolio convocado por el expresidente Trump, la reiteración de ciertas conductas (mensajes difundidos a través de sus redes sociales), en efecto, pudo crear un escenario de daños inminentes no solo en relación con los individuos, sino por lo que hace al libre desarrollo del proceso democrático de sucesión presidencial —y posiblemente de inestabilidad política prolongada—; en cuyo caso, las restricciones a sus libertades en la plataforma estarían plenamente justificadas. 

¿Qué respondió Facebook al CAC?

El vicepresidente de asuntos globales de Facebook comunicó a través del blog de la empresa (Clegg, 2021) que la mayor parte de las recomendaciones y preguntas han sido consideradas. En particular, indicaron que están implementando nuevos protocolos de cumplimiento para casos de moderación de contenidos excepcionales. Ello, entre otras cosas, incluye una revisión de los estándares y tiempos de suspensión, que ahora van desde un mes hasta dos años: periodo que ha sido aplicado para el caso del expresidente.

Sin embargo, la habilitación de la cuenta de Trump no será inmediata. En el mismo comunicado se detalla que antes de enero de 2023 se analizará de la mano de expertos si en efecto los riesgos de seguridad pública derivados de la actividad del expresidente en sus redes han retrocedido, y en caso contrario, se considerará extender la suspensión.

Por último, Facebook clarificó algunos aspectos de los criterios que observan en materia de publicaciones con interés periodístico (Facebook 2021b) —una de las excepciones a la eliminación de contenidos que infringen sus políticas de comunidad— y de uno de los temas más opacos hasta la fecha: su política de strikes (Facebook, 2021a).

Regular la moderación de contenidos en plataformas digitales

Las plataformas deben bajar o mantener contenidos cuando se cumplan las reglas mínimas que han sido identificadas para la protección de la libertad de expresión, acceso y difusión de información y cuando éstas así lo prescriban o autoricen. No obstante, como sugiere el CAC, el espíritu de tales pautas debería estar inscrito en sus políticas de contenidos (Facebook, s. f.) para evitar que se tomen decisiones que pudieran resultar desproporcionadas para legislaciones locales restrictivas.

El peligro de no seguir lineamientos mínimos en la moderación de contenidos en plataformas digitales puede sujetarse a controles discrecionales, tanto de un grupo de administradores situados en locaciones distantes,[i] como a través de un sistema en algunos casos rudimentario de inteligencia artificial que restringe publicaciones en función de un algoritmo.

Existen algunos esfuerzos para evitar tales arbitrariedades, como los Principios de Santa Clara, que antes incluso de la constitución del CAC ya subrayaban la necesidad de que las plataformas fueran transparentes en cuanto al número de cuentas removidas por supuestas violaciones a políticas de contenido, que informaran al usuario los motivos de tales medidas y que, en última instancia, proporcionaran un mecanismo de apelación —que incluya una revisión humana e imparcial— a la decisión de la plataforma.

Otros posibles modelos regulatorios aplicables a la libertad de expresión en redes parten de alternativas a la arquitectura y centralización de las plataformas propietarias como arena del debate público. Estas voces abogan por un retorno a los protocolos (Masnick, 2019) en los que las bases de datos de usuarios y el diseño de la dinámica de red sean accesibles, pero en los cuales las reglas de moderación de contenido no sean impuestas por los dueños de las plataformas. El problema con esta opción es la posible proliferación de múltiples foros de redes sociales en los que las reglas relativas a libertad de expresión y censura sean difusas, arbitrarias y en algunos casos incluso contrarias a los estándares internacionales de derechos humanos.

La decisión del caso Trump y el plan de cumplimiento de Facebook sin duda desatan una serie de reflexiones sobre los modelos de autorregulación en Internet, que, como se ha visto antes, pende de la normativa aplicada sobre una arquitectura abierta y descentralizada con claros límites a las jurisdicciones locales, sobre la base de sus propios lineamientos de gobernanza (Internet Governance Project, s. f.).

En el caso del CAC, una incertidumbre adicional es si éste probará ser un órgano verdaderamente independiente (Confrere, 2021) que robustezca y afine las políticas de la plataforma de acuerdo con estándares de libertad de expresión. Algunos de los expertos que lo integran han defendido que su imparcialidad se sujeta al deber de ingratitud hacia Facebook (Universidad de los Andes, 2020) y que está claro que ni las plataformas ni los gobiernos deben tener la última palabra respecto de la censura de contenidos publicitados por usuarios de redes sociales.


Mario Tavares Moyrón es consejero jurídico en tecnología y privacidad y coordinador de investigación en Derecho de la Competencia.

Juan Jesús Góngora Maas es consultor en Derecho Internacional de los Derechos Humanos.


Fuentes

Clegg, N. (2021), In Response to Oversight Board, Trump Suspended for Two Years; Will Only Be Reinstated if Conditions Permit, disponible en https://about.fb.com/news/2021/06/facebook-response-to-oversight-board-recommendations-trump/.

Confrere, E. (2021), Ce qu'il faut savoir sur le Conseil de surveillance de Facebook, Le Figaro, disponible en https://www.lefigaro.fr/secteur/high-tech/ce-qu-il-faut-savoir-sur-le-conseil-de-surveillance-de-facebook-20210505.

Consejo Asesor de Contenido (CAC) (2021) Decisión del caso 2021-001-FB-FBR, disponible en https://www.oversightboard.com/decision/FB-691QAMHJ.

Corte Europea de Derechos Humanos (Corte EDH) (2020), Caso Selahattin Demirtaş vs. Turquía, Gran Cámara, petición núm. 14305/17, 22 de diciembre. Disponible en https://cutt.ly/KnRd1N3.

Corte Interamericana de Derechos Humanos (Corte IDH) (2008), Caso Kimel vs. Argentina, Fondo, reparaciones y Costas. Sentencia de 2 de mayo, Serie C No. 177. Disponible en https://cutt.ly/ynRfeod.

Facebook (s. f.), Política Corporativa de Derechos Humanos de Facebook disponible en https://about.fb.com/wp-content/uploads/2021/04/Facebooks-Corporate-Human-Rights-Policy.pdf.

_____ (2021a), Counting strikes, disponible en https://transparency.fb.com/enforcement/taking-action/counting-strikes/

_____ (2021b), Our approach to newsworthy content, disponible en https://transparency.fb.com/features/approach-to-newsworthy-content/.

Internet Governance Project (s. f.), What is Internet Governance?, disponible en https://www.internetgovernance.org/what-is-internet-governance/.

Masnick, M. (2019) “Protocols, Not Platforms: A Technological Approach to Free Speech, Knight First Amendment Institute at Columbia University, disponible en https://knightcolumbia.org/content/protocols-not-platforms-a-technological-approach-to-free-speech.

Saavedra, G. (2021),  “Social media companies say they want to be transparent. So why aren’t they?”, Wired.

Klonick, K (2021),“Inside the Making of Facebook’s Supreme Court”, The New Yorker.

Statt, N. (2020), Facebook moderators in India were pressured to return to the office despite COVID-19 concerns, The verge, disponible en https://www.theverge.com/2020/10/20/21525600/facebook-moderators-india-covid-19-office-return-work-safety-health-concern.

Sulbarán Lovera, P. (2021), Asalto al Capitolio: Uno de los grandes problemas es la idea de que Estados Unidos es un país excepcional”, BBC NEWS.

The Santa Clara Principles, disponible en https://santaclaraprinciples.org/.

Universidad de los Andes (2020), Catalina Botero, miembro del Consejo Asesor de Contenidos de Facebook, disponible en https://www.youtube.com/watch?v=9K5AYidVy-k.

[i] Sobre las condiciones laborales del staff subcontratado para la moderación de contenidos, véase Statt (2020).

Añadir nuevo comentario

El contenido de este campo se mantiene privado y no se mostrará públicamente.

Texto sin formato

  • No se permiten etiquetas HTML.
  • Saltos automáticos de líneas y de párrafos.
  • Las direcciones de correos electrónicos y páginas web se convierten en enlaces automáticamente.