Un gran poder conlleva una (imposible) responsabilidad: la “Corte Suprema” de Facebook

|

facebook

Facebook es la red social más grande[1] y una de las más poderosas del mundo.[2] Durante años la compañía ha recibido fuertes críticas por la forma en la que unilateralmente y de manera opaca modera el contenido que subimos a la red social;[3] contenido que se ha vuelto cada vez más valioso a medida que Facebook se convierte en uno de los canales más importantes de la deliberación pública.[4] El 15 de noviembre de 2018 Mark Zuckerberg anunció que Facebook contaría con una nueva forma para que sus 2.41 billones de usuarios apelen las decisiones que toma la compañía sobre el contenido que suben a la red social, a través de “un órgano independiente, cuyas decisiones serán transparentes y obligatorias”.[5] En los medios internacionales proliferaron titulares llamativos sobre la creación de una nueva “Corte Suprema de Facebook”.[6]

El 17 de septiembre de 2019, después de un proceso global de consultas que terminó involucrando a más de 2000 personas de 88 países,[7] Facebook anunció el Estatuto final de su nuevo órgano independiente, que tendrá el poder de revisar, en apelación y en carácter de última instancia, las decisiones de Facebook sobre moderación de contenido, y revertirlas.

Después de mucha discusión pública sobre la “propia moneda” de Facebook[8] o su propia “población” (¡mayor a la de cualquier país del mundo!)[9] no es extraño que en la discusión pública se adoptara un paso más en la transformación de Facebookistán[10] hacia un verdadero gobierno digital: su propia “Suprema Corte”. Mark Zuckerberg mismo (quien ha dicho que “en muchas maneras Facebook es más parecido a un gobierno que a una compañía tradicional[11]) ha enmarcado esta propuesta como algo semejante a una Corte Suprema.[12] Pero es importante ser realistas sobre Facebook, sobre su nuevo “Consejo Asesor de Contenido” (sí, el nombre real es afortunadamente más modesto) y reflexionar cuidadosamente sobre sus alcances y posibilidades.

Facebook ciertamente no es ningún gobierno y el Consejo Asesor de Contenido dista de ser una corte suprema en prácticamente todos los sentidos, pero no debemos subestimar la importancia de esta propuesta. Moderar el discurso a nivel global es una inmensa responsabilidad. No podemos olvidar que hay revoluciones enteras que se han gestado en las redes sociales.[13] La moderación de contenido implica resolver conflictos que comprometen la libertad de expresión, la dignidad, la seguridad y la privacidad de formas irreconciliables. A inicios del 2020, Facebook transferirá al Consejo el poder de resolver los casos sobre moderación de contenido de mayor impacto en el mundo. Es en este sentido que se trata de uno de los “proyectos constitucionales más ambiciosos de la era moderna” [14] y, por lo tanto, vale la pena discutirlo profundamente.

En este artículo mi intención es presentar los detalles que conocemos hasta ahora del proyecto, y colocar al Consejo en el contexto de la “imposible tarea”[15] de la moderación del contenido. Al final subrayo tres rasgos del proyecto que, desde mi punto de vista, serán cruciales para que el Consejo contribuya a dispersar el enorme poder de Facebook sobre el discurso en línea, al hacer su ejercicio más transparente y legítimo.[16]

1. La “imposible” tarea de la moderación del discurso

Independientemente de si lo deseó en algún punto, Facebook tiene un poder enorme. Un ejemplo de este poder es la información. La compañía tiene acceso a cantidades masivas de información sobre quienes somos, qué intereses tenemos, con quién nos relacionamos, qué nos gusta hacer en nuestro tiempo libre, cuáles son nuestras aspiraciones o qué deseamos comprar próximamente.[17] El tamaño de este océano de información es de 2.41 billones de usuarios activos al mes, con 1.9 billones de usuarios activos al día utilizando la plataforma en más de 100 idiomas.[18] Las consecuencias de este poder extraordinario se proyectan sobre los ámbitos más fundamentales de nuestra vida social como la prensa,[19] la ciencia,[20] la libertad[21] o la democracia.[22]  

Una forma crucial de este poder es el control sobre el discurso y por lo tanto sobre la libertad de expresión, que se ejerce mediante la moderación del contenido (posts, comentarios, fotografías, videos) que producen y comparten sus más de dos billones de usuarios, incluyendo líderes de gobiernos, organizaciones civiles, académicos, grupos de presión política, instituciones educativas, corporaciones y ciudadanos comunes.

Este no es el espacio para una descripción detallada sobre moderación del contenido (ver a Klonick[23]). De manera muy simplificada, la moderación del contenido es la práctica de las plataformas consistente en diseñar y hacer efectivos un conjunto de valores, estándares y reglas sobre el contenido que suben sus usuarios en línea.[24] Estas políticas cubren un amplio abanico de supuestos, pero en términos generales se agrupan temáticamente en violencia y comportamiento delictivo, seguridad, infracciones de privacidad, contenido inaceptable –que cubre lenguaje que incita al odio, violencia, desnudos y actividad sexual de adultos, servicios sexuales y contenido cruel e insensible– integridad–autenticidad, y respeto por la propiedad intelectual.[25]

Para hacer efectivas estas políticas, Facebook – apoyado por un ejército de 30,000 moderadores y por un sofisticado sistema de inteligencia artificial[26] – cuenta con la capacidad de identificar contenido violatorio de su plataforma y removerlo.[27] El problema es que la tarea es masiva, y las decisiones muy complejas.

Tamaño. Facebook tiene el enorme desafío de supervisar aproximadamente 2.5 millones de piezas de contenido diariamente.[28] Durante los primeros meses de 2019, Facebook clasificó cerca de 73 millones de piezas de contenido como violatorias de sus estándares comunitarios. Asimismo, Facebook recibe más de un millón de reportes de violaciones de sus estándares diariamente. En el primer cuarto de 2019 Facebook recibió cerca de 25 millones de apelaciones sobre decisiones de moderación, lo que equivale aproximadamente a 275,000 peticiones diarias.[29]

Decisiones difíciles. Con frecuencia las decisiones que enfrenta el equipo de moderadores implican priorizar entre valores importantes que compiten y sugieren resultados distintos. Un video en el que se modifica digitalmente la voz de la Presidenta de la Cámara de Representantes para generar la impresión de que está borracha puede afectar la reputación de la congresista y de su partido,[30] pero removerlo puede afectar la libertad de expresión de quienes lo conciben como una muestra de rechazo enmarcada como sátira política.

Existe un fuerte interés en eliminar un post que permite contactar a una organización que comercia armas ilegales, pero mantenerlo en línea puede facilitar que las autoridades idenitifiquen a los potenciales criminales. Otros casos, como los de discurso de odio y hostigamiento, son de gran dificultad porque requieren de un conocimiento muy detallado de elementos contextuales (i.e. el idioma, los modismos y la intención de los implicados). Una fotografía con contenido erótico que viole las políticas de desnudez de Facebook puede tener un valor artístico o político. Cada decisión de remover limita la voz de una persona o de un colectivo, en el que se concibe como uno de los canales más importantes de la discusión pública contemporánea.[31]

En este contexto, Facebook ha sido objeto de fuertes críticas por la forma en la que modera el contenido que los usuarios suben a la plataforma. Aunque existen buenas razones para restringir este contenido, el hecho de que hacerlo implique decisiones muy controversiales sobre asuntos frecuentemente sensibles, despierta serios cuestionamientos sobre la legitimidad de una empresa sin credenciales democráticas para tomar estas decisiones. Una gran parte del problema es que la forma en la que Faceboook cura el contenido es sumamente opaca.[32] En todo caso, ¿quién es Facebook para decidir?

2. El Consejo Asesor de Contenido

La historia del Consejo Asesor de Contenido comenzó con la idea de un profesor de Derecho Constitucional de Harvard, Noah Feldman, quien la comentó con Facebook a inicios de 2018. Unos meses despué Mark Zuckerberg expuso en un podcast la idea de una “Suprema Corte” por primera vez. En noviembre de ese año Zuckerberg anunció que su equipo ya estaba trabajando para convertir al Consejo en una realidad.[33]  

En enero de 2019 Facebook emitió un borrador del Estatuto para el Consejo, a lo que siguió un proceso intensivo de consultas públicas a nivel global. En el proceso participaron más de 650 personas de 88 naciones en 22 mesas redondas (que se realizaron en seis ciudades distintas), así como entrevistas con más de 250 personas; un cuestionario en línea que respondieron 1,206 personas; y 138 ensayos subidos por internet. El 27 de junio de 2019 Facebook emitió un reporte retrtoalimentando las recomendaciones que recibió.[34]

El 17 de septiembre de 2019, después de cerca de un año de trabajos preparativos, Facebook anunció el Estatuto final de su “Consejo Asesor Independiente”. El Consejo tendrá el poder de revisar, en apelación y en carácter de última instancia, las decisiones de Facebook sobre moderación de contenido –y revertirlas–.

El Consejo Asesor es un modelo único y novedoso de regulación del contenido en línea. Como explica Douek, existen numerosos detalles que aún deben ser definidos (como los procedimientos operativos del Consejo [35]), pero el Estatuto define aspectos fundamentales de este organismo incluyendo la integración y las cualidades de sus miembros, el ámbito de su competencia, los procedimientos que resolverá, la implementación de sus decisiones, su administración y las normas para su reforma. El Estatuto es público y puede consultarse aquí: https://bit.ly/2kVvTyj. Por lo tanto, en lo siguiente sólo detallo los aspectos que me parecen más importantes, utilizando el lenguaje textual del Estatuto cuando me pareció imprescindible:

Jurisdicción. La jurisdicción del Consejo es determinar si las decisiones de Facebook sobre contenido son consistentes con las políticas y valores de la compañía.

Miembros. El Consejo tendrá 11 miembros al inicio, con la intención de tener 40 miembros en total. Su tamaño será flexible para adaptarlo según sea necesario. En términos de requisitos, el Estatuto solamente exige que los miembros provengan de contextos diversos, que carezcan de conflictos de interés que puedan afectar su juicio, y que cuenten con experiencia en la toma de decisiones con base en políticas o estándares sobre asuntos relacionados con contenido digital y libertad de expresión (entre otros). Cada miembro servirá por tres años y máximo nueve. Los deberes de los miembros estarán definidos en un contrato y en un código de conducta que protegerá la independencia, integridad, confidencialidad y reputación profesional del Consejo. Los miembros recibirán una compensación por su encargo.

Facultades. El Consejo está facultado para: solicitar a Facebook que proporcione información necesaria para sus deliberaciones de manera oportuna y transparente; interpretar los Estándares Comunitarios de Facebook y otras políticas relevantes a la luz de los valores de la compañía; instruir a la compañía que permita o remueva contenido; y emitir decisiones explicadas en un tiempo oportuno. Adicionalmente, el Consejo podrá proporcionar orientación sobre la interpretación y la aplicación de las políticas de Facebook, ya sea en relación con un caso particular o bien a petición de la compañía (lo último con carácter consultivo).

Procedimiento. Los usuarios de Facebook que hayan generado el contenido[36] y la compañía podrán llevar casos ante el Consejo, una vez que hayan agotado las instancias previas de apelación. Facebook también podrá solicitar una revisión consultiva sobre alguna decisión previa o sobre posibles cambios a las políticas de la compañía. El Consejo podrá elegir discrecionalmente los casos que resolverá, priorizando los casos que tengan un mayor potencial para orientar tanto las políticas como las decisiones futuras sobre contenido.

Una vez que el Consejo seleccione un caso, notificará a la persona que solicitó su revisión, al creador original del contenido –cuando no sean la misma persona– y a la compañía. Los casos serán analizados por un panel de miembros del Consejo, que contará con al menos un miembro de la región implicada. La composición de paneles individuales puede ser anónima. Los paneles intentarán tomar sus decisiones por consenso, con la posibilidad de emitir votos particulares.

Bases para la decisión. El Estatuto prevé que el Consejo tendrá que emitir decisiones que estén basadas en la interpretación de las políticas y estándares de Facebook sobre contenido, a la luz de los valores articulados de la compañía: voz, autenticidad, seguridad, privacidad y dignidad,[37] y con un lenguaje sencillo. Asimismo, el Consejo deberá tomar en cuenta el impacto de la remoción de contenido a la luz de las normas de derechos humanos que protegen la libre expresión. Además, el Consejo deberá respetar sus precedentes. La compañía tiene la intención de que el Consejo produzca un cuerpo coherente de “derecho”. Así, el Estatuto prevé que las decisiones previas tendrán valor de precedente y deberán ser consideras como “altamente persuasivas” si resultan análogas a un nuevo caso.

Evidencia. Facebook proporcionará información necesaria para resolver los casos observando las restricciones legales y de privacidad que sean aplicables. Asimismo, tanto el creador del contenido como la persona que solicite la revisión podrán presentar información por escrito al Consejo. Por lo demás, el Consejo está facultado para reunir información adicional, incluyendo servicios de asesoría experta, investigación o traducción que sean necesarios para contextualizar la decisión. Finalmente, si el Consejo lo estima necesario podrá permitir que personas y grupos directamente impactados por el contenido en cuestión presenten escritos con información adicional.

Decisión. Las decisiones del Consejo contendrán una determinación sobre permitir o remover el contenido, así como una explicación del razonamiento del Consejo. El Consejo podrá incluir también lineamientos sobre las políticas de la compañía, que según el Estatuto será tomada en cuenta para orientar el desarrollo futuro de las políticas de Facebook. Las decisiones serán públicas (observando la restricciones aplicables sobre privacidad de datos).  

Administración. El Consejo será administrado por un fideicomiso independiente que recibirá fondos de Facebook. La compañía seleccionará a un comité de fiduciarios, quienes velarán por la gobernanza y la rendición de cuentas del Consejo. El comité también estará a cargo de supervisar el cumplimiento del código de conducta por parte de los miembros del Consejo.

Reforma. El Estatuto del Consejo podrá ser reformado con una aprobación de la mayoría de los fiduciarios, con el acuerdo de Facebook y de una mayoría de miembros del Consejo.

3. Tres rasgos cruciales

El poder que ha amasado Facebook en los últimos años sobre el control del discurso reclamaba de una respuesta que alinee a la empresa con el interés público.[38] Facebook optó por adelantarse a una reacción desde el gobierno,[39] y diseñó al Consejo Asesor de Contenido. El Consejo es una respuesta para disipar la impresión pública de que Facebook no tiene contrapesos, y hacer sus decisiones más transparentes y legítimas. Como argumenta Evelyn Douek,[40] esta es la misión más importante y realista[41] que puede tener el proyecto.

Desde mi punto de vista, tres rasgos son especialmente definitorios para conseguir ese objetivo:

Independencia y transparencia. Mientras no se instale el Consejo, la toma de decisiones sobre la moderación del contenido se encuentra en manos del equipo de política pública de Facebook. Esto significa que las decisiones sobre el contenido las toman los líderes de la empresa, y por lo tanto pueden verse directamente influenciadas por las inclinaciones corporativas de la plataforma.

Aunque existe un departamento de política pública comprometido con valores que son defendibles públicamente, sus resoluciones se enmarcan en una estructura de toma de decisiones más amplia. Facebook es un negocio: directores, accionistas, contratistas y otros implicados tienen un amplio margen para intervenir, presionar y avanzar el interés económico de la compañía. Estas inclinaciones tienen el potencial de volverse factores de mayor peso que la libertad de expresión, la seguridad o la dignidad de las personas, al grado de desplazar completamente tales consideraciones.

En esta línea, una preocupación central es que en los casos que comprometan crucialmente el interés económico de Facebook, otras consideraciones valiosas probablemente serán desplazadas. Sin embargo, si las decisiones: (i) pasan a manos de un órgano independiente de la estructura corporativa, (ii) formado por expertos que reciben un sueldo de un fideicomiso autónomo, y (iii) que toman decisiones transparentes con base en políticas claras y explican su razonamiento públicamente, es muy posible que la toma de decisiones esté mejor protegida de influencias indebidas. Potencialmente, en ese escenario pueden ocupar un lugar más decisivo los valores y estándares diseñados para proteger los intereses de la gente.

Razonamiento público y precedentes. Según Evelyn Douek, “[el] propósito del [Consejo] no será solamente decidir resultados y corregir errores, sino también proporcionar razones: exponer el razonamiento y las tensiones implicadas en la moderación del contenido”.[42] Aunque el Consejo estará facultado para revertir las decisiones de Facebook, su poder más importante está en su capacidad de explicar el razonamiento público de sus decisiones. El Consejo deberá articular sus explicaciones de un modo que permita entender fácilmente el holding de su decisión y las razones que lo sostienen. Asimismo, es crucial que el Consejo sea consistente y respete sus precedentes.[43] Si el Consejo se toma esta labor en serio, tiene la oportunidad de desarrollar un cuerpo coherente de lineamientos que gobiernen las decisiones futuras de la compañía, y que (tal vez) sirvan como un modelo para la adopción de políticas en otras plataformas.

Integrar los derechos humanos. Finalmente, el Consejo tendrá que considerar el impacto de sus decisiones sobre las normas de derechos humanos. Es importante subrayar que el Estatuto no incorpora plenamente el derecho “internacional” de los derechos humanos a la moderación del discurso (como se ha propuesto persuasivamente[44]), únicamente obliga al Consejo a “prestar particular atención al impacto de remover contenido a la luz de las normas de derechos humanos que protegen la libertad de expresión”.[45] En ese sentido, es posible que la decisión esté basada centralmente en las políticas de Facebook, y sólo después de una determinación preliminar el Consejo consideraría su impacto sobre los derechos humanos. Además, el ámbito de consideración está acotado a las normas sobre libertad de expresión.

Con todo, el Estatuto consolida una referencia explícita que obligará al Consejo a incorporar este factor en su ponderación. Cuánto peso dará el Consejo a argumentos de derechos humanos y qué importancia jugarán en su “jurisprudencia”, es algo que dependerá en gran medida de la voluntad de los miembros de interactuar con este campo normativo. En cualquier caso su inclusión en el texto del Estatuto proporciona un espacio para abogar por un uso más extenso de las normas de este tipo en la máxima instancia de la moderación del discurso de Facebook, y en esa media, es una buena noticia.

Conclusión

De acuerdo con Facebook el Consejo estará en operaciones en el primer semestre de 2020. Existen buenas razones para pensar que este modelo de gobernanza es apenas un experimento en diseño institucional, pero es justo decir que es un experimento muy bien pensado –al menos en el papel–. El Consejo incorpora garantías diseñadas para asegurar la independencia y la transparencia de sus decisiones, y obliga a sus miembros a justificar sus decisiones públicamente con base en valores, estándares y (en un sentido laxo) normas de derechos humanos. En esa medida el diseño del Consejo se hacer cargo de importantes objeciones sobre la opacidad de sus decisiones y la ruptura entre sus intereses privados y el interés público.

Con todo, hay varios detalles operativos pendientes que serán cruciales para evaluar el funcionamiento del Consejo, y hay factores que ni siquiera han comenzado a desplegarse porque éste existe sólo teóricamente. Una de las preguntas más importantes (que sólo podrá resolverse más adelante) tiene que ver con si el Consejo podrá servir objetivos más nobles que legitimar a Facebook[46]; por ejemplo, contribuir a moderar el contenido de un modo que proteja mejor a las minorías de los efectos perniciosos del discurso de odio.

En todo caso la propuesta de Facebook presenta un campo apasionante para el derecho constitucional y la tecnología.


Miguel Casillas Sandoval. Master of Laws Candidate, Harvard Law School.


[1] Facebook Newsroom (2019), Company Info. Disponible: http://bit.ly/2lWx0xN.

[2] Kate Klonick (2018), “The New Governors: The People, Rules and Processes Governing Online Speech”, Harvard Law Review (131): 1598, p. 1603; Ellen P. Goodman y Julia Powles (2016), “Facebook and Google: most powerful and secretive empires we’ve ever known”, The Guardian. Disponible en: https://bit.ly/2d9wXqs.

[3] Talles Gillespie, Custodians of the Internet: platforms, content moderation, and the hidden decisions that shape social media, Yale University Press, 2018; Marjorie Heins, The Brave New World of Social Media Censorship, 127 HARV. L. REV. F. 325, p. 326 (2014).

[4] Evelyn Douek, “Faceboook’s ‘Oversight Board’: move fast with stable infrastructure and humility, North Carolina Journal of Law and Technology, Vol. 21, 2019, p. 9.

[5] Mark Zuckerberg, A Blueprint for Content Governance and Enforcement, Facebook (Nov. 15, 2018). Disponible: https://www.facebook.com/notes/mark-zuckerberg/a-blueprint-for-content-governance-and- enforcement/10156443129621634/.

[6] Por ejemplo: Kate Klonick y Thomas Kadri, How to Make Facebook’s ‘Supreme Court’ Work, The New York Times, 17 de noviembre de 2018; Shira Ovide, Zuckerberg’s Facebook ‘Supreme Court’ Can’t Handle All the Disputes, 25 de junio de 2019.

[7] https://newsroom.fb.com/news/2019/06/global-feedback-on-oversight-board/

[8] John Schwartz, Facebook’s Digital Money Could Mean Fabulous Wealth. Or not., The New York Times, 12 de julio de 2019.

[9] Jane C. Chu, Social networks make the world’s largest nations seem small, Quartz, 12 de septiembre de 2018.

[10] Rebeca MacKinnon, Consent of The Networked: The Worldwide Struggle for Internet Freedom, Basic Books, New York.

[11] Franklin Foer, Facebook’s war on free will: How technology is making our minds redundant, The Guardian, 19 de septiembre de 2017. Disponible: https://bit.ly/2jFx6bA

[12] Ezra Klein, Mark Zuckerberg on Facebook’s hardest year, and what comes next, Vox (2 de abril de 2018), https://www.vox.com/2018/4/2/17185052/mark-zuckerberg-facebook-interview-fake-news-bots-cambridge.

[13] Zeynep Tufecki, Twitter and Tear Gas: The Power and Fragility of Networked Protest, Yale University Press, 2017.

[14] Evelyn Douek, “Faceboook’s ‘Oversight Board’: move fast with stable infrastructure and humility, North Carolina Journal of Law and Technology, Vol. 21, 2019, p. 1.

[15] Douek, nota supra 5, p. 6.

[16] Evelyn Douek identifica ésta cómo la meta más importante y realista que debe perseguir el Consejo Asesor de Contenido (supra nota 5, p. 42) y yo coincido.

[17] Ver por ejemplo el último libro de Shoshana Zuboff, argumentando que las grandes compañías de tecnología del mundo como Faceboook y Google utilizan un proceso complejo de inteligencia artificial para recabar y procesar datos de la conducta humana (“nuestras voces, personalidades y emociones”) y convertirlos en “productos predictivos que anticipan qué es lo que haremos ahora, próximamente y en el futuro” (2019), The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Londres: Profile Books, pág. 8.

[18] Supra nota 1.

[19] Martha Minow, The Changing Ecosystem of News and Challenges for Freedom of the Press, 64 Loyola L. Rev. 499 (2018).

[20] Yochai Benkler (2019, 1 de mayo), “Don’t Let Industry Write The Rules For AI”, Nature (559). Disponible en: https://go.nature.com/2lTXpfO.

[21] Supra nota 3.

[22] Rebeca MacKinnon, Consent of The Networked: The Worldwide Struggle for Internet Freedom, Basic Books, New York.

[23] Supra nota 2, pps. 1630-1649.

[24] Supra nota 5, p. 5.

[25] Estándares comunitarios. Disponible en: https://www.facebook.com/communitystandards/.

[26] Mark Zuckerberg, A Blueprint for Content Governance and Enforcement, Facebook (Nov. 15, 2018), https://www.facebook.com/notes/mark-zuckerberg/a-blueprint-for-content-governance-and- enforcement/10156443129621634/ (hereafter, "Blueprint").

[27] Como explica Douek (supra nota X, p. 23) es importante aclarar que las capacidades técnicas de Facebook van más allá de la dicotomía remover/preservar contenido. Por ejemplo, la compañía cuenta con tecnología para reducir significativamnete la circulación y con ello la visibilidad de una pieza específica de contenido. 

[28] Talles Gillespie, Custodians of the Internet: platforms, content moderation, and the hidden decisions that shape social media, Yale University Press, 2018, capítulo 5.

[29] Supra nota 5, p. 6.

[30] El ejemplo está basado en el caso real sobre un video en Facebook de la congresista Nancy Pelosi. Ver: Cecilia Kang, Nancy Pelosi Criticizes Facebook for Handling of Altered Videos, The New York Times, 29 de mayo de 2019. Disponible: https://nyti.ms/2ARK0cj.

[31] Klonick, supra nota 4, p. 1611.

[32] Marjorie Heins, The Brave New World of Social Media Censorship, 127 HARV. L. REV. F. 325, p. 326 (2014)

[33] Evelyn Douek, Facebook Releases an Update on Its Oversight Board: Many Questions, Few Answers, Lawfare, 27 de junio de 2019, Disponible: https://bit.ly/2nrbfY9.

[34] https://newsroom.fb.com/news/2019/06/global-feedback-on-oversight-board/.

[35] Supra nota 18. 

[36] Así como usuarios que hayan subido el mismo contenido previamente.

[37] https://newsroom.fb.com/news/2019/09/updating-the-values-that-inform-our-community-standards/. Para una discusión sobre la forma en la que están articulados dichos valores y por qué esto es importante, ver: Evelyn Douek, Why Facebook’s ‘Values’ Update Matters, Lawfare, 16 de septiembre de 2019. Disponible: https://bit.ly/2AKfkd3.

[38] Barrie Sander, Freedom of Expression in the Age of Online Platforms: Operationalising a Human Rights-Based Approach to Content Moderation, 14 de Agosto de 2019, p. 3. Disponible: https://bit.ly/35hz45w.

[39] Sin prejuicio de las crecientes regulaciones y propuestas de regulación que se ciernen sobre la compañía en distintas jurisdicciones del mundo, incluyendo a Reino Unido, Alemania, Francia, Australia o el régimen de la Unión Europea.

[40]  Supra nota 5, p. 42. 

[41] En oposición a pensar que el Consejo podrá resolver los problemas más importantes del mundo sobre moderación de contenido, o desarrollar un sistema de normas universalmente aceptables en este campo. Ver a Douek, supra nota 5, pp. 36 y ss.

[42] Supra nota 5, p. 19 (traducción propia).

[43] El Estatuto del Consejo prevé que sus decisiones tengan valor de precedente (Artículo 2, sección 2): “[…] Para cada decisión, cualquier decisión previa del Consejo tendrá valor de precedente y debería ser contemplada como altamente persuasiva cuando los hechos, políticas aplicables y otros factores sean sustantivamente similares […] (traducción propia).

[44] David Kaye, Speech Police: The Global Struggle to Govern the Internet, Columbia Global Reports, 2019.

[45] Estatuto. Artículo 2, sección 2 (traducción propia).

[46] Supra nota 18.

Comentarios

Faty |
Jue, 24/10/2019 - 14:03

Buenas tardes... Me gustaría participar...

Añadir nuevo comentario

El contenido de este campo se mantiene privado y no se mostrará públicamente.

Texto sin formato

  • No se permiten etiquetas HTML.
  • Saltos automáticos de líneas y de párrafos.
  • Las direcciones de correos electrónicos y páginas web se convierten en enlaces automáticamente.