Añadir nuevo comentario

La inteligencia artificial frente al imperio de la ley

|

Introducción

Como puede verificarse a través de las constantes conferencias académicas y opiniones emitidas por organismos públicos, como los bancos centrales, las tecnologías que se han desarrollado constantemente en el marco de la denominada Cuarta Revolución Industrial nos ofrecen una amplia gama de temas a discutir tanto en foros públicos como privados a nivel internacional. En virtud de ello, es cada vez más común encontrar términos como FinTech, Internet de las Cosas (IoT), 5G e Inteligencia Artificial (IA) en instrumentos normativos, esquemas de gobernanza y fuentes académicas, independientemente de su vinculación al derecho civil o al common law. A la luz de esta producción académica y de la crisis actual vinculada a la evolución y difusión del COVID-19, el presente documento pretende desarrollar un breve análisis del creciente uso de Inteligencia Artificial (IA) y sus potenciales repercusiones frente algunos elementos que configuran el Imperio de la Ley.

Para alcanzar dicho objetivo, analizaré: 1) ¿Qué es la IA?; 2) la discriminación que pueden desprenderse del uso de la misma; y 3) los riesgos para ejercer la autodeterminación informativa de la persona en el contexto de la sociedad de las “cajas negras.”

Objeto de estudio

Desde tiempos inmemoriales, el hombre ha buscado recrear los elementos que encuentra en la naturaleza a través de concepciones artificiales; sin embargo, materializar dichos elementos no ha sido tarea fácil, de ahí que a las creaciones artificiales más aproximadas a la propia naturaleza que hemos conseguido se les llame naturoides (Negrotti, 2012, pp. 3-4). Entre los naturoides más populares encontramos a los autómatas, los cuales pueden ser definidos como dispositivos mecánicos diseñados para desarrollar un determinado número de tareas en apego a una instrucción o un diseño determinado. Las primeras descripciones de autómatas las encontramos en la mitología clásica, como puede verificarse en el relato de Talos y Medea en las Argonáuticas de Apolonio de Rodas, que gradualmente fueron permeando en la literatura científica a través de obras como Autómata de Herón de Alejandría; en la cual se describen autómatas estructurados alrededor de principios mecánicos (McCourt, 2012). Considerando esta larga trayectoria, ¿en qué momento empieza a ser relevante el estudio de los autómatas para el derecho?

Ciertamente, se puede vincular el uso y desarrollo de autómatas a ciertos preceptos que versan sobre responsabilidad en el Código Civil Federal, así como al régimen de patentes establecido en la Ley de la Propiedad Industrial. A pesar de ello, el derecho empieza a interesarse en los autómatas cuando introducimos el concepto de IA. Desde la perspectiva jurídica se ha dicho que el punto de partida es la obra Runaround de Isaac Asimov, donde se encuentran las ahora famosas tres leyes de la robótica; sin embargo, cuando nos referimos a IA, no buscamos hablar de los programas expertos que derivaron en el famoso Reporte Lighthill, sino en aquéllos que parecen desafiar nuestro entendimiento respecto a la inteligencia misma. Una vez expuesto lo anterior, para nuestros propósitos definiremos a la IA como la teoría de las arquitecturas computacionales capaces de ejecutar tareas que normalmente requieren inteligencia humana o tareas cuya ejecución va más allá de dicha inteligencia, con escasa o nula intervención humana (Lighthill, 1973). Esta definición es útil ya que, como referimos en líneas precedentes, descarta discusiones superficiales respecto a autómatas, su uso puede ser ajustado perfectamente en la legislación y prácticas de gobernanza vigentes, y permite enfocarnos en los problemas que definen a la Machine Learning (ML).

En el marco de nuestra definición, la ML es entendida como la rama de la IA que provee a las referidas arquitecturas la habilidad de aprender a partir de una base de datos, sin ser programadas explícitamente para presentar un resultado concreto (Mathur, 2019, p. 2). Sin duda, ML introduce un gran potencial para optimizar procesos en ámbitos públicos y privados; sin embargo, esto ha generado la creciente incertidumbre respecto a lo que Frank Pasquale (2015, p. 3) denomina la sociedad de las “cajas negras”. Estas “cajas negras” trabajan de forma “misteriosa” y dado que los algoritmos de la ML no son estáticos, la complejidad de los mismos introduce en nuestros sistemas imperfecciones de información asimétrica que pueden ser vinculados primordialmente a la falta de transparencia y a la dificultad de explicar el funcionamiento de dichos algoritmos al momento de ejercer/proteger derechos. Estos elementos los evidenciaremos a la luz del Imperio de la Ley.

ML frente al Imperio de la Ley

El concepto del Imperio de la Ley tiende a ser controversial y tiende a ser definido a través de varias dimensiones (Møller y S.E. Skaaning, 2014, p. 28). Por ejemplo, algunos encuentran su origen en instrumentos como la Magna Carta de 1215, mientras que otros lo asocian con el Estado post-Westfaliano y las obras de Locke, Montesquieu y Constant. Reconociendo que no es nuestro propósito entrar al debate –o imponer nuestra definición–, entendemos al Imperio de la Ley como un paradigma para controlar el poder basado en la Ley. Como puede colegirse de la interpretación de casos como Marbury v Madison de la Corte Suprema estadounidense, se establecen ciertos principios constitucionales de los cuales se desprende, a su vez, un marco normativo diseñado para impedir que un individuo –o un grupo reducido de individuos– pueda ejercer el poder de forma absoluta, arbitraria y discrecional sobre dichos principios acordados a través de un pacto social originario.

En el contexto de la ML, no son pocos los autores que empiezan a estudiar ciertos preceptos de estos pactos sociales y han cuestionado si una máquina “inteligente” debe ser incorporada a dichos pactos y asignársele derechos como aquéllos relativos a la Propiedad Intelectual, si debemos crear una personalidad electrónica para tal efecto (Cedillo, 2020), o si enfrentaremos el desarrollo de inteligencias espontáneas (véase Chen y Burgess, 2019). Sin lugar a dudas son cuestionamientos interesantes, pero para los propósitos y requerimientos de este foro enfocaremos nuestra atención en los elementos relacionados a la discriminación y la autodeterminación informativa de la persona, independientemente de que destaquen otros elementos como los arriba mencionados.

No discriminación

Uno de los elementos más problemáticos relativos al creciente uso de la ML, y su vínculo con principios y garantías constitucionales, lo encontramos en los sesgos que pueden derivar en discriminación en contraste con el contenido del párrafo quinto del artículo 1o. de nuestra Carta Magna. Las aplicaciones de la ML tienden a ser ofertadas y aceptadas como neutras ignorando que su operación depende de la visceralidad humana y de la hegemonía normativa ejercida por los países líderes en el desarrollo de estas tecnologías. En otras palabras, las decisiones “racionales” que toman las entidades de la ML dependen de modelos cuyo diseño y codificación incluye prejuicios, malos entendidos y sesgos que pueden ser incorporados en prácticamente cualquier etapa del aprendizaje del sistema (O’Neil, 2016, p. 3), apegándose a los principios establecidos por la normatividad vigente en países como Estados Unidos y China (Noto y Walden, 2016).

Estas imperfecciones pueden manifestarse de diferentes maneras. Primero, la función objetiva implica un sesgo por parte de los diseñadores. Es decir, si el elemento de procesamiento dentro de la arquitectura refleja de forma objetiva los valores de los diseñadores, entonces, desde una perspectiva técnica, el sistema está bien diseñado alrededor de un sesgo explícito que en ocasiones es reconocido por las jurisdicciones dominantes en la materia; sin embargo, este último puede tener un resultado no deseable desde una perspectiva legal y vulnerar los derechos de terceros en estas y otras jurisdicciones. Segundo, si la base de datos empleada para entrenar al sistema se encuentra sesgada, podríamos enfrentar problemas con connotaciones morales. Este sesgo se presenta cuando la información cargada refleja la ideología de la persona que seleccionó la información y armó la base de datos, o incluso si la misma base no constituye una muestra representativa para los fines deseados (Scharre, Horowitz y Work, 2016).

Es frecuente escuchar o leer sobre estos sesgos en el desarrollo de ciertas actividades dentro del sector privado. Por ejemplo, en el contexto de contratación laboral, compañías como Amazon (Dastin, 2018) se han percatado que sus sistemas de reclutamiento inteligente suelen marginar aplicaciones de ciertas personas, contraviniendo el espíritu normativo encontrado en los artículos 2 y 164 de la Ley Federal del Trabajo. Sin embargo, estos problemas se acentúan en el marco del sector público, ya que, tal como se puede verificar a través del caso State of Wisconsin vs. Eric Loomis, los sesgos en las bases de datos y en las arquitecturas de procesamiento no solo pueden derivar en discriminación sino en violación a otras garantías constitucionales, como el derecho al debido proceso. Por supuesto, en el contexto del COVID-19, el riesgo de discriminación es mayor dado que a pesar de que existe una necesidad pública que pudiese justificar el uso de la ML, la opacidad en las “cajas negras” que ocultan los sesgos aquí descritos pone en riesgo la capacidad de ejercer óptimamente el derecho a la autodeterminación informativa de la persona.

Autodeterminación informativa de la persona

En la literatura sobre el tema, el riesgo más invocado es la autodeterminación informativa de la persona, misma que parte del concepto de privacidad; el cual, como se puede apreciar en el artículo 16 constitucional, está compuesto por: 1) el derecho de no ser molestados en nuestra “persona, familia, domicilio, papeles o posesiones”; y 2) el derecho a desarrollar nuestra propia identidad frente a terceros, a través de los derechos ARCO encontrados en el segundo párrafo del artículo en comento. En el contexto de la ML, esta autodeterminación informativa enfrenta varios desafíos prácticos entre los que destacan dos. Primero, dadas las capas de proveedores de servicios on-line y off-line involucrados en la configuración de productos y servicios inteligentes, determinar quién actúa como responsable y encargado a la luz del artículo 3o. de la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP) y de la Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados (LGPDPPSO), suele complicarse, más si uno trata de invocar la excepción doméstica que ha llevado a generar propuestas como el responsable solidario (Chen et al., 2019). Segundo y más importante, ¿cómo podemos ejercer los principios contenidos en los artículos 6o. y 16 de la LFPDPPP Y LGPDPPSO, respectivamente? El conjunto de la ML y el IoT facilita la interacción entre diversos dispositivos, cada uno estructurado alrededor de redes contractuales con múltiples contrapartes y “cajas negras” que tienden a diluir el principio del consentimiento informado. Muchas veces los titulares ignoran al “firmar” los contratos de adhesión necesarios para acceder a los servicios deseados. En virtud de estas interacciones, los dispositivos “tratan” datos de carácter personal de forma cuasi permanente y el usuario pierde control sobre los datos que son recabados, transferidos y remitidos, muchas veces en violación de los principios de calidad y proporcionalidad.

En el contexto de COVID-19, esta problemática se acentúa, particularmente cuando vemos el desarrollo de proyectos como las contact tracing apps que permiten a compañías y gobiernos dar seguimiento al proceso de difusión del virus a través de las interacciones antes referidas en el marco del IoT. En nuestro contexto, un esfuerzo de esta naturaleza es bienvenido, pero debe ser estructurado de forma responsable y transparente, de lo contrario, estaremos promoviendo la creación de panópticos digitales que, una vez se hayan superado las causas que les dieron origen, puedan ser usados para fines distintos, en ausencia de un consentimiento informado y actualizado.

Conclusión

Es válido tener miedo a la incertidumbre que nos presenta el escenario actual, pero debemos tener la certeza de que esta crisis –como toda crisis– pasará; debemos tener la precaución de no transferir nuestro miedo a través de la infraestructura de nuestro pacto social, de no permearlo a través de los sesgos que son comunes en el estado actual de la técnica de la IA. Ese es un poder que debe ser controlado. A través de las tecnologías estamos modificando el pacto social introduciendo nuevos derechos afines a la era digital; sin embargo, a través de estas tendencias schumpeterianas, nuestra Constitución y las garantías que contiene corren el riesgo de convertirse en un anacronismo frente a la sociedad de la adhesión ofuscada.

 


Israel Cedillo Lazcano es Doctorante en Derecho por la Universidad de Edimburgo y actualmente es Profesor de Tiempo Completo en la Escuela de Derecho de la Fundación Universidad de las Américas, Puebla (UDLAP). Datos de contacto: israel.cedillo@udlap.mx Twitter: @IsraelCL


 

Fuentes

Cedillo, I. (2020), “AI©R”, International Review of Law, Computers & Technology (1-14). Disponible en: https://bit.ly/2VUfTwh

Chen, J. et al. (2019), “Who Is Responsible for Data Processing in Smart Homes? Reconsidering Joint Controllership and the Household Exemption”, Edinburgh School of Law Research Paper (1-10).

Chen, J., y Burgess, P. (2019), “The Boundaries of Legal Personhood: How Spontaneous Intelligence Can Problematise Differences Between Humans, Artificial Intelligence, Companies and Animals.” Artificial Intelligence and Law (27): 73-92.

Dastin, J. (2018), “Amazon Scraps Secret AI Recruiting Tool that Showed Bias Against Women”, Reuters. Disponible en: https://reut.rs/2yZlJDi

Lighthill, J. (1973), “Artificial Intelligence: A General Survey”, Chilton Computing. Disponible en: https://bit.ly/2zMiI9Z

Mathur, P. (2019), Machine Learning Applications Using Python. Cases Studies from Healthcare, Retail, and Finance. Nueva York: Apress.

McCourt, F. (2012), “An Examination of the Mechanisms of Movement in Heron of Alexandria’s on Automaton Making”, en Koetsier, T. y Ceccarelli, M. (eds.), Explorations in the History of Machines and Mechanisms (186-198), Dordrecht: Springer.

Møller, J. y Skaaning, S.E. (2014), The Rule of Law. Definitions. Measures, Patterns and Causes, Hampshire: Palgrave Macmillan.

Negrotti, M. (2012), The Reality of the Artificial. Nature, Technology and Naturoids. Heidelberg: Springer.

Noto La Diega, G.N. y Walden, I. (2016), “Contracting for the Internet of Things. Looking into the Nest”, European Journal of Law and Technology (7): 1-38.

O’Neil, C. (2016), Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy. Nueva York: Broadway Books.

Pasquale, F. (2015), The Black Box Society. The Secret Algorithms that Control Money and Information. Massachusetts: Harvard University Press.

Scharre, P., Horowitz, M.C. y Work, R.O. (2018), “AI Safety Concerns and Vulnerabilities”, Jstor. Disponible en: https://bit.ly/3bU7qP3

Corte Suprema de Estados Unidos

[2016] 881 N.W.2d 749 (US).

[1803] 5 U.S. 137 (US).

 

El contenido de este campo se mantiene privado y no se mostrará públicamente.

Texto sin formato

  • No se permiten etiquetas HTML.
  • Saltos automáticos de líneas y de párrafos.
  • Las direcciones de correos electrónicos y páginas web se convierten en enlaces automáticamente.