https://doi.org/10.35381/racji.v8i1.2493

 

La inteligencia artificial y el derecho a la intimidad-privacidad

 

Artificial intelligence and privacy rights

 

 

 

Angie Dayana Ponce-Cedeño

dq.angiedpc57@uniandes.edu.ec

Universidad Regional Autónoma de los Andes, Quevedo, Los Ríos

Ecuador

https://orcid.org/0000-0002-2436-6459

 

Génesis Karolina Robles-Zambrano

uq.genesisrobles@uniandes.edu.ec

Universidad Regional Autónoma de los Andes, Quevedo, Los Ríos

Ecuador

https://orcid.org/0000-0002-2965-2091

 

Ingrid Joselyne Díaz-Basurto

uq.ingriddiaz@uniandes.edu.ec

Universidad Regional Autónoma de los Andes, Quevedo, Los Ríos

Ecuador

https://orcid.org/0000-0003-2934-4010

 

 

 

 

 

Recibido: 20 de octubre 2022

Revisado: 10 de diciembre 2022

Aprobado: 01 de febrero 2023

Publicado: 15 de febrero 2023

 

 

 

 

 

 

 

 

 

 

 

 

RESUMEN

El objetivo general de la presente investigación fue analizar la inteligencia artificial y el derecho a la intimidad-privacidad. Se desarrolló desde el paradigma cuantitativo, se enmarcó desde un diseño documental-bibliográfico, mediante la indagación, recolección y análisis crítico documental y referencial bibliográfico, basándose en la exploración metódica, rigurosa y profunda de diversas fuentes documentales tales como investigaciones científicas, leyes, artículos, trabajos arbitrados y tesis, entre otros. Describiendo los hallazgos encontrados, permitiendo desarrollar el cuerpo teórico en relación al tema de estudio. Se concluye que, la nueva era tecnológica puede ser una herramienta muy útil que permita fomentar el proceso del ser humano en sentidos inimaginables, sin embargo, el uso abusivo de la inteligencia artificial, puede generar un entorno en el cual los Estados, las organizaciones empresariales e incluso otras personas, rastreen, predigan o manipulen el comportamiento de los ciudadanos de todo el mundo, conllevando a riesgos inimaginables.

 

Descriptores: Inteligencia artificial; derechos humanos; derecho a la privacidad. (Palabras tomadas de Tesauro UNESCO).

 

 

 

 

ABSTRACT

The general objective of this research was to analyze artificial intelligence and the right to privacy. It was developed from the quantitative paradigm, framed from a documentary-bibliographic design, through the inquiry, collection and critical documentary analysis and bibliographic reference, based on the methodical, rigorous and deep exploration of various documentary sources such as scientific research, laws, articles, refereed papers and theses, among others. Describing the findings found, allowing the development of the theoretical body in relation to the subject of study. It is concluded that the new technological era can be a very useful tool to promote the process of human beings in unimaginable ways, however, the abusive use of artificial intelligence can generate an environment in which States, business organizations and even other people track, predict or manipulate the behavior of citizens around the world, leading to unimaginable risks.

 

Descriptors: Artificial intelligence; human rights; privacy rights. (words takenfrom UNESCO Thesaurus).

 

 

 

 

INTRODUCCIÓN

La inteligencia artificial en adelante (IA), ha servido de gran ayuda a la humanidad para la evolución social, en el ámbito profesional, cultural y por su puesto ha implementado mejoras en el terreno de la salud; pero si no se implementa correctamente puede llegar a ser contraproducente. En palabras de Michelle Bachelet, cuando se emplean sin prestar la debida atención a su capacidad se vulneran los derechos humanos. (Bachelet,2021).

Para entender un poco la IA, es necesario mencionar la postura de Russell y Norving. (2004), autores del libro sobre IA, quienes sugirieron que la misma puede dividirse en cuatro categorías: 1) sistemas que piensan como los humanos; 2) sistemas que actúan como los humanos; 3) sistemas que piensan racionalmente; y 4) sistemas que actúan racionalmente. La IA, más utilizada en la actualidad es la que realiza una sola tarea para usos como el reconocimiento de imágenes, la traducción de idiomas y los vehículos autónomos. En la actualidad, las maquinas realizan este tipo de tareas con mayor precisión que los humanos, y es la que está generando mayor vulneración de derechos en materia de DDHH.

En este sentido, la Organización de Naciones Unidas, en adelante ONU, ha manifestado que la IA, ha llegado a invadir no solo los rincones de las vidas, sino que además alcanza los estados emocionales de las personas, e incluso están ayudando a los gobiernos a decidir quién puede recibir los servicios públicos, y quien aún no los tiene. Además de ello afecta y causa conmoción en la información que los usuarios consumen en las redes, y puede llegar a perjudicar psicológicamente a los consumidores de la internet. La ONU, ha realizado ciertos informes en donde ha manifestado su preocupación sobre la manera deliberada en que se hace uso de la IA, y de cómo está afectando a la humanidad, y en algunos casos, menciona como ejemplo, como esta tecnología es quien en algunos países decide quien es apto para recibir su seguro social y quienes no lo son, e incluso ha indicado casos de personas que han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial, y todo ello por el uso indiscriminado y precipitado de la incorporación de tecnologías de IA.

En este orden de ideas, el problema radica en el uso indiscriminado y almacenamiento de datos de los usuarios de las redes o las plataformas digitales que son protegidos o que atentan contra la privacidad o el derecho a la intimidad de las personas. Tanto el derecho a la privacidad, como el derecho a la intimidad, son Derechos Humanos, entendiendo por estos como normas que reconocen y protegen la dignidad de todos los seres humanos. Estos derechos rigen la manera en que los individuos viven en sociedad y se relacionan entre sí, al igual que sus relaciones con el Estado y las obligaciones del Estado hacia ellos, definición emitida por Fondo de las Naciones Unidas para la Infancia. (UNICEF,2015). Cabe mencionar que las organizaciones internacionales en vista de esta situación, han solicitado a los estados que regulen el uso de la IA, y el reconocimiento biométrico, y limitarlo en los espacios públicos hasta que sean capaces de demostrar que no cuentan con ninguna imperfección en el software que pueda perjudicar o alterar los datos, e información de las personas, pero hasta el momento esto ha sido inútil.

La palabra intimidad, tiene su origen en el latín intus, refiriéndose a lo interior, partiendo del ámbito individual de cada persona, y el derecho a la privacidad, es entendido como el derecho humano fundamental de la personalidad consistente en la facultad que tienen los individuos para no ser interferidos o molestados por persona o entidad alguna en el núcleo esencial de las actividades legítimamente que decide mantener fuera del conocimiento. (Villanueva,2003).

Por otro lado, la Constitución de la República del Ecuador. (2008), en su capítulo sexto, sobre Derechos de Libertad, artículo 66 numeral 20, manifiesta que se reconoce y garantizará a las personas: el derecho a la intimidad personal y familiar. Es de mencionar que no se establece de forma taxativa el derecho a la privacidad, pero ese mismo artículo en su numeral 19, hace referencia al derecho a la protección de datos de carácter personal. Estos son derechos humanos fundamentales, que están constitucionalmente reconocidos, por tanto, toda persona tiene la facultad de hacer exigible su derecho de proteger su información personal, su vida privada y familiar, incluso negar a terceros información sobre su persona. Los cuales protegen jurídicamente, la parte intangible que constituye a cada persona como un individuo, es decir, sentimientos, hábitos, relaciones familiares, información de estado económico, información sobre salud física y mental, inclinación sexual, religiosa. Los mismos están intrínsecamente relacionados al lado íntimo de cada persona.

Se desprende también del mencionado artículo que dichos derechos guardan relación con la protección de datos e incluso rasgos físicos, pero con el avance de la tecnología, y el almacenamiento de datos e información personal, sobre imágenes, el acceso a internet, la globalización, entre otros aspectos ya mencionados que forman parte del mundo moderno, generan un gran desafío para los estados en la protección y garantía del cumplimiento de dichos derechos, ya que a su vez obligan a generar nuevas estrategias, y sistemas de protección no solo jurídicos, sino mecanismos legales técnicos o tecnológicos para salvaguardar los derechos. La protección de datos personales surge como un mecanismo jurídico para proteger el derecho a la vida privada de las personas en la era de las tecnologías de la información. (Enríquez Álvarez, 2018).

Es por ello que el presente artículo pretende analizar la inteligencia artificial y el derecho a la intimidad-privacidad.

 

MÉTODO

La investigación se desarrolla desde el paradigma cuantitativo, además se enmarcó desde un diseño documental-bibliográfico, mediante la indagación, recolección y análisis crítico documental y referencial bibliográfico, basándose en la exploración metódica, rigurosa y profunda de diversas fuentes documentales tales como investigaciones científicas, leyes, artículos, trabajos arbitrados y tesis, entre otros. Describiendo los hallazgos encontrados, permitiendo desarrollar el cuerpo teórico en relación al tema de estudio. En este sentido, la investigación documental es un proceso fundamentado en la indagación, recuperación, examen, crítica e interpretación de datos secundarios, (Arias, 2012)

 

 

 

RESULTADOS

El derecho a la intimidad y/o privacidad, puede entenderse como esa posibilidad de mantenerse alejado, de no facilitar información de carácter personal, de no formar parte de la vida colectiva, de proteger las relaciones o vínculos filiales, todo ello mediante una tutela legal, en otras palabras, se genera el derecho de la intimidad en función del respeto que todo ser humano merece por el solo hecho de ser persona.

En este sentido los autores González Arencibia, y Martínez Cardero. (2020) describen lo siguiente:

La inteligencia artificial como concepción, está fundamentada en la resolución de problemas con la finalidad de imitar el comportamiento humano desde lo cognitivo, y no así, desde lo emocional. La definición del término tecnologías inteligentes, ha ocasionado conflictos en la aplicación de estas, debido a que se le intenta dar funciones inherentes a la capacidad de manejar las emociones como lo hace el ser humano, entrando en contradicción entre el deber moral, y las circunstancias donde se implementa. (p.6)

 

Otra de las situaciones generadas por el uso de datos de la IA, y la vulneración de derecho a la intimidad y privacidad, tiene que ver con el recientemente llamado Machine Bias.(DATADEMIA,2023), o el sesgo del machine learning, que esencialmente se refiere a los inconvenientes o márgenes de error producidos por el uso de IA. Situación que puede generar no solo un mal reconocimiento facial, como se manifestó en párrafos anteriores, sino que además de ello, en páginas de empleo el mal uso de los algoritmos pueden proporcionar o clasificar personas de manera errónea, que a la vez podría perjudicarlos en la obtención de seguros de vida, o incluso podrían quedar excluidos en las búsquedas de empleo, o estar limitados en las ofertas de trabajo, tal como fue el caso de LikedIn en el 2015, en donde el algoritmo ofrecía ofertas de trabajo mejores pagadas a hombres que a mujeres.

Por otro lado, una inteligencia artificial bien “entrenada”, con acceso al flujo informativo, simplifica y facilita exponencialmente las actividades de una organización y puede obtener resultados que serían imposibles de lograr con los cerebros humanos. (Corvalán, 2018, p.305).

 

Así mismo, según el autor Sánchez Acevedo. (2022), plantea lo siguiente:

 

La IA puede contribuir al desarrollo económico y social de las personas y sociedades. Sin embargo, para su uso responsable y ético, es indispensable entender las problemáticas inherentes a su implementación, como la discriminación y la violación de ciertos derechos. (p.262)

 

DISCUSIÓN

Si bien es cierto la IA, tiende a tener un margen de error de un 0,1%, tal y como lo manifestó Michelle Bachelet en su informe de las Naciones Unidas, generando así discriminación en los programas de selección, bien sea laboral, o incluso en la categorización de personas tendientes a cometer actos delictivos, es muy probable que una vez regulada la adquisición y/o administración de información, la selección de información sea a su vez organizada y por tanto se reduzcan los márgenes de error, ya que no se manejaría información de forma ilegal, sino más bien se generaría un “back up” de usuarios.

Para que la anterior situación pueda generarse es necesario reformular la normativa, y si bien es cierto como se ha manifestado en páginas anteriores, este tema tiene una gran inclinación al derecho a la intimidad, o privacidad, de acuerdo a la postura de la Corte constitucional del Ecuador, es un ámbito jurídico que puede estar regulado desde el punto de vista de protección de datos, ya que la información de datos de carácter personal como rasgos físicos, información personal, emocional o incluso de salud, podría ser objeto de tutela ante un Habeas Data.

Por último, se puede indicar, que, si bien una de las posibles soluciones a dicha situación seria la implementación de normas contentivas en el Reglamento General de Protección de Datos europeo, cuya finalidad es la protección y resguardo de los datos de las personas físicas y la libre circulación de la información. Esto podría ser contraproducente, ya que se debe considerar que la realidad social de América Latina es antagónica a la de Europa y América del norte, esto sin contar que la aplicación de normas de dicho reglamento implicaría el reconocimiento de nuevos derechos, que, en función de la globalización y el auge del internet y el uso indiscriminado de la IA, será una actualización de nunca acabar. Es pertinente mencionar que en la protección del derecho a la intimidad y privacidad la Corte Constitucional del Ecuador se ha manifestado al respecto, tal como puede evidenciarse en la sentencia 182-15-SEPCC del 2015, donde claramente reconoce que la acción constitucional de habeas data protege el derecho a la intimidad, la honra, integridad de las personas puesto que no toda la información relativa a esos tiene que ser de carácter pública y por tanto divulgable. 

 

CONCLUSIONES

Una vez analizada la vulneración de los derechos a la privacidad e intimidad por parte de la inteligencia artificial, se concluye que la nueva era tecnológica puede ser una herramienta muy útil que permita fomentar el proceso del ser humano en sentidos inimaginables, sin embargo el uso abusivo de la inteligencia artificial, puede generar un entorno en el cual los Estados, las organizaciones empresariales e incluso otras personas, rastreen, predigan o manipulen el comportamiento de los ciudadanos de todo el mundo en un grado sin precedentes.  Conllevando a riesgos inimaginables si se aplican sin la tutela efectiva.

En este sentido, uno de los mayores peligros seria la cantidad de datos que se manejas y/o almacenan a través de la IA. Esto tiene como consecuencia la posibilidad de crear perfiles de personas, como posibles criminales, sospechoso o incluso delincuentes reincidentes, es decir que las personas pueden ser sometidos a vigilancia constante por algoritmos.

En el Ecuador existen normas que protegen el derecho a la intimidad, como lo es el articulo 66 numeral 20 de la carta magna, el cual guarda concordancia con el artículo 12 de la Declaración Universal de Derechos humanos que manifiesta que nadie puede ser objeto de injerencias arbitrarias en su vida privada, su familia, su domicilio, ni de ataques a su honra o a su reputación, puesto que todo ser humano tiene derecho a la protección de la ley ante tales injerencias o ataques. Establecer las medidas que protejan el derecho a la privacidad e intimidad, no será una tarea fácil, pero es de mencionar que la tecnología genera nuevos desafíos y con ello el reconocimiento de nuevos derechos.

FINANCIAMIENTO

No monetario.

 

AGRADECIMIENTO

A la Universidad Regional Autónoma de los Andes, Quevedo, por motivar el desarrollo de la Investigación.

 

REFERENCIAS CONSULTADAS

 

Arias, F. (2012). El Proyecto de Investigación. Introducción a la metodología científica. [The Research Project. Introduction to scientific methodology]. Caracas. Venezuela. 5ª Edición. Editorial Episteme.

 

Asamblea General de las Naciones Unidas. (1948). Resolución 217 A. Declaración Universal de Derechos Humanos. [Resolution 217 A. Universal Declaration of Human Rights]. Paris. Francia. Recuperado de: https://n9.cl/imy5

 

Asamblea Nacional Constituyente de la República del Ecuador, (2008). Constitución de la República del Ecuador. [Constitution of the Republic of Ecuador]. Montecristi. Registro Oficial 449 de 20-oct-2008. Recuperado de https://n9.cl/sia

 

Bachelet, M. (2021). Naciones Unidas Derecho Humanos. Oficina Del Alto Comisionado de las Naciones Unidas para los Derechos Humanos. [United Nations Human Rights. Office of the United Nations High Commissioner for Human Rights. Recuperado de: https://n9.cl/lejr8

 

Comisión Europea. (2018). El Reglamento general de protección de datos. [The General Data Protection Regulation]. (RGPD). Reglamento (UE) 2016/679.Recuperado de: https://n9.cl/0ouix

 

Corte Constitucional del Ecuador. (2015). Sentencia 182-15-SEP-CC. [Ruling 182-15-SEP-CC]. Quito. Ecuador. Recuperado de: https://n9.cl/p6vxb

 

Corvalán, J. G. (2018). Inteligencia artificial: retos, desafíos y oportunidades - Prometea: la primera inteligencia artificial de Latinoamérica al servicio de la Justicia. [Artificial intelligence: challenges and opportunities - Prometea: the first artificial intelligence in Latin America at the service of Justice]. Revista De Investigações Constitucionais,5 (1), 295–316. https://doi.org/10.5380/rinc.v5i1.55334

 

DATADEMIA. (2023). Machine Bias: Sesgos Inconscientes en el Machine Learning. [Machine Bias: Unconscious Biases in Machine Learning]. Recuperado de: https://n9.cl/jw2q9

 

Enríquez Álvarez, L. (2018). Paradigmas de la protección de datos personales en Ecuador. Análisis del proyecto de Ley Orgánica de Protección a los Derechos a la Intimidad y Privacidad sobre los Datos Personales. [Paradigms of personal data protection in Ecuador. Analysis of the draft Organic Law for the Protection of the Rights to Privacy and Privacy on Personal Data]. Foro: Revista De Derecho1(27), 43–61. Recuperado de: https://n9.cl/fe8sy

 

González Arencibia, M., y Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la inteligencia artificial. [Ethical dilemmas in the artificial intelligence scenario]. Economía y Sociedad25 (57), 93-109.  https://dx.doi.org/10.15359/eys.25-57.5

 

Russell, S., y Norvig, P. (2004). Inteligencia Artificial, un Enfoque Moderno. [Artificial Intelligence, a Modern Approach]. Segunda edición. PEARSON EDUCACIÒN. S.A. Madrid. Recuperado de: https://n9.cl/14ihf

 

Sánchez Acevedo, M. (2022). La inteligencia artificial en el sector público y su límite respecto de los derechos fundamentales. [Artificial intelligence in the public sector and its limits with respect to fundamental rights]. Estudios constitucionales20(2),257-284. https://dx.doi.org/10.4067/S0718-52002022000200257

 

UNICEF. (2015). Introduction to the Human Rights Based Approach. Finlandia. Recuperado de: https://n9.cl/dk750

 

Villanueva, E. (2003). Derecho a la Información. Conceptos Básicos. [Right to Information. Basic Concepts]. Quito, Ecuador. Recuperado de: https://n9.cl/4znlg

 

 

 

 

 

 

©2023 por los autores. Este artículo es de acceso abierto y distribuido según los términos y condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) (https://creativecommons.org/licenses/by-nc-sa/4.0/).