Transparencia algorítmica: tu derecho a comprender la IA
por Gabriela D' Argento profile image Gabriela D' Argento

Transparencia algorítmica: tu derecho a comprender la IA

Entender el cómo y el porqué de cada decisión automatizada nos ayudará a proteger nuestra autonomía.

Incluso sin que la mayoría de las personas pueda siquiera advertirlo, la inteligencia artificial se ha adentrado profundamente en muchos aspectos de nuestras vidas. De manera silenciosa, la IA:

  • Personaliza y recomienda contenidos en plataformas de streaming.
  • Hace sugerencias de compras en sitios de e-commerce.
  • Determina qué publicidades o promociones son relevantes para un usuario específico.
  • Realiza análisis de riesgos crediticios.
  • Predice la demanda de ciertos productos.
  • Envía mensajes personalizados a electores.

Entre otras muchas más tareas que se han logrado automatizar mediante estos sistemas. Debido a lo anterior, surge una incomodidad y duda legítima: ¿Cómo y por qué un sistema de IA llega a un resultado específico?

¿Qué es la transparencia algorítmica?

En términos sumamente sencillos, podríamos decir que la transparencia algorítmica es la capacidad de comprender de qué manera y por qué los sistemas de IA alcanzan determinadas decisiones que, de una u otra forma, afectan a las personas.

En todo caso, debe quedar claro que la transparencia algorítmica no consiste en simplemente exhibir el código fuente, sino de evidenciar de forma clara y comprensible los factores que afectan las determinaciones de los algoritmos

Si no somos capaces de comprender cómo y por qué un algoritmo llega un resultado específico, estaremos ante lo que se conoce como “caja negra” u opacidad algorítmica, que es aquel escenario donde podemos conocer las entradas (datos) y salidas (resultados), pero no los mecanismos y procesos que conectan a ambos extremos. 

¿Por qué es importante la transparencia algorítmica?

La transparencia algorítmica se impone ante diversas necesidades:

1. Permite identificar y mitigar sesgos y la discriminación

Como ya se sabe, la calidad y naturaleza de las salidas de los sistemas de IA dependen de los datos de entrada. De tal suerte que, al ser entrenados con datos que contienen sesgos y prejuicios sociales, es factible que la IA arroje resultados injustos y discriminatorios que, frente un sistema opaco, sean muy difíciles de identificar y corregir.

De manera que la transparencia algorítmica puede ayudarnos a detectar si un algoritmo sostiene y perpetúa los prejuicios contenidos en los datos de entrenamiento y, conforme a ello, hacer los ajustes necesarios.

2. Facilita el establecimiento de responsabilidad

Quien genera un daño a otro, salvo determinadas excepciones, queda obligado a repararlo.

Ahora bien, cuando un algoritmo opaco arroja un resultado injusto o erróneo y, en consecuencia, genera un perjuicio, resulta difícil determinar quién deberá responder por el mismo.

Conjuntos de números en relieve.
Imagen de A Chosen Soul en Unsplash.

La transparencia algorítmica puede contribuir a la asignación de responsabilidades ya que, gracias a esta, será más fácil evidenciar el nexo causal entre el hecho generador de daño y el daño sufrido.

3. Permite a los usuarios mantener su autonomía y tomar decisiones informadas

La opacidad algorítmica facilita la desinformación, la microsegmentación de propaganda y publicidad y la manipulación de la opinión pública con fines no éticos.

Así, por ejemplo, los algoritmos opacos podrían priorizar la difusión de narrativas engañosas por ser un contenido popular o sensacionalista, dirigir mensajes extremadamente específicos a grupos vulnerables (tal como aquellos con flaquezas psicológicas, de información o económicas), o suprimir sistemáticamente contenidos contrarios a un actor político.

Por su parte, la transparencia algorítmica hace posible la auditoría y detección de tales prácticas perjudiciales. Asimismo, permite a las personas comprender por qué el sistema les arroja ciertas informaciones, productos o servicios, capacitándolos para mantener su autonomía y tomar decisiones informadas.

🫧
El filtro burbuja es un factor en nuestro acceso a la información en Internet. Conoce cómo nos afecta.

Sin duda, la transparencia algorítmica empodera a los usuarios para cuestionar las decisiones algorítmicas, detectar errores y sesgos y, en consecuencia, ejercer sus derechos para corregirlos.

Protege la privacidad y los datos personales

La transparencia algorítmica es esencial para que los individuos comprendan qué datos se recopilan, cómo se utilizan y con qué fin.

Esto es indispensable para ejercer derechos como el acceso, la rectificación, la supresión y la oposición al tratamiento de datos personales, garantizando que el uso de la IA se ajuste a las regulaciones relativas a la protección de datos y privacidad.

La transparencia algorítmica es indispensable para que los sistemas de IA cumplan con las diversas exigencias regulatorias que les son aplicables. En su defecto, la opacidad algorítmica dificulta que los mismos sean sometidos a rigurosos procesos de auditoría, impidiendo verificar su conformidad con la normativa pertinente.

Fomenta la confianza en los sistemas de IA

Es lógico: no poder comprender cómo funcionan los algoritmos que afectan a las personas erosiona la confianza pública. La transparencia algorítmica construye un puente hacia la credibilidad y legitimidad de los sistemas de IA.

Imagen de Pawel Czerwinski en Unsplash.
Imagen de Pawel Czerwinski en Unsplash.

Nuestros derechos y la transparencia algorítmica

De tal suerte que, la transparencia algorítmica es un habilitador clave para ciertos derechos, tales como:

  • Derecho a la no discriminación e igualdad.
  • Derecho a la libertad.
  • Derecho a la privacidad y protección de datos personales.
  • Derecho a la información completa y veraz.

En definitiva, la implementación de IA exige un compromiso ineludible con la transparencia algorítmica. Comprender el “cómo” y el “porqué” de cada decisión automatizada es la única protección efectiva que tenemos para nuestra autonomía.

Al fomentar la transparencia, exigimos la protección de nuestros derechos y, a la vez, la estandarización de sistemas de IA responsables, que se ajusten a los principios y valores de un Estado de Derecho.

La próxima vez, como un ejercicio mínimo, pregúntate: ese contenido en tu feed, esa preferencia que sientes o esa decisión que tomas, ¿es genuina o fue guiada por un algoritmo opaco?

💡
Conoce cómo lo digital cambió el mundo legal. Descubre más sobre la relación entre el derecho y la tecnología.
por Gabriela D' Argento profile image Gabriela D' Argento
Actualizado el
Inteligencia Artificial