ISSN 0719 8558

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
jet-engine
revistas-categorias
post-type-articulos
post
page
elementor-hf
post
revistas
Filter by Categories
Columna
Columna de Opinión
editoriales
Entrevistas
Reportaje
Reportajes
Sin categoría

Cuestionar la IA, cuestionar los sesgos sociales

Por Patricia Peña Miranda
Académica Facultad de Comunicación e Imagen
Universidad de Chile

Desde que ChatGPT apareció y se hizo popular, además de otras herramientas de inteligencia artificial generativa (IA Gen), se hizo notar una situación que a veces pasa desapercibido en nuestra vida diaria: los sesgos de estos sistemas en muchas de sus respuestas.

Por ejemplo, si le solicitamos a este chat que ofrezca citas de libros en un cierto tema, es altamente probable que su respuesta contenga más autores (hombres) que autoras (mujeres). A partir de esa información, muchas personas podrían quedarse con la idea de que, probablemente, no hay mujeres suficientes que escriban acerca de ese tema en particular.

Otro ejemplo lo vemos en los sistemas de IA generativa que crean imágenes o videos a partir de instrucciones de texto escrito. Al solicitar que nos entregue una imagen de una persona indígena chilena, lo más probable es que el resultado corresponda a una imagen de una persona indígena de cualquier otro país del mundo.

¿Porqué ocurre esto? Esta es una pregunta crítica que me gustaría plantear: la IA generativa que estamos usando hoy está entrenada por datos que encuentra dispersos en Internet.

Existe una alta posibilidad de que la respuesta haya sido elaborada a partir de la extracción de datos desde repositorios online (blogs, bibliotecas virtuales, etc.) que venían desde programas de estudio de todo el mundo.

El resultado refleja entonces un problema que está asociado, seguramente, en que hay muchos más programas de estudio universitarios que recomiendan más bibliografía con autores expertos que de autoras expertas.

Detrás de todo esto están los llamados “sesgos”, es decir, prejuicios o ideas preconcebidas que nos hacen tomar posición a favor o en contra de una idea. Aunque los sesgos son mayormente inconscientes, son inherentes a las personas humanas.

Un sesgo social puede estar relacionado a la imagen que nos proyecta una persona a partir de cómo se ve o se viste. Este ejemplo, así como muchos otros, son los que operan en los modelos de lenguaje que hoy utiliza la IA generativa y en otros sistemas automatizados que utilizan algoritmos para entregar resultados.

Esto significa que, si los sistemas son entrenados con datos sesgados, sus resultados también lo serán. Si un sistema de reconocimiento facial fue entrenado para reconocer rostros con piel blanca, es poco probable que identifique a personas morenas. Esto es muy riesgoso si pensamos en los sistemas de reconocimiento facial utilizados en temas de seguridad pública, para identificar a personas sospechosas.

También se está llamando la atención sobre los sesgos de género. Un ejemplo muy citado es el de una empresa de tecnología que había automatizado o algoritmizado la selección de puestos de trabajo, y que descubrió que el sistema privilegiaba los currículums masculinos por sobre los femeninos, sin identificar las diversidades de identidad de género.

Otro caso ocurre diariamente con los algoritmos detrás de los contenidos disponibles en redes sociales: se nos muestran imágenes de personas lindas, con cuerpos esbeltos y con características ideales, que no necesariamente son los cuerpos y las formas de personas reales.

Varios casos han sido expuestos en reportajes periodísticos e investigaciones científicas dedicadas a comprender qué tan riesgoso es para la sociedad incorporar una IA sesgada, que finalmente contribuya a que nuestras sociedades sean aún más injustas y generen más exclusión social.

Por eso, es muy importante cuestionar siempre el uso de estas tecnologías que nos entregan una solución rápida y fácil, porque al final, es también una cuestión de ética.

En la medida que nos vayamos dando cuenta de los sesgos, más evidencia tendremos para apoyar el desarrollo de regulaciones o controles que nos permitan hacer frente a estos desafíos y problemas de los que recién estamos empezando a comprender sus alcances.

Pero también podemos pensar en si es posible diseñar y crear soluciones basadas en IA que sean menos sesgadas o que sean más transparentes en cómo se ha procesado la información y los datos con que fueron entrenados.

Cuestionar la IA, cuestionar los sesgos sociales