Salud y Fármacos is an international non-profit organization that promotes access and the appropriate use of pharmaceuticals among the Spanish-speaking population.

Ética

Integridad de la Ciencia

Inteligencia artificial: perpetúa los prejuicios y los estereotipos

(Artificial intelligence: perpetuating bias and stereotypes)
Prescrire International 2025; 34 (268): 83
Traducido por Salud y Fármacos, publicado en Boletín Fármacos: Ética y Derecho 2025; 28 (2)

Tags: inteligencia artificial y artículos científicos, sesgos en la información digital, IA y sesgo en la información electrónica

  • Dado que las herramientas de inteligencia artificial “generativa” (IA) producen contenido basándose en información disponible públicamente en línea, contribuyen a promover los prejuicios que existen en ese contenido en internet. Sus desarrolladores tienen la responsabilidad de corregir esos prejuicios.

Gracias a su capacidad de sintetizar rápidamente una gran cantidad de datos, la IA se considera una fuente de progreso en muchos ámbitos, incluyendo los servicios médicos. Pero depende, entre otras cosas, de la fiabilidad y la integridad de los datos que procesan estas herramientas [1].

De acuerdo con el Defensor de Derechos de Francia (un defensor público de los derechos civiles) “las bases de datos procesadas por algoritmos deben ser representativas de la población para prevenir que estos algoritmos generen prejuicios discriminatorios basados en esta información, en particular a lo relacionado con las diferencias de género y a diferentes determinantes sociales de salud, como la región, la historia de vida o la condición socioeconómica” [2].

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) también ha advertido que la IA “generativa” puede crear información que refleje los prejuicios que existen en la sociedad. Un grupo de investigadores estudió la herramienta de IA generativa ChatGPT 3.5 junto con GPT-2 y Llama 2, dos “modelos extensos de lenguaje” (o LLM, una forma de IA) de código abierto que usan muchas herramientas de IA generativas. Descubrieron que, en los textos generados por estos LLM, los nombres femeninos se asociaban a las palabras “hogar”, “familia”, “hijos”, “matrimonio”, “prostituta” y “camarera”, mientras que los nombres masculinos se asociaban a las palabras “negocios”, “ejecutivo”, “salario” y “carrera”. GPT-2 y Llama 2 también suelen generar contenido negativo sobre los homosexuales, algo que no sucedió con ChatGPT [3].

De acuerdo con la UNESCO, la IA puede “reforzar los estereotipos, los prejuicios y la violencia contra las mujeres y las niñas” y provocar riesgos reales, sobre todo cuando se usan estas herramientas para la contratación laboral, para determinar la aprobación de préstamos o las primas de seguros, o incluso para los diagnósticos médicos [3].

La UNESCO exhorta a los desarrolladores de IA y a los legisladores a trabajar para prevenir que la IA “perpetúe (e incluso aumente o amplifique) los prejuicios humanos estructurales y sociales”. El hecho de que ChatGPT 3.5 no perpetúe los prejuicios negativos contra la homosexualidad que sí existen en el LLM GPT en el que se basa muestra que la intervención humana (en la forma de “aprendizaje por refuerzo a partir de la retroalimentación humana”) sigue siendo crucial para identificar y corregir los prejuicios en los algoritmos que usan las herramientas de IA [3].

Referencias

  1. Prescrire Rédaction “Données massives (big data) en santé et respect des personnes et de leurs droits” Rev Prescrire 2020; 40 (445): 853-860.
  2. Défenseur des droits “Avis du Défenseur des droits n°19-13” Paris 20 December 2019: 12 pages.
  3. Unesco “Challenging systematic prejudices. An investigation into bias against women and girls in Large Language Models” 2024: 22 pages.
creado el 12 de Junio de 2025