Gracias a su capacidad de sintetizar rápidamente una gran cantidad de datos, la IA se considera una fuente de progreso en muchos ámbitos, incluyendo los servicios médicos. Pero depende, entre otras cosas, de la fiabilidad y la integridad de los datos que procesan estas herramientas [1].
De acuerdo con el Defensor de Derechos de Francia (un defensor público de los derechos civiles) “las bases de datos procesadas por algoritmos deben ser representativas de la población para prevenir que estos algoritmos generen prejuicios discriminatorios basados en esta información, en particular a lo relacionado con las diferencias de género y a diferentes determinantes sociales de salud, como la región, la historia de vida o la condición socioeconómica” [2].
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) también ha advertido que la IA “generativa” puede crear información que refleje los prejuicios que existen en la sociedad. Un grupo de investigadores estudió la herramienta de IA generativa ChatGPT 3.5 junto con GPT-2 y Llama 2, dos “modelos extensos de lenguaje” (o LLM, una forma de IA) de código abierto que usan muchas herramientas de IA generativas. Descubrieron que, en los textos generados por estos LLM, los nombres femeninos se asociaban a las palabras “hogar”, “familia”, “hijos”, “matrimonio”, “prostituta” y “camarera”, mientras que los nombres masculinos se asociaban a las palabras “negocios”, “ejecutivo”, “salario” y “carrera”. GPT-2 y Llama 2 también suelen generar contenido negativo sobre los homosexuales, algo que no sucedió con ChatGPT [3].
De acuerdo con la UNESCO, la IA puede “reforzar los estereotipos, los prejuicios y la violencia contra las mujeres y las niñas” y provocar riesgos reales, sobre todo cuando se usan estas herramientas para la contratación laboral, para determinar la aprobación de préstamos o las primas de seguros, o incluso para los diagnósticos médicos [3].
La UNESCO exhorta a los desarrolladores de IA y a los legisladores a trabajar para prevenir que la IA “perpetúe (e incluso aumente o amplifique) los prejuicios humanos estructurales y sociales”. El hecho de que ChatGPT 3.5 no perpetúe los prejuicios negativos contra la homosexualidad que sí existen en el LLM GPT en el que se basa muestra que la intervención humana (en la forma de “aprendizaje por refuerzo a partir de la retroalimentación humana”) sigue siendo crucial para identificar y corregir los prejuicios en los algoritmos que usan las herramientas de IA [3].
Referencias