
En la actualidad, la inteligencia artificial (IA) está moldeando aspectos fundamentales de la vida cotidiana, desde la medicina hasta la educación. Sin embargo, uno de los mayores desafíos en su desarrollo y despliegue es la presencia de sesgos que pueden influir en las decisiones automatizadas, perpetuando desigualdades sociales y afectando a grupos vulnerables de manera desproporcionada.
Debido a esto, el MIT Technology Review compartió la nueva propuesta de los expertos para controlar rasgos discriminatorios.
Recientemente, un equipo de investigadores de la Universidad de Stanford realizó un estudio y propuso ocho nuevos benchmarks -una referencia para evaluar la equidad en la IA-, los cuales ofrecen un enfoque más matizado y preciso que los estándares tradicionales.

Los nuevos benchmarks de IA que proponen los científicos
El equipo de investigación de Stanford, liderado por Angelina Wang, miembro postdoctoral en el Instituto para la Inteligencia Artificial Centrada en el Ser Humano y RegLab, identificó una nueva forma de evaluar los sesgos en los modelos de IA mediante la creación de diferentes benchmarks, clasificados en dos categorías: descriptivos y normativos.
Estas referencias surgen a raíz de la frustración con los enfoques tradicionales de medición de la equidad, los cuales, no siempre logran capturar la complejidad de los sesgos presentes en los sistemas de IA.
A través de estos nuevos indicadores, los especialistas buscan ofrecer herramientas más precisas para analizar cómo los modelos de IA comprenden el mundo y si perpetúan estereotipos o desigualdades.
Problema con los enfoques tradicionales para la equidad
Los enfoques tradicionales, como el benchmark DiscrimEval, se centran en medir los patrones discriminatorios a partir de las respuestas que los modelos de IA dan a preguntas relacionadas con datos demográficos. Sin embargo, estos métodos demostraron ser insuficientes en la lucha contra el sesgo, ya que aunque los modelos puedan obtener puntuaciones altas en estos benchmarks, no necesariamente se traducen en resultados equitativos.
Un modelo de IA que tiene un desempeño excelente en la evaluación de la equidad podría generar respuestas que siguen perpetuando estereotipos dañinos.
Este fenómeno quedó en evidencia con el caso de Google Gemini, que produjo imágenes históricamente inexactas de figuras como los fundadores de EEUU, representados incorrectamente como diversos racialmente. Este tipo de errores subraya la necesidad urgente de evaluar la IA desde nuevas perspectivas, capaces de reflejar mejor las complejidades sociales y culturales.

Los benchmarks descriptivos propuestos por Stanford, miden la capacidad de un modelo de IA para responder preguntas objetivas sobre hechos específicos, como leyes y características demográficas.
Mientras que los benchmarks normativos abordan cuestiones más complejas y subjetivas, centradas en la capacidad del modelo para diferenciar entre grupos sociales y evaluar el daño potencial de sus respuestas en un contexto más amplio.
Impacto de los métodos actuales para reducir sesgos
Aunque los métodos actuales de reducción de sesgo lograron algunos avances, los expertos destacan que estas estrategias pueden ser contraproducentes. Por ejemplo, cuando se instruye a los modelos de IA para tratar a todos los grupos de manera igualitaria, sin tener en cuenta las diferencias reales entre ellos, el resultado puede ser una disminución de la precisión sin lograr mejorar realmente la equidad.
Esto es particularmente evidente en campos como la medicina, donde los sistemas de IA diseñados para diagnosticar enfermedades como el melanoma mostraron mejores resultados para pieles claras debido a la falta de datos de entrenamiento sobre pieles oscuras. Intentar igualar los resultados para todos los grupos sin reconocer las diferencias puede, irónicamente, empeorar la situación.
La directora ejecutiva del Proyecto de Inteligencia Colectiva, Divya Siddarth, explicó: “Estuvimos atrapados durante mucho tiempo en nociones desactualizadas de lo que significa la equidad y el sesgo”.
En tanto, la solución, según afirman los especialistas, no es tratar a todos de la misma manera, sino entender las diferencias y abordarlas de manera que todos los grupos puedan beneficiarse con la tecnología.

Posibles soluciones y avances futuros
Para abordar estos desafíos, los investigadores proponen diversas soluciones. Una de ellas es el desarrollo de conjuntos de datos más diversos y representativos que permitan entrenar modelos de IA con una mayor variedad de experiencias. No obstante, su creación puede ser costosa y llevar mucho tiempo.
Además, la “interpretabilidad mecanicista”, que busca entender y manipular los accionares internos de los modelos de IA, podría ofrecer una solución eficaz. Esto permitiría a los científicos identificar y corregir los sesgos en las redes neuronales de la IA.
También se sugirió que el enfoque de “humano en el circuito” podría ser necesario, especialmente en situaciones complejas donde las decisiones éticas son clave.
Sandra Wachter, profesora en la Universidad de Oxford, argumentó que “la idea de que la tecnología pueda ser completamente justa y objetiva es un mito”. Los modelos de IA, nunca podrán reemplazar la intervención humana en las decisiones relacionadas con el sesgo y la ética.
Últimas Noticias
Un emulador hace posible jugar la Nintendo Switch directamente en el celular
El emulador permite jugar títulos de Nintendo Switch en smartphones con Android 11 o versiones más recientes

El nuevo motor de iones que podría revolucionar la limpieza de basura espacial
Limpiar la órbita terrestre representa un desafío creciente, pero una innovadora tecnología japonesa propone aprovechar el impulso de motores de iones para despejar el espacio de manera efectiva y segura

Peligro en delegar decisiones a la IA: sistemas sin conciencia pueden influir en la sociedad advirtió escritor especialista en inteligencia artificia
Referentes internacionales coinciden en la urgencia de establecer normativas que aseguren el predominio de la ética y la transparencia en el desarrollo de tecnologías inteligentes
Guía fácil de cómo convertir un documento físico en PDF gratis y sin aplicaciones extrañas
Teléfonos Android y iPhone cuentan con Google Drive, una opción segura y práctica de usar que digitaliza en cuestión de segundos un archivo a través de su cámara

Si recibes un mensaje con estas palabras, podrías estar ante un fraude digital
El envío de mensajes falsos que simulan ser de bancos o instituciones busca engañar a los usuarios para robar información personal y financiera
