
Investigadores de Stanford han desarrollado dos nuevos benchmarks diseñados para avaliar y mitigar el sesgo en modelos de inteligencia artificial. Inspirados por errores de enfoques anteriores, estos nuevos métodos permiten una evaluación más matizada de cómo los modelos de IA comprenden el mundo y son capaces de interactuar con diferentes grupos de manera justa. Un enfoque crítico es la ‘conciencia de la diferencia’, que mide la capacidad del modelo para responder preguntas descriptivas con respuestas objetivas correctas.
El segundo criterio, la ‘conciencia contextual’, evalúa la habilidad del modelo para distinguir entre grupos en un contexto más amplio, mediante juicios que implican valores. Así, los investigadores demostraron que un enfoque demasiado rígido, que busca tratar a todos por igual, puede perjudicar la exactitud y la equidad de los resultados. Esto es clave, ya que muchos modelos de IA, aunque logren buenos puntajes en benchmarks actuales, aún pueden generar respuestas problemáticas o basadas en estereotipos negativos.
Los nuevos benchmarks proponen un camino para mejorar la comprensión de la complejidad social por parte de la inteligencia artificial. Sin embargo, abordar el sesgo no es una tarea sencilla, y se requiere de un enfoque multidimensional que incluya conjuntos de datos más diversos y la conciencia de las diferencias culturales. Este trabajo podría transformar no solo cómo evaluamos la equidad en IA, sino también cómo diseñamos modelos que realmente reflejen la rica variedad de nuestras sociedades.
Leave a Reply