Riesgos de sesgo y discriminación en Inteligencia Artificial (IA)

Los sesgos en la Inteligencia Artificial pueden llevar a discriminación y dañar la reputación corporativa. Estos sesgos surgen de errores en diseño de modelos y datos sesgados. Se recomienda prácticas como revisión de datos, pruebas de equidad y monitoreo continuo para mitigar estos riesgos y asegurar un funcionamiento ético de la IA.
Uno de los mayores riesgos a los que se exponen las compañías en el empleo de la Inteligencia Artifical (IA) es la obtención de resultados sesgados (lo que llamamos 'el sesgo'), y si este sesgo lo trasladamos a datos personales, podríamos terminar en un riesgo de discriminación/prejuicios (bien por sexo, raza, procedencia, creencia, etc) con el consecuente impacto no deseado sobre ciertos grupos de personas, afectando en la reputación e imagen de las compañías. Por tanto, 'el sesgo' podría definirse como la discriminación o prejuicio sobre la realidad que afectan a la toma de decisiones (o resultados obtenidos) de un sistema de IA.

El sesgo influye en los métodos de IA produciéndose como un error sistemático de la IA que ocurre cuando se eligen o se da cierta prioridad a unas respuestas en lugar de otras. Para entender las causas que generan el sesgo, hay que entender los siguientes principios de los modelos de IA. Por ejemplo, el modelo de IA puede contener errores en su diseño (pueden no ser perfectos). Los algoritmos empleados en el modelo parten de un diseño que de origen proporcionará resultados con sesgo. No generan información originariamente, es decir, toda la información que genera un sistema de IA se obtiene por que ha sido previamente alimentado con modelos de información proporcionada o generada por un ser humano, de una forma u otra. Pueden estar equivocados debido a que la información previa proporcionada en el aprendizaje puede presentar sesgos de partida, o se trata de una información manipulada, falsa, y/o parcial sin tener una información completa para disponer de una comprensión profunda del contexto.

La IA genera información a partir de un aprendizaje supervisado (continuo). Una vez proporcionado un modelo de datos de aprendizaje a un sistema de IA, se generan resultados, y la información que se va introduciendo durante su empleo, se sigue tratando por el modelo de IA como información de aprendizaje nuevamente. Por tanto, un sistema de IA que haya sido inicialmente correctamente entrenado, en un futuro podría terminar con problemas de sesgo al tratar continuamente datos con sesgo.

De los principios indicados en el párrafo anterior, se desprende que el sesgo en la IA puede aparecer en distintas etapas del uso (explotación), pero principalmente en el proceso de aprendizaje debido al empleo de datos falsos, erróneos y datos parciales que no representan a toda la población o contexto en su aprendizaje, obteniéndose resultados con sesgo y discriminación no deseados que podrían impactar en la imagen y reputación de las compañías, e incluso en incumplimiento regulatorios.

Por ejemplo, se pueden producir resultados desiguales que favorezcan a ciertos grupos sobre otros. Un sistema de reconocimiento facial podría ser más preciso a la hora de identificar rostros de personas de determinadas razas en comparación con otras razas. Se pueden tomar decisiones dirigidas a ciertos grupos de personas y discriminado otras de forma errónea. Los algoritmos utilizados en la contratación pueden revelar preferencias de género basadas en el contenido educativo. Se puede distorsionar o influenciar en las decisiones. Un algoritmo publicitario podría mostrar artículos que favorecieran ciertas ideas predominantes, mientras que excluyese otros artículos relacionados con otras perspectivas.

Para evitar el sesgo o minimizar el riesgo de sesgo en sistemas de IA, las compañías deben realizar una correcta estructuración del entrenamiento de los modelos de IA y, además, llevar a cabo una serie de análisis de resultados, por medio de buenas prácticas, como pueden ser utilizar algoritmos específicos diseñados para abordar el sesgo, como los algoritmos de aprendizaje de métricas; examinar los datos utilizados para entrenar modelos de IA en busca de sesgos demográficos, culturales o históricos; realizar pruebas específicas para evaluar si el modelo produce resultados equitativos para diferentes grupos demográficos o características relevantes y/o implementar sistemas de monitorización que monitoreen los resultados para detectar posibles sesgos y corregirlos.

En conclusión, es esencial mantener un enfoque activo y constante en la supervisión de los sistemas de IA durante la fase de aprendizaje y uso (explotación) para asegurar que el sistema siga generando resultados equitativos, y asemejándolo al comportamiento humano, que el sistema de IA sea imparcial y éticamente correcto.