¿Cómo se puede mitigar el sesgo de la AI?

La mitigación del sesgo de AI requiere la participación humana para garantizar la diversidad de datos, la explicabilidad de la toma de decisiones y el monitoreo continuo.

African,American,Businesswoman,Using,Laptop,,Consulting,Client,About,Deal,,Making

5 Lectura del minuto

El el uso de sistemas de AI e AI se está volviendo más común:

Los pronosticadores predicen que el mercado global de AI valdrá la pena 1,8 billones de dólares para 2030.

Como resultado, todos los ojos están ahora puestos en la gobernanza de la AI.

Aunque Inteligencia artificial has provided advancements in many areas of our daily lives, it is not without discrepancies and disparities. Indeed, Inteligencia artificial bias is a very real shortcoming and can have far-reaching consequences.

En este blog, exploraremos cómo mitigar el sesgo de la AI para ayudarlo a impulsar prácticas éticas en su organización.

¿Qué es el sesgo de la AI?

Revelamos anteriormente que las pruebas inadecuadas de los modelos de AI y la falta de diversidad dentro de los equipos permiten que los sesgos inconscientes existentes se cuelen en los algoritmos de AI y los modelos de aprendizaje automático.

Ejemplos de sesgo de AI

  • En un estudio del Departamento de Comercio de EE. UU. se destacaron ejemplos de los efectos potencialmente dañinos de los AI sesgados en ciertos grupos y datos demográficos, que encontraron que la inequidad en los algoritmos de reconocimiento facial significa sistemas de reconocimiento facial AI tiene una propensión a identificar erróneamente a las personas afroamericanas y a las personas de color.
  • Cuando se utilizan con fines policiales, como la vigilancia policial predictiva, las formas sesgadas de esta tecnología impulsada por la AI podrían tener un impacto dañino en la vida de estos grupos, lo que podría conducir a Arrestos injustos. A su vez, esto da como resultado una falta general de confianza en el sistema de justicia penal.
  • Otro ejemplo de sesgo racial y discriminación basados en la AI se reveló en un estudio de UC Berkeley, que encontró que los algoritmos sesgados utilizados para la calificación crediticia por parte de las empresas de servicios financieros significaban que los prestatarios de comunidades minoritarias, incluidos los clientes latinos y negros, eran rutinariamente cobraron tasas de interés más altas para hipotecas.
  • En el cuidado de la salud, Se encontró que los pacientes blancos tenían prioridad para una gestión adicional de la atención sobre los pacientes negros más enfermos cuando la tecnología de AI se entrenó con datos de costos en lugar de necesidades de atención.
  • Chatbots de atención médica exhibieron sesgo cuando se entrenaron en conjuntos de datos con diversidad insuficiente en etnias y géneros.
  • Un ejemplo de sesgo de género en el contenido generado por AI fue descrito por Bloomberg, quien encontró en un estudio de 5,000 imágenes que Stable Diffusion la AI generativa era más propensa a representar a los altos ejecutivos como hombres que como mujeres

Los humanos tienen un papel que desempeñar en la mitigación del sesgo de la AI

Los humanos eligen los datos que utilizan los algoritmos de aprendizaje automático y deciden cómo se aplicarán los resultados de esos algoritmos.

Los sesgos humanos son responsables de la inteligencia predisposición.

Por lo tanto, también son los humanos quienes deben defender la AI ética y responsable y trabajar hacia el sesgo mitigación.

Mitigar el sesgo y limitar su impacto potencialmente adverso de las decisiones automatizadas en situaciones del mundo real es ahora una prioridad para los líderes de la ciencia de datos, los responsables políticos y los responsables clave de la toma de decisiones.

La legislación ya está en marcha en Europa en forma de Ley de Inteligencia Artificial de la Unión Europea, que es un intento de introducir un marco normativo y jurídico común para la AI. Combinado con el Reglamento General de Protección de Datos y la Ley de Servicios Digitales y la Ley de Mercados Digitales de la UE, el objetivo de la Ley de AI es mejorar la confianza pública y la confianza en la tecnología.

Cómo las partes interesadas clave pueden mitigar el sesgo de la AI

Hay varios enfoques que los creadores de AI, las organizaciones y los reguladores pueden adoptar para mitigar el sesgo y limitar su impacto potencialmente adverso.

Algunos importantes Métodos y enfoques incluír:

user Icon

Humano en el bucle

Este método combina el aprendizaje automático supervisado y el aprendizaje activo con humanos involucrados en las etapas de entrenamiento y prueba de la construcción de un algoritmo. Al unir la inteligencia humana y la de las máquinas, se crea un ciclo de retroalimentación continuo, lo que permite que el algoritmo ofrezca mejores resultados cada vez.

Esta metodología se puede utilizar para cualquier proyecto de AI de aprendizaje profundo, incluido el procesamiento del lenguaje natural (NLP) y junto con los sistemas de moderación de contenido para analizar el contenido generado por el usuario.

takeaway-option_3-webonly

Explicabilidad

La AI explicable (XAI) es una metodología y un conjunto de procesos que proporcionan razones transparentes para los resultados que afectan a los clientes en industrias como los servicios financieros. Las explicaciones acompañan al resultado de AI/ML para abordar preocupaciones y desafíos.

Los prestamistas o suscriptores de crédito deben asegurarse de que las clases protegidas de atributos como ascendencia, color, discapacidad, etnia, género o identidad de género no se utilicen en modelos de aprendizaje automático o en la existencia a través de proxies.

worker Icon

Algoritmos de preprocesamiento

Los algoritmos de preprocesamiento son algoritmos de mitigación de sesgos aplicados a los datos de entrenamiento, que intentan mejorar las métricas de equidad. Son la categoría de mediación más temprana y ofrecen la mayor flexibilidad para corregir el sesgo.

Se pueden emplear algoritmos de preprocesamiento si se permite a un usuario modificar los datos de entrenamiento antes de la construcción del modelo. Es importante que los algoritmos de preprocesamiento no incluyan métricas de equidad que involucren predicciones de modelos como la paridad predictiva.

Más formas de mitigar el sesgo de la AI

  • Elegir el aprendizaje automático modelar datos de entrenamiento que sean adecuados, grandes y representativos, con el fin de neutralizar (al menos en una medida significativa) diferentes tipos de sesgo de AI, como el sesgo de prejuicio, el sesgo de medición y el sesgo de muestra.
  • Pruebas rigurosas la salida (resultados) de los sistemas de aprendizaje automático y verificar que no incorporen sesgos de AI arraigados en conjuntos de datos o en el algoritmo en sí es otra forma de reducir el sesgo algorítmico.
  • Monitoreo continuo sistemas de aprendizaje automático durante el rendimiento, para evitar que el sesgo de la AI se introduzca con el tiempo.
  • Uso de recursos para Sondear visualmente el comportamiento de los modelos de aprendizaje automático entrenados (por ejemplo, el Herramienta What-If).
  • Establecer métodos de recopilación de datos que tengan en cuenta las diferentes opiniones sobre las opciones de etiquetado de puntos de datos. Más inclusión significa mayor flexibilidad del modelo de aprendizaje automático - y una menor probabilidad de sesgo de AI.
  • Comprender completamente los datos de entrenamiento utilizados para los modelos de aprendizaje automático, incluido lo que incluyen, de dónde provienen y cómo se generaron. Los conjuntos de datos de entrenamiento que contienen clases y etiquetas inexactas o injustas son una fuente importante de sesgo de AI.
  • Monitoreo continuo the machine learning model, and allocate resources (priority, people, time, budget) to realizar mejoras continuas basadas en comentarios y observaciones.

Mitigar el sesgo de la AI es una práctica continua

Además de las recomendaciones anteriores, el Instituto Nacional de Estándares y Tecnología (NIST) de EE. UU. recomienda que los científicos de datos y otros profesionales de AI miren más allá de los procesos de aprendizaje automático y los datos de entrenamiento en busca de posibles fuentes de sesgo de AI.

Este alcance más amplio debe incluir contexto social más amplio, que da forma e influye en la forma en que se concibe y desarrolla la tecnología. Según Reva Schwartz, investigadora principal del sesgo de AI en el NIST:

El contexto lo es todo. Los sistemas de AI no funcionan de forma aislada. Ayudan a las personas a tomar decisiones que afectan directamente la vida de otras personas. Si queremos desarrollar sistemas de AI confiables, debemos considerar todos los factores que pueden socavar la confianza del público en la AI. Muchos de estos factores van más allá de la tecnología en sí a los impactos de la tecnología, y los comentarios que recibimos de una amplia gama de personas y organizaciones enfatizaron este punto.

Reva Schwartz

Investigador principal para el sesgo de IA

Instituto Nacional de Estándares y Tecnología

También es importante que las organizaciones, tanto las que construyen sistemas de AI como las que los implementan, vean al público en general como un aliado en la lucha contra el sesgo de AI, de manera similar a cómo los profesionales de la ciberseguridad alientan y permiten activamente a los usuarios detectar e informar vulnerabilidades (a través de "grandes recompensas" y otros programas).

Por ejemplo, las organizaciones deben Crear un proceso de quejas eso permite a las personas, que creen que ellos u otros han sido perjudicados por el sesgo de la AI o podrían verse perjudicados por su toma de decisiones, escalar sus preocupaciones sobre las desigualdades de una manera organizada, eficiente y centrada en la solución.

Dado que todas las partes tienen los mismos objetivos de precisión, idoneidad y equidad, el compromiso y el diálogo deben ser colaborativos, en lugar de contradictorios.

La última palabra

Hay muchos casos de uso positivos, incluso profundos, para la AI. Por ejemplo, la AI está conduciendo Avances en la investigación médica y atención médica, estableciendo Acceso a la educación para millones de personas en países en desarrollo, y Ayudar a combatir el cambio climático. Sin embargo, la AI no es una panacea perfeccionada.

Like many other technologies, it is developing and evolving in ways that we can anticipate, y probably in otras formas en las que no podemos. Working earnestly at all levels to identify, reduce, y ideally prevent potential biases is a critically important way to help ensure that the ongoing story of AI is characterized by solutions instead of setbacks.

DXP seguro, flexible y con tecnología de AI

La plataforma inteligente preparada para el futuro para ofrecer experiencias inolvidables.

SitecoreAI logo
¿Cómo se puede mitigar el sesgo de la AI? | Sitecore