Comment peut-on atténuer les biais liés à l’intelligence artificielle ?
5 minutes de lecture
Alors que l’utilisation d’applications intelligence artificielle et intelligence artificielle semble sur le point de devenir de plus en plus courante – les prévisionnistes prédisent que le marché mondial de la intelligence artificielle vaudra 1,8 billion de dollars d’ici 2030 – tous les regards sont maintenant tournés vers sa gouvernance.
Bien que ce domaine de l’informatique ait permis des avancées dans de nombreux domaines de notre vie quotidienne, il n’est pas exempt de divergences et de disparités. En effet, le biais de l’intelligence artificielle est une lacune bien réelle et peut avoir de lourdes conséquences.
Dans ce blog, nous allons explorer comment atténuer les biais liés à l’intelligence artificielle pour vous aider à adopter des pratiques éthiques dans votre organisation.
Qu’est-ce que le biais d’intelligence artificielle ?
Nous avons révélé que des tests inadéquats des modèles intelligence artificielle et un manque de diversité au sein des équipes permettent à des biais inconscients de s’infiltrer dans intelligence artificielle algorithmes et machine learning modèles.
Revisitez notre blog précédent sur la façon dont les biais d’intelligence artificielle vont plus en profondeur.
Des exemples des effets potentiellement néfastes du biais intelligence artificielle sur certains groupes et données démographiques ont été mis en évidence dans une étude US Department of commerce, qui a révélé que l’iniquité dans les algorithmes de reconnaissance faciale signifie que la reconnaissance faciale intelligence artificielle a une propension à mal identifier les Afro-Américains et les personnes de couleur.
Lorsqu’elles sont utilisées à des fins d’application de la loi, les formes biaisées de cette technologie pourraient avoir un impact néfaste sur la vie de ces groupes, ce qui pourrait mener à des arrestations injustifiées et, par conséquent, entraîner un manque de confiance dans le système de justice pénale.
Un autre exemple de discrimination basée sur le intelligence artificielle a été révélé dans une étude , qui a révélé que les algorithmes biaisés utilisés par les sociétés de services financiers signifiaient que les emprunteurs issus de communautés minoritaires, y compris les clients latinos et noirs, se voyaient régulièrement facturer des taux d’intérêt plus élevés pour les prêts hypothécaires.
Les humains ont un rôle à jouer dans l’atténuation des biais liés à l’intelligence artificielle
Lorsque les humains choisissent les données utilisées par machine learning algorithmes et décident de la manière dont les résultats de ces algorithmes seront appliqués, les biais humains sont responsables du biais d’intelligence artificielle biais d’intelligence artificielle.
Et donc, ce sont aussi les humains qui doivent défendre l’intelligence artificielle éthique et travailler à l’atténuation des biais.
L’atténuation des biais et la limitation de leur impact potentiellement négatif des décisions automatisées dans des situations réelles sont désormais une priorité pour les responsables de la science des données, les décideurs politiques et les principaux décideurs.
Une législation est déjà en cours en Europe sous la forme de la loi sur l’intelligence artificielle de l’Union européenne, qui tente d’introduire un cadre réglementaire et juridique commun pour l’intelligence artificielle. Combinée au règlement général sur la protection des données de l’UE et à la loi sur les services numériques et à la loi sur les marchés numériques, la loi sur l’intelligence artificielle vise à améliorer la confiance du public dans la technologie.
Comment les principales parties prenantes peuvent atténuer les biais liés à l’intelligence artificielle
Il existe plusieurs approches que intelligence artificielle les professionnels qui construisent des modèles et des algorithmes machine learning – ainsi que les organisations qui achètent et utilisent intelligence artificielle, et gouvernements qui le réglementent — peuvent adopter pour atténuer les préjugés et limiter leur impact potentiellement négatif.
Voici quelques-unes des méthodes et approches recommandées :
- Explicabilité - L’intelligence artificielle explicable (XAI) est une méthodologie et un ensemble de processus qui fournissent des raisons transparentes pour les résultats qui affectent les clients dans des secteurs tels que les services financiers. Des explications accompagnent la sortie intelligence artificielle/ML pour répondre aux préoccupations et aux défis.
Les prêteurs ou les souscripteurs de crédit doivent s’assurer que des catégories protégées d’attributs tels que l’ascendance, la couleur, le handicap, l’origine ethnique, le sexe ou l’identité de genre ne sont pas utilisées dans machine learning modèles ou dans l’existence par des proxys. - Human-in-the-loop : Cette méthode combine l’apprentissage machine learning supervisé et l’apprentissage actif avec des humains impliqués dans les étapes de formation et de test de la construction d’un algorithme. En réunissant l’humain et l’intelligence mécanique, une boucle de rétroaction continue est créée, ce qui permet à l’algorithme de fournir de meilleurs résultats à chaque fois.
Cette méthodologie peut être utilisée pour n’importe quel intelligence artificielle projet d’apprentissage profond, y compris traitement du language naturel (NLP) et parallèlement aux systèmes de modération de contenu pour analyser le contenu généré par les utilisateurs. - Algorithmes de prétraitement : les algorithmes de prétraitement sont des algorithmes d’atténuation des biais appliqués aux données d’entraînement, dans le but d’améliorer les mesures d’équité. Il s’agit de la première catégorie de médiation, qui offre la plus grande souplesse pour corriger les préjugés.
Des algorithmes de prétraitement peuvent être utilisés si un utilisateur est autorisé à modifier les données d’apprentissage avant la création du modèle.
Toutefois, il est important que les algorithmes de prétraitement n’incluent pas de métriques d’équité qui impliquent des prédictions de modèle telles que la parité prédictive. - Choisir des données d’entraînement de modèle de machine learning appropriées, volumineuses et suffisamment représentatives afin de neutraliser (au moins dans une mesure significative) différents types de biais d’intelligence artificielle tels que le biais de préjugé, le biais de mesure et le biais d’échantillon.
- Tester rigoureusement les résultats des systèmes machine learning et vérifier qu’ils n’intègrent pas de biais intelligence artificielle enracinés dans les ensembles de données ou dans l’algorithme lui-même est un autre moyen de réduire les biais algorithmiques.
- Surveillance continue des systèmes machine learning pendant les performances, afin d’éviter que intelligence artificielle biais ne s’insinuent au fil du temps.
- Utilisation de ressources pour sonder visuellement les comportement des modèles de machine learning entraînés (par exemple, l’outil outil de simulation).
- Établir des méthodes de collecte de données qui tiennent compte des différentes opinions sur les options d’étiquetage des points de données. Plus d’inclusion signifie une plus grande flexibilité du modèle de machine learning et une probabilité réduite de biais d’intelligence artificielle.
- Comprendre pleinement les données d’entraînement utilisées pour les modèles de Machine Learning, y compris ce qu’elles incluent, d’où elles proviennent et comment elles ont été générées. Les ensembles de données d’apprentissage qui contiennent des classes et des étiquettes inexactes ou injustes sont une source majeure de biais d’intelligence artificielle.
- Surveiller en permanence le modèle de machine learning et allouer des ressources (priorité, personnel, temps, budget) pour apporter des améliorations continues basées sur les commentaires et les observations.
L’atténuation des biais liés à l’intelligence artificielle est une pratique courante
En plus des recommandations ci-dessus, le National Institute of Standards and Technology (NIST) des États-Unis recommande aux scientifiques des données et aux autres professionnels des intelligence artificielle de regarder au-delà des processus machine learning et des données d’entraînement pour trouver des sources potentielles de biais intelligence artificielle.
Ce champ d’application plus large devrait inclure un contexte sociétal plus large, qui façonne et influence la façon dont la technologie est conçue et développée. Selon Reva Schwartz, chercheuse principale sur le biais de intelligence artificielle au NIST :
« Le contexte est primordial. Les systèmes d’intelligence artificielle ne fonctionnent pas de manière isolée. Ils aident les gens à prendre des décisions qui affectent directement la vie des autres. Si nous voulons développer des systèmes d’intelligence artificielle dignes de confiance, nous devons tenir compte de tous les facteurs qui peuvent miner la confiance du public dans l’intelligence artificielle. Bon nombre de ces facteurs vont au-delà de la technologie elle-même et touchent les impacts de la technologie, et les commentaires que nous avons reçus d’un large éventail de personnes et d’organisations ont souligné ce point.
Il est également important pour les organisations – à la fois celles qui construisent des systèmes d’intelligence artificielle et celles qui les déploient – de considérer le grand public comme un allié dans la lutte contre les biais de l’intelligence artificielle, de la même manière que les professionnels de la cybersécurité encouragent activement et permettent aux utilisateurs de repérer et de signaler les vulnérabilités (par « big bounty » et autres programmes).
Par exemple, Un expert intelligence artificielle exhorte les organisations à créer une procédure de règlement des griefs qui permet aux personnes qui estiment qu’elles-mêmes ou d’autres personnes ont été lésées par intelligence artificielle biais (ou pourraient être lésées) par sa prise de décision, de faire remonter leurs préoccupations concernant les iniquités d’une manière organisée, efficace et axée sur les solutions.
Étant donné que toutes les parties ont les mêmes objectifs — exactitude, pertinence et équité —, l’engagement et le dialogue devraient être collaboratifs plutôt que contradictoires.
Le mot de la fin
Il existe de nombreux cas d’utilisation positifs – et dans certains cas profonds – de l’intelligence artificielle. Par exemple, intelligence artificielle conduit percées dans le domaine des étude médicaux et des soins de santé, établissant accès à l’éducation pour des millions de personnes dans les pays en développement, et aider à lutter contre le changement climatique. Cependant, l’intelligence artificielle n’est pas une panacée parfaite.
Comme beaucoup d’autres technologies, elle se développe et évolue d’une manière que nous pouvons anticiper, et probablement de d’autres manières que nous ne pouvons pas. Travailler sérieusement à tous les niveaux pour définir, réduire et, idéalement, prévenir les biais potentiels est un moyen essentiel d’aider à faire en sorte que l’histoire continue de l’intelligence artificielle soit caractérisée par des solutions plutôt que par des revers.