Éthique de l’intelligence artificielle

Un système d’intelligence artificielle éthique est un système explicable, inclusif, responsable, transparent et sécurisé.

4 minutes de lecture

Girl using VR glasses, lights around her
L’IA en résumé

Il est essentiel pour les entreprises qui utilisent l’intelligence artificielle intelligence artificielle et les machine learning d’élaborer des normes éthiques pour leur utilisation tout au long du cycle de vie entreprise, du parcours utilisateur et marketing de contenus. Les problèmes éthiques qui peuvent découler de l’utilisation de l’intelligence artificielle peuvent être résolus avec une combinaison de réglementations sur l’intelligence artificielle, de principes éthiques de l’intelligence artificielle et de philosophies responsables de l’intelligence artificielle. Un système d’intelligence artificielle éthique est explicable, inclusif, responsable, transparent et sécurisé. Explainable intelligence artificielle est une approche propre et philosophique des systèmes intelligence artificielle qui aide les utilisateurs à avoir confiance dans les résultats de machine learning algorithmes. La responsabilité interne devrait faire partie de l’éthique de l’intelligence artificielle.

Qu’est-ce que l’intelligence artificielle éthique ?

La matrice de systèmes et d’outils d’intelligence artificielle s’agrandit de jour en jour, et le potentiel de l’intelligence artificielle pour augmenter l’intelligence humaine est incroyable.

« Le vrai problème n’est pas de savoir si les machines pensent, mais si les hommes le font. » - BF Skinner

Il est essentiel pour les entreprises qui utilisent l’intelligence artificielle intelligence artificielle et les machine learning d’élaborer des normes éthiques pour leur utilisation tout au long du cycle de vie entreprise, du parcours utilisateur et marketing de contenus.

Les problèmes éthiques qui peuvent découler de l’utilisation de l’intelligence artificielle peuvent être résolus avec une combinaison de réglementations sur l’intelligence artificielle, de principes éthiques de l’intelligence artificielle et de philosophies responsables de l’intelligence artificielle.

Un système d’intelligence artificielle éthique est explicable, inclusif, responsable, transparent et sécurisé.

Intelligence artificielle explicable (XAI)

Avec seulement 9% des Américains pensant que les ordinateurs dotés d’intelligence artificielle feraient plus de bien que de mal à la société, il semble essentiel de donner la priorité à la compréhension humaine de l’impact, de la précision, des résultats et des biais de intelligence artificielle modèles.

Explainable intelligence artificielle est une approche propre et philosophique des systèmes intelligence artificielle qui aide les utilisateurs à avoir confiance dans les résultats de machine learning algorithmes. Lorsqu’il s’agit de renforcer la confiance parmi ceux qui utilisent des modèles d’intelligence artificielle, l’intelligence artificielle explicable peut également aider les entreprises et les équipes à élaborer une approche responsable du développement et de l’intégration de l’intelligence artificielle dans leurs organisations.

Être capable d’expliquer en détail le fonctionnement d’un outil et la façon dont il obtient des résultats propres est une meilleure pratique pour toute technologie et est particulièrement critique avec les systèmes d’intelligence artificielle de pointe. L’intégration d’un niveau d’explicabilité dans le déploiement de la technologie peut également garantir que le fonctionnement de la technologie est conforme à la politique de l’entreprise, à la réglementation externe et aux valeurs de la marque.

Inclusif et exempt de préjugés

L’inclusivité dans les systèmes d’intelligence artificielle signifie considérer tous les humains de manière égale ; adopter cette approche dès le début peut aider à prévenir l’exclusion involontaire de certains groupes.

« Comme toutes les technologies avant elle, l’intelligence artificielle reflétera les valeurs de ses créateurs. L’inclusivité est donc importante, qu’il s’agisse de la personne qui la conçoit, de la personne qui siège au conseil d’administration de l’entreprise ou des perspectives éthiques qui y sont incluses.

 

Éviter les biais dans les systèmes d’intelligence artificielle est une quête essentielle, mais pas aussi facile qu’il n’y paraît à première vue. En 1996, Batya Friedman et Helen Nissenbaum ont identifié trois catégories de biais dans les systèmes informatiques et, bien que celles-ci aient été introduites il y a près de 30 ans, elles restent aussi pertinentes que jamais.

  1. Les préjugés préexistants, qui ont leurs racines dans les pratiques et les attitudes de la société et des individus au sein de cette société. Les préjugés préexistants peuvent, bien sûr, être introduits délibérément, mais sont souvent inclus inconsciemment.
     
    Ce même concept est parfois appelé « biais de données » lorsqu’il s’agit de systèmes d’intelligence artificielle ; Tous les systèmes sont alimentés par des données, et les biais dans ces ensembles de données se refléteront dans le fonctionnement du système lui-même. Ces préjugés ont souvent fait surface lorsqu’il s’agit de race et de genre.
     
    Les outils de reconnaissance vocale de plusieurs sociétés, dont Apple et IBM, se sont avérés avoir des taux d’erreur plus élevés lors du traitement des voix noires, et dans un exemple parfait de biais de sélection d’échantillon, Amazon a cessé d’utiliser l’embauche d’intelligence artificielle parce que l’algorithme favorisait les hommes.
     
    Dans les deux cas, il s’agit d’un biais inhérent aux données historiques utilisées. Amazon a utilisé 10 ans de données internes pour former son outil de recrutement intelligence artificielle et la plupart des candidats retenus dans cet ensemble de données étaient des hommes, de sorte que l’algorithme a appris à pénaliser les CV des femmes.

  2. Le biais technique est souvent le résultat du logiciel et du matériel utilisés pour concevoir l’algorithme (comme un moteur de recherche qui pousse les résultats les moins bien classés hors de l’écran parce qu’il n’y a tout simplement pas de place pour eux). Cela peut également être le cas lorsque les concepteurs tentent de quantifier des concepts qui sont profondément qualitatifs pour la plupart des humains ; Un algorithme destiné à définir l’attractivité en est un exemple, car placer une valeur propre sur une mesure aussi subjective ne peut que créer des problèmes.

  3. Biais émergent, qui se développe en raison de l’interaction entre la technologie et les utilisateurs de cette technologie. L’exemple le plus célèbre de ces dernières années est le chatbot Tay, qui était destiné à apprendre en interagissant avec d’autres utilisateurs d’un propre plate-forme. Malheureusement, la plate-forme sélectionnée était Twitter (maintenant connu sous le nom de X), et les utilisateurs avec lesquels le chatbot interagissait ont commencé à alimenter le bot en contenu incendiaire, exploitant une faiblesse technologique du bot. En l’espace d’une journée, le chatbot envoyait des messages offensants.

Les problèmes de partialité étant clairement documentés, il incombe au moins d’en tenir compte et d’éliminer les possibilités de partialité par une surveillance humaine diversifiée est la responsabilité de chaque marque qui utilise l’intelligence artificielle.

Utilisation responsable de l’intelligence artificielle

L’intelligence artificielle est un outil comme un autre et, en tant que tel, nécessite des garanties et des points de contrôle pour s’assurer que l’intelligence artificielle est utilisée légalement et correctement. En plus du biais discuté ci-dessus, l’intelligence artificielle a été utilisée pour diffuser de la désinformation. Il a été utilisé pour créer des deep fakes, et certains modèles ont été formés sur des images et des textes protégés par le droit d’auteur.

Des recours collectifs ont été intentés contre OpenAI, alléguant que la technologie « reposait sur la récolte de quantités massives » de mots protégés par le droit d’auteur, le générateur d’art d’intelligence artificielle Stable Diffusion est également poursuivi par Getty Images pour violation du droit d’auteur, et les sociétés d’intelligence artificielle générative Stability Intelligence artificielle, Midjourney et DeviantArt font face à des défis similaires.

La responsabilité interne devrait faire partie de l’éthique de l’intelligence artificielle. Poser des questions sur la façon dont les systèmes d’intelligence artificielle utilisés sont formés et d’où proviennent les données peut aider les entreprises à s’assurer que l’utilisation de l’intelligence artificielle est responsable et conforme aux valeurs de la marque.

Il est également essentiel d’avoir des points de vue diversifiés dans le cadre de ce processus interne ; plus le champ de points de vue est diversifié, plus une équipe est susceptible de définit les préjugés et les problèmes de sécurité sous-jacents, et plus elle est susceptible de repérer les vulnérabilités et les informations incorrectes fournies par les outils de renseignement artificielle.

« La clé de l’intelligence artificielle a toujours été la représentation. » - Jeff Hawkins

À bien des égards, mieux vaut prévenir que guérir. Se tenir au courant des derniers développements en matière de intelligence artificielle technologie et explorer de nouveaux outils, qu’il s’agisse de étude génétique, de changement climatique ou de étude scientifique, tout en reconnaissant les problèmes et les préoccupations sous-jacents liés à la technologie du développement, peut contribuer grandement à garantir que l’utilisation de intelligence artificielle est responsable et que le marque est à l’aise d’assumer la responsabilité de intelligence artificielle résultats utilisés tout au long du cycle de vie de son contenu et de son écosystème technologique.

Transparence avec les clients

Être transparent sur où et comment l’intelligence artificielle est utilisée peut contribuer grandement à résoudre les dilemmes et à renforcer la confiance avec les clients, les visiteurs et les employés. Être honnête avec les gens sur l’origine du contenu et sur la façon dont intelligence artificielle est utilisé dans le processus de création est un élément important de toute intelligence artificielle cadre éthique.

Noter quels articles, médias sociaux et blogs ont été écrits à l’aide de ChatGPT ou d’applications d’intelligence artificielle similaires, reconnaître quand les images sont générées à l’aide de technologies d’intelligence artificielle et être clair sur le seuil auquel un humain entre dans le chat et prend le relais d’un chatbot peut rendre les frontières entre l’intelligence artificielle et les humains plus claires et aider à créer des cadres d’intelligence artificielle dignes de confiance.

« La confiance du public est une condition essentielle pour que l’intelligence artificielle soit utilisée de manière productive. » - Mark Walport

Il s’agit d’un autre endroit où un comité chargé de superviser l’utilisation de l’intelligence artificielle au sein d’une marque peut être utile ; l’établissement de normes éthiques en matière d’intelligence artificielle que les parties prenantes peuvent utiliser dans la prise de décisions entre les ministères et la normalisation des méthodes de notification pour créer des normes bien définies et réalisables peuvent aider à éviter les malentendus et les critiques en cours de route.

Sécurisez la confidentialité des données des utilisateurs

Comme pour tout système qui utilise le Big Data, la confidentialité des détenteurs de données et la sécurité des données elles-mêmes doivent être primordiales dans toute utilisation de intelligence artificielle technologie. Cela est particulièrement important à mesure que l’intelligence artificielle se développe dans des domaines sensibles tels que la finance et les soins de santé.

Empêcher l’accès non autorisé aux bases de données et se conformer à des lois telles que le RGPD européen est une meilleure pratique essentielle qui s’étend et englobe l’utilisation des systèmes d’intelligence artificielle. L’avenir de l’intelligence artificielle est étroitement lié aux défis éthiques de la confidentialité et de la protection des données, et les décideurs politiques de marque qui répondent à ces préoccupations et créent des initiatives qui soutiennent la confidentialité des données sont susceptibles d’obtenir un avantage concurrentiel à l’avenir.

L’adoption éthique de l’intelligence artificielle dépend de nous

L’éthique de l’intelligence artificielle est une discipline aux multiples facettes, qui réunit des considérations relatives aux droits de l’homme et à l’impact sociétal de la robotique, de l’informatique et de la technologie de l’information.

Bien qu’il y ait toujours des questions éthiques autour de intelligence artificielle, les marques qui intègrent un cadre éthique dans leur intelligence artificielle développement, des directives éthiques dans l’utilisation de l’automatisation et des principes éthiques dans leur utilisation de la intelligence artificielle dès le début peuvent intégrer ces nouvelles technologies d’une manière fiable qui répond aux préoccupations éthiques.