Wie kann die Verzerrung durch künstliche Intelligenz gemildert werden?

Auf dem Weg zu verantwortungsvoller und ethischer künstlicher Intelligenz

5 Minuten Lesedauer

Da die Nutzung von Künstliche Intelligenz und Künstliche Intelligenz Anwendungen noch alltäglicher zu werden scheint – Prognostiker sagen voraus, dass die globale Künstliche Intelligenz-Markt bis 2030 einen Wert von 1,8 Billionen US-Dollar haben wird – richten alle Augen nun auf seine Governance.

Obwohl dieses Gebiet der Informatik in vielen Bereichen unseres täglichen Lebens Fortschritte gebracht hat, ist es nicht frei von Diskrepanzen und Ungleichheiten. In der Tat ist die Verzerrung durch künstliche Intelligenz ein sehr reales Manko und kann weitreichende Folgen haben.

In diesem Blog werden wir untersuchen, wie Sie die Voreingenommenheit der künstlichen Intelligenz mindern können, um Ihnen zu helfen, ethische Praktiken in Ihrem Unternehmen voranzutreiben.

Was ist Künstliche Intelligenz Bias?

Wir haben gezeigt, dass unzureichendes Testen von Modellen der Künstlichen Intelligenz und ein Mangel an Diversität innerhalb von Teams dazu führen, dass sich unbewusste Vorurteile in künstliche Intelligenz und Modelle des maschinellen Lernens einschleichen.

Besuchen Sie noch einmal unseren vorherigen Blog darüber, wie die Voreingenommenheit der künstlichen Intelligenz tiefer geht.

Beispiele für die potenziell schädlichen Auswirkungen von Künstliche Intelligenz Vorurteilen auf bestimmte Gruppen und Demografien wurden in einer Studie des des US-amerikanischen Department of Commerce hervorgehoben, in der festgestellt wurde, dass Ungleichheit in Gesichtserkennungsalgorithmen bedeutet Künstliche Intelligenz, dass Gesichtserkennung dazu neigt, afroamerikanische Menschen und People of Color falsch zu identifizieren.

Wenn sie für Strafverfolgungszwecke verwendet werden, könnten voreingenommene Formulare dieser Technologie schädliche Auswirkungen auf das Leben dieser Gruppen haben, was möglicherweise zu unrechtmäßigen Verhaftungen führt - und wiederum zu einem Mangel an Vertrauen in das Strafrechtssystem.

Ein weiteres Beispiel für Künstliche Intelligenz-basierte Diskriminierung wurde in einer Studie der UC Berkeley aufgedeckt, in der festgestellt wurde, dass voreingenommene Algorithmen, die von Finanzdienstleistungsunternehmen verwendet werden, dazu führen, dass Kreditnehmern aus Minderheitengemeinschaften, einschließlich Latinos und schwarzer Kunden, routinemäßig höhere Zinssätze für Hypotheken berechnet werden.

Der Mensch spielt eine Rolle bei der Minderung der Verzerrung der künstlichen Intelligenz

Da Menschen die Daten auswählen, die maschinelles Lernen Algorithmen verwenden, und entscheiden, wie die Ergebnisse dieser Algorithmen angewendet werden, sind menschliche Vorurteile für künstliche Intelligenz verantwortlich.

Und so sind es auch Menschen, die sich für ethische Künstliche Intelligenz einsetzen und auf die Minderung von Vorurteilen hinarbeiten müssen.

Die Minderung von Verzerrungen und die Begrenzung ihrer potenziell nachteiligen Auswirkungen automatisierter Entscheidungen in realen Situationen ist heute eine Priorität für Data Science-Führungskräfte, politische Entscheidungsträger und wichtige Entscheidungsträger.

In Europa ist mit dem Artificial Intelligence Act der Europäischen Union bereits eine Gesetzgebung im Gange, die einen gemeinsamen Regulierungs- und Rechtsrahmen für Künstliche Intelligenz einführen soll. In Kombination mit der EU-Datenschutz-Grundverordnung und dem Gesetz über digitale Dienste und dem Gesetz über digitale Märkte ist es das Ziel des Gesetzes über künstliche Intelligenz, das Vertrauen der Öffentlichkeit in Technologie zu stärken.

Wie wichtige Stakeholder die Verzerrung durch künstliche Intelligenz mindern können

Es gibt mehrere Ansätze, die Künstliche Intelligenz Fachleute, die maschinelles Lernen Modelle und Algorithmen entwickeln, sowie Organisationen, die Künstliche Intelligenz kaufen und verwenden, und Regierungen, die sie regulieren – ergreifen können, um Verzerrungen zu mindern und ihre potenziell nachteiligen Auswirkungen zu begrenzen.

Einige empfohlene Methoden und Ansätze sind:

  • Erklärbarkeit - Explainable Künstliche Intelligenz (XAI) ist eine Methodik und eine Reihe von Prozessen, die transparente Gründe für Ergebnisse liefern, die Kunden in Branchen wie Finanzdienstleistungen betreffen. Die Ausgabe von Künstliche Intelligenz/ML wird von Erläuterungen begleitet, um auf Bedenken und Herausforderungen einzugehen.
     
    Kreditgeber oder Kreditversicherer müssen sicherstellen, dass geschützte Klassen von Attributen wie Abstammung, Hautfarbe, Behinderung, ethnische Zugehörigkeit, Geschlecht oder Geschlechtsidentität nicht in Modellen des maschinellen Lernens verwendet werden oder über Proxys existieren.
  • Human-in-the-Loop: Diese Methode kombiniert überwachtes maschinelles Lernen und aktives Lernen mit Menschen, die an den Trainings- und Testphasen der Erstellung eines Algorithmus beteiligt sind. Durch die Zusammenführung von menschlicher und maschineller Intelligenz entsteht eine kontinuierliche Feedbackschleife, die es dem Algorithmus ermöglicht, jedes Mal bessere Ergebnisse zu liefern.
     
    Diese Methodik kann für jedes Deep-Learning-Projekt für künstliche Intelligenz verwendet werden, einschließlich natürlicher Sprachverarbeitung (NLP) und zusammen mit Content-Moderationssystemen zur Analyse benutzergenerierter Inhalte.
  • Vorverarbeitungsalgorithmen: Vorverarbeitungsalgorithmen sind Algorithmen zur Minderung von Verzerrungen, die auf Trainingsdaten angewendet werden, um die Fairness-Metriken zu verbessern. Sie sind die früheste Mediationskategorie und bieten die größte Flexibilität bei der Korrektur von Vorurteilen.
     
    Vorverarbeitungsalgorithmen können verwendet werden, wenn ein Benutzer die Trainingsdaten vor der Modellerstellung ändern darf.
    Es ist jedoch wichtig, dass Vorverarbeitungsalgorithmen keine Fairnessmetriken enthalten, die Modellvorhersagen wie prädiktive Parität beinhalten.
  • Auswahl von maschinellem Lernen Modelltrainingsdaten, die geeignet, groß und repräsentativ genug sind, um (zumindest in sinnvollem Umfang) verschiedene Arten von Verzerrungen der künstlichen Intelligenz wie Vorurteilsverzerrungen, Messverzerrungen und Stichprobenverzerrungen zu neutralisieren.
  • Das rigorose Testen der Ausgabe (Ergebnisse) von Systemen des maschinellen Lernens und die Überprüfung, dass sie keine künstliche Intelligenz enthalten, die in Datensätzen oder dem Algorithmus selbst wurzelt, ist eine weitere Möglichkeit, algorithmische Verzerrungen zu reduzieren.
  • Kontinuierliche Überwachung von Systemen des maschinellen Lernens während der Leistung, um zu verhindern, dass sich die künstliche Intelligenz im Laufe der Zeit einschleicht.
  • Verwendung von Ressourcen, um die Verhalten von trainierten maschinelles Lernen-Modellen visuell zu untersuchen (z. B. Googles Was-wäre-wenn-Tool).
  • Etablierung von Datenerhebungsmethoden, die unterschiedliche Meinungen zu Datenpunktkennzeichnungsoptionen berücksichtigen. Mehr Inklusion bedeutet eine größere Modellflexibilität beim maschinellen Lernen – und eine geringere Wahrscheinlichkeit von Verzerrungen durch künstliche Intelligenz.
  • Vollständiges Verständnis der Trainingsdaten, die für maschinelles Lernen verwendet werden, einschließlich dessen, was sie enthalten, woher sie stammen und wie sie generiert wurden. Trainingsdatensätze, die ungenaue oder unfaire Klassen und Bezeichnungen enthalten, sind eine Hauptquelle für Verzerrungen der Künstlichen Intelligenz.
  • Kontinuierliche Überwachung des Modells des maschinellen Lernens und Zuweisung von Ressourcen (Priorität, Mitarbeiter, Zeit, Budget) zur kontinuierlichen Verbesserung auf der Grundlage von Feedback und Beobachtungen.

Die Minderung von Verzerrungen durch künstliche Intelligenz ist eine fortlaufende Praxis

Zusätzlich zu den oben genannten Empfehlungen empfiehlt das US-amerikanische National Institute of Standards and Technology (NIST), dass Datenwissenschaftler und andere Fachleute für künstliche Intelligenz über maschinelles Lernen und Trainingsdaten hinaus nach potenziellen Quellen für Verzerrungen der Künstlichen Intelligenz suchen.

Dieser breitere Anwendungsbereich sollte einen breiteren gesellschaftlichen Kontext umfassen, der die Konzeption und Entwicklung der Technologie prägt und beeinflusst. Laut Reva Schwartz, einer leitenden Forscherin für Künstliche Intelligenz Bias am NIST:

"Der Kontext ist alles. Künstliche Intelligenz arbeitet nicht isoliert. Sie helfen Menschen, Entscheidungen zu treffen, die sich direkt auf das Leben anderer Menschen auswirken. Wenn wir vertrauenswürdige künstliche Intelligenz entwickeln wollen, müssen wir alles Faktoren berücksichtigen, die das Vertrauen der Öffentlichkeit in Künstliche Intelligenz untergraben können. Viele dieser Faktoren gehen über die Technologie selbst hinaus auf die Auswirkungen der Technologie, und die Kommentare, die wir von einer Vielzahl von Menschen und Organisationen erhalten haben, haben diesen Punkt hervorgehoben. "

Es ist auch wichtig, dass Organisationen - sowohl diejenigen, die künstliche Intelligenz entwickeln, als auch diejenigen, die sie einsetzen - die Öffentlichkeit als Verbündeten im Kampf gegen die Voreingenommenheit der Künstlichen Intelligenz sehen, ähnlich wie Cybersicherheitsexperten Benutzer aktiv ermutigen und befähigen, Schwachstellen zu erkennen und zu melden (durch "Big Bounty" und andere Programme).

Zum Beispiel fordert ein Künstliche Intelligenz Experte Organisationen auf, einen Beschwerdeprozess zu schaffen, der es Einzelpersonen, die glauben, dass sie oder andere durch Künstliche Intelligenz Voreingenommenheit geschädigt wurden (oder geschädigt werden könnten), ermöglicht, ihre Bedenken über Ungerechtigkeiten auf organisierte, effiziente und lösungsorientierte Weise zu äußern.

Da alle Parteien die gleichen Ziele haben - Genauigkeit, Angemessenheit und Fairness - sollten das Engagement und der Dialog eher kooperativ als kontradiktorisch sein.

Das letzte Wort

Es gibt viele positive – und in einigen Fällen tiefgreifende – Anwendungsfälle für Künstliche Intelligenz. Zum Beispiel treibt Künstliche Intelligenz Durchbrüche in der medizinischen Forschung / Recherche und im Gesundheitswesen voran und etabliert Zugang zu Bildung für Millionen von Menschen in Entwicklungsländern und zur Bekämpfung des Klimawandels beitragen. Künstliche Intelligenz ist jedoch kein perfektioniertes Allheilmittel.

Wie viele andere Technologien entwickelt und entwickelt sie sich auf eine Weise, die wir antizipieren können, und wahrscheinlich in auf andere Weise, die wir nicht können. Die ernsthafte Arbeit auf allen Ebenen, um potenzielle Verzerrungen zu identifizieren, zu reduzieren und idealerweise zu verhindern, ist ein äußerst wichtiger Weg, um sicherzustellen, dass die laufende Geschichte der künstlichen Intelligenz von Lösungen und nicht von Rückschlägen geprägt ist.

Forecasters predict the global AI marketplace will be worth $1.8tn by 2030.

As a result, all eyes are now on AI governance.

Although artificial intelligence has provided advancements in many areas of our daily lives, it is not without discrepancies and disparities. Indeed, artificial intelligence bias is a very real shortcoming and can have far-reaching consequences.

In this blog, we'll explore how to mitigate AI bias to help you drive ethical practices in your organization.

What is AI bias?

We revealed previously that inadequate testing of AI models and a lack of diversity within teams allows unconscious, existing biases to creep into AI algorithms and machine learning models.

AI bias examples

  • Examples of the potentially damaging effects of biased AI on certain groups and demographics were highlighted in a US Department of Commerce study, which found that inequity in facial recognition algorithms means facial recognition systems AI has a propensity to misidentify African-American people and people of color.
  • When used for law enforcement purposes such as predictive policing, biased forms of this AI-driven technology could have a harmful impact on the lives of these groups, potentially leading to wrongful arrests. In turn, this results in a general lack of trust in the criminal justice system.
  • Another example of AI-based racial bias and discrimination was revealed in a study by UC Berkeley, which found that biased algorithms used for credit scoring by financial services companies meant borrowers from minority communities, including Latino and Black customers, were routinely charged higher interest rates for mortgages.
  • In healthcare, white patients were found to be prioritized for additional care management over sicker black patients when AI technology was trained on cost data rather than care needs.
  • Healthcare chatbots were found to exhibit bias when trained on datasets with insufficient diversity in ethnicities and genders.
  • An example of gender bias in AI-generated content was described by Bloomberg, who found in a study of 5,000 images that Stable Diffusion generative AI was more likely to depict senior executives as men than women

Humans have a role to play in mitigating AI bias

Humans choose the data that machine learning algorithms use and decide how the results of those algorithms will be applied.

Human biases are responsible for artificial intelligence bias.

Thus, it is also humans who must champion ethical, responsible AI and work towards bias mitigation.

Context is everything. AI systems do not operate in isolation. They help people make decisions that directly affect other people’s lives. If we are to develop trustworthy AI systems, we need to consider all the factors that can chip away at the public’s trust in AI. Many of these factors go beyond the technology itself to the impacts of the technology, and the comments we received from a wide range of people and organizations emphasized this point.

Reva Schwartz

Principal investigator for AI bias

National Institute of Standards and Technology

It is also important for organizations — both those that build AI systems, and those that deploy it — to see the general public as an ally in the fight against AI bias, similar to how cybersecurity professionals actively encourage and enable users to spot and report vulnerabilities (through “big bounty” and other programs).

For example, organizations should create a grievance process that lets individuals, who believe they or others have been harmed by AI bias or could be harmed by its decision-making, to escalate their concerns about inequities in an organized, efficient, and solution-focused way.

Since all parties have the same objectives of accuracy, appropriateness, and fairness, the engagement and dialogue should be collaborative, rather than adversarial.

The final word

There are many positive, even profound, use cases for AI. For example, AI is driving breakthroughs in medical research and healthcare, establishing access to education for millions of people in developing nations, and helping combat climate change. However, AI is not a perfected panacea.

Like many other technologies, it is developing and evolving in ways that we can anticipate, and probably in other ways that we cannot. Working earnestly at all levels to identify, reduce, and ideally prevent potential biases is a critically important way to help ensure that the ongoing story of AI is characterized by solutions instead of setbacks.

Secure, flexible, AI-powered DXP

The future-proof, intelligent platform to deliver unforgettable experiences.

SitecoreAI logo