AIバイアスをどのように軽減できますか?

責任ある倫理的な人工知能への移行

5 所要時間

AIおよびAIアプリケーションの使用がさらに一般的になりそうになる中、予測者は、世界のAI市場は2030年までに18億ドルの価値があると予測しています。

コンピュータサイエンスのこの分野は、私たちの日常生活の多くの分野で進歩をもたらしてきましたが、矛盾や格差がないわけではありません。実際、人工知能バイアスは非常に現実的な欠点であり、広範囲に及ぶ結果をもたらす可能性があります。

このブログでは、AIバイアスを軽減して、組織で倫理的慣行を推進する方法について説明します。

AIバイアスとは?

AIモデルのテストが不十分で、チーム内の多様性が欠如しているため、AIアルゴリズムやMLモデルに無意識の偏見が忍び寄ることが明らかになりました。

AIバイアスがどのようにより深く掘り下げられるかについて、以前のブログを再訪してください。

AIバイアスが特定のグループや人口統計に及ぼす潜在的に有害な影響の例は、米国eコマース省の研究で強調されており、顔認識アルゴリズムの不公平は、顔認識AIアフリカ系アメリカ人や有色人種を誤認する傾向があることを示しています。

法執行目的で使用される場合、このテクノロジーの偏ったフォームは、これらのグループの生活に有害な影響を及ぼし、不当な逮捕につながる可能性があり、ひいては刑事司法制度への信頼の欠如につながる可能性があります。

AIに基づく差別の別の例は、カリフォルニア大学バークレー校によるの研究で明らかになり、金融サービス会社が使用する偏ったアルゴリズムは、ラテン系や黒人の顧客を含むマイノリティコミュニティの借り手が住宅ローンのより高い金利を日常的に請求されることを意味していることがわかりました。

人間には、AIバイアスを軽減する上で果たすべき役割があります

MLアルゴリズムが使用するデータを人間が選択し、それらのアルゴリズムの結果をどのように適用するかを決定するとき、人間のバイアスが人工知能 バイアスの原因となります。

したがって、倫理的なAIを擁護し、バイアスの軽減に向けて取り組む必要があるのも人間です。

バイアスを軽減し、現実世界の状況における自動化された意思決定の潜在的な悪影響を制限することは、データサイエンスのリーダー、政策立案者、主要な意思決定者にとって今や優先事項です。

ヨーロッパでは、AIに関する共通の規制および法的枠組みを導入する試みである欧州連合の人工知能法の形ですでに法律が進行中です。AI法の目的は、EUの一般データ保護規則、デジタルサービス法、デジタル市場法と組み合わせることで、テクノロジーに対する国民の信頼と信頼を向上させることです。

主要な利害関係者がAIバイアスを軽減する方法

MLモデルやアルゴリズムを構築するAI専門家や、AIを購入して使用する組織、< rel="noopener noreferrer" href="https://www.ftc.gov/business-guidance/blog/2021/04/aiming-truth-fairness-equity-your-companys-use-ai" target="_blank">それを規制する政府)が、バイアスを軽減し、その潜在的な悪影響を制限するために取ることができるアプローチがいくつかあります。

推奨される方法とアプローチには、次のようなものがあります。

  • 説明可能性 - 説明可能な AI (XAI) は、金融サービスなどの業界の顧客に影響を与える結果の透明な理由を提供する方法論と一連のプロセスです。AI/ML出力には、懸念事項や課題に対処するための説明が付随しています
     
    貸し手またはクレジット引受人は、祖先、肌の色、障害、民族性、性別、性同一性などの属性の保護されたクラスがMLモデルで使用されていないか、プロキシを介して存在していないことを確認する必要があります。
  • ヒューマン・イン・ザ・ループ:この手法は、教師ありMLとアクティブラーニングを組み合わせ、アルゴリズム構築のトレーニングとテストの段階に関与する人間と組み合わせます。人間と機械の知能を結びつけることで、継続的なフィードバックループが生まれ、アルゴリズムは毎回より良い結果を得ることができます
     
    この手法は、自然言語処理(自然言語処理)を含むあらゆるディープラーニングAIプロジェクトや、ユーザー生成コンテンツを分析するためのコンテンツモデレーションシステムと一緒に使用できます。
  • 前処理アルゴリズム: 前処理アルゴリズムは、トレーニング データに適用されるバイアス軽減アルゴリズムであり、公平性メトリックの改善を試みます。これらは最も初期の調停カテゴリーであり、バイアスを是正するための最も柔軟性があります。
     
    ユーザーがモデル構築前にトレーニング データを変更することを許可されている場合は、前処理アルゴリズムを使用できます
    ただし、前処理アルゴリズムには、予測型パリティなどのモデル予測を含む公平性メトリックを含めないことが重要です。
  • 偏見バイアス、測定バイアス、サンプルバイアスなどのさまざまな種類のAIバイアスを(少なくとも意味のある程度まで)中和するために、適切で、大規模で、十分に代表的なMLモデルトレーニングデータを選択する。
  • MLシステムの出力(結果)を厳密にテストし、データセットやアルゴリズム自体に根ざしたAIバイアスが組み込まれていないことを確認することも、アルゴリズムバイアスを減らす方法です。
  • パフォーマンス中にMLシステムを継続的に監視し、時間の経過とともにAIバイアスが忍び寄るのを防ぎます。
  • リソースを使用して、トレーニング済みのMLモデルの行動を視覚的に調査する(例: Google の What-If ツール)。
  • データポイントのラベル付けオプションに関するさまざまな意見を考慮するデータ収集方法を確立します。インクルージョンが増えるということは、MLモデルの柔軟性が高まり、AIバイアスの可能性が低くなることを意味します。
  • ML モデルに使用されるトレーニング データ (含まれるもの、どこから来たか、どのように生成されたかなど) を完全に理解します。不正確または不公平なクラスとラベルを含むトレーニングデータセットは、AIバイアスの主な原因です。
  • MLモデルを継続的に監視し、フィードバックと観察に基づいて継続的な改善を行うためのリソース(優先度、人員、時間、予算)を割り当てます。

AIバイアスの軽減は継続的なプラクティスです

上記の推奨事項に加えて、米国国立標準技術研究所(NIST)は、データサイエンティストやその他のAI専門家が、MLプロセスとトレーニングデータを超えて、AIバイアスの潜在的な原因を探すことを推奨しています。

このより広い範囲には、テクノロジーがどのように考案され、開発されるかを形作り、影響を与える、より広範な社会的コンテクストを含める必要があります。NISTのAIバイアスの主任研究者であるReva Schwartz氏によると、

「コンテキストがすべてです。AIシステムは単独では動作しません。彼らは人々が他の人の生活に直接影響を与える決定を下すのを助けます。信頼できるAIシステムを開発するには、AIに対する国民の信頼を損なう可能性のあるすべての要因を考慮する必要があります。これらの要因の多くは、テクノロジー自体だけでなく、テクノロジーの影響にも及んでおり、さまざまな人や組織から寄せられたコメントは、この点を強調していました。」

また、AIシステムを構築する組織と展開する組織の両方が、サイバーセキュリティの専門家が(「ビッグバウンティ」やその他のプログラムを通じて)ユーザーが脆弱性を見つけて報告することを積極的に奨励し、可能にするのと同様に、一般の人々をAIバイアスとの戦いの味方と見なすことも重要です。

たとえば、あるAI専門家は、意思決定によって自分や他人がAIバイアスによって害を被った(または害を受ける可能性がある)と信じている個人が、組織的で効率的、かつ解決策に焦点を当てた方法で不平等に関する懸念をエスカレーションできる苦情処理プロセスを作成するよう組織に促しています。

すべての当事者が同じ目的(正確性、適切性、公平性)を持っているため、関与と対話は敵対的ではなく協力的であるべきです。

最後の言葉

AIには多くのポジティブな、場合によっては深いユースケースがあります。例えば、AIは、医療調査とヘルスケアにおけるブレークスルーを推進し、発展途上国の何百万人もの人々の教育へのアクセスアクセスを確立し気候変動との闘いを支援しています。しかし、AIは完璧な万能薬ではありません。

他の多くのテクノロジーと同様に、これは私たちが予測できる方法で開発および進化しており、おそらく その他の方法で開発および進化しています。潜在的な偏見を特定する、軽減し、理想的には防止するために、あらゆるレベルで真摯に取り組むことは、進行中のAIの物語が挫折ではなく解決策によって特徴付けられるようにするための非常に重要な方法です。