Como atenuar AI enviesamento?

AI mitigação de preconceitos requer envolvimento humano para garantir a diversidade de dados, a explicabilidade da tomada de decisões e o monitoramento contínuo.

African,American,Businesswoman,Using,Laptop,,Consulting,Client,About,Deal,,Making

5 Leitura do minuto

O A utilização de sistemas AI e AI está a tornar-se cada vez mais comum:

Os meteorologistas preveem que o mercado global de AI valerá a pena US$ 1,8 trilhão até 2030.

Como resultado, todos os olhos estão agora voltados para AI governança.

Embora inteligência artificial has provided advancements in many areas of our daily lives, it is not without discrepancies and disparities. Indeed, inteligência artificial bias is a very real shortcoming and can have far-reaching consequences.

Neste blog, vamos explorar como mitigar AI preconceito para ajudá-lo a impulsionar práticas éticas em sua organização.

O que é AI viés?

Nós revelamos anteriormente que testes inadequados de modelos de AI e a falta de diversidade dentro das equipes permitem que vieses inconscientes e existentes se infiltrem em algoritmos AI e modelos de aprendizado de máquina.

AI exemplos de preconceito

  • Exemplos dos efeitos potencialmente prejudiciais da AI tendenciosa em certos grupos e demografia foram destacados num estudo do Departamento do Comércio dos EUA, que concluiu que a desigualdade nos algoritmos de reconhecimento facial significa Sistemas de reconhecimento facial AI tem uma propensão para identificar erroneamente pessoas afro-americanas e pessoas de cor.
  • Quando utilizadas para fins de aplicação da lei, como o policiamento preditivo, as formas tendenciosas desta tecnologia orientada para o AI podem ter um impacto prejudicial na vida destes grupos, conduzindo potencialmente a Detenções indevidas. Por sua vez, isto resulta numa falta geral de confiança no sistema de justiça penal.
  • Outro exemplo de preconceito racial baseado em AI e discriminação foi revelado em um estudo da UC Berkeley, que descobriu que algoritmos tendenciosos usados para pontuação de crédito por empresas de serviços financeiros significava que os mutuários de comunidades minoritárias, incluindo clientes latinos e negros, eram rotineiramente cobrava taxas de juro mais elevadas para hipotecas.
  • Nos cuidados de saúde, Pacientes brancos foram considerados prioritários para gestão de cuidados adicionais sobre pacientes negros mais doentes, quando a tecnologia AI foi treinada em dados de custos em vez de necessidades de cuidados.
  • Chatbots de saúde apresentaram viés quando treinados em conjuntos de dados com diversidade insuficiente em etnias e gêneros.
  • Um exemplo de preconceito de género em conteúdos gerados por AI foi descrito pela Bloomberg, que descobriu num estudo com 5.000 imagens que a Stable Diffusion A AI generativa era mais propensa a retratar executivos seniores como homens do que mulheres

Os seres humanos têm um papel a desempenhar na mitigação de AI enviesamentos

Os humanos escolhem os dados que os algoritmos de aprendizado de máquina usam e decidem como os resultados desses algoritmos serão aplicados.

Os enviesamentos humanos são responsáveis por Inteligência viés.

Assim, são também os seres humanos que devem defender a AI ética, responsável e trabalhar para o preconceito mitigação.

Mitigar preconceitos e limitar seu impacto potencialmente adverso de decisões automatizadas em situações do mundo real é agora uma prioridade para líderes de ciência de dados, formuladores de políticas e principais tomadores de decisão.

Já está em curso legislação na Europa sob a forma de Lei da União Europeia relativa à inteligência artificial, que é uma tentativa de introduzir um quadro regulamentar e jurídico comum para a AI. Combinado com o Regulamento Geral sobre a Proteção de Dados e a Lei dos Serviços Digitais e a Lei dos Mercados Digitais, o objetivo da Lei AI é melhorar a confiança do público na tecnologia.

Como as principais partes interessadas podem mitigar o viés AI

Há várias abordagens que AI construtores, organizações e reguladores podem adotar para mitigar preconceitos e limitar seu impacto potencialmente adverso.

Alguns aspetos importantes Métodos e abordagens incluem:

user Icon

Humano-no-loop

Este método combina aprendizagem automática supervisionada e aprendizagem ativa com humanos envolvidos nas etapas de treino e teste da construção de um algoritmo. Ao reunir inteligência humana e de máquina, cria-se um ciclo de feedback contínuo, que permite que o algoritmo entregue melhores resultados a cada vez.

Esta metodologia pode ser usada para qualquer projeto de AI de aprendizagem profunda, incluindo processamento de linguagem natural (NLP) e juntamente com sistemas de moderação de conteúdo para analisar o conteúdo gerado pelo usuário.

takeaway-option_3-webonly

Explicabilidade

Explainable AI (XAI) é uma metodologia e um conjunto de processos que fornece razões transparentes para os resultados que afetam os clientes em setores como os serviços financeiros. Explicações acompanham a saída de AI/ML para abordar preocupações e desafios.

Os credores ou subscritores de crédito precisam garantir que classes protegidas de atributos como ancestralidade, cor, deficiência, etnia, gênero ou identidade de gênero não estejam sendo usadas em modelos de aprendizado de máquina ou na existência por meio de proxies.

worker Icon

Algoritmos de pré-processamento

Os algoritmos de pré-processamento são algoritmos de mitigação de enviesamentos aplicados ao treino de dados, tentando melhorar as métricas de equidade. Eles são a primeira categoria de mediação, oferecendo a maior flexibilidade para corrigir vieses.

Algoritmos de pré-processamento podem ser empregados se um usuário tiver permissão para modificar os dados de treinamento antes da criação do modelo. É importante que os algoritmos de pré-processamento não incluam métricas de equidade que envolvam previsões de modelos, como a paridade preditiva.

Mais formas de mitigar o enviesamento AI

  • Escolhendo o aprendizado de máquina modelar dados de treinamento que sejam adequados, grandes e representativos o suficiente, a fim de neutralizar (pelo menos em uma extensão significativa) diferentes tipos de viés de AI, como viés de preconceito, viés de medição e viés de amostra.
  • Testes rigorosos A saída (resultados) de sistemas de aprendizado de máquina e verificar se eles não incorporam AI viés enraizado em conjuntos de dados ou no próprio algoritmo é outra maneira de reduzir o viés algorítmico.
  • Monitorização contínua sistemas de aprendizado de máquina durante o desempenho, a fim de evitar que AI viés se infiltre ao longo do tempo.
  • Utilização de recursos para Analise visualmente o comportamento de modelos de aprendizado de máquina treinados (por exemplo, Ferramenta hipotética).
  • Estabelecer métodos de recolha de dados que tenham em consideração diferentes opiniões sobre as opções de etiquetagem de pontos de dados. Mais inclusão significa maior flexibilidade do modelo de aprendizagem automática — e uma probabilidade reduzida de enviesamento AI.
  • Compreender completamente os dados de treinamento usados para modelos de aprendizado de máquina, incluindo o que eles incluem, de onde vêm e como foram gerados. Conjuntos de dados de treinamento que contêm classes e rótulos imprecisos ou injustos são uma importante fonte de preconceito de AI.
  • Monitorização contínua the machine learning model, and allocate resources (priority, people, time, budget) to fazer melhorias contínuas com base em feedback e observações.

Mitigar o viés AI é uma prática contínua

Além das recomendações acima, o National Institute of Standards and Technology (NIST) dos EUA recomenda que cientistas de dados e outros profissionais de AI olhem além dos processos de aprendizado de máquina e dados de treinamento em busca de potenciais fontes de viés de AI.

Este âmbito mais alargado deve incluir contexto societal mais amplo, que molda e influencia a forma como a tecnologia é concebida e desenvolvida. De acordo com Reva Schwartz, investigadora principal de AI viés no NIST:

O contexto é tudo. AI sistemas não funcionam isoladamente. Eles ajudam as pessoas a tomar decisões que afetam diretamente a vida de outras pessoas. Se quisermos desenvolver sistemas de AI fiáveis, temos de considerar todos os fatores que podem minar a confiança do público na AI. Muitos desses fatores vão além da tecnologia em si para os impactos da tecnologia, e os comentários que recebemos de uma ampla gama de pessoas e organizações enfatizaram esse ponto.

Reva Schwartz

Investigador principal para viés de IA

Instituto Nacional de Padrões e Tecnologia

Também é importante que as organizações — tanto as que constroem sistemas AI como as que os implantam — vejam o público em geral como um aliado na luta contra o preconceito AI, semelhante à forma como os profissionais de cibersegurança incentivam e permitem ativamente que os usuários detetem e relatem vulnerabilidades (por meio de "big bounty" e outros programas).

Por exemplo, as organizações devem Criar um processo de reclamação Isso permite que os indivíduos, que acreditam que eles ou outros foram prejudicados por AI preconceito ou podem ser prejudicados por sua tomada de decisão, aumentem suas preocupações com as desigualdades de forma organizada, eficiente e focada em soluções.

Uma vez que todas as partes têm os mesmos objetivos de precisão, adequação e equidade, o envolvimento e o diálogo devem ser colaborativos, e não contraditórios.

A palavra final

Há muitos casos de uso positivos, até profundos, para AI. Por exemplo, AI está dirigindo Avanços na investigação médica e cuidados de saúde, estabelecendo acesso à educação para milhões de pessoas nos países em desenvolvimento, e ajudar a combater as alterações climáticas. No entanto, AI não é uma panaceia aperfeiçoada.

Like many other technologies, it is developing and evolving in ways that we can anticipate, e probably in outras formas que não podemos. Working earnestly at all levels to identify, reduce, e ideally prevent potential biases is a critically important way to help ensure that the ongoing story of AI is characterized by solutions instead of setbacks.

DXP seguro, flexível e com alimentação AI

A plataforma inteligente e preparada para o futuro para proporcionar experiências inesquecíveis.

SitecoreAI logo