O que é AI ética?
AI ética é uma abordagem estratégica para projetar e implantar inteligência artificial de forma alinhada com padrões legais, valores de marca e responsabilidade social.
"O verdadeiro problema não é se as máquinas pensam, mas se os homens pensam."
– BF Skinner
A matriz de sistemas e ferramentas de inteligência artificial está crescendo a cada dia, e o potencial de AI para aumentar a inteligência humana é incrível.
É fundamental que as empresas que usam inteligência artificial e aprendizado de máquina desenvolvam padrões éticos para seu uso em todo o ciclo de vida do negócio, da jornada do usuário e do marketing de conteúdo. Para aqueles no setor privado, isso não é apenas uma questão filosófica - é um imperativo de negócios.
As questões éticas e implicações éticas que podem vir com o uso de AI podem ser abordadas com uma combinação de regulamentos AI, princípios éticos AI e filosofias de AI responsáveis. Esta abordagem mais ampla é frequentemente referida como governação AI, que inclui a definição de políticas internas, mecanismos de supervisão e estratégias a longo prazo para assegurar a implantação de AI ética e legal.
Um sistema de AI ética é explicável, inclusivo, responsável, transparente e seguro.
AI explicável (XAI)
Com apenas 9% dos americanos Pensando que computadores com inteligência artificial fariam mais bem do que mal à sociedade, parece fundamental priorizar a compreensão humana da precisão, resultados, vieses e impacto de AI.
Explicable AI é uma abordagem específica e filosófica para AI sistemas que ajuda os usuários a terem confiança nos resultados dos algoritmos de aprendizado de máquina. Quando se trata de construir confiança entre aqueles que usam modelos AI, AI explicáveis também podem ajudar empresas e equipes a criar uma abordagem responsável para o desenvolvimento e integração de AI em suas organizações.
Ser capaz de explicar minuciosamente como uma ferramenta funciona e como ela alcança resultados específicos é a melhor prática para qualquer tecnologia e é especialmente crítico com sistemas de AI de ponta. Construir um nível de explicabilidade na implantação da tecnologia também pode garantir que a operação da tecnologia esteja alinhada com a política da empresa, regulamentação externa e valores da marca.
A incorporação da ciência de dados nesse processo ajuda a monitorar o desempenho do sistema, verificar entradas e saídas e rastrear anomalias ou desvios do comportamento esperado. Esta fundamentação científica garante que as orientações éticas se baseiam em provas e não em achismos.
Inclusivo e sem preconceitos
Inclusividade em sistemas AI significa considerar todos os seres humanos igualmente; Adotar esta abordagem desde o início pode ajudar a evitar a exclusão não intencional de certos grupos.
"Como todas as tecnologias antes dela, a inteligência artificial refletirá os valores de seus criadores. Portanto, a inclusão é importante – desde quem a projeta até quem tem assento nos conselhos de administração da empresa e quais perspetivas éticas estão incluídas."
- Kate Crawford
Evitar preconceitos em sistemas AI é uma busca crítica, mas não tão fácil quanto pode parecer à primeira vista. Em 1996, Batya Friedman e Helen Nissenbaum identificaram três categorias de enviesamentos nos sistemas informáticos e, embora estes tenham sido introduzidos há quase 30 anos, continuam a ser tão relevantes como sempre.
- Viés pré-existente, which has its roots in the practices and attitudes of society and individuals within that society. In AI systems, this often emerges as algorithmic bias, where models reflect skewed training data—sometimes with serious consequences. Viés pré-existentees can, of course, be introduced deliberately but are often included unconsciously.
Este mesmo conceito é por vezes chamado de "enviesamento de dados" quando se trata de sistemas AI; Os sistemas Al são alimentados por dados, e vieses nesses conjuntos de dados serão refletidos na operação do próprio sistema. Esses preconceitos muitas vezes vieram à tona quando se trata de raça e gênero.
Ferramentas de reconhecimento de voz de várias empresas, incluindo Apple e IBM, demonstraram ter taxas de erro mais altas ao processar vozes negras e, em um exemplo perfeito de viés de seleção de amostras, a Amazon descontinuou seu uso de contratação AI porque o algoritmo favorecia os homens.
Em ambas as situações, o problema é com o viés inerente aos dados históricos utilizados. A Amazon usou 10 anos de dados internos para treinar sua ferramenta de recrutamento AI e a maioria dos candidatos bem-sucedidos nesse conjunto de dados eram homens, então o algoritmo aprendeu a penalizar currículos de mulheres.
- Viés técnico é muitas vezes o resultado do software e hardware que estão a ser utilizados para conceber o algoritmo (como um motor de busca que empurra resultados de classificação inferior para fora do ecrã porque simplesmente não há espaço para eles). Também pode ser quando os designers tentam quantificar conceitos que são profundamente qualitativos para a maioria dos seres humanos; Um algoritmo que se destina a definir "atratividade" é um exemplo, porque colocar um valor específico em tal medição subjetiva está fadado a criar problemas.
- Viés emergente, que se desenvolve devido à interação entre a tecnologia e os seus utilizadores. O exemplo mais famoso disso nos últimos anos é o chatbot Tay, que foi criado para aprender interagindo com outros usuários de uma plataforma específica. Infelizmente, a plataforma selecionada foi o Twitter (agora conhecido como X), e os usuários com quem o chatbot estava interagindo começaram a alimentar o conteúdo inflamatório do bot, explorando uma fraqueza tecnológica do bot. Em um dia, o chatbot estava enviando mensagens ofensivas.
Com questões de preconceito claramente documentadas, contabilizá-las pelo menos e eliminar as oportunidades de preconceito através de supervisão humana diversificada é responsabilidade de cada marca que usa inteligência artificial.
Utilização responsável do AI
AI é uma ferramenta, como qualquer outra, e, como tal, exige salvaguardas e postos de controlo para ter a certeza de que AI está a ser utilizada de forma legal e correta. Além do viés discutido acima, AI tem sido usado para espalhar desinformação. Ele tem sido usado para criar deep fakes, e alguns modelos foram treinados em imagens e textos protegidos por direitos autorais.
Ações coletivas foram movidas contra a OpenAI alegando que a tecnologia "dependia da colheita de grandes quantidades" de palavras que estão sob direitos autorais, AI gerador de arte Stable Diffusion também está sendo processado pela Getty Images por violação de direitos autorais, e as empresas de AI generativa Stability AI, Midjourney e DeviantArt enfrentam desafios semelhantes.
A responsabilização interna deve fazer parte da AI ética. Fazer perguntas sobre como os sistemas de AI que estão sendo usados são treinados e de onde vêm os dados pode ajudar as empresas a garantir que o uso de AI seja responsável e alinhado com os valores da marca.
Também é fundamental ter pontos de vista diversos como parte desse processo interno; Quanto mais diversificado for o campo de pontos de vista, maior é a probabilidade de uma equipa identificar enviesamentos e problemas de segurança subjacentes e maior é a probabilidade de detetar vulnerabilidades e informações incorretas fornecidas pelas ferramentas AI.
"A chave para a inteligência artificial sempre foi a representação."
- Fábio Hawkins
De muitas maneiras, o aviso prévio é antearmado. Manter-se a par dos mais recentes desenvolvimentos em tecnologia AI e explorar novas ferramentas, seja em pesquisa genética, mudanças climáticas ou pesquisa científica, ao mesmo tempo em que reconhece as preocupações subjacentes, riscos potenciais e consequências não intencionais que vêm com a tecnologia de desenvolvimento, pode ajudar muito a garantir que AI uso seja responsável e que a marca se sinta confortável em assumir AI responsabilidade pelos resultados usados em todo o seu ciclo de vida de conteúdo e ecossistema tecnológico.
Transparência com os clientes
Ser transparente sobre onde e como AI é usado pode ajudar muito a resolver dilemas éticos e construir confiança com clientes, visitantes e funcionários. Ser honesto com as pessoas sobre de onde vem o conteúdo e como AI é usado no processo de criação é uma parte importante de qualquer estrutura de AI ética.
Observar quais artigos, postagens de mídia social e blogs foram escritos com a ajuda do ChatGPT ou aplicativos de AI semelhantes, reconhecer quando as imagens são geradas usando tecnologias de AI e ser claro sobre o limite no qual um humano entra no chat e assume o lugar de um chatbot pode tornar os limites entre AI e humanos mais claros e ajudar a criar estruturas de AI confiáveis.
"A confiança do público é uma condição vital para que a inteligência artificial seja usada de forma produtiva."
- Marcos Walport
Este é outro lugar onde um comitê para supervisionar AI uso dentro de uma marca pode ser útil; Estabelecer padrões de ética da inteligência artificial para as partes interessadas usarem na tomada de decisões entre departamentos e padronizar métodos de notificação para criar padrões bem definidos e atingíveis pode ajudar a evitar mal-entendidos e críticas no futuro.
Proteger a privacidade dos dados do utilizador
Tal como acontece com qualquer sistema que utilize grandes volumes de dados, a privacidade dos titulares dos dados e a segurança dos próprios dados devem ser primordiais em qualquer utilização da AI tecnologia. Isto é especialmente crítico à medida que a AI se expande para áreas sensíveis como finanças e saúde.
Impedir o acesso não autorizado a bancos de dados e cumprir leis como o GDPR europeu é uma prática recomendada essencial que se estende e engloba o uso ético de sistemas AI. O futuro da AI está interligado com os desafios éticos da privacidade e proteção de dados, e os formuladores de políticas de marca que abordam essas preocupações e criam iniciativas que apoiam a privacidade de dados provavelmente ganharão uma vantagem competitiva no futuro.
A adoção de AI ética depende de nós
A ética da AI é uma disciplina multifacetada, que reúne considerações de direitos humanos e o impacto societal da robótica, ciência da computação e tecnologia da informação.
Embora sempre haja questões éticas em torno AI, as marcas que incorporam uma estrutura ética em seu desenvolvimento AI, diretrizes éticas no uso da automação e princípios éticos no uso de AI desde o início podem incorporar estas novas tecnologias de forma fiável que aborda questões éticas.