Ética de la AI en los negocios

Un sistema ético de inteligencia artificial es aquel que es explicable, inclusivo, responsable, transparente y seguro.

Businessman and businesswoman walking together and talking during coffee break. Business professionals walking in corridor with cup of coffee in hotel.Colorful Human

¿Qué es la ética de la AI?

La ética de la AI es un enfoque estratégico para diseñar e implementar inteligencia artificial de una manera que se alinee con los estándares legales, los valores de la marca y la responsabilidad social.

"El verdadero problema no es si las máquinas piensan, sino si los hombres lo hacen".

     – BF Skinner

La matriz de sistemas y herramientas de inteligencia artificial crece día a día, y el potencial de la AI para aumentar la inteligencia humana es increíble.

Es fundamental que las empresas que utilizan inteligencia artificial y aprendizaje automático desarrollen estándares éticos para su uso en todo el ciclo de vida del negocio, el recorrido del usuario y el marketing de contenido. Para aquellos en el sector privado, esto no es solo un asunto filosófico, es un imperativo comercial.

Los problemas éticos y las implicaciones éticas que pueden surgir con el uso de AI se pueden abordar con una combinación de regulaciones de AI, principios éticos de AI y filosofías de AI responsables. Este enfoque más amplio a menudo se conoce como gobernanza de AI, que incluye el establecimiento de políticas internas, mecanismos de supervisión y estrategias a largo plazo para garantizar el despliegue ético y legal de AI.

Un sistema de AI ético es explicable, inclusivo, responsable, transparente y seguro.

AI explicable (XAI)

Con solo 9% de los estadounidenses pensando que las computadoras con inteligencia artificial harían más bien que mal a la sociedad, parece fundamental priorizar la comprensión humana de la precisión, los resultados, los sesgos y el impacto de la AI.

La AI explicable es un enfoque filosófico específico de los sistemas de IA que ayuda a los usuarios a confiar en los resultados de los algoritmos de aprendizaje automático. Cuando se trata de generar confianza entre quienes utilizan modelos de IA, la AI explicable también puede ayudar a las empresas y equipos a elaborar un enfoque responsable para el desarrollo y la integración de la AI en sus organizaciones.

Young Asian businesswoman working on laptop outdoors, sitting on the bench in rooftop garden, surrounded by green plants. Looking at laptop. Working outdoors with technology. Remote working concept. Enjoying a cup of coffee in the middle of a work day. Online studying / e-learning concept.

Ser capaz de explicar detalladamente cómo funciona una herramienta y cómo logra resultados específicos es la mejor práctica para cualquier tecnología y es especialmente crítico con los sistemas de AI de vanguardia. Construir un nivel de explicabilidad en la implementación de la tecnología también puede garantizar que el funcionamiento de la tecnología esté en línea con la política de la empresa, la regulación externa y los valores de la marca.

La incorporación de la ciencia de datos en este proceso ayuda a monitorear el rendimiento del sistema, verificar las entradas y salidas y rastrear anomalías o desviaciones del comportamiento esperado. Esta base científica garantiza que las pautas éticas se basen en evidencia, no en conjeturas.

Inclusivo y libre de prejuicios

La inclusión en los sistemas de AI significa considerar a todos los humanos por igual; Adoptar este enfoque desde el principio puede ayudar a prevenir la exclusión involuntaria de ciertos grupos.

"Como todas las tecnologías anteriores, la inteligencia artificial reflejará los valores de sus creadores. Por lo tanto, la inclusión es importante, desde quién lo diseña hasta quién se sienta en las juntas directivas de la empresa y qué perspectivas éticas se incluyen".

     - Kate Crawford

Evitar el sesgo en los sistemas de AI es una búsqueda crítica, pero no tan fácil como puede parecer a primera vista. En 1996, Batya Friedman y Helen Nissenbaum identificaron tres categorías de sesgo en los sistemas informáticos y, aunque se introdujeron hace casi 30 años, siguen siendo tan relevantes como siempre.

  1. Sesgo preexistente, which has its roots in the practices and attitudes of society and individuals within that society. In AI systems, this often emerges as algorithmic bias, where models reflect skewed training data—sometimes with serious consequences. Sesgo preexistentees can, of course, be introduced deliberately but are often included unconsciously.
     
    Este mismo concepto a veces se denomina "sesgo de datos" cuando se trata de sistemas AI; Todos los sistemas funcionan con datos, y los sesgos en esos conjuntos de datos se reflejarán en el funcionamiento del sistema en sí. Estos prejuicios a menudo han surgido cuando se trata de raza y género.
     
    Se ha demostrado que las herramientas de reconocimiento de voz de varias compañías, incluidas Apple e IBM, tienen tasas de error más altas al procesar voces negras, y en un ejemplo perfecto de sesgo de selección de muestras, Amazon suspendió su uso de la contratación de AI porque el algoritmo favorecía a los hombres.
     
    En ambas situaciones, el problema es el sesgo inherente en los datos históricos utilizados. Amazon utilizó 10 años de datos internos para entrenar su herramienta de reclutamiento de AI y la mayoría de los candidatos exitosos en ese conjunto de datos eran hombres, por lo que el algoritmo aprendió a penalizar los currículums de las mujeres.

  2. Sesgo técnico a menudo es el resultado del software y el hardware que se utilizan para diseñar el algoritmo (como un motor de búsqueda que empuja los resultados de menor rango fuera de la pantalla porque simplemente no hay espacio para ellos). También puede ser cuando los diseñadores intentan cuantificar conceptos que son profundamente cualitativos para la mayoría de los humanos; Un algoritmo destinado a definir el "atractivo" es un ejemplo, porque asignar un valor específico a una medida tan subjetiva está destinado a crear problemas.

  3. Sesgo emergente, que se desarrolla debido a la interacción entre la tecnología y los usuarios de esa tecnología. El ejemplo más famoso de esto en los últimos años es el chatbot Tay, que estaba destinado a aprender de interactuar con otros usuarios de una plataforma específica. Desafortunadamente, la plataforma seleccionada fue Twitter (ahora conocida como X), y los usuarios con los que interactuaba el chatbot comenzaron a alimentar al bot con contenido incendiario, explotando una debilidad tecnológica del bot. En un día, el chatbot estaba enviando mensajes ofensivos.

Con los problemas de sesgo claramente documentados, al menos tenerlos en cuenta y eliminar las oportunidades de sesgo a través de la supervisión humana diversa es responsabilidad de todas las marcas que utilizan inteligencia artificial.

Uso responsable de la AI

La AI es una herramienta, como cualquier otra, y como tal requiere salvaguardias y puntos de control para asegurarse de que la AI se está utilizando de manera legal y correcta. Además del sesgo discutido anteriormente, la AI se ha utilizado para difundir información errónea. Se ha utilizado para crear falsificaciones profundas, y algunos modelos han sido entrenados con imágenes y texto con derechos de autor.

Se han presentado demandas colectivas contra OpenAI alegando que la tecnología "se basó en la recolección de cantidades masivas" de palabras que están protegidas por derechos de autor, el generador de arte de AI Stable Diffusion también está siendo demandado por Getty Images por infracción de derechos de autor, y las empresas de AI generativa Stability AI, Midjourney y DeviantArt enfrentan desafíos similares.

Cropped shot of a young businesswoman working late on a digital tablet in an office

La responsabilidad interna debe ser parte de la ética de la AI. Hacer preguntas sobre cómo se entrenan los sistemas de AI que se utilizan y de dónde provienen los datos puede ayudar a las empresas a garantizar que el uso de AI sea responsable y esté en línea con los valores de la marca.

También es fundamental tener diversos puntos de vista como parte de este proceso interno; Cuanto más diverso sea el campo de puntos de vista, más probable es que un equipo identifique sesgos y problemas de seguridad subyacentes, y más probable es que detecte vulnerabilidades e información incorrecta proporcionada por AI herramientas.

"La clave de la inteligencia artificial siempre ha sido la representación".

     - Jeff Hawkins

En muchos sentidos, prevenido es prevenido. Mantenerse al tanto de los últimos desarrollos en tecnología de AI y explorar nuevas herramientas, ya sea sobre investigación genética, cambio climático o investigación científica, al mismo tiempo que se reconocen las preocupaciones subyacentes, los riesgos potenciales y las consecuencias no deseadas que conlleva la tecnología de desarrollo, puede contribuir en gran medida a garantizar que el uso de la AI sea responsable y que la marca se sienta cómoda asumiendo la responsabilidad de los resultados de AI utilizados en todo su ciclo de vida de contenido y ecosistema tecnológico.

Transparencia con los clientes

Ser transparente sobre dónde y cómo se usa AI puede contribuir en gran medida a abordar los dilemas éticos y generar confianza con los clientes, visitantes y empleados. Ser honesto con las personas sobre el origen del contenido y cómo se utiliza la AI en el proceso de creación es una pieza importante de cualquier marco ético de AI.

Observar qué artículos, publicaciones en redes sociales y blogs se escribieron con la ayuda de ChatGPT o aplicaciones de AI similares, reconocer cuándo se generan imágenes utilizando tecnologías de AI y tener claro el umbral en el que un humano ingresa al chat y toma el relevo de un chatbot puede aclarar los límites entre la AI y los humanos y ayudar a crear marcos de AI confiables.

"La confianza pública es una condición vital para que la inteligencia artificial se utilice de manera productiva".

     - Marcos Walport

Este es otro lugar donde un comité para supervisar el uso de AI dentro de una marca puede ser útil; Establecer estándares de ética de la inteligencia artificial para que las partes interesadas los utilicen en la toma de decisiones en todos los departamentos y estandarizar los métodos de notificación para crear estándares bien definidos y alcanzables puede ayudar a evitar malentendidos y críticas en el futuro.

Proteger la privacidad de los datos de los usuarios

Al igual que con cualquier sistema que utilice big data, la privacidad de los titulares de datos y la seguridad de los datos en sí deben ser primordiales en cualquier uso de la tecnología de AI. Esto es especialmente crítico a medida que la AI se expande a campos sensibles como las finanzas y la atención médica.

Evitar el acceso no autorizado a las bases de datos y cumplir con leyes como el GDPR europeo es una mejor práctica esencial que se extiende y abarca el uso ético de los sistemas de AI. El futuro de la AI está entrelazado con los desafíos éticos de la privacidad y la protección de datos, y es probable que los responsables políticos de las marcas que aborden estas preocupaciones y creen iniciativas que apoyen la privacidad de los datos obtengan una ventaja competitiva en el futuro.

La adopción ética de la AI depende de nosotros

La ética de la AI es una disciplina multifacética, que reúne consideraciones de derechos humanos y el impacto social de la robótica, la informática y la tecnología de la información.

Si bien siempre habrá preguntas éticas en torno a AI, las marcas que incorporan un marco ético en su desarrollo AI, pautas éticas en el uso de la automatización y principios éticos en su uso de AI desde el principio pueden incorporar estas nuevas tecnologías de forma fiable que aborda las preocupaciones éticas.

AI that protects your data by design

sitecore ai
Ética de la AI | Ética en AI