Más Allá del Miedo a los Robots: Cómo Construir una Integración de IA Ética y Responsable en tu Empresa

·

·

Después de trabajar con la inteligencia artificial (IA) desde 2018, observo con gran interés su adopción lenta pero constante, junto con el oportunismo desestructurado. Ahora que el miedo inicial a una toma de control robótica ha disminuido un poco, la discusión sobre la ética que rodeará la integración de la IA en las estructuras empresariales cotidianas ha tomado su lugar.

Se requerirá una gama completamente nueva de roles para manejar la ética, la gobernanza y el cumplimiento, todos los cuales ganarán un enorme valor e importancia para las organizaciones.

Probablemente el más esencial de estos será un Especialista en Ética de la IA, quien deberá garantizar que los sistemas de IA agentica cumplan con estándares éticos como la equidad y la transparencia. Este rol implicará el uso de herramientas y marcos especializados para abordar las preocupaciones éticas de manera eficiente y evitar posibles riesgos legales o de reputación. La supervisión humana para garantizar la transparencia y la ética responsable es esencial para mantener el delicado equilibrio entre las decisiones basadas en datos, la inteligencia y la intuición.

Además, roles como Diseñador de Flujos de Trabajo de IA Agentica, Diseñador de Interacción e Integración de IA garantizarán que la IA se integre sin problemas en los ecosistemas y priorice la transparencia, las consideraciones éticas y la adaptabilidad. También se requerirá un Supervisor de IA, para monitorear toda la pila agentica de agentes y árbitros, los elementos de toma de decisiones de la IA.

Para cualquiera que se embarque en la integración de la IA en su organización y desee asegurarse de que la tecnología se introduzca y mantenga de manera responsable, puedo recomendar consultar los principios de las Naciones Unidas. Estos 10 principios fueron creados por las Naciones Unidas en 2022, en respuesta a los desafíos éticos planteados por la creciente preponderancia de la IA.

Los 10 Principios Éticos de la ONU para la IA

Entonces, ¿cuáles son estos diez principios y cómo podemos usarlos como marco?

  • Primero, no hacer daño: Como corresponde a una tecnología con un elemento autónomo, el primer principio se centra en el despliegue de sistemas de IA de manera que se evite cualquier impacto negativo en los entornos sociales, culturales, económicos, naturales o políticos. Un ciclo de vida de la IA debe estar diseñado para respetar y proteger los derechos y libertades humanos. Los sistemas deben ser monitoreados para garantizar que esa situación se mantenga y no se cause ningún daño a largo plazo.
  • Evitar la IA por la IA: Asegurar que el uso de la IA esté justificado, sea apropiado y no excesivo. Existe una clara tentación de volverse demasiado entusiasta en la aplicación de esta emocionante tecnología y debe equilibrarse con las necesidades y objetivos humanos y nunca debe usarse a expensas de la dignidad humana.
  • Seguridad: Los riesgos de seguridad deben ser identificados, abordados y mitigados a lo largo del ciclo de vida del sistema de IA y de forma continua. Se deben aplicar los mismos marcos de salud y seguridad robustos a la IA que a cualquier otra área del negocio.
  • Igualdad: Del mismo modo, la IA debe desplegarse con el objetivo de garantizar la distribución equitativa y justa de los beneficios, riesgos y costos, y para prevenir sesgos, engaños, discriminación y estigma de cualquier tipo.
  • Sostenibilidad: La IA debe estar dirigida a promover la sostenibilidad ambiental, económica y social. Se debe realizar una evaluación continua para abordar los impactos negativos, incluidos los de las generaciones venideras.
  • Privacidad, protección y gobernanza de datos: Se deben establecer o mejorar marcos de protección de datos adecuados y mecanismos de gobernanza de datos para garantizar que se mantenga la privacidad y los derechos de las personas en línea con las directrices legales sobre integridad de datos y protección de datos personales. Ningún sistema de IA debe incidir en la privacidad de otro ser humano.
  • Supervisión humana: Se debe garantizar la supervisión humana para asegurar que los resultados del uso de la IA sean justos y justos. Se deben emplear prácticas de diseño centradas en el ser humano y se debe dar capacidad para que un humano intervenga en cualquier etapa y tome una decisión sobre cómo y cuándo se debe usar la IA, y para anular cualquier decisión tomada por la IA. De manera bastante dramática pero completamente razonable, la ONU sugiere que cualquier decisión que afecte la vida o la muerte no debe dejarse en manos de la IA.
  • Transparencia y explicabilidad: Esto, en mi opinión, forma parte de las directrices sobre igualdad. Todos los que usan la IA deben comprender completamente los sistemas que están usando, los procesos de toma de decisiones utilizados por el sistema y sus ramificaciones. Se debe informar a las personas cuando una decisión con respecto a sus derechos, libertades o beneficios ha sido tomada por la inteligencia artificial y, lo que es más importante, la explicación debe hacerse de una manera que la haga comprensible.
  • Responsabilidad y rendición de cuentas: Este es el principio del denunciante, que cubre la auditoría y la diligencia debida, así como la protección para los denunciantes para asegurarse de que alguien sea responsable y rinda cuentas de las decisiones tomadas por, y el uso de, la IA. Se debe establecer una gobernanza en torno a la responsabilidad ética y legal de los humanos por cualquier decisión basada en la IA. Cualquiera de estas decisiones que cause daño debe ser investigada y se deben tomar medidas.
  • Inclusividad y participación: Al igual que en cualquier otra área de negocios, al diseñar, implementar y usar sistemas de inteligencia artificial, se debe adoptar un enfoque inclusivo, interdisciplinario y participativo, que también incluya la igualdad de género. Se debe informar y consultar a las partes interesadas y a cualquier comunidad afectada, e informarles de los beneficios y riesgos potenciales.

Via AI News



Deja una respuesta