Diez principios para una IA ética
Junio 21, 2023
Junio 21, 2023
Si estás adoptando un enfoque a largo plazo para el uso de Inteligencia Artificial (IA), es probable que estés considerando cómo hacer que tus sistemas de IA sean éticos. Construir una IA ética es lo correcto, no solo porque lo exigen tus valores corporativos, sino también porque es una forma ideal de minimizar los riesgos que incluyen desde incumplimientos normativos hasta daños a la reputación de la marca. Sin embargo, construir una IA ética no es tarea fácil.
Todo comienza con una pregunta: ¿qué es exactamente la IA ética? La respuesta depende de la definición de los principios éticos de la IA, y existen numerosas iniciativas relacionadas en todo el mundo. Nuestro equipo ha identificado más de 90 organizaciones que han intentado establecer principios éticos de IA, y en conjunto han propuesto más de 200 principios. Estas organizaciones incluyen gobiernos, organizaciones multilaterales, organizaciones no gubernamentales y empresas. Incluso el Vaticano tiene su propio plan.
Entonces, ¿cómo puedes darle sentido a todo esto y proponer reglas concretas a seguir? Después de revisar estas iniciativas, hemos identificado diez principios fundamentales que, en conjunto, ayudan a definir la IA ética. Basándonos en nuestro propio trabajo, tanto interno como con los clientes, también tenemos algunas ideas sobre cómo implementar estos principios en la práctica.
Te puede interesar: Digital Trust Insights Colombia 2023
Los diez principios básicos de la IA ética disfrutan de un amplio consenso por una razón: se alinean con las definiciones reconocidas a nivel mundial de los derechos humanos fundamentales, así como con múltiples declaraciones, convenciones y tratados internacionales. Los primeros dos principios pueden ayudarte a adquirir el conocimiento necesario para tomar decisiones éticas para tu IA, mientras que los siguientes ocho pueden guiar esas decisiones.
los modelos de IA deben ser capaces de explicar su proceso general de toma de decisiones y, en casos de alto riesgo, explicar cómo realizaron predicciones específicas o seleccionaron acciones particulares. Las organizaciones deben ser transparentes acerca de qué algoritmos toman decisiones sobre las personas.
Fiabilidad: los sistemas de IA deben operar dentro de los parámetros de diseño, hacer predicciones y tomar decisiones consistentes y repetibles.
Seguridad: los sistemas de IA y los datos que contienen deben protegerse de las amenazas cibernéticas, lo cual incluye a las herramientas de IA que operan a través de terceros o están basadas en la nube.
Responsabilidad: es necesario asignar de manera clara a una persona o grupo la responsabilidad de abordar las implicaciones éticas del uso o mal uso de los modelos de IA.
Beneficiar: es importante tener en cuenta el bien común a medida que se desarrolla la IA, prestando especial atención a la sostenibilidad, la cooperación y la apertura.
Privacidad: Al utilizar los datos de las personas para diseñar y operar soluciones de IA, es importante informarles acerca de qué datos se recopilan y cómo se utilizan. Además, se deben tomar precauciones para proteger la privacidad de los datos, ofrecer oportunidades de reparación y proporcionar opciones para que las personas puedan gestionar cómo se utilizan sus datos.
Intervención humana: en caso de niveles más altos de riesgo ético, es recomendable permitir una mayor supervisión e intervención humana en las operaciones de los modelos de IA.
Legalidad: todas las partes interesadas, en cada etapa del ciclo de vida de un sistema de IA, deben cumplir con la ley y cumplir todas las regulaciones pertinentes.
Justicia: asegúrate de diseñar y operar tu IA de manera que no represente prejuicios hacia grupos o individuos.
Seguridad: Asegúrate de desarrollar una IA que no represente una amenaza para la seguridad física ni la integridad mental de las personas.
Estos principios son lo suficientemente generales como para ser ampliamente aceptados, pero también representan un desafío en cuanto a su implementación sin una mayor especificidad. Cada empresa deberá trazar su propio camino, sin embargo, hemos identificado otras dos pautas que pueden brindar orientación adicional.
Uno de los principales desafíos al abordar estos diez principios radica en que a menudo adquieren significados diferentes en distintos lugares y para diferentes personas. Las leyes que una empresa debe seguir en los Estados Unidos, por ejemplo, probablemente difieran de las de China. Incluso en los Estados Unidos, pueden variar de un estado a otro. Además, la forma en que los empleados, clientes y comunidades locales definen el bien común, la privacidad, la seguridad, la confiabilidad y la mayoría de los principios éticos de la IA también puede ser diferente
Para implementar estos diez principios, es recomendable comenzar contextualizándolos. Identifica las diversas partes interesadas en tus sistemas de IA, luego explora sus valores y descubre las posibles tensiones y conflictos que tu IA pueda generar. Es posible que luego necesites mantener discusiones para reconciliar ideas y necesidades en conflicto.
Cuando todas tus decisiones se basan en los derechos humanos y tus propios valores, es más probable que los reguladores, empleados, consumidores, inversionistas y comunidades te respalden y te den el beneficio de la duda si algo sale mal.
Te puede interesar: Tech Effects de PwC
Para ayudar a resolver posibles conflictos, considera establecer una conexión explícita entre los diez principios, los derechos humanos fundamentales y los valores organizacionales propios. La idea es crear una trazabilidad en el proceso de diseño de la IA: por cada decisión con implicaciones éticas, puedes rastrear esa decisión hasta derechos humanos específicos ampliamente aceptados y tus principios corporativos declarados. Aunque pueda sonar complicado, existen herramientas disponibles, como esta guía práctica de IA responsable, que pueden brindar apoyo.
Nada de esto es fácil, ya que la IA en sí no es fácil. Sin embargo, dada la rapidez con la que se está expandiendo la IA, hacer que tu IA sea responsable y ética podría ser un gran paso hacia un futuro sostenible para tu empresa y para el mundo.
Este artículo está basado en el artículo "Ten principles for ethical AI” de Digital Pulse, de PwC Australia. La traducción del texto original (en inglés) es organizada y revisada por PwC Colombia.