La rápida evolución de la IA y su integración en las operaciones empresariales destacan la necesidad de un uso responsable de esta. La 27ª Encuesta Global Anual de presidentes de PwC revela el entusiasmo y la prudencia entre los líderes ante la nueva ola de innovación en la IA, particularmente en lo que respecta a la IA generativa. De hecho, un tercio de los encuestados informó que sus organizaciones ya habían adoptado esta tecnología y casi el 60 % anticipa mejoras en los productos de su empresa en los próximos 12 meses gracias a ella. Sin embargo, también señalaron un aumento en los riesgos asociados, pues aunque la ciberseguridad encabezaba la lista de preocupaciones, los directores generales también expresaron inquietudes sobre la posibilidad de enfrentar responsabilidades legales, daños a la reputación y difusión de información errónea.
Pregunta: ¿Hasta qué punto estás de acuerdo o en desacuerdo en que es probable que la IA generativa aumente tus preocupaciones en la empresa en los próximos 12 meses?
Nota: En desacuerdo es la suma de las respuestas "ligeramente en desacuerdo", "moderadamente en desacuerdo" y "totalmente en desacuerdo"; de acuerdo es la suma de las respuestas "ligeramente de acuerdo", "moderadamente de acuerdo" y "totalmente de acuerdo". Los porcentajes indicados pueden no sumar 100 debido al redondeo.
Fuente: 27ª Encuesta Global Anual de presidentes de PwC
Para abordar estas preocupaciones es fundamental contar con un conjunto de principios de IA responsable que permitan a las empresas capitalizar los beneficios de esta tecnología mientras mitiga sus posibles riesgos. Sin embargo, esto también requiere observar cómo se aplican en situaciones concretas. Por eso, varios de los ejecutivos que participaron en la conferencia sobre IA de la Cumbre Mundial 2023, llevada a cabo en Ámsterdam, brindan sus perspectivas desde una visión única, ya sea como profesional tecnológico enfrentándose a desafíos prácticos, como ejecutivo empresarial diseñando estrategias o como emprendedor dedicado a proporcionar herramientas esenciales para mitigar los riesgos.
Haz clic en cada sección para aprender más.
Ética en el uso de datos e IA
Evaluar las implicaciones morales de la utilización de datos y de la IA, y reflejar estos valores en la cultura de tu organización.
Política y regulación
Anticipar y comprender las tendencias regulatorias y las políticas públicas clave para alinear los procesos de cumplimiento de manera efectiva.
Gobernanza
Facilitar la supervisión de los sistemas en tres niveles de defensa: el comité directivo, el comité operativo y los equipos de ejecución.
Cumplimiento
Adherirse a la normativa, las políticas internas de la organización y las regulaciones específicas del sector.
Gestión de riesgos
Mejorar las prácticas de detección y mitigación de riesgos inherentes a la IA.
Formulación del problema
Identificar claramente el problema que se está abordando y determinar si justifica el empleo de IA o aprendizaje automático como solución.
Estándares
Seguir las normativas y las mejores prácticas establecidas en el sector correspondiente.
Validación
Evaluar el desempeño del modelo y continuar iterando en el diseño y desarrollo para mejorar las métricas y resultados.
Supervisión
Monitorear continuamente el desempeño del modelo e identificar posibles desviaciones y riesgos.
Interpretabilidad y explicabilidad
Facilitar una toma de decisiones transparente basada en el entendimiento del modelo.
Sostenibilidad
Reducir al mínimo el impacto ambiental negativo y capacitar a las personas para la continuidad de las operaciones.
Solidez
Garantizar la fiabilidad y el alto rendimiento de los sistemas.
Sesgo y equidad
Definir y medir la imparcialidad, y evaluar los sistemas según criterios establecidos.
Seguridad
Mejorar la ciberseguridad de los sistemas para protegerlos contra amenazas.
Privacidad
Desarrollar sistemas que salvaguarden la privacidad de los datos de manera efectiva.
Seguridad física
Diseñar y probar sistemas para prevenir daños y garantizar la seguridad en entornos físicos.
La IA responsable comienza con la redacción de un conjunto básico de principios fundamentados en los valores de la empresa o, al menos, alineados con ellos. Khagesh Batra, responsable de ciencia de datos en la empresa de servicios de Adecco Group, se basa en los principios éticos establecidos por su organización para guiar su trabajo con la IA. "Las empresas ofrecen formación cuando te incorporas", explica Batra. "La mayoría de la gente tiende a ojearlos, pero en realidad contienen esos principios rectores. ¿Cuáles son los valores de la empresa? ¿Qué es la discriminación? No lo dicen explícitamente para los científicos de datos, pero creo que se puede deducir automáticamente".
Marc Mathieu, responsable de transformación de IA en Salesforce, coincidió en que integrar la IA responsable en los valores de la organización sienta las bases. "Forma parte de nuestros valores. Nuestra cultura está impulsada desde arriba y en toda la organización. La IA de confianza es realmente uno de los elementos centrales en los que se ha centrado Salesforce."
Mathieu explicó que las empresas no pueden limitarse a los principios. "Los principios están muy bien, pero es en la aplicación donde las cosas van mal".
"Tenemos un equipo de ética que ha creado directrices para asegurarnos de que damos una orientación a clientes, socios y colaboradores internamente sobre cómo implementar estrategias y despliegues de IA de una manera que sea responsable y ética. Pero al mismo tiempo, está el equipo de producto que desarrolla las soluciones técnicas reales para asegurarnos de que podemos garantizar la confianza en la IA generativa. Nos aseguramos de que estos equipos estén muy sincronizados entre sí, así como con nuestro equipo de investigación. Solemos decir que la confianza no es sólo una capa, sino una hoja de ruta."
En la práctica, uno de los retos para los profesionales en datos es recopilar aquellos que representen a una población diversa y no introduzcan -o perpetúen- sesgos. Sarah Porter, asesora de la ONU sobre armas autónomas y derechos humanos, y fundadora de Inspired Minds, una comunidad mundial de tecnología emergente de 200.000 miembros, articuló el reto particular que plantean los grandes modelos lingüísticos que sustentan los sistemas generativos. "Uno de los problemas de los grandes modelos lingüísticos es que los entrenamos con enormes conjuntos de datos históricos", explicó. "Se puede decir que estamos recreando lo peor de la historia. Tenemos que asegurarnos de que la información que introducimos en estas máquinas representa los resultados que queremos en términos de diversidad, lo cual es difícil de conseguir".
Hay formas de eliminar los prejuicios que también abordan otros retos, como garantizar la privacidad de los datos. Uno de estos enfoques es el red-teaming, que en el contexto de la IA se refiere a un proceso en el que un grupo intenta deliberadamente desafiar, atacar o explotar un sistema de IA para identificar sus vulnerabilidades o su potencial de uso indebido. Mathieu afirma: "Estamos utilizando métodos muy interesantes, como el red-teaming, no sólo en lo que respecta a la privacidad, sino también a la inclusión y la parcialidad, para asegurarnos de que realmente nos esforzamos por ofrecer confianza".
Las soluciones que permiten a los tecnólogos extraer valor de los datos sensibles, al mismo tiempo que preservan el anonimato de la información personal, ofrecen una alternativa crucial para reforzar la privacidad de los datos. Un ejemplo destacado de este tipo de soluciones lo proporciona Patricia Thaine, fundadora de Private AI, una empresa dedicada a la detección y eliminación de identificadores personales de datos sensibles antes de compartirlos con modelos de IA.
Thaine explica la importancia de esta tecnología, señalando que "el lenguaje natural contiene una gran cantidad de información sensible. Por ejemplo, se puede inferir la presencia de ciertas enfermedades basándose en cómo una persona se expresa". Además, destaca que "los datos no estructurados, como las conversaciones, contienen una riqueza de información personal, la cual es crucial para extraer insights valiosos, como los sentimientos hacia un producto, sin necesidad de conocer la identidad del interlocutor".
También resulta crucial evitar entrenar modelos con datos que contengan contenido evidentemente perjudicial, como imágenes de violencia. Sin embargo, esto es más sencillo en teoría que en práctica. Los modelos de IA generativa requieren ser alimentados con conjuntos de datos masivos, que pueden contener millones de puntos de información. La tarea de clasificar cada uno de estos, para garantizar su seguridad, resulta sumamente desafiante.
Tom Mason, director de ingeniería de soluciones en Stability AI, compartió con nosotros que su empresa aborda esta problemática utilizando conjuntos de datos de entrenamiento rigurosamente filtrados para eliminar cualquier contenido explícito o ilegal. Además, la empresa está adoptando cada vez más el uso de IA misma para ayudar a confirmar la seguridad del contenido generado.
Mason explica: "En el momento de la generación de imágenes, implementamos un clasificador que utiliza un modelo de visión por computadora para analizar y clasificar la imagen. Por ejemplo, si se genera una con contenido desnudo, nuestro modelo lo detecta y aplica un difuminado para proteger la integridad del contenido".
Todo conjunto de principios de IA responsable debe hacer hincapié en la confianza desde su diseño, lo que implica integrar las mejores prácticas en todos los aspectos del desarrollo e implementación de la IA. Esto va más allá de la simple verificación de los datos utilizados en un modelo. Lamentablemente, es un ámbito en el que la mayoría de las empresas se encuentran rezagadas, a pesar de la creciente cantidad de regulaciones en este campo.
"Queda mucho por hacer, incluso para cumplir el GDPR, que aún no se ha hecho", dice Thaine, refiriéndose al Reglamento General de Protección de Datos de la Unión Europea, dirigido a la privacidad de la información. "Se puede pensar en el GDPR como un reglamento aspiracional, para el que definitivamente no teníamos la tecnología para cumplirlo cuando salió. Todavía no la tenemos, pero estamos trabajando para conseguirlo", dijo.
"Actualmente, el proceso para las empresas es en gran medida manual; ese es el principal desafío", explicó el Dr. Pavol Bielik, director técnico y cofundador de LatticeFlow. "Cuando nos comunicamos con empresas, es común escuchar la confirmación de este problema en toda su infraestructura de IA, donde las herramientas disponibles están considerablemente atrasadas. Hemos estado abordando este reto durante una década, y desde el punto de vista tecnológico, no son cuestiones simples de resolver."
LatticeFlow se encuentra entre las numerosas empresas que buscan abordar esta brecha tecnológica mediante una plataforma diseñada para identificar de manera automatizada las raíces de los problemas relacionados con modelos y datos a lo largo de todo el ciclo de desarrollo y despliegue.
"Es fundamental abordar la seguridad y la confianza desde el inicio", continuó explicando el Dr. Bielik. "En el estado actual de las cosas, cuando colaboramos con numerosas entidades bancarias, por ejemplo, se centran en auditorías posteriores, lo que equivale a un análisis post mortem. La cuestión crucial es: ¿cómo podemos trasladar este enfoque al inicio del proceso? Es decir, desde el momento en que se comienza a trabajar con IA, se deben seguir las mejores prácticas y directrices. En cada etapa del proceso, se deben identificar señales de alerta que indiquen 'No, esto no es cómo debería ser'".
El Dr. Bielik reconoce que este esfuerzo es considerable, pero valioso. "Se trata de una inversión considerable. En conversaciones con empresas más maduras en este ámbito, comprenden su importancia debido a experiencias previas adversas. Sin embargo, donde se requiere más educación es en las etapas iniciales de adopción de la IA, donde los problemas resultantes aún no son evidentes, y se percibe esto como un gasto adicional. Sin embargo, una vez que se alcanza cierta escala, esta inversión se vuelve indispensable. A largo plazo, esta práctica no solo agiliza los procesos, sino que también garantiza una mayor eficiencia, a pesar del tiempo adicional que se puede requerir en el corto plazo para asegurar el correcto funcionamiento de las operaciones".
Lo mismo puede aplicarse a la IA responsable en su conjunto. Las empresas están bajo presión para aprovechar rápidamente la eficiencia y la innovación que ofrece la IA, pero hacerlo sin las salvaguardas adecuadas puede, en última instancia, ralentizar su progreso o, peor aún, ocasionar un daño social significativo. La integración de la IA responsable en la mentalidad empresarial y en el conjunto de herramientas de los profesionales puede allanar el camino hacia la seguridad y el éxito a largo plazo.
Este artículo está basado en el artículo “From principles to practice: Responsible AI in action” de Strategy+business. Esta versión es organizada y revisada por PwC Colombia.