El potencial para transformar los negocios mediante la inteligencia artificial (IA) continua creciendo. En un futuro cercano, sus aplicaciones adquirirán mayor relevancia en las estrategias de crecimiento de todas las organizaciones.
A medida que se exploran los posibles usos de la inteligencia artificial, es importante distinguir entre la IA y la inteligencia artificial generativa (GenAI).
Mientras la primera se centra en sistemas altamente especializados, capaces de realizar tareas específicas o resolver problemas particulares, que son utilizados por científicos de datos, la GenAI consiste en sistemas con la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas, generando nuevos contenidos que elevan la eficiencia de las empresas a través de:
Generación de código de software
Generación de texto, imágenes, audio y video de alta calidad
Análisis de datos (en diferentes formatos)
Transcripciones, traducciones y resúmenes de documentos empresariales
Simulaciones de posibles escenarios económicos, financieros, etc.
El uso de la inteligencia artificial generativa implica realizar ajustes, adaptaciones constantes y ágiles, conocidas como iteraciones. Estas no solo buscan maximizar los beneficios obtenidos, sino también anticipar y gestionar los riesgos para evitar obstaculizar el progreso en su implementación.
La presencia de sesgos en los datos de entrenamiento de los algoritmos de IA plantea un desafío significativo. Si estos sesgos no se abordan adecuadamente, existe el riesgo de que los sistemas generen contenido no fiable, inexacto o contrario. Esto incluye la perpetuación y ampliación de la discriminación en áreas como la contratación, promoción, evaluación del desempeño y asignación de recursos. Además, podría erosionar la confianza de los empleados, clientes y otras partes interesadas.
La adopción de la GenAI también plantea retos para la privacidad de datos personales. La capacidad de esta tecnología para generar nueva información a partir de grandes cantidades de datos podría ocasionar vulneraciones a los controles de seguridad de la información existentes. Esto podría exponer datos sensibles o dar lugar a su uso indebido.
Asimismo, la automatización impulsada por la GenAI tendrá un impacto en el empleo. Si bien esto puede crear preocupación, también ofrece la posibilidad de crear nuevas oportunidades laborales y mejorar la eficiencia en otras tareas donde las personas, con su capacidad de juicio y creatividad, continúan siendo irremplazables.
Demostrar que las organizaciones son capaces de equilibrar los riesgos con los beneficios de la innovación con la GenAI será fundamental para construir confianza.
A fin de mitigar los riesgos (p. ej., daños a individuos, daños a grupos, daños sociales y daños institucionales) y asegurar una trayectoria sostenible a largo plazo basada en la confianza, es fundamental incorporar prácticas de IA responsable en cada etapa del proceso de implementación de esta tecnología, desde la planificación hasta el desarrollo, las pruebas y el monitoreo.
Confiar en la inteligencia artificial va más allá de garantizar sistemas seguros y el cumplimiento normativo, también implica que las empresas se guíen bajo los principios alineados con valores sociales, éticos y de respeto a los derechos humanos. Por ejemplo, implementando características de legalidad, opción de intervención humana, seguridad para las personas, así como transparencia y explicabilidad.
Las empresas deben ser transparentes al comunicar con claridad cómo se recopilan, utilizan y protegen los datos, así como los algoritmos y modelos utilizados en la inteligencia artificial. De igual forma, deben asegurarse de que los sistemas de IA sean justos y equitativos, evitando la discriminación y el sesgo en la toma de decisiones, tanto en la recopilación de datos como en los algoritmos utilizados.
También es importante considerar que las organizaciones deben asumir la responsabilidad de las acciones y decisiones tomadas por los sistemas de inteligencia artificial. Un diseño centrado en el ser humano requiere considerar las necesidades, valores y derechos de las personas en el diseño y desarrollo de sistemas de IA.
¿Cómo podemos garantizar un desarrollo responsable de la inteligencia artificial?
Proteger los datos personales y garantizar su privacidad es un aspecto crítico en el desarrollo y uso responsable de la IA. Esto demanda medidas de seguridad que deben ser implementadas de manera integral y actualizadas regularmente para adaptarse a las nuevas amenazas y regulaciones.
Además, es importante realizar evaluaciones periódicas para identificar posibles vulnerabilidades y mejorar en todo momento la protección de los datos personales en las aplicaciones de inteligencia artificial.
Recopilar y almacenar solo la información personal necesaria
Eliminar o enmascarar información identificable y asociar identificadores únicos en lugar de datos personales directos
Implementar controles de acceso adecuados y políticas claras sobre la retención y eliminación de datos personales
Utilizar técnicas de encriptación para proteger los datos personales
Mantener una infraestructura segura para la aplicación de IA
Capacitar al talento en las mejores prácticas de seguridad y privacidad, incluyendo la identificación de posibles riesgos y brechas de seguridad
Fomentar la colaboración y el intercambio de conocimientos entre las partes interesadas en el ecosistema de IA en México promueve la innovación, el aprovechamiento de recursos, la resolución de desafíos comunes, el establecimiento de estándares y mejores prácticas. Esto contribuye a promover la adopción y aceptación de la IA en beneficio de la sociedad y la economía.
Al interior de las organizaciones, también es fundamental una definición clara sobre las funciones de distintos liderazgos para mantener una IA responsable.
Responsable de gestionar la estrategia de IA y sus casos de negocio, así como su integración con temas relacionados como gobernanza, stack tecnológico, implementación y adopción.
Responsable de evaluar los riesgos y vulnerabilidades potenciales asociados con la implementación de la IA. Garantiza la implementación de medidas de seguridad adecuadas para proteger datos y sistemas sensibles.
Evalúa las capacidades tecnológicas para seleccionar las soluciones de IA confiables y basadas en principios. También supervisa la implementación y mantenimiento de los sistemas de inteligencia artificial.
Establece marcos y políticas de gobernanza de datos para garantizar el uso responsable de los datos en aplicaciones de IA. Colabora con otros líderes para garantizar la seguridad y el cumplimiento normativo.
Establece y monitorea los controles internos para mitigar riesgos e identificar sesgos en los sistemas de IA. Se asegura de que la estrategia de inteligencia artificial y su implementación se adhieran a las leyes, regulaciones y estándares de la industria.
Establece un marco de gestión de riesgos específico para la implementación de IA, definiendo procesos, políticas y controles para identificar, evaluar, mitigar y monitorear riesgos a lo largo del ciclo de vida de la IA.
Lidera la transformación digital y el cambio organizacional, implementando prácticas de IA responsable e identificando áreas donde la inteligencia artificial puede impulsar la innovación y la eficiencia.
La empresa de comercio electrónico A busca implementar un chatbot para dar respuesta a las consultas de los clientes y brindarles soporte en el uso de su plataforma. Sin embargo, en la etapa de prueba el equipo a cargo de la evaluación observa que el chatbot arroja recomendaciones sesgadas para la compra de productos.