Uso responsable de la IA en la transformación empresarial

Transparencia y protección de datos, pilares clave

Explora otros temas de IA

El potencial para transformar los negocios mediante la inteligencia artificial (IA) continua creciendo. En un futuro cercano, sus aplicaciones adquirirán mayor relevancia en las estrategias de crecimiento de todas las organizaciones.

A medida que se exploran los posibles usos de la inteligencia artificial, es importante distinguir entre la IA y la inteligencia artificial generativa (GenAI).

Mientras la primera se centra en sistemas altamente especializados, capaces de realizar tareas específicas o resolver problemas particulares, que son utilizados por científicos de datos, la GenAI consiste en sistemas con la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas, generando nuevos contenidos que elevan la eficiencia de las empresas a través de:

  • Generación de código de software 

  • Generación de texto, imágenes, audio y video de alta calidad

  • Análisis de datos (en diferentes formatos)

  • Transcripciones, traducciones y resúmenes de documentos empresariales 

  • Simulaciones de posibles escenarios económicos, financieros, etc. 

Gestión de riesgos y adaptación constante

El uso de la inteligencia artificial generativa implica realizar ajustes, adaptaciones constantes y ágiles, conocidas como iteraciones. Estas no solo buscan maximizar los beneficios obtenidos, sino también anticipar y gestionar los riesgos para evitar obstaculizar el progreso en su implementación.  

La presencia de sesgos en los datos de entrenamiento de los algoritmos de IA plantea un desafío significativo. Si estos sesgos no se abordan adecuadamente, existe el riesgo de que los sistemas generen contenido no fiable, inexacto o contrario. Esto incluye la perpetuación y ampliación de la discriminación en áreas como la contratación, promoción, evaluación del desempeño y asignación de recursos. Además, podría erosionar la confianza de los empleados, clientes y otras partes interesadas. 

La adopción de la GenAI también plantea retos para la privacidad de datos personales. La capacidad de esta tecnología para generar nueva información a partir de grandes cantidades de datos podría ocasionar vulneraciones a los controles de seguridad de la información existentes. Esto podría exponer datos sensibles o dar lugar a su uso indebido.

Asimismo, la automatización impulsada por la GenAI tendrá un impacto en el empleo. Si bien esto puede crear preocupación, también ofrece la posibilidad de crear nuevas oportunidades laborales y mejorar la eficiencia en otras tareas donde las personas, con su capacidad de juicio y creatividad, continúan siendo irremplazables. 

Demostrar que las organizaciones son capaces de equilibrar los riesgos con los beneficios de la innovación con la GenAI será fundamental para construir confianza.

Principios para una IA responsable

A fin de mitigar los riesgos (p. ej., daños a individuos, daños a grupos, daños sociales y daños institucionales) y asegurar una trayectoria sostenible a largo plazo basada en la confianza, es fundamental incorporar prácticas de IA responsable en cada etapa del proceso de implementación de esta tecnología, desde la planificación hasta el desarrollo, las pruebas y el monitoreo.

Confiar en la inteligencia artificial va más allá de garantizar sistemas seguros y el cumplimiento normativo, también implica que las empresas se guíen bajo los principios alineados con valores sociales, éticos y de respeto a los derechos humanos. Por ejemplo, implementando características de legalidad, opción de intervención humana, seguridad para las personas, así como transparencia y explicabilidad. 

Toolkit para una IA responsable

Toolkit para una IA responsable Toolkit para una IA responsable

Las empresas deben ser transparentes al comunicar con claridad cómo se recopilan, utilizan y protegen los datos, así como los algoritmos y modelos utilizados en la inteligencia artificial. De igual forma, deben asegurarse de que los sistemas de IA sean justos y equitativos, evitando la discriminación y el sesgo en la toma de decisiones, tanto en la recopilación de datos como en los algoritmos utilizados.  

También es importante considerar que las organizaciones deben asumir la responsabilidad de las acciones y decisiones tomadas por los sistemas de inteligencia artificial. Un diseño centrado en el ser humano requiere considerar las necesidades, valores y derechos de las personas en el diseño y desarrollo de sistemas de IA.  

 


Mejores prácticas en inteligencia artificial para empresas

¿Cómo podemos garantizar un desarrollo responsable de la inteligencia artificial?

Conoce las mejores prácticas

Privacidad y seguridad de datos

Proteger los datos personales y garantizar su privacidad es un aspecto crítico en el desarrollo y uso responsable de la IA. Esto demanda medidas de seguridad que deben ser implementadas de manera integral y actualizadas regularmente para adaptarse a las nuevas amenazas y regulaciones. 

Además, es importante realizar evaluaciones periódicas para identificar posibles vulnerabilidades y mejorar en todo momento la protección de los datos personales en las aplicaciones de inteligencia artificial.

Algunos ejemplos de estas medidas son: 

  • Recopilar y almacenar solo la información personal necesaria 

  • Eliminar o enmascarar información identificable y asociar identificadores únicos en lugar de datos personales directos 

  • Implementar controles de acceso adecuados y políticas claras sobre la retención y eliminación de datos personales

  • Utilizar técnicas de encriptación para proteger los datos personales  

  • Mantener una infraestructura segura para la aplicación de IA

  • Capacitar al talento en las mejores prácticas de seguridad y privacidad, incluyendo la identificación de posibles riesgos y brechas de seguridad 

Colaboración e intercambio de conocimientos

Fomentar la colaboración y el intercambio de conocimientos entre las partes interesadas en el ecosistema de IA en México promueve la innovación, el aprovechamiento de recursos, la resolución de desafíos comunes, el establecimiento de estándares y mejores prácticas. Esto contribuye a promover la adopción y aceptación de la IA en beneficio de la sociedad y la economía.

Al interior de las organizaciones, también es fundamental una definición clara sobre las funciones de distintos liderazgos para mantener una IA responsable.

CAIO (Chief AI Officer)

Responsable de gestionar la estrategia de IA y sus casos de negocio, así como su integración con temas relacionados como gobernanza, stack tecnológico, implementación y adopción. 

CISO (Chief Information Security Officer)

Responsable de evaluar los riesgos y vulnerabilidades potenciales asociados con la implementación de la IA. Garantiza la implementación de medidas de seguridad adecuadas para proteger datos y sistemas sensibles.

CTO (Chief Technology Officer)

Evalúa las capacidades tecnológicas para seleccionar las soluciones de IA confiables y basadas en principios. También supervisa la implementación y mantenimiento de los sistemas de inteligencia artificial.

CIO (Chief Information Officer)

Establece marcos y políticas de gobernanza de datos para garantizar el uso responsable de los datos en aplicaciones de IA. Colabora con otros líderes para garantizar la seguridad y el cumplimiento normativo.

Líder de auditoría 

Establece y monitorea los controles internos para mitigar riesgos e identificar sesgos en los sistemas de IA. Se asegura de que la estrategia de inteligencia artificial y su implementación se adhieran a las leyes, regulaciones y estándares de la industria.

CRO (Chief Risk Officer) 

Establece un marco de gestión de riesgos específico para la implementación de IA, definiendo procesos, políticas y controles para identificar, evaluar, mitigar y monitorear riesgos a lo largo del ciclo de vida de la IA.

CTO (Chief Transformation Officer)

Lidera la transformación digital y el cambio organizacional, implementando prácticas de IA responsable e identificando áreas donde la inteligencia artificial puede impulsar la innovación y la eficiencia.

 

      

Caso práctico: cómo funcionan las mejores prácticas para una IA responsable

La empresa de comercio electrónico A busca implementar un chatbot para dar respuesta a las consultas de los clientes y brindarles soporte en el uso de su plataforma. Sin embargo, en la etapa de prueba el equipo a cargo de la evaluación observa que el chatbot arroja recomendaciones sesgadas para la compra de productos.

¿Cómo resolver este caso a partir de la implementación de mejores prácticas?


¿Cómo resolver este caso a partir de la implementación de mejores prácticas? ¿Cómo resolver este caso a partir de la implementación de mejores prácticas?


Ponte en contacto

Arturo Paz Uribe

Arturo Paz Uribe

Socio líder cloud & digital, PwC México

José Márquez

José Márquez

Acceleration Center US | Director cloud & digital, PwC México

Síguenos:

Los campos marcados con un asterisco son obligatorios(*)

Estoy de acuerdo con recibir noticias y el tratamiento de mis datos personales*

Al ingresar su dirección de correo electrónico, usted reconoce haber leído La Declaración de Privacidad (Privacy Statement) y acepta nuestro procesamiento de datos según lo establecido por la Declaración de Privacidad (incluyendo las transferencias internacionales). Si en algún momento usted cambia de opinión, y no quiere recibir información de nosotros, por favor envíenos un correo a través del siguiente formulario.

Ocultar