PwC preguntó a 500 líderes de negocio acerca de los riesgos podrían afectar la reputación de sus empresas. Dejaron en claro que les preocupaban más los riesgos relacionados con la ciberseguridad, como las violaciones de datos y los ataques de ransomware, que los riesgos relacionados con la IA. Esto sugiere que muchos líderes empresariales no se dan cuenta de lo importante que es hacer frente a los riesgos derivados del uso de la IA generativa. Los principales riesgo incluyen, contenido ofensivo o engañoso, deepfakes que difunden información falsa o engañan a las personas para que compartan información privada, información inexacta presentada como un hecho, revelar la identidad de personas anónimas, copiar contenido que pertenece a otra persona y compartir accidentalmente propiedad intelectual. La lista de problemas es cada vez más larga y difícil de abordar.
¿Cómo pueden las empresas aprovechar el poder revolucionario de la IA generativa?, que, entre otros usos, puede ayudar a automatizar los procesos en áreas clave como la de servicio al cliente y las tareas de gran volumen: proporcionar resúmenes útiles relacionados con datos e investigaciones privadas o públicas, e incluso, escribir código de software sin poner en peligro la confianza de las partes interesadas. Estas son las acciones que pueden comenzar a implementar:
Algunos riesgos generativos de IA son más importantes para las partes interesadas que otros. Ajusta o establece marcos de clasificación de riesgos para que las áreas de Gobierno, Cumplimiento, Riesgo, Auditoría interna e IA presten mayor atención a los principales riesgos.
Actualiza los protocolos de ciberseguridad, gobierno y privacidad de los datos para ayudar a mitigar los riesgos derivados del uso de la IA generativa de actores maliciosos.
En ocasiones, en los sistemas de IA generativa, el "modelo base" o la red neuronal usada para producir resultados no se divulga ni es de fácil acceso para los usuarios. Esto hace imposible determinar por qué un sistema concreto generó determinados resultados. Por lo tanto, es importante identificar estos sistemas y considerar las prácticas que pueden aplicarse para garantizar su imparcialidad, precisión y cumplimiento.
Capacita a los colaboradores sobre los conceptos básicos de funcionamiento de la IA generativa, y también cuándo usarla y cuándo no. También necesitarán aprender cuándo y cómo verificar o modificar los resultados. Proporciona a los equipos legales y de cumplimiento las habilidades y las herramientas necesarias para identificar las violaciones de la propiedad intelectual y otros riesgos relacionados, reforzando las pautas de gobernanza de la IA.
Identifica cuál de tus proveedores proporciona contenido o servicios que utilizan IA generativa, cómo gestionan los riesgos relacionados y cuál puede ser su posible exposición.
Los organismos reguladores de todo el mundo publican cada vez más recomendaciones sobre el desarrollo y el uso de la IA. Aunque estas recomendaciones aún no constituyen un marco normativo completo, continuamente surgen nuevas normas que debes considerar para tu negocio.
Dado que los contenidos generados por IA son cada vez más comunes, considera la posibilidad de utilizar herramientas de software emergentes para identificar los contenidos generados por IA, verificar su exactitud, evaluarlos para detectar sesgos o violaciones de la privacidad, y añadir citas (o advertencias) según sea necesario.
Estas acciones son la base de la IA responsable y deben convertirse en una parte fundamental del libro de jugadas para el uso de la IA de tu empresa.
Este artículo se basa en el artículo original “Seven crucial actions for managing AI risks” que fue publicado por PwC Global.