Para los líderes empresariales, hay numerosas razones para entusiasmarse con la
IA generativa,
empezando por su potencia y facilidad de uso. Sin embargo, como sucede con cualquier tecnología emergente, también surgen nuevos riesgos
potenciales. Algunos de estos pueden originarse en el uso que haga la empresa, mientras que otros pueden provenir de actores malintencionados.
Para abordar eficazmente ambos tipos de riesgos y capitalizar el poder de la IA generativa para impulsar resultados sostenidos y construir
confianza, es esencial contar con una IA responsable. ¿Qué implica exactamente la IA responsable? Se trata de una metodología diseñada para
facilitar el uso ético y confiable de la IA. Si bien siempre ha sido importante, su relevancia se ha vuelto crucial en esta nueva era de la IA
generativa.
La IA generativa puede crear código de software, análisis de datos, textos, videos, voces humanas, espacios metaversos y mucho más. A medida que transcurren los meses, se anticipa que este potencial transformará funciones, modelos de negocio e industrias en su conjunto. La IA generativa ya no está limitada a científicos de datos; cada vez más personas la están utilizando para generar valor a gran escala. Este avance está impulsando la productividad, respaldando la toma de decisiones humanas y reduciendo costos. Algunos de los casos de uso que están experimentando un crecimiento hoy en día incluyen:
Mejorar la automatización y la personalización en el servicio al cliente.
Automatizar tareas de gran volumen, como procesar reclamaciones o escribir cierto código de software.
Proporcionar a los humanos resúmenes de apoyo y análisis profundos de documentos comerciales, reuniones y comentarios de los clientes.
La IA generativa está lejos de ser perfecta, ya que intenta prever respuestas acertadas a partir de sus algoritmos y conjuntos de datos. Aunque sus resultados pueden ser valiosos, a menudo se asemejan a "primeros borradores". Es probable que se necesite verificar y evaluar la calidad de estos borradores, ajustándolos según sea necesario. En ciertas ocasiones, la IA generativa puede generar resultados irrelevantes, inexactos, ofensivos o con problemas legales. Esto se debe en parte a que los usuarios pueden no proporcionar las indicaciones adecuadas y en parte a la naturaleza creativa inherente de estos modelos.
Además, están surgiendo nuevos riesgos cibernéticos, como la capacidad de actores maliciosos para utilizar estas tecnologías con el fin de crear falsificaciones profundas y facilitar otros ataques cibernéticos a gran escala. Dado que un número cada vez mayor de personas tiene acceso a la IA generativa, algunos de estos riesgos podrían generalizarse. Muchos usuarios dentro de una organización pueden no estar familiarizados con el funcionamiento de los modelos de IA y con la manera adecuada de utilizarlos.
La implementación de la IA responsable no solo ayuda a gestionar los riesgos mencionados, sino también otros potenciales. Contribuye a fortalecer la confianza en todas las aplicaciones de IA, incluyendo la IA generativa, ya sea adquirida, desarrollada internamente o utilizada de alguna manera. Cuando se ejecuta de manera efectiva, aborda tanto los riesgos a nivel de aplicación, como las fallas en el rendimiento, la seguridad y el control, como los riesgos a nivel empresarial y nacional, tales como el cumplimiento normativo, los posibles impactos en el balance y la marca, el desplazamiento de empleos y la desinformación.
Sin embargo, para lograr su eficacia máxima, la IA responsable debe ser una parte integral de su estrategia de IA.
En PwC, nuestra aproximación a la IA responsable proporciona confianza desde el diseño y a lo largo de todo el ciclo de vida de la IA mediante marcos, plantillas y activos basados en código. Este enfoque es relevante para ejecutivos de todos los niveles: el director ejecutivo y la junta directiva establecen la estrategia, prestando especial atención a los desarrollos de políticas públicas y a la coherencia con el propósito y los valores corporativos. Los directores de riesgos y cumplimiento tienen la responsabilidad de supervisar el control, abarcando aspectos como la gobernanza, el cumplimiento y la gestión de riesgos.
Adicionalmente, los directores de información y seguridad de la información lideran prácticas responsables, tales como la ciberseguridad, la privacidad y el rendimiento. Por último, los científicos de datos y los especialistas en el ámbito empresarial aplican prácticas básicas responsables a medida que desarrollan casos de uso, definen problemas e indicaciones, y validan y monitorean los resultados. Este enfoque colaborativo garantiza una implementación integral de la IA responsable en todas las facetas de la organización.
Te puede interesar: Con ciberseguridad, hay resiliencia
Considerar la implicación moral de los usos de los datos y la IA y codificarlos en los valores de la organización.
Anticipar y comprender las principales políticas públicas y tendencias normativas para alinear los procesos de cumplimiento.
Permitir la supervisión de los sistemas en las tres líneas de defensa.
Cumplir la normativa, las políticas organizativas y las normas del sector.
Aplicar prácticas transitorias de detección y mitigación de riesgos para hacer frente a los riesgos y daños exclusivos de la AI.
Permitir una toma de decisiones transparente sobre el modelo.
Minimizar el impacto medioambiental negativo y capacitar a las personas.
Permitir sistemas fiables y de alto rendimiento.
Definir y medir la imparcialidad. Comprobar los sistemas según las normas.
Mejorar la ciberseguridad de los sistemas.
Desarrollar sistemas que preserven la privacidad de los datos.
Diseñar y probar sistemas para evitar daños físicos.
Identificar el problema concreto que se está resolviendo y si justifica una solución AI/ML.
Seguir las normas y mejores prácticas del sector.
Evaluar el rendimiento del modelo y continuar el iterando sobre el diseño y el desarrollo para mejorar las métricas.
Realizar un seguimiento continuo para identificar errores y riesgos.
A medida que la empresa comienza a explorar casos de uso de IA generativa y cómo aplicar una IA responsable, estos son algunos riesgos clave que hay que tener en cuenta:
Al igual que la IA convencional, la IA generativa puede exhibir prejuicios hacia las personas, principalmente derivados del sesgo presente en sus datos. Sin embargo, el riesgo en este caso puede ser más pronunciado, ya que la IA generativa tiene la capacidad de generar, en su propio nombre, información incorrecta y contenido abusivo u ofensivo.
La IA generativa suele operar mediante un "modelo base" desarrollado por un tercero especializado. Dado que la empresa no es propietaria de este modelo ni cuenta con acceso a su funcionamiento interno, puede resultar difícil comprender las razones detrás de un resultado específico. En algunos casos, algunas herramientas de IA generativa incluso pueden no revelar qué solución de terceros están utilizando.
La IA generativa, si bien puede ser una herramienta valiosa para crear contenido atractivo, también puede ser utilizada por actores malintencionados con propósitos similares. En este sentido, podría analizar el correo electrónico de los ejecutivos, sus publicaciones en redes sociales y sus apariciones en vídeo para imitar su estilo de escritura, forma de hablar y expresiones faciales. De esta manera, la IA generativa podría generar un correo electrónico o un vídeo que aparentemente provenga de la empresa, difundiendo información incorrecta o instando a las partes interesadas a compartir datos confidenciales.
La habilidad de la IA generativa para conectar datos dentro de sus amplios conjuntos (e incluso generar nuevos datos según sea necesario) podría comprometer los controles de privacidad establecidos. Al identificar relaciones entre puntos de datos aparentemente no relacionados, existe el riesgo de que la IA pueda revelar la identidad de las partes interesadas que han sido previamente anonimizadas, reconstruyendo así su información confidencial.
La IA generativa destaca en encontrar respuestas persuasivas para prácticamente cualquier pregunta que se le formule. Sin embargo, en ocasiones, sus respuestas pueden ser completamente incorrectas, presentándose con una aparente autoridad, un fenómeno que los científicos de datos denominan "alucinaciones". Estas se producen en parte porque los modelos suelen estar diseñados para generar contenido que parezca lógico, aunque no siempre sea preciso.
Dada la cantidad de datos subyacentes a la IA generativa, puede resultar difícil conocer siempre su origen o determinar si se cuenta con el permiso adecuado para su uso. La IA generativa tiene la capacidad, por ejemplo, de replicar texto, imágenes o códigos de software con derechos de autor en el contenido que genera. Esto podría interpretarse como un acto de infracción de propiedad intelectual, con consecuencias que van desde multas y demandas hasta un perjuicio para la reputación de la marca.
Sin precaución, es posible encontrar que los datos y conocimientos patentados facilitan a los competidores la generación de contenido. La información que se introduzca en un modelo de IA generativa podría filtrarse hacia una base de datos compartida de manera extensa.
Te puede interesar: Gestión de los riesgos de la IA generativa
Si una empresa ya cuenta con un sólido programa de IA responsable, es probable que los esfuerzos de gobernanza hayan identificado muchos de los desafíos emergentes relacionados con la IA generativa. No obstante, existen áreas cruciales que requieren especial atención y pasos clave que deben considerarse al implementar una IA responsable en un entorno tecnológico que evoluciona rápidamente.
Te puede interesar: Diez principios para una IA ética
La importancia de ciertos riesgos de la IA generativa varía entre las partes interesadas. Es fundamental ajustar o establecer marcos de priorización para que los equipos de gobierno, cumplimiento, riesgo, auditoría interna e inteligencia artificial concentren su atención de manera prioritaria en los riesgos más significativos.
Actualizar los protocolos de ciberseguridad, gobernanza de datos y privacidad es esencial para mitigar los riesgos asociados con la capacidad de la IA generativa de actores maliciosos para inferir datos privados, revelar identidades o llevar a cabo ataques cibernéticos.
En algunos sistemas de IA generativa, la explicabilidad no está disponible como opción. Descifrar el "por qué" de un resultado específico puede resultar imposible. Por ende, es crucial identificar estos sistemas, evaluar las prácticas que pueden respaldar su equidad, precisión y cumplimiento, y proceder con cautela en situaciones donde la supervisión sea inviable o poco práctica.
Capacitar a los colaboradores que puedan necesitar utilizar IA generativa en los principios fundamentales de su funcionamiento, cuándo y cómo emplearla, y cuándo y cómo verificar o modificar los resultados. Proporcionar a los equipos legales y de cumplimiento habilidades y herramientas de software para identificar violaciones de propiedad intelectual y otros riesgos asociados.
Es importante estar al tanto de qué proveedores suministran contenido o servicios que hacen uso de IA generativa, comprender cómo manejan los riesgos asociados y evaluar su posible exposición.
En todo el mundo, los formuladores de políticas están emitiendo directrices con mayor frecuencia sobre el desarrollo y el uso de la IA. Aunque esta guía sigue siendo un mosaico y no un marco regulatorio integral, constantemente se están introduciendo nuevas normativas, particularmente en lo que respecta al impacto de la IA en la privacidad, el sesgo de la IA y los principios de gobernanza para la IA.
Con la creciente prevalencia del contenido generativo creado por IA, es esencial explorar las herramientas de software emergentes para identificar dicho contenido, verificar sus resultados, evaluar posibles sesgos o violaciones de privacidad, y añadir citas o advertencias según sea necesario.
Si hay una regla de oro para la IA responsable, y la tecnología confiable en general, es la siguiente: es preferible incorporar la confianza y la ética por diseño desde el principio en lugar de apresurarse a cerrar brechas una vez que los sistemas están en funcionamiento. Por esta razón, independientemente del nivel de madurez de la empresa en relación con la IA, incluida la IA generativa, se aconseja priorizar la implementación de prácticas de IA responsable tan pronto como sea posible y tenerlas presentes en cada fase del proceso.
Este artículo está basado en el artículo “ What is responsible AI and how can it help harness trusted generative AI?” de PwC US. Esta versión es organizada y revisada por PwC Colombia.