IA responsable: qué es y cómo potencia la IA generativa confiable

Para los líderes empresariales, hay numerosas razones para entusiasmarse con la IA generativa, empezando por su potencia y facilidad de uso. Sin embargo, como sucede con cualquier tecnología emergente, también surgen nuevos riesgos potenciales. Algunos de estos pueden originarse en el uso que haga la empresa, mientras que otros pueden provenir de actores malintencionados.

Para abordar eficazmente ambos tipos de riesgos y capitalizar el poder de la IA generativa para impulsar resultados sostenidos y construir confianza, es esencial contar con una IA responsable. ¿Qué implica exactamente la IA responsable? Se trata de una metodología diseñada para facilitar el uso ético y confiable de la IA. Si bien siempre ha sido importante, su relevancia se ha vuelto crucial en esta nueva era de la IA generativa.

Lo que la IA generativa puede y no puede hacer

La IA generativa puede crear código de software, análisis de datos, textos, videos, voces humanas, espacios metaversos y mucho más. A medida que transcurren los meses, se anticipa que este potencial transformará funciones, modelos de negocio e industrias en su conjunto. La IA generativa ya no está limitada a científicos de datos; cada vez más personas la están utilizando para generar valor a gran escala. Este avance está impulsando la productividad, respaldando la toma de decisiones humanas y reduciendo costos. Algunos de los casos de uso que están experimentando un crecimiento hoy en día incluyen:

  • Mejorar la automatización y la personalización en el servicio al cliente.

  • Automatizar tareas de gran volumen, como procesar reclamaciones o escribir cierto código de software.

  • Proporcionar a los humanos resúmenes de apoyo y análisis profundos de documentos comerciales, reuniones y comentarios de los clientes.

La IA generativa está lejos de ser perfecta, ya que intenta prever respuestas acertadas a partir de sus algoritmos y conjuntos de datos. Aunque sus resultados pueden ser valiosos, a menudo se asemejan a "primeros borradores". Es probable que se necesite verificar y evaluar la calidad de estos borradores, ajustándolos según sea necesario. En ciertas ocasiones, la IA generativa puede generar resultados irrelevantes, inexactos, ofensivos o con problemas legales. Esto se debe en parte a que los usuarios pueden no proporcionar las indicaciones adecuadas y en parte a la naturaleza creativa inherente de estos modelos.

Además, están surgiendo nuevos riesgos cibernéticos, como la capacidad de actores maliciosos para utilizar estas tecnologías con el fin de crear falsificaciones profundas y facilitar otros ataques cibernéticos a gran escala. Dado que un número cada vez mayor de personas tiene acceso a la IA generativa, algunos de estos riesgos podrían generalizarse. Muchos usuarios dentro de una organización pueden no estar familiarizados con el funcionamiento de los modelos de IA y con la manera adecuada de utilizarlos.

Los nuevos desafíos de confianza de la IA generativa y cómo la IA responsable puede ayudar

La implementación de la IA responsable no solo ayuda a gestionar los riesgos mencionados, sino también otros potenciales. Contribuye a fortalecer la confianza en todas las aplicaciones de IA, incluyendo la IA generativa, ya sea adquirida, desarrollada internamente o utilizada de alguna manera. Cuando se ejecuta de manera efectiva, aborda tanto los riesgos a nivel de aplicación, como las fallas en el rendimiento, la seguridad y el control, como los riesgos a nivel empresarial y nacional, tales como el cumplimiento normativo, los posibles impactos en el balance y la marca, el desplazamiento de empleos y la desinformación.

Sin embargo, para lograr su eficacia máxima, la IA responsable debe ser una parte integral de su estrategia de IA.

En PwC, nuestra aproximación a la IA responsable proporciona confianza desde el diseño y a lo largo de todo el ciclo de vida de la IA mediante marcos, plantillas y activos basados en código. Este enfoque es relevante para ejecutivos de todos los niveles: el director ejecutivo y la junta directiva establecen la estrategia, prestando especial atención a los desarrollos de políticas públicas y a la coherencia con el propósito y los valores corporativos. Los directores de riesgos y cumplimiento tienen la responsabilidad de supervisar el control, abarcando aspectos como la gobernanza, el cumplimiento y la gestión de riesgos.

Adicionalmente, los directores de información y seguridad de la información lideran prácticas responsables, tales como la ciberseguridad, la privacidad y el rendimiento. Por último, los científicos de datos y los especialistas en el ámbito empresarial aplican prácticas básicas responsables a medida que desarrollan casos de uso, definen problemas e indicaciones, y validan y monitorean los resultados. Este enfoque colaborativo garantiza una implementación integral de la IA responsable en todas las facetas de la organización.

Te puede interesar: Con ciberseguridad, hay resiliencia

Conjunto de herramientas de IA responsable de PwC

Estrategia
Data e IA ética

Considerar la implicación moral de los usos de los datos y la IA y codificarlos en los valores de la organización.

Política y regulación

Anticipar y comprender las principales políticas públicas y tendencias normativas para alinear los procesos de cumplimiento.

Control
Gobernanza

Permitir la supervisión de los sistemas en las tres líneas de defensa.

Cumplimiento

Cumplir la normativa, las políticas organizativas y las normas del sector.

Gestión del riesgos

Aplicar prácticas transitorias de detección y mitigación de riesgos para hacer frente a los riesgos y daños exclusivos de la AI.

Prácticas responsables
Interpretabilidad y explicabilidad

Permitir una toma de decisiones transparente sobre el modelo.

Sostenibilidad

Minimizar el impacto medioambiental negativo y capacitar a las personas.

Solidez

Permitir sistemas fiables y de alto rendimiento.

Sesgo y equidad

Definir y medir la imparcialidad. Comprobar los sistemas según las normas.

Seguridad

Mejorar la ciberseguridad de los sistemas.

Privacidad

Desarrollar sistemas que preserven la privacidad de los datos.

Seguridad

Diseñar y probar sistemas para evitar daños físicos.

Prácticas básicas
Formulación del problema

Identificar el problema concreto que se está resolviendo y si justifica una solución AI/ML.

Normas

Seguir las normas y mejores prácticas del sector.

Validación

Evaluar el rendimiento del modelo y continuar el iterando sobre el diseño y el desarrollo para mejorar las métricas.

Supervisión

Realizar un seguimiento continuo para identificar errores y riesgos.

A medida que la empresa comienza a explorar casos de uso de IA generativa y cómo aplicar una IA responsable, estos son algunos riesgos clave que hay que tener en cuenta:

Contenido sesgado, ofensivo o engañoso

Al igual que la IA convencional, la IA generativa puede exhibir prejuicios hacia las personas, principalmente derivados del sesgo presente en sus datos. Sin embargo, el riesgo en este caso puede ser más pronunciado, ya que la IA generativa tiene la capacidad de generar, en su propio nombre, información incorrecta y contenido abusivo u ofensivo.

Nuevas cajas negras y más oscuras

La IA generativa suele operar mediante un "modelo base" desarrollado por un tercero especializado. Dado que la empresa no es propietaria de este modelo ni cuenta con acceso a su funcionamiento interno, puede resultar difícil comprender las razones detrás de un resultado específico. En algunos casos, algunas herramientas de IA generativa incluso pueden no revelar qué solución de terceros están utilizando.

Amenazas cibernéticas

La IA generativa, si bien puede ser una herramienta valiosa para crear contenido atractivo, también puede ser utilizada por actores malintencionados con propósitos similares. En este sentido, podría analizar el correo electrónico de los ejecutivos, sus publicaciones en redes sociales y sus apariciones en vídeo para imitar su estilo de escritura, forma de hablar y expresiones faciales. De esta manera, la IA generativa podría generar un correo electrónico o un vídeo que aparentemente provenga de la empresa, difundiendo información incorrecta o instando a las partes interesadas a compartir datos confidenciales.

Nuevas violaciones de la privacidad

La habilidad de la IA generativa para conectar datos dentro de sus amplios conjuntos (e incluso generar nuevos datos según sea necesario) podría comprometer los controles de privacidad establecidos. Al identificar relaciones entre puntos de datos aparentemente no relacionados, existe el riesgo de que la IA pueda revelar la identidad de las partes interesadas que han sido previamente anonimizadas, reconstruyendo así su información confidencial.

“Alucinaciones” que amenazan el desempeño

La IA generativa destaca en encontrar respuestas persuasivas para prácticamente cualquier pregunta que se le formule. Sin embargo, en ocasiones, sus respuestas pueden ser completamente incorrectas, presentándose con una aparente autoridad, un fenómeno que los científicos de datos denominan "alucinaciones". Estas se producen en parte porque los modelos suelen estar diseñados para generar contenido que parezca lógico, aunque no siempre sea preciso.

Modelos inseguros, basados ​​en el robo

Dada la cantidad de datos subyacentes a la IA generativa, puede resultar difícil conocer siempre su origen o determinar si se cuenta con el permiso adecuado para su uso. La IA generativa tiene la capacidad, por ejemplo, de replicar texto, imágenes o códigos de software con derechos de autor en el contenido que genera. Esto podría interpretarse como un acto de infracción de propiedad intelectual, con consecuencias que van desde multas y demandas hasta un perjuicio para la reputación de la marca.

Compartir sin darse cuenta su propiedad intelectual

Sin precaución, es posible encontrar que los datos y conocimientos patentados facilitan a los competidores la generación de contenido. La información que se introduzca en un modelo de IA generativa podría filtrarse hacia una base de datos compartida de manera extensa.

¿Cómo empezar a utilizar la IA generativa de forma responsable?

Si una empresa ya cuenta con un sólido programa de IA responsable, es probable que los esfuerzos de gobernanza hayan identificado muchos de los desafíos emergentes relacionados con la IA generativa. No obstante, existen áreas cruciales que requieren especial atención y pasos clave que deben considerarse al implementar una IA responsable en un entorno tecnológico que evoluciona rápidamente.

Te puede interesar: Diez principios para una IA ética

Establecer las prioridades basadas en riesgos

La importancia de ciertos riesgos de la IA generativa varía entre las partes interesadas. Es fundamental ajustar o establecer marcos de priorización para que los equipos de gobierno, cumplimiento, riesgo, auditoría interna e inteligencia artificial concentren su atención de manera prioritaria en los riesgos más significativos.

Renovar las protecciones cibernéticas, de datos y de privacidad

Actualizar los protocolos de ciberseguridad, gobernanza de datos y privacidad es esencial para mitigar los riesgos asociados con la capacidad de la IA generativa de actores maliciosos para inferir datos privados, revelar identidades o llevar a cabo ataques cibernéticos.

Abordar el riesgo de opacidad

En algunos sistemas de IA generativa, la explicabilidad no está disponible como opción. Descifrar el "por qué" de un resultado específico puede resultar imposible. Por ende, es crucial identificar estos sistemas, evaluar las prácticas que pueden respaldar su equidad, precisión y cumplimiento, y proceder con cautela en situaciones donde la supervisión sea inviable o poco práctica.

Formar a las partes interesadas para un uso y supervisión responsables

Capacitar a los colaboradores que puedan necesitar utilizar IA generativa en los principios fundamentales de su funcionamiento, cuándo y cómo emplearla, y cuándo y cómo verificar o modificar los resultados. Proporcionar a los equipos legales y de cumplimiento habilidades y herramientas de software para identificar violaciones de propiedad intelectual y otros riesgos asociados.

Monitorear a terceros

Es importante estar al tanto de qué proveedores suministran contenido o servicios que hacen uso de IA generativa, comprender cómo manejan los riesgos asociados y evaluar su posible exposición.

Observar el panorama regulatorio

En todo el mundo, los formuladores de políticas están emitiendo directrices con mayor frecuencia sobre el desarrollo y el uso de la IA. Aunque esta guía sigue siendo un mosaico y no un marco regulatorio integral, constantemente se están introduciendo nuevas normativas, particularmente en lo que respecta al impacto de la IA en la privacidad, el sesgo de la IA y los principios de gobernanza para la IA.

Implementar una supervisión automatizada

Con la creciente prevalencia del contenido generativo creado por IA, es esencial explorar las herramientas de software emergentes para identificar dicho contenido, verificar sus resultados, evaluar posibles sesgos o violaciones de privacidad, y añadir citas o advertencias según sea necesario.

Confianza en el diseño desde el principio

Si hay una regla de oro para la IA responsable, y la tecnología confiable en general, es la siguiente: es preferible incorporar la confianza y la ética por diseño desde el principio en lugar de apresurarse a cerrar brechas una vez que los sistemas están en funcionamiento. Por esta razón, independientemente del nivel de madurez de la empresa en relación con la IA, incluida la IA generativa, se aconseja priorizar la implementación de prácticas de IA responsable tan pronto como sea posible y tenerlas presentes en cada fase del proceso.

Este artículo está basado en el artículo “ What is responsible AI and how can it help harness trusted generative AI?” de PwC US. Esta versión es organizada y revisada por PwC Colombia.

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}
Síguenos PwC Colombia