Inteligencia artificial generativa:

cómo potenciar las oportunidades

de manera responsable




Para las empresas y las organizaciones de todo tipo, la inteligencia artificial (IA) generativa presenta innumerables oportunidades para generar valor a escala, impulsar la productividad y, con el paso del tiempo, transformar funciones, modelos de negocio e industrias. Pero para llevar adelante una gestión efectiva, construir confianza y entregar resultados sostenibles hace falta una IA responsable.

¿Qué es la IA generativa?

La IA generativa es un tipo de inteligencia artificial que nos permite crear, mejorar, sintetizar y analizar datos no estructurados, como textos, código, voz, imágenes o videos. Ejemplo: ChatGPT. Para las organizaciones, los casos de uso son múltiples ya que este tipo de datos son los que conforman la mayor parte de la información relevante. Pero como con cualquier tecnología emergente también hay nuevos riesgos potenciales.

Algunos de estos riesgos pueden provenir del uso que la organización le da a la tecnología, y otros de parte de actores maliciosos. Para administrar ambos tipos de riesgos y aprovechar al máximo las oportunidades que presenta la IA generativa se necesita una IA responsable. Esta se refiere a una metodología diseñada para el uso ético y confiable de la inteligencia artificial. Siempre ha sido importante, pero ahora es fundamental en el surgimiento de la IA generativa.  

IA generativa: Qué puede y qué no puede hacer 

Mediante comandos en lenguaje sencillo, se puede ordenar a la IA generativa que cree códigos de software, análisis de datos, textos, videos, voces humanas y espacios en el metaverso, entre otros. Cada vez más personas, no sólo científicos de datos, usan la IA generativa para brindar valor a escala. Impulsa la productividad, apoya la toma de decisiones de las personas y reduce costos. Algunos casos de uso en la actualidad incluyen:

  • Mejorar la automatización y personalización del servicio al cliente.
  • Automatizar tareas de gran volumen, como procesamiento de reclamos o escritura de ciertos códigos de software.
  • Generar resúmenes de respaldo y análisis de información de documentos de negocios, reuniones y feedback de clientes.

La IA generativa está lejos de ser perfecta. Intenta predecir la respuesta adecuada a una indicación o solicitud, en función de sus algoritmos o conjuntos de datos. Sus resultados pueden ser muy útiles, pero es posible que sean similares a "un primer borrador". Es probable que deba verificar este borrador y analizar su calidad, para luego modificarlo según corresponda. A veces, la IA generativa también puede producir resultados irrelevantes, incorrectos, ofensivos o legalmente problemáticos — en parte, porque los usuarios no brindan las indicaciones correctas a los modelos de IA generativa y, por otro lado, debido a la naturaleza creativa de estos modelos. También están surgiendo nuevos riesgos cibernéticos, que incluyen la habilidad de actores maliciosos de usar estas tecnologías para generar datos falsos y facilitar otros ataques cibernéticos a escala. 

Cómo la IA responsable ayuda a mitigar los riesgos asociados a la IA generativa

La IA responsable puede gestionar riesgos y generar confianza en la IA generativa. Bien implementada, aborda los riesgos al nivel técnológico (fallas de rendimiento, seguridad y control) y a nivel empresarial (uso ético, transparencia de los moedlos, privacidad, propiedad intelectual y cumplimiento). No obstante, la IA responsable debe ser una parte fundamental de su estrategia de inteligencia artificial para ser eficaz.

Marco de inteligencia artificial responsable de PwC

cuadro cultura

IA generativa: cuáles son sus riesgos

  • Contenido sesgado, ofensivo o engañoso. Al igual que la IA convencional, la IA generativa puede mostrar prejuicios respecto de las personas, mayormente a raíz del sesgo en sus datos. En este caso, el riesgo puede ser más alto, dado que también puede generar información errónea y contenido ofensivo o abusivo en su nombre. 
  • Nuevas cajas negras más oscuras. En general, la IA generativa se ejecuta sobre un "modelo base" desarrollado por un tercero especializado. Al no ser propietario del modelo o inclusive no tener acceso a los detalles internos sobre cómo funciona el modelo, puede hasta resultar imposible entender por qué se produjo un resultado específico.
  • Amenazas cibernéticas. La IA generativa puede ayudar a que actores maliciosos produzcan contenido persuasivo. Por ejemplo, podría analizar los correos electrónicos, las publicaciones en redes sociales y las apariciones en video de sus ejecutivos para imitar su estilo de redacción, forma de expresión y gestos faciales. Por lo tanto, la IA generativa podría elaborar un correo electrónico o video con la apariencia de la empresa para divulgar información errónea o instar a sus ejecutivos a compartir información confidencial.
  • Violaciones de privacidad inéditas. La capacidad de la IA generativa para relacionar información en grandes conjuntos de datos (y generar nuevos datos según sea necesario) podría violar sus controles de privacidad. Al identificar relaciones entre puntos de datos aparentemente dispares, podría identificar individuos o entidades que usted haya anonimizado y disponibilizar su información confidencial.
  • “Alucinaciones” que representan una amenaza para el rendimiento. La IA generativa tiene la excelente capacidad de generar respuestas convincentes a casi todas las preguntas que se le formulen. No obstante, a veces, sus respuestas son absolutamente incorrectas aunque se presenten con autoridad — lo que los científicos de datos llaman "alucinaciones". Éstas ocurren en parte porque los modelos suelen diseñarse para generar contenido que parezca razonable, aunque no siempre sea correcto.
  • Modelos poco seguros, basados en robos. Al haber tantos datos detrás de la IA generativa, es posible que no siempre conozca su fuente — o si se cuenta con permiso para usarla. Por ejemplo, la IA generativa puede reproducir texto, imágenes o código de software sujetos a derecho de autor dentro del contenido que produce en su nombre. Esto podría considerarse robo de propiedad intelectual, lo cual podría derivar en multas, demandas y afectar la reputación de una marca.
  • Compartir involuntariamente su propiedad intelectual. Si no se tiene cuidado, los datos e información exclusiva de la organización podrían estar ayudando a competidores a generar contenido: la información que se ingresa en un modelo de IA generativa podría ser parte de una base de datos de uso público o semipúblico y divulgarse ampliamente.

¿Cómo hacer un uso responsable de la IA generativa?

Si actualmente tu organización cuenta con un programa sólido de IA generativa, tus iniciativas de gobierno corporativo posiblemente ya hayan identificado varios de los nuevos desafíos de esta nueva tecnología. De todos modos, existen áreas y pasos clave por considerar a la hora de aplicar IA responsable en un entorno tecnológico que evoluciona rápidamente.

  • Establecer las prioridades en función de los riesgos. Algunos riesgos de la IA generativa son más importantes para sus partes de interés que otros. Es necesario entonces establecer prioridades para que los equipos de gobierno corporativo, cumplimiento, riesgo, auditoría interna e inteligencia artificial enfoquen su atención en los riesgos más importantes.
  • Renovar las protecciones cibernéticas, de datos y privacidad. Actualizar los protocolos de ciberseguridad, gobierno de datos y privacidad ayuda a mitigar los riesgos de que la IA generativa de actores maliciosos interfiera en datos privados, descifre identidades o realice ataques cibernéticos.
  • Abordar el riesgo de opacidad. Con algunos sistemas de inteligencia artificial es imposible descifrar "por qué" se produjo cierto resultado. Es importante identificar estos sistemas, considerar qué prácticas pueden justificar su legitimidad, precisión y cumplimiento, y proceder con cautela cuando es imposible controlarlo.
  • Preparar a las partes de interés para su uso responsable y supervisión. Enseñarles a los empleados que deberán usar la IA generativa, los aspectos básicos de funcionamiento, cuándo y cómo usarla, cuándo y cómo verificar o modificar los resultados. Brindar a los equipos de cumplimiento y legales las habilidades y el software para identificar violaciones a la propiedad intelectual y otros riesgos relacionados.
  • Monitorear a terceros. Conocer a los proveedores que brindan contenido o servicios que usan IA generativa, cómo gestionan los riesgos relacionados y cuál podría ser su potencial exposición.
  • Observar el escenario regulatorio. Los generadores de políticas de todo el mundo están emitiendo cada vez más pautas sobre el desarrollo y el uso de la inteligencia artificial. Por ahora, estas pautas son piezas y no conforman un marco normativo completo, pero constantemente están surgiendo nuevas normas — en especial, respecto del impacto de la IA en la privacidad, el sesgo de la IA y cómo debería gobernarse la inteligencia artificial.
  • Agregar control automatizado. Dado que el contenido creado por la IA generativa es cada vez más común, se deben considerar las herramientas de software emergentes para identificar contenido generado por IA, verificar su contenido, determinar el sesgo o violaciones de privacidad y agregar comentarios (advertencias) según sea necesario.

Búsqueda sin resultados

Síguenos