La IA generativa empuja los límites de la IA

responsable

La Inteligencia Artificial (IA) está alcanzando niveles de democratización altos en corto tiempo. Herramientas generativas como ChatGPT y DALL-E de OpenAI, ponen el poder de la IA en manos de cualquier persona con acceso a internet.

En los primeros cinco días posteriores a su lanzamiento en noviembre de 2022, más de un millón de personas iniciaron sesión en la plataforma de ChatGPT para probar sus capacidades. Los usuarios están ansiosos por experimentar cómo estas herramientas pueden escribir código, elaborar ensayos, crear arte, diseñar planos, crear mundos virtuales o avatares en el metaverso, solucionar errores de producción, etc. 

Si bien los casos de uso positivo para la IA generativa son asombrosos, también existe la posibilidad de uso indebido. A medida que los usuarios comenzaron a explorar la nueva herramienta, por ejemplo, muchos descubrieron que podían usarla para generar malware o escribir correos electrónicos de phishing. Así, a medida que la IA generativa se vuelve cada vez más popular y de fácil acceso, las preguntas sobre quién es responsable de mitigar los riesgos asociados serán inevitables.

Resumen

• Espera propuestas regulatorias para abordar los riesgos y daños específicos del uso generalizado de modelos generativos de Inteligencia Artificial.

• Los desarrolladores y propietarios de plataformas pueden aplicar principios de Inteligencia Artificial Responsable, que ahora son ampliamente aceptados.

La perspectiva global en materia regulatoria

Más de 800 iniciativas de política pública alrededor de la IA se están adelantando en 69 países, pero la aplicación a modelos generativos de IA no está resuelta. El plan de la administración Biden para una Declaración de Derechos de IA, por ejemplo, puede ayudar a las organizaciones y a los desarrolladores a gestionar los riesgos que conlleva el uso de IA para los consumidores, pero no aborda aspectos particulares de las herramientas de IA generativa. La Unión Europea (UE) anunció su intención de regular los algoritmos generativos, específicamente en lo relacionado a los datos utilizados, para entrenarlos bajo la Ley de IA de la UE.

Las regulaciones para IA existentes y propuestas en la actualidad, cubren varios casos de uso específicos (privacidad de datos, discriminación, vigilancia), decisiones específicas (contratación, préstamo, contratación pública), y la mayoría se promulgan en respuesta a los efectos potencialmente dañinos de la IA para las personas y para la sociedad.

A medida que los usuarios continúen descubriendo nuevas aplicaciones para estas herramientas, es probable que surjan nuevos riesgos. Los riesgos asociados al uso de la IA generativa no tienen precedentes, van en aumento: falsificaciones sofisticadas (deep fakes), correos electrónicos de phishing e ingeniería social, código de malware y ransomware, plagio, infracción a los derechos de autor, contenido abusivo o dañino, desinformación y propaganda.

Incluso sin regulaciones que las guíen, algunas empresas están adoptando voluntariamente modelos de IA responsable, incluida OpenAI, el mayor desarrollador de IA generativa en la actualidad. Por ejemplo, cuando los usuarios informaron que ChatGPT estaba generando respuestas discriminatorias a las instrucciones, los desarrolladores deshabilitaron rápidamente las respuestas perjudiciales. OpenAI también emplea equipos dedicados a etiquetar contenido dañino para filtrar resultados similares en el futuro.

¿Qué pueden hacer los desarrolladores y creadores?

Una aproximación inicial es adoptar los principios y prácticas responsables de IA, que son ampliamente aceptados a nivel global. 

  • Los principales propietarios de plataformas Microsoft, Google y OpenAI han comunicado sus estrategias de IA responsable.

  • Google actualizó recientemente sus pautas de calificación de búsqueda de E-A-T (Experticia, Autoridad y Confiabilidad) a E-E-A-T, agregando experiencia a sus parámetros para evaluar si los sistemas de clasificación de búsqueda de la empresa brindan "información útil y relevante".

OpenAI, AWS, Microsoft, DeepMind y otros han dedicado tiempo y esfuerzo de investigación a las prácticas de desarrollo de modelos responsables y técnicas para evaluarlos.

De igual forma, priorizar respuestas ágiles a los eventos a medida que surjan. Por ejemplo, observemos el enfoque de OpenAI para los casos de uso de crowdsourcing para ChatGPT, a fin de deshabilitar las respuestas a indicaciones potencialmente dañinas, además de sus esfuerzos internos para bloquear respuestas dañinas por parte de sus soluciones de IA generativa.

Finalmente, educar a los usuarios sobre cómo utilizar algoritmos de IA generativa permite adoptar un enfoque proactivo frente al impacto de estas soluciones para las partes interesadas (stakeholders). Estas herramientas son útiles, pero están lejos de ser perfectas. Los usuarios individuales y comerciales deben tener acceso a toda la información relevante sobre cómo funcionan.

Este artículo está basado en el artículo "Generative AI tools push new boundaries for responsible AI” de PwC US.

Contáctenos

Búsqueda sin resultados

Contáctanos

Francisco A. Barrios G.

Francisco A. Barrios G.

Socio Líder Regional de Impuestos, Legal y BPO, PwC Interaméricas

Dora Orizábal

Dora Orizábal

Socia Líder Regional de Assurance, PwC Interaméricas

William Menjivar

William Menjivar

Socio de Auditoría y Líder Regional de Sostenibilidad y Cambio Climático, PwC Interaméricas

Síguenos