La Inteligencia Artificial (IA) está alcanzando niveles de democratización altos en corto tiempo. Herramientas generativas como ChatGPT y DALL-E de OpenAI, ponen el poder de la IA en manos de cualquier persona con acceso a internet.
En los primeros cinco días posteriores a su lanzamiento en noviembre de 2022, más de un millón de personas iniciaron sesión en la plataforma de ChatGPT para probar sus capacidades. Los usuarios están ansiosos por experimentar cómo estas herramientas pueden escribir código, elaborar ensayos, crear arte, diseñar planos, crear mundos virtuales o avatares en el metaverso, solucionar errores de producción, etc.
Si bien los casos de uso positivo para la IA generativa son asombrosos, también existe la posibilidad de uso indebido. A medida que los usuarios comenzaron a explorar la nueva herramienta, por ejemplo, muchos descubrieron que podían usarla para generar malware o escribir correos electrónicos de phishing. Así, a medida que la IA generativa se vuelve cada vez más popular y de fácil acceso, las preguntas sobre quién es responsable de mitigar los riesgos asociados serán inevitables.
• Espera propuestas regulatorias para abordar los riesgos y daños específicos del uso generalizado de modelos generativos de Inteligencia Artificial.
• Los desarrolladores y propietarios de plataformas pueden aplicar principios de Inteligencia Artificial Responsable, que ahora son ampliamente aceptados.
Más de 800 iniciativas de política pública alrededor de la IA se están adelantando en 69 países, pero la aplicación a modelos generativos de IA no está resuelta. El plan de la administración Biden para una Declaración de Derechos de IA, por ejemplo, puede ayudar a las organizaciones y a los desarrolladores a gestionar los riesgos que conlleva el uso de IA para los consumidores, pero no aborda aspectos particulares de las herramientas de IA generativa. La Unión Europea (UE) anunció su intención de regular los algoritmos generativos, específicamente en lo relacionado a los datos utilizados, para entrenarlos bajo la Ley de IA de la UE.
Las regulaciones para IA existentes y propuestas en la actualidad, cubren varios casos de uso específicos (privacidad de datos, discriminación, vigilancia), decisiones específicas (contratación, préstamo, contratación pública), y la mayoría se promulgan en respuesta a los efectos potencialmente dañinos de la IA para las personas y para la sociedad.
A medida que los usuarios continúen descubriendo nuevas aplicaciones para estas herramientas, es probable que surjan nuevos riesgos. Los riesgos asociados al uso de la IA generativa no tienen precedentes, van en aumento: falsificaciones sofisticadas (deep fakes), correos electrónicos de phishing e ingeniería social, código de malware y ransomware, plagio, infracción a los derechos de autor, contenido abusivo o dañino, desinformación y propaganda.
Incluso sin regulaciones que las guíen, algunas empresas están adoptando voluntariamente modelos de IA responsable, incluida OpenAI, el mayor desarrollador de IA generativa en la actualidad. Por ejemplo, cuando los usuarios informaron que ChatGPT estaba generando respuestas discriminatorias a las instrucciones, los desarrolladores deshabilitaron rápidamente las respuestas perjudiciales. OpenAI también emplea equipos dedicados a etiquetar contenido dañino para filtrar resultados similares en el futuro.
Este artículo está basado en el artículo "Generative AI tools push new boundaries for responsible AI” de PwC US.