¿Es posible la privacidad en la era de la IA?
Diciembre 19, 2023
Diciembre 19, 2023
Los directivos se encuentran en una verdadera encrucijada en relación con la IA generativa. Por un lado, reconocen su inmenso potencial transformador y de negocios; sin embargo, al mismo tiempo, están inmersos en el proceso de comprender todas las implicaciones desde la perspectiva de la privacidad y la confianza. La realidad es que la IA generativa está cambiando el mundo y planteando una serie de interrogantes cruciales vinculadas con la transparencia, la ética y la seguridad de los datos. Pero, ¿cuánto conocemos realmente acerca de su funcionamiento? ¿Y qué oportunidades se presentan para aquellas empresas que logren abordar estas cuestiones de manera adecuada?
Te puede interesar: Lo que debes saber sobre la protección de datos personales en Colombia
A continuación, recuperamos varios extractos del podcast de PwC, Take on Tomorrow, con Keith Enright, director de privacidad de Google, con más de 20 años de experiencia como alto ejecutivo en el ámbito de la privacidad y de la protección de datos.
Take on Tomorrow: Tú te dedicas a esto desde los años 90, y en este tiempo han cambiado muchas cosas respecto a la tecnología y la privacidad. Para empezar, me gustaría preguntarte si podrías explicar qué es la IA generativa para quienes no la entienden del todo.
Keith Enright: Claro. En términos generales, cuando pienso en la IA, tal y como la veo en mi trabajo, en Google, pienso en su relación con la protección de datos, y lo que veo es un conjunto de tecnologías que son capaces de amplificar el potencial creativo de los seres humanos.
Take on Tomorrow: ¿Cuál es tu opinión sobre la privacidad en relación con la IA generativa? Porque son dos conceptos muy amplios y, sin embargo, están estrechamente relacionados.
Keith Enright: Los datos desempeñan un papel crucial en prácticamente todas nuestras actividades diarias. Por lo tanto, es imperativo reflexionar cuidadosamente sobre cómo los gestionamos y procesamos, adoptando un enfoque responsable en todo momento.
Te puede interesar: Cultivar un enfoque ético para la próxima generación de IA
En el contexto actual, nos encontramos en un punto de inflexión notable, a pesar de que Google ha estado explorando la IA y el aprendizaje automático durante más de una década. El CEO de Google, Sundar Pichai, ha afirmado durante muchos años que la IA y el aprendizaje automático tendrán un impacto más profundo en la civilización humana que el descubrimiento de la electricidad o del fuego. Este pronunciamiento resalta claramente la importancia que atribuimos a estas tecnologías.
Cuando expresamos ideas como estas, estamos anticipándonos a lo que está por venir y, de hecho, estamos extendiendo una invitación a abordar estas cuestiones con los responsables políticos. Les estamos comunicando que estamos llevando a cabo acciones que consideramos importantes y significativas, y que estamos abiertos al diálogo. Además, nos esforzamos por asegurarnos de que nuestras acciones se desarrollen de manera responsable.
Como expertos en privacidad y protección de datos, como es mi caso, hemos dedicado más de 20 años a trabajar en la preservación de la privacidad de los usuarios. A lo largo de este tiempo, hemos extraído valiosas lecciones sobre cómo enfrentarnos a la rápida evolución de las tecnologías y cómo lograr que los reguladores y los responsables políticos se familiaricen con estas tecnologías en constante cambio. Todos estos desafíos y lecciones son extremadamente útiles para guiar el uso de la IA y el aprendizaje automático. Aunque estas tecnologías avanzan a un ritmo vertiginoso, creo que estamos tomando medidas proactivas. Los beneficios potenciales y las ventajas de abordar este tema de manera correcta son inmensos.
Take on Tomorrow: Si eres un usuario convencional, ¿cómo deberías abordar la idea de que tus datos, ya sea de una publicación en línea, una foto u otro tipo de información, se utilicen para desarrollar un modelo lingüístico a gran escala?
Keith Enright: Cada usuario es único, y creo que a menudo subestimamos el nivel de sofisticación que poseen. Como organizaciones, tenemos la responsabilidad de comunicar de la manera más clara posible cómo manejamos la información, cómo se utiliza para generar valor tanto para el usuario como en general. Además, es esencial establecer mecanismos de control eficaces que permitan a los usuarios interactuar con sus datos. Una metáfora que hemos empleado en Google con frecuencia es la comparación de estos controles con una habitación bien iluminada, es decir, proporcionar a los usuarios un sistema intuitivo y útil por defecto. Hemos invertido mucho tiempo en este aspecto y continuaremos haciéndolo en el futuro.
Take on Tomorrow: ¿Te refieres que el usuario siempre tenga que dar su consentimiento, que sepa exactamente en qué está haciendo clic, o este tipo de políticas?
Keith Enright: Sí, hablemos de esto. La responsabilidad de empresas como Google debe centrarse en dar la información correcta a cada usuario, en el momento oportuno para que tenga el control, y que los servicios ofrezcan el valor que se espera de ellos, de una manera con la que él esté cómodo. Y lograr eso es considerablemente más difícil que optar por un sistema completamente opt-in (requerir consentimiento previo). Esto se debe a que, en un escenario de opt-in total, se trasladaría toda la responsabilidad al usuario, quien presumiblemente tendría que leer miles de páginas de explicaciones técnicas sobre todos los procesos involucrados en la utilización de servicios técnicamente complejos. Esto obligaría a los usuarios a realizar acciones para las cuales no disponen del tiempo ni la disposición diaria.
Take on Tomorrow: Esto nos lleva a la pregunta sobre cómo Google ha desarrollado algunos de estos procesos y políticas en torno a la privacidad. Te incorporaste a Google justo cuando se estaba cerrando Google Buzz, una red social, que tenía un opt-in por defecto, y eso llevó a una pequeña disputa entre Google y la Federal Trade Commission de Estados Unidos porque parte de la información de los usuarios queda expuesta a los seguidores de los mismo. ¿Cuál fue el aprendizaje de Google Buzz?
Keith Enright: Hacía muchos años que no hablaba de Google Buzz. Te agradezco la pregunta, porque es muy buena. Como dices, lanzamos un producto de red social fallido. En parte la razón por la que fracasó fue porque Google todavía operaba en algunos aspectos como una startup. Antes de lanzar un producto al público, lo lanzábamos internamente a los Googlers. Ellos lo probaban, trataban de utilizarlo, lo incorporaban a su vida cotidiana y luego nos daban su opinión. Una de las lecciones aprendidas de Google Buzz fue que, aunque parezca obvio ahora, en aquel momento suponíamos y esperábamos que todos los usuarios del mundo, increíblemente diversos, curiosos y variados, se comportarían e interactuarían con un producto y tendrían expectativas similares a las de un ingeniero de Google sentado en Mountain View, California.
Resultó que esa percepción no era completamente precisa, en parte debido al enfoque emprendedor con el que los usuarios adoptaron el producto. Al poner a prueba el producto, identificaron cuestiones que no habían sido detectadas en nuestras evaluaciones internas. Actualmente, abordamos el análisis de los sistemas de privacidad con mucha más sofisticación, siguiendo el mismo enfoque que aplicamos a nuestros demás productos. Aunque tengamos ciertas ideas sobre cómo deberían operar, reconocemos la necesidad de comprometernos con los usuarios. Para lograrlo, es esencial colaborar estrechamente con reguladores y responsables políticos, adoptando un enfoque integral para abordar estos desafíos.
Take on Tomorrow: Supongamos que Google diseña y lanza un nuevo producto en 2023. ¿Qué lugar ocupa la protección de datos en el proceso de toma de decisiones? ¿Se incorpora desde el principio o sólo al final?
Keith Enright: Cada vez que un ingeniero o un jefe de producto de Google tiene una idea para lanzar un nuevo producto o una nueva función, debe tener en cuenta los elementos relacionados con la protección de los datos desde el inicio. Después pasa por una revisión detallada con expertos en la materia que corresponda. De este modo se considera la privacidad como un componente esencial de todo el ciclo de vida del producto.
Take on Tomorrow: Puede parecer una pregunta muy básica, pero ¿hay alguna diferencia entre la forma de pensar sobre la privacidad en general y la que se aplica a la IA generativa?
Keith Enright: No, no creo que abordemos la privacidad de manera diferente. Si buscamos establecer un diálogo efectivo sobre la privacidad, no acertaremos si no desarrollamos compromisos y acuerdos futuros sobre el uso de la IA y el aprendizaje automático. Dada la abrumadora magnitud de los beneficios y el impacto transformador que estas tecnologías tendrán en diversos aspectos de la vida, no podemos detener el progreso de esta tecnología. Será necesario abordar este avance con humildad, de manera similar a cómo lo hicimos en otras áreas en las que la privacidad entra en conflicto con otros valores fundamentales. Sin duda, la IA generará muchos debates en los próximos años.
Take on Tomorrow: Hablemos sobre regulación. ¿Es más desafiante ser una empresa multinacional en la actualidad, considerando que debes enfrentarte no solo al entorno normativo de Estados Unidos, sino también al europeo, que ha planteado interrogantes aún no abordados por otras regiones geográficas?
Keith Enright: Una de las características que, en mi opinión, hace que mi trabajo, así como el de muchos colegas en Google, sea sumamente desafiante y gratificante, es precisamente lo que acabas de describir. Cuando comencé a colaborar con los organismos reguladores de privacidad en todo el mundo, lo hice con cierta arrogancia, presumiendo que no comprendían adecuadamente nuestra tecnología ni los objetivos de nuestras políticas. Estaba completamente equivocado. Aprender humildad de los reguladores y responsables políticos en mis primeros años en la empresa fue una lección invaluable. Aunque esto pueda complicar las cosas y ralentizar el progreso, también es cierto que no estamos abordando los problemas de una empresa específica en Estados Unidos. En realidad, estamos trabajando para contribuir a la formación e impulso de políticas que proporcionarán beneficios y fomentarán el crecimiento económico, asegurando una sólida protección para los usuarios en cualquier parte del mundo cada vez que utilicen tecnología.
Take on Tomorrow: Lo que haces es verdaderamente complejo y se desarrolla a una velocidad sorprendente. ¿Cómo planificas situaciones impredecibles, sabiendo que ya están presentes y consciente de que tus productos posiblemente brindarán a los usuarios la oportunidad de interactuar con tecnologías que quizás no comprendan completamente?
Keith Enright: La IA tiene algo único y diferente. Fuimos una de las primeras empresas del mundo en articular públicamente nuestros principios sobre la IA. Y, es necesario crear estructuras de gobierno y controles internos. Las personas deben rendir cuentas, los procesos deben documentarse y aplicarse de forma coherente. Además, deben poder auditarse más adelante, de modo que si parece que algo no funciona como se esperaba, podamos averiguar por qué y reaccionar. También es posible que no seamos capaces de explicar todos los pormenores de la tecnología, pero podemos asegurarnos de que estamos construyendo las estructuras adecuadas. En este momento, no creo que haya una respuesta clara. Sin embargo, creo que cualquier avance tecnológico implica una cierta asunción racional de riesgos. Y la forma en que Google piensa sobre esto es: ¿qué sabemos? ¿qué no sabemos? ¿Cómo podemos proceder con audacia y responsabilidad?
Te puede interesar: Modelado de riesgo para la toma de decisiones
Take on Tomorrow: Por último, ¿qué te quita el sueño cuando piensas en la privacidad y la inteligencia artificial?
Keith Enright: Reflexiono diariamente sobre la intersección de la privacidad y la inteligencia artificial. Tengo la responsabilidad frente a nuestros miles de millones de clientes en todo el mundo de mantener una vigilancia constante al respecto. No obstante, los desafíos de privacidad que presenta la IA no me generan inquietudes profundas. En mi perspectiva, son manejables. Si bien la tecnología dará lugar a nuevos desafíos, es importante recordar que todas las tecnologías lo hacen.
En Google estaremos a la altura de las circunstancias para mitigar los riesgos. Me inquieta la tensión inherente al dilema de aprovechar los beneficios de estas tecnologías, como combatir el calentamiento global, mejorar la salud pública a nivel mundial o prolongar la vida humana. En otras palabras, llevar a cabo estas hazañas extraordinarias que tenemos ante nosotros, pero hacerlo de manera que asegure que no cometamos errores en el proceso que puedan generar regulaciones que frenen o interrumpan el avance tecnológico en sí. Es precisamente esto lo que me mantiene despierto en estos momentos.
Este artículo está basado en el artículo “¿Es posible la privacidad en la era de la IA?” de Ideas de PwC España. Esta versión es organizada y revisada por PwC Colombia.