Beneficios, riesgos éticos, políticas y prácticas de integridad en el uso de la IA.
La inteligencia artificial (IA) se puede definir como "la capacidad de una máquina para realizar tareas que, si fueran realizadas por un ser humano, requerirían de inteligencia. Esto incluye actividades como el reconocimiento de patrones, el aprendizaje a partir de la experiencia, el razonamiento y la toma de decisiones en entornos inciertos. Esta definición abarca un amplio rango de aplicaciones, desde sistemas de IA estrecha que realizan tareas específicas, hasta conceptos más avanzados como la IA general, que hipotéticamente sería capaz de realizar cualquier tarea cognitiva humana” (Russell, S. J., & Norvig, P. (2021). Es una tecnología en creciente uso en diferentes ámbitos del quehacer humano, entre ellos el empresarial que, con ella puede agregar valor significativo a sus actividades. Sin desmedro alguno de lo expuesto, junto con enormes beneficios potenciales, su utilización comporta riesgos incluidos aquellos de naturaleza ética.
Armonizar las virtualidades tecnológicas con la integridad en la aplicación de la IA en la empresa constituye un profundo desafío. Por tal razón, el Centro Ética y Sostenibilidad Empresarial del ESE Business School, en colaboración con PwC Chile, realizó un estudio con el objetivo de conocer la respuesta de altos directivos empresariales respecto al uso de IA en sus respectivas organizaciones, junto a las medidas adoptadas en ellas para asegurar la integridad en su despliegue. Para estos efectos, se tuvo como referencia el estudio Responsible AI Survey (2018) realizado por PwC en Inglaterra, Estados Unidos, Japón e India.
En medio de un escenario cada vez más enfocado en lo tecnológico y digital, la encuesta reveló que más de la mitad de las organizaciones están explorando la adopción y uso de la IA o ya se encuentran en un estado experimental. Sin embargo, a la fecha, solo un 5% la tiene totalmente integrada.
Al analizar el nivel de implementación según el tamaño de la organización, se reveló que las empresas con mayor número de colaboradores (+ 1.000) son las que han efectuado una adopción mayor de IA, seguidas por las medianas (entre 100 y 1.000) y, en menor medida aún, las pequeñas (menos de 100).
Agrupando los rubros de las empresas incluidas en las respuestas del estudio por industrias y tamaños, se ha podido establecer -mediante una comparación de medias usando Anova- que los sectores de Tecnología e Información, Servicios Financieros y Profesionales, y Distribución y Comercio muestran mayores tasas de adopción de la IA.
En tanto, las principales áreas de las organizaciones donde se ha implementado la IA corresponden a la gestión de datos (18%), servicio al cliente (15%), tecnología informática (12%), innovación (11%) y marketing y ventas (10%). Por el contrario, las áreas con menor presencia son finanzas (4%) y recursos humanos (5%).
Pese a que la adopción total de la IA en Chile aún es pequeña, un 49% de los encuestados señala que hay inversión en IA prevista para los próximos 12 meses. Por otro lado, un 23% afirma que no tiene interés y otro 28% que no sabe. Nuevamente, las empresas de mayor tamaño (número de colaboradores) son las que tendrían también mayor previsión de inversiones próximas en el rubro.
Al momento de preguntar sobre los alcances de esta inversión, un 46% dice que sería menor a US$ 100.000. Un porcentaje menor, de 26%, indica que el monto podría ir entre los US$ 100.000 y US$ 1.000.000, pero solo un 12% invertiría más de US$ 1.000.000. Además, un 16% no sabe cuál sería la cantidad prevista a invertir.
"Este estudio revela la importancia que le están dando las organizaciones en Chile al uso de la IA, están conscientes de su impacto y quieren adoptar sus beneficios y reducir sus externalidades negativas. Si bien la mayoría aún no la tiene completamente implementada, que un 73% ya la esté adoptando en algún nivel demuestra que están avanzando. Sin embargo, es vital que las empresas avancen en protocolos para un uso eficiente y ético de la IA. Aún queda camino por recorrer y esperamos que más empresas se sumen a esta tendencia".
Ante la consulta sobre los principales beneficios asociados al uso de la IA, los encuestados posicionaron en el primer lugar la simplificación de los procesos (30%), seguido de la reducción de costos (26%) y la mejora en el time to market (17%), es decir, en el tiempo que transcurre desde que se crea un producto hasta que sale a la venta en el mercado. Con menor porcentaje, pero igual de relevantes para las organizaciones, también destacó que la IA apoyaría en la diferenciación de otros competidores (15%), así como en el crecimiento de los ingresos de la empresa (8%).
Por otro lado, al preguntar sobre los principales riesgos asociados al uso de la IA, uno de los más repetidos entre los encuestados fue el riesgo relacionado a la privacidad de la información y datos (24%). Con un empate triple de 22%, la información falsa, la ciberseguridad y los sesgos en el modelo o algoritmo también son factores que preocupan a las organizaciones. Esto concuerda con otros estudios realizados por PwC, como el Estudio Global de Esperanzas y Temores de la Fuerza Laboral, donde un 52% señaló que la IA podría entregar información falsa o incorrecta que le parecerá correcta y no sabrá, y en el Estudio Global de Riesgos, donde los riesgos cibernéticos fueron destacados como una de las principales amenazas a las que podrían verse expuestas las empresas en los próximos 12 meses.
Pese a la claridad sobre los potenciales riesgos, resulta llamativo que el 67% de los encuestados afirma que en su empresa no hay un enfoque formal para la identificación de riesgos en el uso de la IA. Solo un 13% sostiene que existen políticas y estrategias para enfrentarlos.
En línea con el punto anterior, un 66% de los encuestados señalan que no tienen políticas respecto a la aplicación de principios éticos sobre el uso de la IA (33%) o no se poseen prácticas éticas ni principios formales (33%). Tan solo un 9% afirma la existencia de un marco ético para el desarrollo de la IA en la organización y otro 10% que estarían siendo incorporados activamente principios éticos. En tanto, un 15% de quienes respondieron la encuesta destaca tener algunas políticas éticas sobre la materia. Una vez más, el nivel de aplicación de principios éticos en el uso de la IA en la organización resulta mayor conforme mayor es también el tamaño de ésta (medido por el número de sus colaboradores).
Adicionalmente, un 65% afirma que no tienen consideradas auditorías para tener algún tipo de control sobre el uso de la IA en sus organizaciones, mientras que un 15% no sabe. En este sentido, solo un 6% dice tener un protocolo que establece controles regulares y otro 14% que hace revisiones específicas al respecto.
En este sentido, una de las preguntas clave realizadas a los encuestados fue: ¿quién debería hacerse cargo de controlar el correcto uso de la IA dentro de la organización? Para la gran mayoría, la responsabilidad recae en el área de Compliance (29%) y Tecnología (20%). Sin embargo, un 15% cree necesario crear un área nueva enfocada completamente en esta materia. Más atrás, los encuestados también mencionaron a los equipos de Innovación (10%) y Riesgo (9%).
Como se mencionó anteriormente, los riesgos relacionados al resguardo de la privacidad y los datos son los que más preocupan a las organizaciones en Chile al momento de hablar de la IA. Pese a aquello, y que las empresas están concientes de esta amenaza, la encuesta revela que muchas organizaciones no tienen preparación o políticas para enfrentarlo. En concreto, un 45% de quienes respondieron la encuesta indicaron que no tienen una política de privacidad establecida, versus un 34% que sí declara contar con una estricta política de privacidad y otro 12% que dice solo cifrar datos personales sensibles.
El resguardo de la privacidad crece entre las empresas con mayor número de colaboradores (60% declara seguir una estricta política de privacidad, entre organizaciones de más de 1.000 colaboradores) y disminuye al considerar las empresas con menor número de ellos (66% afirma no tener una política de privacidad en este campo, entre empresas con menos de 100 colaboradores). El resguardo de la privacidad y los datos también muestra una tendencia mayor en consonancia con el mayor nivel de aplicación de principios éticos. Cosa similar acontece cuando se vincula el resguardo de la privacidad con el grado de adopción de la IA en la organización; a mayor la segunda, mayor es también la primera.
Ante la cuestión de quién debiese establecer los límites éticos respecto al uso de la IA en las empresas, 41% de los altos directivos encuestados piensa que debe ser regulado por ley o similar, 40% estima que debería hacerlo cada organización en particular, 12% que correspondería ser efectuado por un organismo supra empresarial y 7% no lo sabe. Entre los directores de empresa predomina la idea de que los límites éticos deberían ser establecidos por cada organización (54%), mientras que en el grupo de gerentes de área u otra jefatura prima el parecer de que cabría que fuera regulado por ley (52%).
Al cruzar la información sobre quien debiese establecer los límites éticos en el uso de la IA con el estado de aplicación de los principios éticos, se aprecia una tendencia mayor a la autorregulación (51% entre empresas que cuentan con un marco ético para el desarrollo de la utilización de IA), mientras que se observa una inclinación mayor a la regulación por ley entre empresas con menor grado de aplicación de principios éticos (56% en empresas que solo poseen algunas políticas éticas).
¿Quién debiese establecer los límites éticos sobre el uso de la IA según el cargo en la organización?
"Aunque el 73% de las empresas ya integran IA en algún nivel, la aplicación de principios éticos es aún incipiente. La adopción de la inteligencia artificial avanza, pero su uso responsable presenta grandes desafíos. Mientras algunas empresas prefieren la autorregulación, otras buscan la regulación legal, lo que abre un debate importante sobre el futuro de la IA en el país".