{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
Es común encontrar sistemas de seguridad automotriz que utilizan inteligencia artificial (IA) en función de datos objetivos, como la distancia y la velocidad, para evitar accidentes. Pero la próxima generación de estas nuevas tecnologías podrían hacer uso de otro tipo de información como videos y audios para determinar si un automóvil necesita sustituir a un conductor somnoliento, o incluso a uno que está enviando mensajes de texto.
A medida que las computadoras intentan interpretar y predecir el comportamiento humano, es fundamental que las empresas imaginen, por un lado, el enorme potencial de estas tecnologías y por otro, los posibles efectos no deseados, derivados de su uso. Las empresas deben evaluar si cuentan con las medidas de protección adecuadas para garantizar la confianza.
Smart Eye es una empresa que trabaja para marcar el inicio de la próxima generación de tecnologías de IA. Para Rana el Kaliouby, Directora ejecutiva adjunta de Smart Eye y cofundadora de Affectiva, el impulso para hacer que la IA sea más inteligente social y emocionalmente surge del deseo de mejorar la comunicación en un mundo cada vez más digital. Gran parte de la comunicación humana es no verbal y y su interpretación es subjetiva.
Ahora que los sensores visuales y de audio son omnipresentes, la programación de máquinas para comprender gestos faciales sutiles o cambios tonales podría ser transformadora. A principios de este año, en el EmTech Exchange de PwC, Smart Eye demostró cómo se puede usar su software Emotion AI para medir las reacciones de las personas ante la publicidad, así como para ayudar a los sistemas de seguridad automotriz a detectar condiciones inseguras en función del lenguaje corporal y los sonidos que emite el conductor.
EmTech Exchange también presentó a Moxie, un robot compañero de Embodied, una empresa de robótica y de IA. El robot está diseñado para involucrar a los niños en una conversación para ayudar a promover las habilidades socioemocionales. Moxie, que presenta un rostro emotivo con ojos de estilo anime, fue diseñado para niños entre los 5 y los 10 años. Usando IA, Moxie invita a los niños a expresar sus sentimientos, representando un oyente que no juzga, mientras ofrece varios juegos y tareas que apuntan a mejorar el bienestar emocional y social de estos niños.
Moxie fue concebido para ayudar a cerrar la brecha en los servicios de salud mental pediátrica. El informe de tendencias de 2022 de la Asociación Estadounidense de Psicología declaró que la salud mental de los niños está en crisis y que los terapeutas son escasos. Citó datos de los Centros para el Control y la Prevención de Enfermedades que muestran que solo uno de cada cinco niños con un trastorno mental conocido recibió atención de un profesional, y eso fue antes de la pandemia.
Para Embodied (empresa de robótica e inteligencia artificial líder en la industria), fundada en 2016, el establecimiento de un marco ético de IA ha sido una prioridad máxima. También se generan conversaciones continuas al respecto, debido a que esta empresa fomenta el debate interno principalmente, para que todo el equipo pueda saber cómo actuar ante los diferentes escenarios posibles a medida que surgen. “Es un tema en evolución que requiere atención constante”, dice Paolo Pirjanian, Fundador y director ejecutivo de Embodied. Al considerar cómo generar confianza ante padres e hijos, Embodied se ha centrado en varias áreas clave: transparencia total de los datos, consentimiento, seguridad y privacidad del usuario, respeto por la cultura, los valores y las creencias del niño; y poder elegir si anonimizar o no los datos de cada cliente.
Embodied usa grabaciones anónimas para entrenar continuamente el algoritmo de Moxie, pero el sistema elimina la información de identificación personal, entonces, mientras Moxie conversa en tiempo real, aprende sobre el niño y adapta su comportamiento, los datos permanecen confidenciales. Si bien el robot puede ofrecer muchos servicios, no es un sustituto de un ser humano.
“Si señala un problema potencial, alentará al niño a hablar con un adulto de confianza”, dice Pirjanian.
No es sorprendente que los desafíos y las apuestas en torno a la IA ética sigan creciendo. Las capacidades de habla natural que utiliza Moxie y otros sistemas digitales pueden alcanzar el nivel humano dentro de una década.
Eso no está exento de riesgos: los sistemas como Moxie y Affectiva podrían usarse potencialmente para engañar o manipular a las personas. Además, este tipo de datos, si no están despojados de información de identificación personal, podrían ser utilizados por empresas o entidades gubernamentales para obtener información profunda y privada sobre las actitudes, la salud y el bienestar de una persona.
La capacidad de las máquinas para leer el lenguaje corporal, analizar palabras y responder adecuadamente, podría revolucionar la forma en que las empresas y los consumidores venden, compran e interactúan.
Una cosa es segura: las oportunidades y los desafíos probablemente seguirán creciendo. Es esencial establecer un marco para la IA ética antes de diseñar o construir cualquier producto o servicio. “Es fundamental actuar dentro de los límites de su competencia”, dice Pirjanian. Es más, es aconsejable explorar formas de abstraer las presiones financieras derivadas de los accionistas ansiosos por recibir altos rendimientos, señala. “Esto tiene que ser parte de la discusión y los términos por adelantado”.
El kit de herramientas de IA de PwC abarca seis áreas clave que se encuentran bajo los controles de regulación de políticas y datos. Estos son:
Sesgo y equidad Es vital verificar cada paso, desde los conjuntos de entrenamiento de datos hasta la forma en que se usa un sistema de IA, para ayudar a reducir el riesgo de posibles sesgos.
Interpretación de un sistema de IA. ¿Cómo se tomó cada decisión? Las organizaciones deben evitar un efecto de caja negra revisando cuidadosamente la forma en que se entrenaron los datos y validando los resultados.
Privacidad. El sistema de inteligencia artificial debe proteger los datos confidenciales, en particular a medida que cambian las expectativas de los consumidores e intervienen regulaciones de datos cada vez más estrictas.
Seguridad. Cualquier empresa que use IA debe sopesar los riesgos de seguridad y tener una comprensión clara de cómo bloquear datos altamente confidenciales.
Robustez. ¿Los datos de IA se comportan según lo previsto? Todos y cada uno de los sistemas de IA deben demostrar estabilidad y cumplir constantemente con los estándares de rendimiento críticos.
Seguridad. Una organización debe tomar las medidas necesarias para ayudar a disminuir el riesgo de un resultado negativo directo o indirecto.
Establecer un marco de IA requiere de discusiones internas abiertas, honestas y desafiantes que abarquen conceptos filosóficos y factores técnicos. Como resultado, es esencial establecer equipos multifuncionales (científicos de datos, analistas comerciales, abogados, defensores de la privacidad y especialistas en seguridad) para estudiar los riesgos implícitos al uso de IA y llegar a soluciones éticas. También puede requerir asesores externos o una junta de ética en la implementación de AI que sea independiente.
Aunque tecnologías como las pruebas de conocimiento cero y las técnicas de validación de software verificado también pueden ayudar a confirmar la transparencia y la veracidad de los algoritmos (estos sistemas validan su precisión sin revelar el algoritmo subyacente), permanecen en etapas incipientes. Al final, depende de los humanos confirmar que los sistemas de IA sean seguros, estén protegidos y sean justos. Al diseñar y construir una IA ética por adelantado, todos pueden salir adelante.