Regulación de Inteligencia Artificial en Europa al igual que con la Protección de Datos
Introducción
Chema Alonso, Chief Digital Officer (CDO) de Telefónica, advirtió a la audiencia sobre los riesgos asociados con el rápido avance de la inteligencia artificial (IA) generativa durante su intervención en Expansión IA, evento organizado por EXPANSIÓN. Destacó los posibles problemas relacionados con la veracidad de la información generada por IA y el uso malintencionado de imágenes o voces generadas a través de la tecnología, conocidas como «humanos digitales».
Inteligencia artificial generativa y sus límites
Alonso resaltó que los sistemas de LLM (Large Language Model) como Chat GPT están diseñados para conversar y no para proporcionar información verídica. Estos algoritmos aprenden a partir de una gran cantidad de datos pero carecen de explicabilidad, es decir, sus mecanismos de aprendizaje son desconocidos para nosotros. Además, suelen estar sesgados en aspectos como género y pueden, en algunos casos, generar información falsa.
El CDO de Telefónica también señaló que incluso gigantes tecnológicos como Google han experimentado dificultades con la incorporación de algoritmos de IA en sus servicios, lo que confirma que estos sistemas están hechos solo para conversar y no para brindar información precisa.
Seguridad de la información y regulación
El manejo de información sensible y la falta de herramientas para personalizar el acceso a ciertos datos plantean problemas de seguridad en relación a las aplicaciones de IA. Alonso sugiere que se necesitan regulaciones para proteger la información de los usuarios y limitar el potencial de abuso en áreas como la industria militar, la fabricación de juguetes y la conducción de vehículos autónomos.
Sugiere que regulaciones similares a las establecidas para proteger la información personal y enfrentar el cibercrimen pueden ser útiles en este contexto. Dichas medidas podrían incluir restricciones a la aplicación de IA en áreas peligrosas como el control de armas nucleares.
Humanos digitales y cibercrimen
Alonso advierte sobre los riesgos asociados con los «humanos digitales», imágenes y sonidos generados por IA que son prácticamente indistinguibles de personas reales. Estas creaciones se utilizan en diversos sectores, incluido el entretenimiento para adultos, y pueden ser utilizadas con fines maliciosos, como el chantaje o la estafa a través de clonación de voces.
Los sistemas de IA son capaces de recrear a una persona con gran precisión utilizando solo unas pocas fotos. Esta capacidad ha abierto nuevas oportunidades para el cibercrimen, con estafadores que se hacen pasar por personas reales utilizando imágenes y audio generados mediante IA.
Verificación y detección de humanos digitales
El equipo de Telefónica está trabajando en herramientas para identificar y diferenciar a los humanos digitales de los auténticos. Estas herramientas, como el DeepFake Detector, analizan características faciales y de comportamiento para determinar si una persona es real o un producto de IA. Este detector forma parte de un servicio llamado Verify, que está siendo distribuido entre cuerpos de seguridad del Estado y empresas interesadas en detectar contenidos falsificados en vídeo y audio.
Los estudios demuestran que los seres humanos tienen dificultades para distinguir entre personas reales y sintéticas, incluso después de recibir retroalimentación sobre sus elecciones. Curiosamente, en algunos casos, los humanos digitales generan más confianza que las personas reales, lo que plantea aún más preocupaciones en cuanto a la seguridad y veracidad de nuestras interacciones en línea.