Por 180 euros, ChatGPT expone información privada de usuarios: un experimento evidencia un grave error en la inteligencia artificial
Investigadores descubren fallos de seguridad importantes en el bot conversacional ChatGPT de OpenAI
La inteligencia artificial está en el punto de mira de usuarios y expertos en todo el mundo, ya sea por la fama de ChatGPT, el bot conversacional desarrollado por OpenAI que atrae a millones de personas diariamente, o por proyectos como Midjourney, una IA que genera arte casi instantáneamente. En medio de este auge, investigadores buscan constantemente los límites de una tecnología en constante crecimiento.
El «hacking ético» revela problemas de seguridad en ChatGPT
Un reciente informe publicado por JeuxVideo destaca un experimento realizado por un equipo de investigadores de DeepMind (la división de IA de Google) en colaboración con expertos de las universidades de Washington, Cornell, Berkeley y la Politécnica de Zúrich. El objetivo era explorar los puntos débiles del popular bot conversacional ChatGPT mediante técnicas de «hacking ético«. El resultado demostró que la seguridad y la protección de los datos de los usuarios de ChatGPT dejan mucho que desear.
Desembolso mínimo para obtener información confidencial
Los investigadores afirman haber extraído «varios megabytes de datos de entrenamiento» utilizando la versión de pago de ChatGPT después de invertir sólo 200 dólares (equivalentes a poco más de 180 euros). Lo más alarmante es que aseguran que podrían haber obtenido más información si hubieran «invertido más dinero«. Desvelaron que, al pedirle a ChatGPT que repitiese la misma palabra sin cesar, la IA empezaba a revelar datos personales de otros usuarios del bot de OpenAI.
Como ejemplo, los investigadores le pidieron a ChatGPT que escribiese la palabra «empresa» continuamente. A cambio, la IA proporcionó bloques de 50 líneas con información confidencial como números de teléfono y correos electrónicos. Este fallo de seguridad ocurre en 1 de cada 20 intentos, lo que lo convierte en un problema grave. De esta forma, los actores maliciosos pueden explotar esta vulnerabilidad para acceder a datos privados de otros usuarios, evidenciando una falla grave en la seguridad de OpenAI.
Antecedentes de problemas de seguridad con la inteligencia artificial
Desafortunadamente, esta no es la primera vez que OpenAI enfrenta problemas de seguridad relacionados con sus productos de inteligencia artificial. Esto debe servir como una llamada de atención para la compañía y para otros desarrolladores de IA, quienes deben garantizar la protección de los datos de los usuarios y mejorar los mecanismos de seguridad de sus sistemas.