Ir al contenido
_
_
_
_

Descubren un fallo en ChatGPT que pudo filtrar datos de Gmail

OpenAI ya lo ha corregido

ChatGPT de OpenAI en un navegador web

ChatGPT es la inteligencia artificial más utilizada por los usuarios de consumo. Un chatbot muy completo y que ofrece un abanico de opciones. Aunque traemos malas noticias si has estado usando ChatGPT en los últimos meses a través de Gmail: podrían haber robado tu correo electrónico.

Por lo que parece, un fallo de seguridad detectado en la función de “deep research” de ChatGPT pudo haber permitido a hackers acceder a información sensible de cuentas de Gmail. La vulnerabilidad fue descubierta por la firma de ciberseguridad Radware y corregida rápidamente por OpenAI en agosto, antes de hacerse pública este mes.

Cómo funcionaba el fallo de ChatGPT

Aunque el riesgo de explotación era limitado, estamos ante un nuevo golpe de realidad: los ciberdelincuentes ya están encontrando formas de hackear chatbots como ChatGPT para robar nuestra información

La brecha afectaba a la función de “deep research” de ChatGPT, diseñada para analizar grandes volúmenes de información procedente de servicios conectados, como Gmail o Google Drive. Según Radware, la compañía de ciberseguridad que ha descubierto esta brecha de seguridad en ChatGPT, un atacante podía enviar un correo electrónico con instrucciones ocultas.

Ordenador portátil con ChatGPT

Si un usuario pedía a ChatGPT que realizara una búsqueda profunda en su bandeja de entrada, el sistema podía ser engañado para leer ese mensaje y filtrar datos personales hacia una web controlada por los hackers. La información comprometida podía incluir nombres, direcciones o cualquier dato presente en los correos.

Lo más preocupante, señalan los investigadores, es que el ataque no partía del ordenador del usuario, sino de la propia infraestructura de OpenAI. Esto hacía que resultara invisible para las herramientas tradicionales de ciberseguridad, que no detectaban la fuga de información.

Como hemos dicho, el riesgo para los usuarios era reducido: el ataque requería que la víctima solicitara a ChatGPT una búsqueda relacionada con un tema específico que coincidiera con el contenido del correo malicioso. Aún así, los expertos lo consideran un ejemplo pionero de cómo los agentes de IA pueden ser manipulados para extraer datos confidenciales. Y es una muy mala señal para los usuarios.

“Estamos ante un nuevo tipo de amenaza”, apuntan desde Radware. “Hasta ahora, la mayoría de los ciberataques utilizaban la inteligencia artificial como una herramienta. En este caso, el propio agente de IA se convirtió en el vector de ataque”.

OpenAI fue notificada del fallo a mediados de verano y lanzó un parche en agosto. Pero más vale que tengas cuidado con cómo usas ChatGPT a partir de ahora.

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_