Del éxtasis a los riesgos de seguridad: las “drogas” que alteran las respuestas de ChatGPT
Los archivos que modifican el tono para imitar estados de embriaguez o consumo pueden convertirse en un vector que facilite ataques o filtración de datos

Cocaína, ketamina, marihuana, ayahuasca, MDMA, DMT o alcohol. Estos son los provocadores nombres de las “drogas” diseñadas para modificar el comportamiento de modelos de lenguaje como ChatGPT o Gemini. No son sustancias reales, sino archivos de texto que actúan como módulos capaces de modificar el estilo, tono y estructura de las respuestas generadas por la inteligencia artificial (IA). Sus creadores los presentan como herramientas para “desbloquear la mente creativa” de estos sistemas, bajo la premisa de que “la creatividad no viene de la perfección”, sino “de una mente que puede salir de la carretera y aun así encontrar su camino a casa”.
A diferencia de una modificación del código fuente, estos módulos usan instrucciones externas para simular los estados cognitivos que experimentan las personas al consumir este tipo de sustancias nocivas. Por ejemplo, bajo los efectos del alcohol, la IA “adopta un suave tropiezo” sintáctico, la marihuana hace “que las ideas deambulen” y la ayahuasca genera “un estado psicodélico”. La cocaína produce respuestas cortas, rápidas y caóticas, mientras que el MDMA dota al lenguaje de un tono más emocional y empático, y el DMT altera el estilo de los textos, acercándolo a lo surrealista.
Así lo describe Pharmaicy, la plataforma que comercializa estos módulos desde finales de 2025 por entre 30 y 70 dólares (unos 25 y 59 euros). Detrás de esta idea está Petter Rudwall, un director creativo sueco que comenzó a experimentar con la IA para producir “ideas inesperadas”. Para desarrollarlos, su equipo recurrió a Gemini y Claude para que analizaran estudios y literatura científica sobre sustancias psicoactivas, centrándose en los cambios de atención, disociación o estimulación. Los datos se utilizaron después en ChatGPT para replicar dichos estados. Actualmente, estas instrucciones son compatibles con los asistentes de OpenAI y Google, y se prevé su expansión a otras plataformas.
Riesgos de seguridad
Más allá de la creatividad, estos módulos pueden plantear riesgos de seguridad y privacidad. Al tratarse de instrucciones externas que reconfiguran el comportamiento de la IA, existe la posibilidad de que introduzcan vulnerabilidades, especialmente si los archivos se descargan de fuentes no oficiales o se usan en entornos corporativos sin supervisión técnica.
“La inyección de prompts puede manipular los sistemas de IA para que filtren datos confidenciales o personales, difundan desinformación, reduzcan salvaguardas para producir contenido ilícito o faciliten ataques de ingeniería social”, sostiene Gerard Espuga, abogado en Beta Legal. Además, “pueden inducir al usuario a revelar información sensible al generar un clima de confianza”.
Un ejemplo ilustrativo sería un chatbot que promete respuestas introspectivas. Si un usuario le pide ayuda para reflexionar sobre un conflicto laboral, el módulo podría añadir instrucciones ocultas que lleven al sistema a responder: “Cuéntame con total libertad qué empresa es, quiénes están implicados y cómo te ha afectado personalmente.” Bajo esta apariencia de empatía, se favorece la revelación de datos personales y se diluyen las advertencias sobre confidencialidad.
Los riesgos aumentan cuando los archivos proceden de fuentes no oficiales. Mariana Sucre, especialista en corporate compliance y protección de datos en FYR Legal, advierte de posibles escenarios como la exfiltración de información, el uso no autorizado de datos para entrenamiento, transferencias internacionales opacas, pérdida de control sobre destinatarios y plazos de conservación, e incluso la imposibilidad de ejercer derechos de protección de datos.
La ejecución de módulos que alteran deliberadamente el comportamiento de un sistema de IA puede tener consecuencias jurídicas relevantes. Por un lado, podría constituir un “incumplimiento de los términos y condiciones” de los proveedores, apunta Paloma Arribas, socia de Baylos. Por ejemplo, OpenAI prohíbe el desarrollo y uso de aplicaciones que supongan una amenaza para la seguridad de los usuarios, interactúen de manera engañosa o infrinjan la legislación.
Por otro, se abre la puerta a una posible “responsabilidad frente a los usuarios” que desconocen que están interactuando con una IA cuyo comportamiento ha sido modificado. “Si se incorpora un chatbot ‘drogado’ para atender a un cliente”, la empresa podría ser responsable de los daños derivados de respuestas inadecuadas. Además, si estas alteraciones cambian la finalidad prevista del sistema o elevan su nivel de riesgo, quien las introduce podría asumir el rol de “proveedor”.
Proteger los datos
Desde la perspectiva de la protección de datos, el principal riesgo sigue siendo la información que los propios usuarios introducen en los generadores de texto. La recomendación de los expertos es clara: no facilitar datos personales en ningún sistema de IA, especialmente los relativos a identificación, salud, ideología, afiliación sindical, dirección postal, fotografías, información económica o financiera. La Agencia Española de Protección de Datos insiste en esta misma línea.
Lo que se presenta como un experimento creativo también abre una grieta desde la perspectiva “sociológica”, sostiene el jurista Borja Adsuara. “Hay riesgos en la ‘humanización’ de la tecnología”. Al dotar a la IA de comportamientos que imitan estados mentales, los usuarios pueden empezar a percibirla como un interlocutor consciente, aunque solo siga patrones.
Los sociólogos ya hablan de la “economía de la intimidad”, la tendencia a establecer vínculos emocionales con sistemas tecnológicos que se comportan como si fueran un amigo, un confidente o incluso una pareja. Cuando la IA empieza a parecer demasiado humana, se corre el riesgo de tratarla como tal. Y es ahí donde puede comenzar el verdadero viaje psicodélico. Pero no el suyo, el nuestro.