En colaboración conLa Ley

DeepSeek e inteligencia artificial: la tecnología más potente de la historia no tiene airbag

Los gigantes tecnológicos están liberando modelos de IA cada vez más potentes con una velocidad vertiginosa, pero en esta carrera por la supremacía tecnológica, ¿quién vela por la seguridad?

Tanaonte (Getty)

El mercado de la inteligencia artificial (IA) se está convirtiendo en una carrera donde la velocidad parece importar más que la seguridad. Como si hubiéramos decidido probar coches de Fórmula 1 en carreteras públicas, sin barreras de protección ni sistemas de seguridad probados. La analogía no es casual: estamos desplegando tecnologías cada vez más potentes directamente en manos de usuarios y empresas, sin las salvaguardas necesarias.

Los gigantes tecnológicos, en su frenética competencia por dominar el mercado, están liberando modelos de IA cada vez más potentes con una velocidad vertiginosa. Si ya era difícil de seguir el ritmo de innovación de OpenAI, hoy ya hablamos de modelos como Claude 3.5 o DeepSeek que superan ampliamente esas capacidades. Pero en esta carrera por la supremacía tecnológica, ¿quién vela por la seguridad?

El problema no es solo la velocidad del despliegue, sino el alcance de estas tecnologías. Los modelos de IA actuales tienen acceso a cantidades masivas de datos, incluyendo información sensible sobre técnicas de hacking, vulnerabilidades de sistemas y métodos de ingeniería social. Es como si hubiéramos dado acceso a un manual completo de cerrajería a alguien sin comprobar sus intenciones.

Las empresas argumentan que sus modelos tienen salvaguardas éticas, pero la realidad es que estas protecciones son más cosméticas que efectivas. Ya hemos visto cómo usuarios con conocimientos básicos pueden sortear estas limitaciones y usar los modelos para generar código malicioso o planear ataques informáticos. La situación recuerda peligrosamente a los primeros días de las redes sociales, cuando se minimizaron los riesgos de desinformación y manipulación que hoy son evidentes.

El problema se agrava cuando consideramos la entrada de nuevos actores como DeepSeek, que operan bajo marcos regulatorios más laxos. Si ya es complicado garantizar la seguridad con empresas occidentales sujetas a estrictas regulaciones, ¿qué podemos esperar de compañías que operan bajo estándares diferentes?

Las consecuencias de esta carrera descontrolada ya están emergiendo. Los ataques de ingeniería social potenciados por IA se han multiplicado. Los deepfakes son cada vez más convincentes. Y lo más preocupante: estamos creando una dependencia tecnológica de sistemas que no entendemos completamente y cuyas vulnerabilidades desconocemos.

La analogía con la industria automovilística es reveladora. No permitimos que un coche salga al mercado sin exhaustivas pruebas de seguridad, airbags y sistemas de frenado probados. Sin embargo, estamos permitiendo que sistemas de IA con capacidades potencialmente peligrosas se desplieguen con mínimas comprobaciones de seguridad.

Es cierto que Europa paga un precio por su vocación reguladora. Mientras Silicon Valley y China avanzan a toda velocidad, la UE parece ir con el freno de mano puesto por su AI Act y otras regulaciones. Pero este aparente lastre podría ser (paradójicamente) nuestra mayor fortaleza. Europa está emergiendo como el regulador global de facto en tecnología, igual que lo hizo con el Reglamento General de Protección de Datos de la Unión Europea (GDPR). Cuando Bruselas levanta la mano señalando riesgos, el mundo tecnológico escucha. No es casualidad que incluso los gigantes americanos estén dispuestos a adoptar los estándares europeos: saben que la seguridad y la confianza serán la próxima frontera competitiva. En un mundo donde la IA es cada vez más poderosa, el papel de Europa como guardián ético y regulatorio no solo es necesario; es imprescindible.

Es hora de que reguladores y legisladores en todo el mundo actúen con la misma urgencia que la industria muestra en su desarrollo. Necesitamos un marco regulatorio que equilibre innovación y seguridad. No se trata de frenar el progreso, sino de asegurar que este progreso no viene a costa de nuestra seguridad.

Las empresas tecnológicas deben entender que la seguridad no es un obstáculo para la innovación, sino un requisito fundamental. Al igual que los fabricantes de automóviles acabaron entendiendo que la seguridad vende, la industria de la IA debe asumir que la protección del usuario no es negociable.

La pregunta no es si podemos desarrollar IA más potente, sino si podemos hacerlo de manera segura. Porque de nada sirve tener el coche más rápido si no podemos garantizar que no se estrellará en la primera curva.


Archivado En