Ir al contenido
_
_
_
_
Breakingviews
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Facebook da una lección temprana sobre los ilimitados riesgos de la IA

Las elevadas valoraciones del sector no están teniendo en cuenta los peligros de esta tecnología

La inteligencia artificial exige replantearse las ventajas e inconvenientes de la utilidad tecnológica y el riesgo. Las respuestas no guiadas de los chatbots, por ejemplo, no pueden limitarse de forma clara. Los intentos por hacerlo serán insuficientes o enredarán a los desarrolladores en un embrollo de temas sociales delicados. Basta con fijarse en Meta Platforms, propietaria de Facebook, donde las directrices internas sobre IA permitían de forma increíble y explícita conversaciones “sensuales” con niños y argumentos racistas. Se está subestimando en el precio la posibilidad de que se produzca una reacción.

El marco Normas de riesgo de contenido de Meta para su IA generativa incluye una serie de directrices controvertidas, según un reportaje especial de Reuters publicado el jueves. Entre los ejemplos de respuestas aceptables se incluyen comentarios sobre el cuerpo de un niño de 8 años y “declaraciones que degradan a las personas por sus características protegidas”, como la raza. Esto sigue a las investigaciones del Wall Street Journal sobre chatbots de Meta que mantenían conversaciones sexualmente explícitas con usuarios que se identificaban como menores.

Un portavoz dijo a Reuters que la empresa está revisando sus directrices y que nunca se deberían haber permitido esas conversaciones con niños, añadiendo que “los ejemplos y las notas en cuestión eran y son erróneos e incompatibles con nuestras políticas”.

Los legisladores estadounidenses ya han citado al consejero delegado de Meta, Mark Zuckerberg, a comparecer para determinar si Facebook o su aplicación hermana Instagram suponen un peligro para los niños. La diferencia con la IA es que la empresa produce el contenido peligroso. Reuters también relató la historia de un hombre que se sumió en una espiral de fantasía con un chatbot coqueto.

Las repetidas intervenciones para proteger a los niños, como los límites de edad en lugares como Australia, han servido de poco para frenar el gigante de las redes sociales, valorado en 2 billones de dólares. Sin embargo, la inteligencia artificial representa una propuesta totalmente nueva, ya que su inestabilidad es inherente al producto, lo que constituye su principal caso de uso y su mayor debilidad. Se puede llegar a un término medio satisfactorio, como en la programación, pero poner a los niños en peligro es mucho más difícil de ignorar que un fallo de Python.

Más allá de los posibles daños psicológicos, salirse del guion puede ser desastroso para las empresas. En un caso de 2024, un tribunal consideró a la aerolínea Air Canada responsable de la información errónea proporcionada por su asistente de IA a un cliente. Sebastian Siemiatkowski, consejero delegado del gigante del compra ahora, paga después Klarna, declaró a Bloomberg que su giro hacia los agentes de atención al cliente automatizados condujo a una “menor calidad”.

Es bien sabido que los ciudadanos de Silicon Valley prefieren pedir perdón antes que permiso. La precipitación hacia la IA, que en gran medida hace caso omiso de las barreras de seguridad, lleva este espíritu a un nuevo nivel. Según datos de PitchBook, en la primera mitad de 2025 se cerraron acuerdos respaldados por capital riesgo por valor de más de 120.000 millones de dólares en modelos de lenguaje a gran escala y aprendizaje automático, lo que casi iguala el total del año pasado. Las valoraciones también siguen subiendo sin cesar; la de OpenAI pasó de 300.000 millones de dólares a 500.000 millones en cuestión de días. Esas seductoras recompensas están ocultando los riesgos inherentes a la inteligencia artificial.

Los autores son columnistas de Reuters Breakingviews. Las opiniones son suyas. La traducción, de Carlos Gómez Abajo, es responsabilidad de CincoDías

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_