_
_
_
_
_
Análisis
Exposición didáctica de ideas, conjeturas o hipótesis, a partir de unos hechos de actualidad comprobados —no necesariamente del día— que se reflejan en el propio texto. Excluye los juicios de valor y se aproxima más al género de opinión, pero se diferencia de él en que no juzga ni pronostica, sino que sólo formula hipótesis, ofrece explicaciones argumentadas y pone en relación datos dispersos

¿Estará libre la inteligencia artificial de los comportamientos en manada?

Si los modelos de IA aplicados a la Bolsa buscan el mismo resultado partiendo de datos similares, todos ‘pensarán’ más o menos lo mismo

El fundador de OpenAI, Sam Altman
El fundador de OpenAI, Sam AltmanNathan Howard (Getty Images)
Nuño Rodrigo Palacios

En torno a dos tercios del volumen de las grandes Bolsas (donde hay liquidez: Europa, Asia y Norteamérica) responde a órdenes emitidas por máquinas. La operativa algorítmica y/o de alta frecuencia llegó al mercado hace más de una década, bajo la máxima del beauty contest que definió Keynes: en la Bolsa no gana dinero quien anticipe el futuro o quien tenga los mejores argumentos (sea lo que sea eso en estos tiempos líquidos) sino quien sepa anticiparse a los movimientos de otros operadores. Que el marco temporal de esa anticipación sea de unas minúsculas fracciones de segundo (y por tanto las variaciones de precio se midan en ticks) no altera la lógica. Solo es cuestión de operar con mucho dinero y con mucha velocidad (mucha velocidad implica que los retrasos se miden en milisegundos). Una tarea que, lógicamente, la realizan.

Aunque la fiebre por la inteligencia artificial se ha mitigado después del verano, los desarrolladores no han puesto el freno. Muchos de ellos alertan de apocalípticos riesgos a largo plazo, tipo el fin del mundo, como si las herramientas de IA no generaran riesgos actuales: deepfakes (políticos o sexuales), privacidad, propiedad intelectual o sesgos. Y como si iniciar una carrera comercial con sus prototipos fuera o bien una fatalidad o bien una obligación moral (y no una forma de disparar la valoración en pocos meses). Al final, el contadísimo puñado de empresas que controlan el mercado no aspiran a nada más que a ganar dinero. Y un sitio donde se puede ganar mucho dinero es el mercado de valores.

Es lógico, así, que este contexto preocupe al presidente de la SEC, supervisor de los mercados de Estados Unidos, Gary Gensler. Esta semana ha apuntado a Financial Times que, si los reguladores no toman medidas, en la próxima década la IA podrá desatar una crisis financiera. “Es una cuestión difícil de abordar porque la mayor parte de nuestra regulación se refiere a instituciones individuales, bancos individuales, fondos individuales, brókeres individuales…. Y se trata de un [asunto] clave porque muchas instituciones pueden estar confiando en el mismo modelo de agregador de datos”.

No es, para él, un asunto nuevo. En un paper publicado en 2020, cuando trabajaba en el MIT (firmado junto con una experta en computación), Gensler plantea que “si bien el aprendizaje profundo se encuentra aún en una fase temprana de adopción en gran parte del sector financiero, nuestro análisis se centra en cómo sus características clave pueden aumentar el riesgo sistémico a medida que la tecnología avanza hacia una fase más madura de adopción. […] La historia y la economía han demostrado que tras las primeras fases de diversidad competitiva, las finanzas suelen retroceder hacia una mayor uniformidad tecnológica con actores concentrados y sistemas interconectados”.

La uniformidad tecnológica a la que alude Gensler no es una construcción teórica. Como recuerda en el propio paper, el detonante de la crisis subprime fue la adopción por parte de las firmas de calificación financiera de unos modelos de valoración de riesgos hipotecarios que, a la postre, se demostraron fallidos, pero fueron el estándar bajo el que creció de forma exponencial la industria de la titulización, abonando el terreno a la crisis. El crac de 1987 tuvo sus causas profundas en la sobrevaloración de las acciones (en particular respecto a los bonos), pero fueron los sistemas de control de riesgo de las carteras los que exacerbaron la caída (un 20% en un día): las órdenes de venta automáticas estaban programadas para limitar las pérdidas de una cartera, pero al usarse de forma generalizada, las ventas masivas provocaron más caídas y, por tanto, más órdenes de venta. Y en los últimos años se han sucedido algunos episodios llamaos flash crash ligados a las operaciones de alta frecuencia, cuyos efectos no son tan espectaculares a causa de su particular horizonte temporal.

“Si los operadores basados en el aprendizaje automático obtienen mejores resultados que los demás, en el futuro muchos más operadores podrían adoptar estas estrategias”, explica en un informe el FSB o Consejo de Estabilidad Financiera (organismo dependiente del G20). “Al igual que ocurre con cualquier comportamiento gregario en el mercado, esto tiene el potencial de amplificar las perturbaciones financieras”. El FSB, con todo, identifica también ventajas para el sector, en particular a la hora de la prevención del fraude, supervisión, gestión de riesgos y de carteras.

El exgobernador del Banco de Inglaterra Mark Carney también ha destacado cómo “los algoritmos de robo-advisory pueden provocar un exceso de volatilidad o aumentar la prociclicidad como resultado del comportamiento en manada, en particular si los algoritmos subyacentes son excesivamente sensibles a las oscilaciones de los precios o están muy correlacionados entre sí”.

No es el único factor sobre la mesa: los modelos de aprendizaje profundo sobre los que se basa, por ejemplo, ChatGPT son una caja negra; no sabemos cómo llega a sus conclusiones. Los desarrolladores establecen los parámetros de entrada y de salida con los que entrenar el modelo, pero estos datos pueden estar sesgados o no tener el horizonte temporal suficiente como para que el sistema entienda ciertos riesgos. Y también en este sentido, la necesidad de grandes cantidades de datos llevará también a una cierta uniformidad, pues no hay tantas fuentes de las que alimentar a la bestia. En otras palabras, si los modelos de IA usan las mismas series de datos para buscar los mismos objetivos, es probable que todos hagan lo mismo, y eso en el mercado no suele acabar bien.

Es imposible saber si finalmente estos riegos cristalizarán, o cuándo. De momento, los científicos expertos en inteligencia artificial insisten en que, si bien deslumbran por su capacidad de amasar información y escribirla de un modo muy similar al humano, los modelos actuales de IA son relativamente tontos. Pero la experiencia reciente en los mercados sugiere que, si hay que elegir entre prudencia o dinero fácil, manda este último. El éxito de estas aplicaciones puede sembrar la semilla de turbulencias futuras, algo que, por otra parte, también sucede cuando a los mandos no hay una máquina sino un humano.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Newsletters

Inscríbete para recibir la información económica exclusiva y las noticias financieras más relevantes para ti
¡Apúntate!

Regístrate gratis para seguir leyendo en Cinco Días

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte

Gracias por leer Cinco Días

_

Sobre la firma

Nuño Rodrigo Palacios
(Barcelona, 1975) es subdirector de Cinco Días. Licenciado en Economía por la UAM, inició su carrera en CincoDías en 1998, especializándose en información financiera. Ha sido responsable de Mercados, de la edición Fin de semana y de la sección Cinco Sentidos. Redactor jefe a partir de 2007, de 2011 a 2021 se ocupó de la edición digital.

Más información

Archivado En

_
_