Inteligencia artificial: ¿dónde está actualmente el límite?

El potencial es enorme, pero aún hay dos barreras: la cantidad de datos y la capacidad de procesarlos en un plazo razonable

El trending topic del momento en tecnología es sin duda la inteligencia artificia (IA) generativa, y más concretamente el modelo lingüístico Chat-GPT, que ha creado OpenAI. Se trata de un chatbox o herramienta de texto que está basada en algoritmos que analizan y buscan patrones en una gran cantidad de datos, en este caso más de 10 trillones de palabras. Chat-GPT puede escribir como un humano y dar respuestas lógicas y convincentes ante cualquier pregunta, con la posibilidad además de generar y redactar textos sobre temas específicos de manera completamente autónoma, como si hubieran sido escritos por un experto.

La reacción generalizada por los usuarios que lo han probado es de asombro y de curiosidad por las posibles aplicaciones que esta tecnología podría tener. Algunas de las aplicaciones más relevantes y directas están siendo la generación y corrección autónoma de código de programación para el desarrollo de un software cada vez más sofisticado, generación de todo tipo de reportes o incluso ayudar a un alumno a realizar un trabajo académico sobre un tema específico. De hecho, es por este último que algunas universidades americanas lo están intentando prohibir dentro de sus campus.

Otra aplicación clave es la mejora en el funcionamiento y resultados que da un motor de búsqueda online. Tal es la mejora que Microsoft ha invertido recientemente más de 10.000 millones de dólares en OpenAI para poder competir de manera frontal con Google, a través de su motor de búsqueda Bing.

El filósofo Ludwig Wittgenstein decía, “los límites de mi lenguaje son los límites de mi mente”. Más allá de la pregunta ética y moral que supone el potencial de la inteligencia artificial, la pregunta es: ¿dónde está el límite técnico?

Algunas ramas de la IA utilizan modelos de deep learning con estructuras neuronales que intentan replicar a las del humano, aunque en realidad funcionan de manera distinta. La IA no es inteligente desde un punto de vista de entender realmente el problema que intenta resolver. Simplemente utiliza una fuerza computacional y algorítmica brutal, que analiza y parametriza enormes cantidades de datos, a las que asigna probabilidades para así crear y mostrar una respuesta o solución lo más convincente y potencialmente acertada posible, hasta el punto de que parece hecha por un humano.

Es por esto que actualmente existen dos límites técnicos: la cantidad de datos que utiliza el modelo para aprender y la capacidad de procesamiento para usar tal cantidad de datos en tiempos razonables.

La cantidad y calidad de datos está creciendo de manera exponencial y no muestra signos de desaceleración. En 2022 hemos creado 97.000 millones de terabytes y se espera que en 2025 esa cifra llegue a 181.000 millones, es decir, un crecimiento del 90%. Prácticamente todo lo que hacemos, como interactuamos, el resultado de lo que producimos, e incluso lo que hablamos, está sujeto a parametrización y procesamiento.

Por otro lado, tenemos el límite computacional. A pesar de tener ordenadores y algoritmos cada vez más rápidos y eficientes, hay limitaciones a través de la computación tradicional. La limitación principal es temporal. Es decir, cuánto tiempo va a tardar un sistema en darme la solución a un problema. Hoy en día sigue habiendo procesos que un ordenador que basa su procesamiento en ceros y unos, tal como el que creó originalmente Alan Turing en 1936, tardaría millones de años en resolver. Es en este simple concepto en el que se basa la encriptación actual. El ordenador más rápido de nuestra era tardaría miles de años en descifrarla.

A la hora de parametrizar, interpretar y tomar decisiones basadas en cuatrillones de datos, como hace la IA, necesitaríamos algo superior en cuanto a procesamiento, lo que actualmente es claramente un limitante.

Esta capacidad de procesamiento se determina principalmente a través de dos vías: la eficiencia de los algoritmos que procesa y el número de operaciones que el hardware es capaz de procesar por segundo. Los algoritmos son una serie de instrucciones creadas por un humano, y cada vez más por una máquina a través de la inteligencia artificial, que son traducidas en una secuencia de operaciones que el hardware ejecuta a una velocidad limitada por las leyes de la física.

Esto puede acabarse con revoluciones científicas tales como la computación cuántica. El principio fundamental es utilizar la física cuántica para el procesamiento de datos a través de componentes llamados qubits (el similar al bit en la computación tradicional), para conseguir eficiencias nunca vistas hasta la fecha. Estamos hablando de velocidades de procesamiento que son 158 millones de veces mayores a las del mayor súper ordenador con el que contamos en la actualidad. IBM, Google y NASA ya llevan años experimentando con esta tecnología, y se empiezan a ver los primeros resultados.

El potencial puede ser difícil de imaginar, y además aplicado a la inteligencia artificial podría crear un mundo de oportunidades no conocidas hasta la fecha. Además, podría tener implicaciones relevantes en el campo de la ciberseguridad, ya que este procesamiento podría romper una encriptación en cuestión de milisegundos.

La exposición a estas tecnologías puede ser atractiva para muchos inversores, sobre todo aquellos con visión largoplacista, a través de la inversión en venture capital. Dicho esto, es importante recordar la importancia de la diversificación en esta clase de activo, como la que ofrece un fondo de fondos, para captar el potencial disruptivo de estas tecnologías con un perfil de riesgo moderado.

Paco Navas es Director de Arcano Venture Capital

Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Archivado En