_
_
_
_

OpenIA anuncia GPT-4o, un nuevo asistente de voz muy rápido y gratuito

Hablar con gran naturalidad es una de las virtudes que ofrece

Logo de ChatGPT fondo verde
Unsplash
Iván Martín Barbero

La firma OpenAI acaba de presentar GPT-4o (GPT-4 Omni). Si bien el modelo no es “más inteligente” que GPT-4, algunas características lo diferencian. Te contamos lo más importante que debes conocer de este desarrollo que es completamente gratuito.

Para empezar, ofrece la capacidad de procesar datos de texto, visual y auditivos simultáneamente, casi sin latencia entre preguntas y respuestas, y ofrecer una voz increíblemente parecida a la humana (lo que puede ser algo preocupante para alguno, y una bendición para otros).

OpenAI ha demostrado cómo funciona GPT-4o

En la demostración que se produjo en el día de ayer, la mayoría de las respuestas de Omni fueron rápidas, lo que hizo que la conversación fuera más fluida que una sesión típica con un chatbot de los que existen en la actualidad. Además, aceptó interrupciones por parte del usuario con bastante efectividad: si el presentador hablaba mientras el GPT-4o estaba respondiendo, este pausaba lo que estaba diciendo en lugar de terminar su respuesta.

OpenAI atribuye la baja latencia de su nuevo desarrollo a la capacidad del modelo para procesar las tres formas de entrada: texto, visual y sonido. Por ejemplo, mientras ChatGPT procesa entradas mixtas a través de una red de modelos separados, Omni trabaja con todo -correlacionándolo en una respuesta cohesiva sin esperar la salida de otro modelo-. Es importante indicar que este trabajo posee el “cerebro” de GPT-4, pero tiene modos adicionales de entrada que puede procesar (lo que según la CTO de OpenAI, Mira Murati, debería convertirse en la norma desde ahora en todo lo que tiene que ver con este tipo de desarrollos).

Una de las grandes sorpresas: la voz de GPT-4o

La voz (o voces) de Omni destacaron especialmente en la demostración. Cuando el presentador hablaba con el bot, este respondía con un lenguaje casual intercalado con pausas que sonaban naturales. Incluso se reía en algunos momentos, dándole una similitud al habla humana que hace dudar si no es una persona en el caso de no estar delante del equipo en el que se ejecuta GPT-4o.

Incluso, OpenAI hizo que GPT-4o hablara consigo mismo en dos teléfonos. Tener dos versiones del bot conversando entre sí rompió un poco esa ilusión de parecido humano, ya que en este caso se notaba que no eran humanos, pero el trabajo fue efectivo… sorprendentemente efectivo. Aunque las voces masculina y femenina aún sonaban naturales, la conversación se sintió menos orgánica y más mecánica.

OpenAI también anunció que está lanzando una aplicación de escritorio ChatGPT para macOS, con una versión para Windows que llegará un poco más tarde (pero este mismo año). Los usuarios de GPT de pago ya pueden acceder a la app -se ofrecerá una versión gratuita en una fecha que no se ha indicado-. La versión web de ChatGPT ya está ejecutando GPT-4o y se espera que el modelo también esté disponible con limitaciones para los usuarios gratuitos en breve, lo que siempre es algo muy llamativo a la vez que positivo.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
_