Qué son las alucinaciones de la IA y por qué no deberías hacer tus trabajos con ChatGPT

ChatGPTUnplash

Recuerdo con cariño cómo hacía mis trabajos de clase con la enciclopedia. Y cuando Encarta llegó a mi PC, me cambió la vida. A día de hoy estas enciclopedias ya están más que obsoletas, pero las nuevas generaciones cuentan con todo tipo de recursos para hacer sus trabajos. Y ChatGPT está más de moda que nunca, aunque no es precisamente la mejor opción.

Soy un férreo defensor de la IA, pero con un uso razonable. Por ejemplo, para hacer resúmenes es perfecto. Sin ir más lejos, el hijo de un compañero se está preparando para la selectividad y utiliza ChatGPT para que le haga resúmenes de los temas más importantes.

Pero otra cosa es utilizar ChatGPT, Gemini y otros chatbots para generar texto, ya sea para el trabajo o clase. ¿El motivo? La IA sufre alucinaciones y pueden jugarte una muy mala pasada.

Qué son las alucinaciones de la IA

Hace poco os hablamos de la polémica que ha generado la llegada de la función AI Overviews de Google. Hablamos de una herramienta potenciada por inteligencia artificial y que se añade a los resultados de su motor de búsqueda.

Pero claro, Gemini sufrió alucinaciones y empezó a recomendar cosas sin sentido, como correr con tijeras en las manos o poner pegamento a la pizza para que el queso no se caiga. Ver para creer.

Pero, ¿qué son las alucinaciones de la IA? Un verdadero quebradero de cabeza para los trabajadores detrás de proyectos como ChatGPT o Gemini. Hablamos de  situaciones en las que un modelo de inteligencia artificial generativo produce información que parece real, pero es inventada.

Se llaman alucinaciones porque la IA considera reales cosas que realmente no lo son. Por ejemplo, Overview de Google cree que es buena idea correr con tijeras, cuando realmente o lo es en absoluto.

Por qué se produce este fenómeno

El motivo principal es la falta de entrenamiento o un entrenamiento incorrecto.  Si los datos de entrenamiento contienen errores, información desactualizada o sesgos, el modelo puede aprender y replicar estos problemas.

Y en el caso de Google, al entrenarse con los foros de Reddit, han tenido problemas con algunas respuestas ingeniosas y en plan broma. Pero esto puede ser peligroso. Nadie saldrá a correr con tijeras (seguramente), pero cuando una persona con tendencias suicidas hace una búsqueda peligrosa, y Google le ofrece información al respecto, pasamos a mayores.

Como verás, un usuario le ha pedido a Google cuál es el mejor puente para saltar. Lo lógico sería haber derivado a un teléfono de ayuda, no indicar en qué puente hay más suicidios. Y estas alucinaciones también aparecen en el texto generado.

Así que, tampoco es buena idea utilizarlo para que te haga trabajos de clase, y menos universitarios o por motivos laborales. Te arriesgas a que ChatGPT u otro Chatbot se invente el contenido y quedes realmente mal. Así que, evita el trabajo fácil, porque puede que la recompensa no sea la esperada...

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Archivado En