Qué son las alucinaciones de la IA y por qué no deberías hacer tus trabajos con ChatGPT
Recuerdo con cariño cómo hacía mis trabajos de clase con la enciclopedia. Y cuando Encarta llegó a mi PC, me cambió la vida. A día de hoy estas enciclopedias ya están más que obsoletas, pero las nuevas generaciones cuentan con todo tipo de recursos para hacer sus trabajos. Y ChatGPT está más de moda que nunca, aunque no es precisamente la mejor opción.
Soy un férreo defensor de la IA, pero con un uso razonable. Por ejemplo, para hacer resúmenes es perfecto. Sin ir más lejos, el hijo de un compañero se está preparando para la selectividad y utiliza ChatGPT para que le haga resúmenes de los temas más importantes.
Pero otra cosa es utilizar ChatGPT, Gemini y otros chatbots para generar texto, ya sea para el trabajo o clase. ¿El motivo? La IA sufre alucinaciones y pueden jugarte una muy mala pasada.
Qué son las alucinaciones de la IA
Hace poco os hablamos de la polémica que ha generado la llegada de la función AI Overviews de Google. Hablamos de una herramienta potenciada por inteligencia artificial y que se añade a los resultados de su motor de búsqueda.
Pero claro, Gemini sufrió alucinaciones y empezó a recomendar cosas sin sentido, como correr con tijeras en las manos o poner pegamento a la pizza para que el queso no se caiga. Ver para creer.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
Pero, ¿qué son las alucinaciones de la IA? Un verdadero quebradero de cabeza para los trabajadores detrás de proyectos como ChatGPT o Gemini. Hablamos de situaciones en las que un modelo de inteligencia artificial generativo produce información que parece real, pero es inventada.
Se llaman alucinaciones porque la IA considera reales cosas que realmente no lo son. Por ejemplo, Overview de Google cree que es buena idea correr con tijeras, cuando realmente o lo es en absoluto.
Por qué se produce este fenómeno
El motivo principal es la falta de entrenamiento o un entrenamiento incorrecto. Si los datos de entrenamiento contienen errores, información desactualizada o sesgos, el modelo puede aprender y replicar estos problemas.
Y en el caso de Google, al entrenarse con los foros de Reddit, han tenido problemas con algunas respuestas ingeniosas y en plan broma. Pero esto puede ser peligroso. Nadie saldrá a correr con tijeras (seguramente), pero cuando una persona con tendencias suicidas hace una búsqueda peligrosa, y Google le ofrece información al respecto, pasamos a mayores.
I asked Google for a good bridge to jump off.
— Tim Dickinson (@7im) May 25, 2024
Its AI gave me a list of the top "suicide bridges" and touted the lethality of a leap from the Golden Gate.
On the dangerous rollout of AI Overview ...https://t.co/gPmbByxm6J pic.twitter.com/Wi7l0D6WA3
Como verás, un usuario le ha pedido a Google cuál es el mejor puente para saltar. Lo lógico sería haber derivado a un teléfono de ayuda, no indicar en qué puente hay más suicidios. Y estas alucinaciones también aparecen en el texto generado.
Así que, tampoco es buena idea utilizarlo para que te haga trabajos de clase, y menos universitarios o por motivos laborales. Te arriesgas a que ChatGPT u otro Chatbot se invente el contenido y quedes realmente mal. Así que, evita el trabajo fácil, porque puede que la recompensa no sea la esperada...
Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días