_
_
_
_

Gemini la lía: las respuestas inteligentes de Google son incluso peligrosas

Logo de Google
Logo de GoogleUnplash

La función AI Overviews de Google ha llegado para cambiar la forma en la que utilizamos el buscador, apoyando las respuestas habituales con otras basadas en Gemini. El problema es que Google te recomienda que mezcles pegamento con queso para que no se caiga de la pizza o que si un gato te lame es para probarte y saber si estás en el punto perfecto para comerte.

Pero, ¿qué está pasando? Para ponernos en situación, veamos qué es la función AI Overviews de Google. Hablamos de una herramienta basada en Gemini y que se integra en el buscador para proporcionar resúmenes completos e informativos sobre temas relacionados con la inteligencia artificial.

La idea es que esta inteligencia artificial de Google pueda analizar y sintetizar información de diversas fuentes, incluyendo artículos académicos, sitios web de noticias y publicaciones gubernamentales. Así te ofrece respuestas rápidas y efectivas. Nada más lejos de la realidad.

A Gemini de Google no le ha sentado nada bien el acuerdo con Google

Google ya se había aliado con Reddit, y hace una semana os hablamos de que OpenAI haría lo mismo, para usar los contenidos de este conocido hilo para entrenar ChatGPT. Pues igual no es la mejor idea. Principalmente porque estas respuestas sin sentido, vienen justo de Reddit.

Como verás en la imagen que hay debajo de estas líneas, hay veces en las que sí da una respuesta con una buena calidad. Pero viendo los fallos que comete, mejor no fiarte mucho de la herramienta. Más viendo los fallos que esté cometiendo Google.

Búsqueda en Google de "es España un país católico" respondida por los Resúmenes de IA.
Búsqueda en Google de "es España un país católico" respondida por los Resúmenes de IA.

Por ejemplo, en este hilo de Reddit vemos que un usuario comenta que está harto de que el queso se desliza de la pizza y pide algún truco. Hace 11 años un usuario respondió en plan broma utilizar 1/8 parte de un popular pegamento infantil y no tóxico de Estados Unidos. Pues es la recomendación que está dando AI Overviews de Google.

Hay ejemplos de todo tipo. Por ejemplo, al preguntar si Batman es un policía, Google te dice que sin duda. Y como indican desde The Verge, es un error bastante serio, y el problema de entrenar una IA en base a los contenidos de un foro.

Podemos decir que Google advirtió que es una función experimental. Pero viendo sus respuestas, mejor que la dejen desactivada hasta que funcione como realmente debería.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
_