Gemini 'enlouquece' e responde de forma estranha, dizem usuários

1 min de leitura
Imagem de: Gemini 'enlouquece' e responde de forma estranha, dizem usuários
Imagem: Google/Reprodução

O Gemini está se comportando de forma estranha em algumas conversas, relatam usuários. O chatbot com inteligência artificial (IA) do Google responde frases repetidas, caracteres estranhos e até jargões desnecessários em contextos inadequados, segundo publicações compartilhadas no Reddit.

A causa disso ainda é um mistério, mas é um clássico sintoma de alucinação de IA. Em vez de apresentar respostas coesas, o assistente do Google começa a apresentar respostas desconexas ou repetitivas, não sanando a dúvida ou a solicitação do usuário.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Em um dos exemplos compartilhados no Reddit, um usuário mostrou o chatbot basicamente "enlouquecendo". A resposta à solicitação começa bem, mas logo se torna um texto totalmente ilegível, cheio de caracteres estranhos, palavras e termos repetidos e uma formatação totalmente ilegível.

Not Cauchy
byu/PeacefulOnReddit inGoogleGemini

Contudo, essa não foi a única situação em que o bot apareceu respondendo coisas estranhas. Outros relatos também compartilhados na rede mostram comportamento parecido em outras conversas, mostrando que o problema pode acontecer em uma variedade de contextos.

Segundo os relatos, os problemas acontecem tanto na versão web quanto no app do Gemini para celular. Portanto, é possível que o problema esteja contido na IA, ou na forma com que o Google encaminha a solicitação do usuário para os servidores.

"Gemini may display inaccurate info"
byu/tomadobi inGoogleGeminiAI

Por enquanto, a empresa não se manifestou sobre o problema. Contudo, uma vez que a questão parece ser algo recorrente, o Google deve lançar uma correção para as respostas malucas do Gemini em breve.

Interaja com responsabilidade

Os bugs com o Google Gemini reforçam, mais uma vez, a falta de confiabilidade nas respostas desse tipo de ferramenta. O chatbot é útil para sanar dúvidas rápidas e, por vezes, até sugerir ideias para um novo projeto ou viagem, mas ele não ele é capaz de avaliar a integridade das próprias respostas, assim cometendo erros que podem passar desapercebido.

Exemplo disso é o AI Overview, recurso experimental do Google, que poucos dias após o lançamento começou a apresentar respostas bizarras, tais como adicionar cola branca em pizzas, melhorar a ingestão de minerais comendo pedras e o hábito de fumar cigarros para gestantes.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.