Home
» Wiki
»
Gemini de Google répond à certains utilisateurs avec des mots étranges et absurdes répétés
Gemini de Google répond à certains utilisateurs avec des mots étranges et absurdes répétés
L'IA générative dans le contexte des chatbots peut être utile, mais parfois elle ne fonctionne pas comme prévu. Récemment, certains utilisateurs ont remarqué que Google Gemini donnait du texte répétitif, des caractères étranges et des absurdités totales dans certaines réponses.
Le chatbot Gemini de Google est un outil utile pour obtenir des réponses rapides ou gérer des tâches complexes. Cependant, comme toute IA générative, elle est également sensible au problème des hallucinations. Mais récemment, un étrange bug a dépassé la norme.
Au cours des derniers jours, certains utilisateurs de Gemini ont rencontré un problème où le chatbot crache des bêtises vraiment absurdes. Dans certains cas, il s’agit d’une série de mots répétés ou de phrases plus aléatoires remplies de caractères étranges. Les réponses sont longues et dans certains cas n’ont rien à voir avec la question posée. Certains caractères suggèrent également qu'il s'agit de jetons avec un formatage étrange qui rend la réponse illisible.
La cause du problème n'est pas encore claire, mais le fait de le voir se produire à plusieurs reprises sur Reddit au cours de la semaine dernière montre clairement qu'il s'agit d'un nouveau problème et très probablement du côté de Google. De plus, un problème courant est que certaines des réponses étranges de Gemini commencent par « Full » ou « Full bor ».
Le problème se produit à la fois lors de l'utilisation de Gemini sur le Web et sur les appareils mobiles Android.
La bonne nouvelle est que dans la plupart des cas, il semble que ce ne soient que des événements aléatoires. Alors les Gémeaux ont répondu comme d'habitude.
Avez-vous remarqué un comportement étrange chez les Gémeaux ces derniers temps ? Partagez vos réflexions dans la section commentaires ci-dessous !