Home
» Wiki
»
Pourquoi vous ne devriez pas faire confiance aux briefings dactualité des chatbots IA
Pourquoi vous ne devriez pas faire confiance aux briefings dactualité des chatbots IA
Vous devriez certainement réfléchir à deux fois avant d’utiliser un chatbot IA pour fournir des résumés rapides d’actualités. Un nouveau rapport de la BBC révèle que les chatbots populaires commettent des erreurs majeures dans leurs résultats de synthèse.
Google Gemini a le taux le plus élevé de résumés problématiques
Le test comprend ChatGPT , Google Gemini , Microsoft Copilot et Perplexity AI . Pour commencer, la BBC a posé à chaque chatbot 100 questions d'actualité, leur demandant d'utiliser les sources de BBC News lorsque cela était possible.
Les experts de la BBC ont ensuite évalué la qualité de ces résumés. Parmi les résumés, 51 % contenaient un type d’erreur, qui pouvait être des inexactitudes factuelles, des citations erronées ou des informations obsolètes.
Parmi ceux-ci, 19 % comportaient une erreur factuelle, comme des dates incorrectes. Et 13 % des citations attribuées à la BBC dans les résumés ont été soit modifiées par rapport à l’original, soit n’existaient pas dans les articles fournis aux chatbots.
Lorsqu'il a été analysé par un chatbot, Gemini de Google s'est avéré être le pire contrevenant, avec plus de 60 % des résumés contenant des informations problématiques. Microsoft Copilot est arrivé en deuxième position avec 50 %, tandis que ChatGPT et Perplexity ont enregistré environ 40 % de réponses problématiques.
Dans sa conclusion, la BBC a déclaré que de nombreux problèmes ne résultaient pas uniquement de la désinformation :
L’étude a également révélé que l’éventail des erreurs commises par les assistants IA va au-delà des inexactitudes factuelles. Les assistants IA que nous avons testés ont eu du mal à faire la distinction entre opinion et fait, éditorialisant et omettant souvent d’inclure le contexte nécessaire. Même si chaque affirmation dans le feedback est exacte, ces types de problèmes peuvent conduire à des commentaires trompeurs ou biaisés.
De nombreuses personnes n’ont jamais essayé d’utiliser des chatbots IA pour résumer les actualités, car elles ne font pas confiance à la fiabilité de la technologie. Mais les résultats de l’étude sont tout de même surprenants compte tenu du grand nombre de résultats problématiques. L’IA a encore un long chemin à parcourir avant de devenir un moyen fiable d’en savoir plus sur l’actualité.
Les fonctionnalités de l'IA sont encore en cours de développement
La technologie de l’IA, en particulier les chatbots, continue de s’améliorer rapidement. Mais comme le montre une étude de la BBC, s’attendre à des informations précises sur l’actualité est un domaine extrêmement problématique.
La BBC s'est plainte d'une autre fonctionnalité alimentée par l'IA : Apple Intelligence Notification Summary. En décembre 2024, un résumé d'actualité de la chaîne indiquait à tort que Luigi Mangione s'était tiré une balle dans la tête. Il s'agit de l'homme accusé d'avoir abattu le PDG d'une entreprise de soins de santé, Brian Thompson.