Mistral AI : Désinformation sévit dans son chatbot grand public

Le chatbot grand public de Mistral AI fait face à des critiques croissantes concernant la diffusion de fausses informations. En effet, des tests effectués récemment ont révélé qu’il était capable de relayer des récits erronés, touchant des sujets sensibles tels que la géopolitique et la sécurité. Cela soulève des questions sur la fiabilité de cet outil, qui est en train de se démocratiser dans le quotidien des utilisateurs.

Analyse des résultats d’un test sur la désinformation

NewsGuard, une organisation dédiée à la surveillance de la désinformation, a soumis le chatbot de Mistral AI à un ensemble de dix faux récits circulant sur internet. Sur ces dix affirmations, le chatbot a relayé ces informations trompeuses dans 50 % des cas en anglais et 56,6 % en français. Ces résultats soulèvent des inquiétudes, surtout quand les utilisateurs ne cherchent pas à manipuler le système, mais simplement à obtenir des clarifications sur des nouvelles douteuses.

Un contexte préoccupant pour les utilisateurs

Lorsque des internautes tentent de vérifier des informations auprès du chatbot, le taux de répétition des fausses informations grimpe à 60 % en anglais et 70 % en français. Cela signifie que la plupart des utilisateurs qui se tournent vers ce service pour des éclaircissements – souvent dans un bon esprit de discernement – ressortent avec des données erronées.

Cela illustre un paradoxe inquiétant : un internaute avisé peut finir par valider sans le savoir une rumeur infondée.

Des méthodologies d’analyse inadaptées

Lors d’une analyse menée en janvier sur d’autres chatbots concurrents, Mistral affichait déjà 50 % de répétition des fausses informations, une performance alarmante par rapport à une moyenne sectorielle d’environ 30 %. Ces modèles d’IA ont tendance à intégrer des contenus du web sans discernement, ignorant souvent le fiable et le toxique.

Une exploitation des faiblesses existantes

Des réseaux malveillants exploitent cette faiblesse en inondant le web de faux contenus d’actualité qui, de ce fait, apparaissent dans les réponses des chatbots. Il est même noté que Mistral a cité un article d’un site de désinformation comme source lors des tests, ce qui est un signal d’alarme significatif quant à la qualité de son contenu.

Le rôle du soutien institutionnel

En janvier dernier, un contrat a été signé entre le ministère des Armées et Mistral pour intégrer l’IA au sein de ses différentes directions. Ce partenariat semble prometteur. Néanmoins, la version dédiée à l’armée est payante et déconnectée du web, minimisant les risques de désinformation. En revanche, le grand public utilise une version gratuite beaucoup plus vulnérable, qui diffuse des contenus trompeurs à un rythme alarmant.

La question de la confiance influencée par le label étatique

Le soutien d’une institution telle que l’État confère une certaine crédibilité à Mistral AI. Cependant, cette confiance peut être mal placée si les utilisateurs ne prennent pas en compte la réalité actuelle du produit. Le silence de Mistral face à ces résultats préoccupants n’est pas non plus rassurant.

Questions fréquentes

Pourquoi le chatbot de Mistral AI relaye-t-il des informations fausses ?

Le chatbot de Mistral AI relaye des informations erronées car il intègre une quantité massive de contenus provenant d’Internet sans discernement, ce qui le rend vulnérable à la désinformation. Cela inclut des sources non vérifiées qui peuvent parfois avoir des agendas malveillants.

Quelles sont les implications de cette désinformation pour les utilisateurs ?

Les implications sont significatives, car les utilisateurs peuvent se retrouver à valider des informations fausses et à diffuser involontairement de fausses rumeurs. Cela peut altérer leur perception de l’actualité et de la réalité, ce qui peut avoir des conséquences sur des décisions importantes.

Que fait Mistral AI pour remédier à ce problème ?

Actuellement, Mistral AI n’a pas publié de déclaration claire sur les mesures spécifiques qu’elle prend pour corriger la désinformation relayée par son chatbot. Ce manque de clarté soulève des préoccupations quant à sa volonté d’améliorer la qualité de son service et de protéger ses utilisateurs.

Laisser un commentaire