mer 4 février 2026
AccueilIntelligence artificielleLes dangers de l'IA pour la recherche web

Les dangers de l’IA pour la recherche web

Date:

Ceci pourrait vous plaire




Arcane Visions - Thème astral

L’utilisation de l’IA pour effectuer des recherches sur le web est devenue courante pour plus de la moitié d’entre nous, cependant, la faible précision des données des outils classiques crée de nouveaux risques commerciaux. Malgré les gains d’efficacité indéniables offerts par l’IA générative (GenAI), une nouvelle enquête met en lumière un écart entre la confiance des utilisateurs et la précision technique, posant des risques spécifiques en matière de conformité d’entreprise, de positionnement juridique et de planification financière.

L’adoption de ces outils par la haute direction représente un défi classique de la « shadow IT ». Environ un tiers des utilisateurs, selon une enquête menée auprès de 4 189 adultes au Royaume-Uni en septembre 2025, estiment que l’IA est déjà plus importante pour eux que la recherche web standard. Si les employés font confiance à ces outils pour des requêtes personnelles, ils les utilisent très probablement également pour des recherches professionnelles.

L’enquête menée par « Which? » suggère que s’appuyer sur ces plateformes sans vérification peut s’avérer coûteux. Environ la moitié des utilisateurs d’IA déclarent faire confiance aux informations qu’ils reçoivent dans une « mesure raisonnable » ou « grande ». Cependant, en examinant la granularité des réponses fournies par les modèles d’IA, il apparaît que cette confiance est souvent mal placée.

L’étude a testé six outils majeurs – ChatGPT, Google Gemini (à la fois standard et « AI Overviews »), Microsoft Copilot, Meta AI et Perplexity – sur 40 questions courantes portant sur la finance, le droit et les droits des consommateurs. Perplexity a obtenu le score total le plus élevé, à 71 %, suivi de près par Google Gemini AI Overviews à 70 %. En revanche, Meta a obtenu le score le plus bas, à 55 %. Malgré son adoption généralisée, ChatGPT a obtenu un score total de 64 %, le plaçant au deuxième rang parmi les outils testés. Ce décalage entre la domination du marché et la fiabilité de la production souligne le danger de supposer que la popularité équivaut à la performance dans l’espace GenAI.

Cependant, l’enquête a révélé que tous ces outils d’IA interprètent fréquemment mal les informations ou fournissent des conseils incomplets pouvant poser de sérieux risques commerciaux. Pour les responsables financiers et les services juridiques, la nature de ces erreurs est particulièrement préoccupante.

Lorsqu’on leur a demandé comment investir une allocation annuelle de 25 000 £ dans un ISA, à la fois ChatGPT et Copilot n’ont pas identifié une erreur délibérée dans la demande concernant la limite statutaire. Au lieu de corriger le chiffre, ils ont offert des conseils risquant potentiellement de violer les règles de l’HMRC.

Alors que Gemini, Meta et Perplexity ont réussi à identifier l’erreur, l’incohérence entre les plateformes nécessite un protocole rigoureux de « l’humain dans la boucle » pour tout processus commercial impliquant de l’IA, afin d’assurer la précision.

Pour les équipes juridiques, la tendance de l’IA à généraliser les réglementations régionales lorsqu’elle est utilisée pour des recherches sur le web présente un risque commercial distinct. Il est courant pour les outils de mal comprendre que les statuts juridiques diffèrent souvent entre les régions du Royaume-Uni, comme l’Écosse par rapport à l’Angleterre et au pays de Galles.

De plus, l’enquête a mis en lumière un écart éthique dans la manière dont ces modèles traitent les requêtes à enjeux élevés. Sur des questions juridiques et financières, les outils conseillent rarement aux utilisateurs de consulter un professionnel enregistré. Par exemple, lorsqu’on lui a demandé un avis sur un différend avec un constructeur, Gemini a conseillé de ne pas payer ; une tactique qui, selon les experts, pourrait placer un utilisateur en violation de contrat et affaiblir sa position juridique.

Ce « conseil trop confiant » crée des risques opérationnels. Si un employé se fie à une IA pour des vérifications de conformité préliminaires ou pour l’examen de contrats sans vérifier la juridiction ou la nuance juridique, l’organisation pourrait être exposée à des risques réglementaires.

Une préoccupation majeure pour la gouvernance des données d’entreprise est la lignée de l’information. L’enquête a révélé que les outils de recherche AI ont souvent une grande responsabilité en matière de transparence, mais citent fréquemment des sources floues, inexistantes ou d’une précision douteuse, comme de vieux fils de forum. Cette opacité peut entraîner une inefficacité financière.

Dans un test concernant les codes fiscaux, ChatGPT et Perplexity ont présenté des liens vers des sociétés de remboursement de taxes premium au lieu de diriger l’utilisateur vers l’outil officiel gratuit de l’HMRC. Ces services tiers sont souvent caractérisés par des frais élevés.

Dans un contexte d’approvisionnement commercial, un tel biais algorithmique des outils d’IA lors de leur utilisation pour des recherches sur le web pourrait entraîner des dépenses inutiles auprès des fournisseurs ou une collaboration avec des prestataires de services présentant un risque élevé en raison de leur non-conformité aux normes de diligence raisonnable de l’entreprise.

Les principaux fournisseurs de technologie reconnaissent ces limites, mettant fermement la charge de la vérification sur l’utilisateur, et par extension, sur l’entreprise.

Un porte-parole de Microsoft a souligné que leur outil agit en tant que synthétiseur plutôt qu’en tant que source d’autorité. « Copilot répond aux questions en condensant les informations de plusieurs sources web en une seule réponse », a noté l’entreprise, ajoutant qu’elle « encourage les gens à vérifier l’exactitude du contenu ».

OpenAI, en réponse aux conclusions, a déclaré : « Améliorer la précision est quelque chose sur lequel travaille toute l’industrie. Nous progressons bien et notre dernier modèle par défaut, GPT-5, est le plus intelligent et le plus précis que nous ayons construit. »

Pour les dirigeants d’entreprise, la voie à suivre n’est pas d’interdire les outils d’IA – ce qui a souvent pour effet d’accroître leur utilisation dans l’ombre – mais de mettre en place des cadres de gouvernance solides pour garantir la précision de leurs résultats lorsqu’ils sont utilisés pour des recherches sur le web :

– Imposer la spécificité dans les requêtes : L’IA est encore en train d’apprendre à interpréter les requêtes. La formation en entreprise doit souligner que des requêtes vagues produisent des données risquées. Si un employé recherche des réglementations, il doit spécifier la juridiction (par exemple, « règles légales pour l’Angleterre et le pays de Galles ») plutôt que de supposer que l’outil comprendra le contexte.

– Exiger la vérification des sources : Faire confiance à une seule sortie est inefficace sur le plan opérationnel. Les employés doivent exiger de voir les sources et les vérifier manuellement. L’étude suggère que, pour les sujets à haut risque, les utilisateurs devraient vérifier les résultats à travers plusieurs outils d’IA ou « double-sourcer » l’information. Des outils comme les AI Overviews de Google Gemini, qui permettent aux utilisateurs d’examiner directement les liens web présentés, ont obtenu de légèrement meilleurs scores car ils facilitent ce processus de vérification.

– Opérationnaliser le « deuxième avis » : À ce stade de maturité technologique, les sorties de GenAI doivent être considérées comme un avis parmi d’autres. Pour des problèmes complexes impliquant des données financières, juridiques ou médicales, l’IA ne dispose pas de la capacité à comprendre pleinement les nuances. La politique de l’entreprise doit dicter que l’avis humain professionnel reste l’arbitre final pour les décisions ayant des conséquences réelles.

Les outils d’IA évoluent et leur précision dans la recherche web s’améliore progressivement, mais comme le conclut l’enquête, s’appuyer trop sur eux en ce moment pourrait s’avérer coûteux. Pour l’entreprise, la différence entre un gain d’efficacité commerciale de l’IA et un risque de non-conformité réside dans le processus de vérification.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici