VSM World

Les failles de ChatGPT&nbsp: Quand l’IA se heurte à la manipulation

OpenAI fait la promotion de ChatGPT en tant qu’outil de recherche innovant intégrant une intelligence artificielle avancée. Cependant, des tests récents ont mis au jour plusieurs failles potentielles susceptibles d’altérer les résultats produits par ce modèle de langage. Cela soulève des préoccupations importantes quant à la fiabilité des informations fournies, surtout dans un contexte où de plus en plus de personnes utilisent des IA pour obtenir des réponses rapides et précises sur divers sujets.

Vulnérabilités aux manipulations par contenu caché

L’une des principales vulnérabilités identifiées réside dans la facilité avec laquelle les résultats de ChatGPT peuvent être manipulés par du contenu caché sur des sites web. Les « prompt injections » permettent à des tiers malintentionnés d’insérer des instructions ou des informations biaisées dans le texte caché d’une page web. Par exemple, une grande quantité de critiques positives factices peut influencer ChatGPT à produire un avis favorable sur un produit, même si celui-ci a reçu de véritables avis négatifs. Ces prompt injections exploitent la manière dont ChatGPT traite les données, rendant ainsi ses évaluations parfois peu fiables.

Jacob Larsen, chercheur en cybersécurité chez CyberCX, partage cette inquiétude. Il souligne que si ChatGPT est pleinement déployé dans son état actuel, il pourrait exister un « risque élevé » que des individus créent intentionnellement des sites visant à tromper les utilisateurs. Bien que OpenAI dispose d’une équipe solide spécialisée en sécurité IA, l’ampleur de ces problèmes pourrait nécessiter des solutions approfondies avant de rendre l’outil accessible à tous.

La naissance d’une nouvelle forme de fraude numérique

Les tests ont aussi révélé que ChatGPT pouvait renvoyer du code malveillant lorsqu’il analyse certaines pages web. Un incident rapporté mentionne que lors d’un projet de cryptomonnaie, un code prétendument légitime pour accéder à la plateforme Solana volait en réalité les crédentiels du programmeur, entraînant une perte financière de 2 500 dollars. Ce type de manipulation montre à quel point les modèles de langage comme ChatGPT, dotés de fonctionnalités de navigation, peuvent être exploités pour commettre des fraudes numériques sophistiquées.

Karsten Nohl, scientifique en chef chez SR Labs, avertit que les services de chat IA doivent être perçus davantage comme des « co-pilotes ». Selon lui, leurs sorties ne devraient jamais être acceptées sans vérification préalable. Ce conseil découle de l’observation que les LLMs sont conçues pour interpréter de bonne foi les informations recueillies, exposant ainsi une faiblesse inhérente à leur conception actuelle.

Les implications pour les utilisateurs et les développeurs

Le potentiel de manipulation des résultats de recherche de ChatGPT représente un défi notable, tant pour les utilisateurs que pour les développeurs. Pour les premiers, il devient impératif d’adopter une approche critique vis-à-vis des réponses générées par l’IA, surtout lorsque celles-ci influencent directement des décisions financières, médicales ou autres. Les développeurs, de leur côté, se trouvent face à la tâche complexe de renforcer les algorithmes de filtrage et de sécurité afin de prévenir les abus via du contenu dissimulé.

Une autre conséquence significative concerne le classement SEO des sites web. Depuis longtemps, les moteurs de recherche comme Google et Bing sanctionnent l’utilisation de texte caché pour manipuler les classements. Cette pratique est jugée contraire aux directives de qualité, nuisant ainsi aux efforts légitimes pour améliorer la visibilité en ligne. Dans ce contexte, tout site web cherchant à exploiter les failles de ChatGPT risque non seulement de perdre sa position dans les résultats de recherche traditionnels, mais également de voir ses pratiques dénoncées par des régulateurs.

SOURCE