Skip to main content

Ces dernières années, l’utilisation de générateurs de texte IA tels que ChatGPT, Jasper, Copy AI et bien d’autres pour la création de contenu a considérablement augmenté. Cette évolution a toutefois suscité des inquiétudes quant à l’impact du contenu généré par l’IA sur l’optimisation des moteurs de recherche (SEO) et à la capacité des moteurs de recherche tels que Google à détecter ce type de contenu. 

Les moteurs de recherche comme Google et Bing utilisent des algorithmes sophistiqués et des techniques d’apprentissage automatique pour analyser le contenu des pages web et déterminer leur pertinence et leur qualité.

Ces algorithmes sont conçus pour identifier et pénaliser les sites web qui utilisent des techniques de spam pour manipuler les classements de recherche. Toutefois, la question est de savoir si ces algorithmes peuvent faire la distinction entre un contenu rédigé par un humain et un contenu généré par l’IA.

Selon une étude menée par Fractl et publiée sur The Verge, les générateurs de texte par IA tels que ChatGPT pourraient créer un tsunami de spam et de mauvais contenu. Il est facile de comprendre comment cela se produit lorsqu’on joue avec de nouveaux outils de génération de texte par IA. L’étude a montré que le contenu généré par l’IA était capable de tromper les humains en leur faisant croire qu’il avait été écrit par un humain dans la plupart des cas. 

C’est une situation que les moteurs de recherche veulent absolument éviter.

Les grands modèles de langage (LLM) ont un certain schéma qui est reconnaissable par les outils puissants développés par Google et Bing, mais aussi par des entreprises comme Winston AI.

L’IA de Winston est formée sur d’énormes quantités de données générées par l’IA, et peut facilement détecter les contenus créés par des LLM. 

Les moteurs de recherche mettent constamment à jour leurs algorithmes afin d’améliorer leur capacité à détecter les contenus spam, y compris les contenus générés par l’IA. Dans un billet publié sur le Google Webmasters Central Blog, Pandu Nayak, membre du personnel technique de Google, a laissé entendre que les contenus longs étaient bénéfiques pour le référencement. Cela suggère que les moteurs de recherche pourraient privilégier les contenus longs et détaillés par rapport aux contenus courts et de faible qualité. 

Dans un article paru sur ZDNet, l’auteur a testé trois détecteurs d’IA en ligne pour voir s’ils pouvaient identifier le texte généré par ChatGPT. Les résultats ont été mitigés : l’un des détecteurs a pu identifier le texte généré par l’IA avec un haut niveau de précision, tandis que les deux autres se sont révélés moins efficaces.

Winston AI est capable de détecter avec une précision de 99.6 % toute forme de contenu généré par l’IA, y compris la dernière mise à jour GPT-4 de ChatGPT, Open Assistant, Jasper, Copy.ai et Rytr. 

Dans l’ensemble, la question de savoir si les moteurs de recherche peuvent détecter l’utilisation de ChatGPT et s’ils considèrent le contenu généré par l’IA comme du spam est complexe. Si les contenus générés par l’IA ont le potentiel d’inonder l’internet de contenus de mauvaise qualité et de spams, les moteurs de recherche mettent constamment à jour leurs algorithmes afin d’améliorer leur capacité à détecter et à pénaliser de tels contenus. En attendant, les créateurs de contenu devraient se concentrer sur la création d’un contenu de grande qualité qui apporte de la valeur à leurs lecteurs.

Thierry Lavergne

Co-fondateur et CTO de Winston AI. Avec une carrière de plus de 15 ans dans le développement de logiciels, je suis spécialisé dans l'intelligence artificielle et le "deep learning". Chez Winston AI, je dirige la vision technologique, en me concentrant sur le développement de solutions innovantes de détection de l'IA. Mon parcours professionnel inclut la création de solutions logicielles pour des entreprises de toutes tailles, et je suis passionné par l'idée de repousser les limites de la technologie de l'IA. J'aime écrire sur tout ce qui touche à l'IA et à la technologie.