Des dérives inquiétantes dans l’usage de ChatGPT par des chercheurs

ChatGPT s’impose dans la rédaction scientifique, mais des usages maladroits soulèvent des inquiétudes quant à la rigueur et à la fiabilité de certaines publications.

L’essor fulgurant de ChatGPT dans le monde académique a transformé la manière dont les scientifiques rédigent, résument ou simplifient leurs travaux. Cet outil, apprécié pour sa rapidité et sa capacité à fluidifier un texte, s’invite aujourd’hui dans les laboratoires comme un assistant capable d’accélérer la production scientifique. Cependant, cette commodité a ouvert la porte à des dérives que certains chercheurs commencent à dénoncer publiquement.

Quand le gain de temps vire à la négligence

Dans plusieurs revues réputées, des articles publiés contiennent encore des formulations automatisées identifiables, des références fictives ou des tournures incohérentes issues directement de ChatGPT. Le problème ne réside pas dans l’utilisation de l’outil en soi, mais dans l’absence de relecture humaine. Certains auteurs semblent avoir inséré des passages générés sans vérifier leur exactitude, créant des incohérences majeures dans des textes censés respecter les standards les plus stricts du monde scientifique.

Le travail d’un chercheur français qui alerte la communauté

Guillaume Cabanac, enseignant-chercheur en informatique à l’Université Paul-Sabatier de Toulouse, joue aujourd’hui un rôle important dans la mise en lumière de ces anomalies. Il traque les formulations caractéristiques des réponses automatiques de ChatGPT, repère les structures inhabituelles et identifie les erreurs grossières qui se glissent dans certaines publications. Son travail dévoile un malaise : une partie de la communauté utilise l’outil comme une béquille plutôt que comme un support.

Réhabiliter la rigueur scientifique

Face à ces dérives, plusieurs experts appellent à un encadrement plus clair. L’objectif n’est pas d’interdire ChatGPT, mais de rappeler que la responsabilité finale appartient à l’auteur. La science ne peut se permettre de perdre en crédibilité. La relecture humaine, la vérification des sources et la rigueur intellectuelle restent indispensables, quel que soit l’outil utilisé.

Lire aussi:https://fiableactus.com/amazon-licenciements-intelligence-artificielle/

0 0 votes
Évaluation de l'article

Laisser un commentaire

1 Commentaire
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
1
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x