Pédagogique Point chaud / en émergence

Quel serait le pourcentage de similitudes acceptable dans une production écrite? (s’il en existe un)

La question du pourcentage de plagiat acceptable dans une production écrite (travail étudiant ou article scientifique) ne se comprend que depuis l’arrivée des logiciels de détection de similitudes dans le texte.  En effet, à la suite de leur travail de comparaison, ces logiciels fournissent un résultat de similitudes dans le texte chiffré en pourcentage.   Ce résultat demande souvent d’être analysé afin de l’épurer de toutes les scories qu’une comparaison « grossière » génère.  C’est que déplorent Davis et Morley (2019) : “[…] text matching tools simply match whatever strings of words are the same, including mundane details such as the address of the university, or required elements such as the assignment title, instructions or a given table of content.”

Le problème, c’est qu’il arrive parfois que les éditeurs et les professeurs préfèrent établir un seuil d’acceptabilité afin de ne pas se farcir le travail fastidieux d’épuration.

Ivan Oransky, un des auteurs du blogue Retraction Watch, a produit une courte dépêche dans laquelle on apprend que la revue Punjab University Journal of Mathematics, qui applique la directive sur la Higher Education Commission : [i]f the report has similarity index <=19%, then benefit of doubt may be given to the author but, in case, any single source has similarity index >=5% without citation then it needs to be revised.  À noter que les logiciels affirment qu’ils détectent des similitudes dans le texte et non du plagiat.  Ce sont les utilisateurs qui font l’équivalence entre similitudes et plagiat.  Deux commentaires à la suite de la dépêche méritent d’être citées ici.

In fairness, the plagiarism software I have used is not very good and has a high rate of false positives. An article written without any plagiarism may still score 5-10% if it is on a common topic.  In some fields I could easily see how 19 % of text would be the same as some other article somewhere – you have to define terms, describe methods etc and there are only so many ways to phrase the same thing. This is especially true for people whose first language isn’t English, who tend to have a narrower repertoire.”

“I think we have to stop using the term “plagiarism software” or “plagiarism detector”. Let’s call these programs for what they are: text similarity detectors, and acknowledge that they do not look at the context of the words and that they ignore the plagiarism of images and ideas. At this point, we can also realise that quantifying plagiarism with percentages becomes a nonsense. That said, these programs are essential tools but not at all the entire solution in themselves.”

Oransky rappelle, à juste titre, que plusieurs formes de plagiat échappent à ces logiciels, ce qui vient appuyer le deuxième commentaire.  Qu’il suffise de penser aux entourloupes que les tricheurs, les véritables tricheurs, arrivent à faire pour contourner la détection, y compris acheter des travaux…

Source

Oransky, Ivan.   Up to 19% of plagiarism is just fine, journal tells authorsRetraction Watch.  23 mai 2019.

Horizon Report 2019: retour vers le futur
14 verbes pour s'aventurer dans le monde du multimédia
+ posts

À propos de l'auteur

Sonia Morin

1 commentaire

  • En effet, la notion de plagiat revêt un sens et prend des formes très différentes suivant les disciplines et les exercices proposés aux étudiants. La totalisation des copiages est une façon très grossière d’appréhender le phénomène. La seule méthode satisfaisante suppose de définir au cas par cas ( et même d’illustrer ) ce qui est sera retenu comme plagiat , dans une épreuve donné.

Répondre à yves Le Duc consultant X