Plagiat, fiabilité, biais et autres enjeux
Réfléchissez sur quelques-uns des enjeux éthiques et légaux entourant l’utilisation de l’intelligence artificielle (IA) en enseignement supérieur. Explorez comment on peut mettre l’IA à notre service de manière intègre et responsable dans un milieu où la rigueur et la propriété intellectuelle sont au cœur de notre mission.
Capsule 3
Cette vidéo permet de faire un premier tour d’horizon des grandes questions qui accompagnent la démocratisation de l’intelligence artificielle générative… et peut-être même d’amorcer votre prise de position relativement à ces défis.
Nos experts vulgarisent tour à tour les effets de l’IA sur l’intégrité académique, la protection des données personnelles, la propriété intellectuelle, la désinformation, les biais et l’émergence d’un cadre législatif. (14 min 47 s)
_FORMATION_DEMYSTIFIER_IA/IA_capsule3_FINALE
_FORMATION_DEMYSTIFIER_IA/vignette_capsule_3.jpg
IA_capsule3_FINALE_st
Saviez-vous que ChatGPT peut générer des réponses erronées et ne fournit pas de références fiables dans ses réponses? Saviez-vous qu’en posant des questions qui nous paraissent anodines à l’intelligence artificielle générative, on peut lui fournir des données sensibles relativement à notre vie personnelle ou à notre contexte professionnel? Saviez-vous que l’intelligence artificielle n’est pas, pour le moment, soumise à des réglementations gouvernementales spécifiques, notamment pour la collecte et le stockage des données personnelles utilisées pour son entrainement? Saviez-vous qu’il n’est pas possible de détecter avec certitude si un étudiant a utilisé un outil d’intelligence artificielle générative pour rédiger son travail?
Cette capsule, vous l’aurez deviné, abordera les principaux enjeux éthiques associés à l’utilisation de l’intelligence artificielle en enseignement supérieur.
L’évolution rapide de la technologie, notamment des systèmes d’intelligence artificielle, est synonyme de possibilités dans de nombreux domaines, dont l’éducation. Cependant, cette avancée technologique n’est pas sans conséquence pour l’intégrité académique.
À l’ère de l’intelligence artificielle, les possibilités de tricher se sont multipliées, mettant au défi les institutions d’enseignement et suscitant de nombreuses interrogations :
- L’intégrité intellectuelle peut-elle coexister avec l’intelligence artificielle?
- Le recours à l’intelligence artificielle générative est-il forcément synonyme d’inconduite académique?
- Peut-on utiliser un outil d’intelligence artificielle générative de façon éthique et responsable?
Qu’est-ce que le plagiat à l’ère de l’intelligence artificielle?
Si le plagiat a toujours existé en éducation et en enseignement supérieur, l’utilisation d’outils d’intelligence artificielle générative a ajouté une nouvelle dimension à l’inconduite académique. Jusqu’à présent, l’une des infractions liées aux études les plus répandues était l’utilisation des propos d’autrui en les faisant passer pour siens, par exemple : le copier-coller, la reformulation, la traduction et l’absence de citation.
Aujourd’hui, avec l’accessibilité croissante des outils d’intelligence artificielle générative, nos étudiants peuvent générer très rapidement du contenu et le faire passer comme du contenu authentique, sans y apporter une voix d’auteur ou un jugement critique.
L’augmentation des cas de plagiat liés à l’intelligence artificielle générative a incité certaines institutions d’enseignement à bannir ces outils des arènes de l’enseignement supérieur. Or, cela s’est vite révélé comme n’étant pas le bon choix, d’autant plus qu’il n’existe actuellement sur le marché aucun outil de détection de l’intelligence artificielle fiable à 100 %. Si l’intelligence artificielle rend plus facile le plagiat, elle permet aussi d’avoir accès à des outils supplémentaires pour apprendre.
Mais alors, peut-on utiliser l’intelligence artificielle générative de façon intègre et responsable?
La recherche récente met en évidence qu’un bon nombre d’étudiants utilisent déjà des outils d’intelligence artificielle pour améliorer leurs performances scolaires.
Selon la professeure et chercheuse québécoise Martine Peters, si un professeur autorise l’utilisation de l’intelligence artificielle générative, cette dernière peut être utilisée comme un outil d’aide à l’apprentissage. Les étudiants peuvent l’utiliser de manière responsable de multiples façons.
Notamment pour générer des idées, vulgariser des textes de référence, traduire des textes, générer un plan de travail ou résumer des articles scientifiques.
À l’ère de l’intelligence artificielle, peut-on préserver l’intégrité intellectuelle?
Oui, bien sûr! Et cela passe par la sensibilisation des étudiants à l’utilisation intègre des outils d’intelligence artificielle générative dans leur projet d’études de même qu’aux conséquences du plagiat. Cela nécessite aussi la mise en place d’une véritable culture de l’intégrité intellectuelle où chaque passeur d’intégrité veillera à ce que les valeurs de l’éthique soient intégrées dans les cours. Enfin, cela nécessite également d’expérimenter des nouveaux formats d’évaluation… qu’il ne serait pas possible de réaliser avec ChatGPT. C’est donner plus de place à l’apprentissage authentique et à la créativité en mettant l’accent sur des tâches axées sur la réflexion critique, la mise en application des connaissances et des compétences de même que la résolution de problèmes.
Ainsi, en matière d’intégrité intellectuelle, voici quelques conseils d’utilisation :
- Soyez curieux et lisez des articles relatifs aux bonnes pratiques liées à l’utilisation de l’intelligence artificielle générative.
- Privilégiez la création originale et la contribution personnelle.
- Développez votre esprit critique dans votre utilisation d’outils d’intelligence artificielle générative : soyez conscient de leurs forces autant que de leurs limites.
Quel lien y a-t-il entre l’utilisation d’une intelligence artificielle générative et les données personnelles?
La force de l’intelligence artificielle vient du fait qu’elle est en mesure d’analyser une quantité massive de données pour répondre aux demandes des utilisateurs. Or, pour remplir ses fonctions, un modèle de langage comme ChatGPT est entrainé sur un vaste corpus de données, soit des textes rédigés par des humains et provenant d’Internet… et aussi des informations fournies par les utilisateurs pour répondre de manière précise à leurs besoins.
OpenAI, l’entreprise qui a mis au point ChatGPT, précise que les conversations que l’on entretient avec l’outil peuvent être réutilisées pour améliorer ou entrainer d’autres outils d’intelligence artificielle.
- Qu’advient-il des informations que l’on donne à ChatGPT lors de notre requête?
- Comment sont-elles traitées et à quelles fins sont-elles utilisées?
- Sont-elles stockées ou détruites?
À ce jour, il est difficile d’obtenir des réponses claires à ces questions.
Qu’est-ce que cela signifie exactement?
C’est que les données que vous confiez à ChatGPT pour qu’il vous aide, par exemple, à rédiger votre compte-rendu ou à résumer les grandes lignes d’un chapitre de livre rédigé par un professeur pourraient bien se retrouver dans un texte généré quelque part, dans quelque temps, par une personne inconnue. Sans être de mauvaise foi, vous pourriez donc partager des informations confidentielles sur les étudiants, vos collègues ou votre institution pour répondre à vos besoins personnels ou professionnels. Vous pourriez ainsi vous mettre en porte-à-faux avec le respect de la vie privée ou ne pas respecter les droits d’auteur.
Ainsi, en matière de vie privée et de protection des données personnelles, voici quelques conseils :
- Anonymisez les données et assurez-vous qu’elles ne contiennent pas d’informations confidentielles.
- En vertu des lois en vigueur au Québec, presque toutes les informations qui concernent vos étudiants ou vos collègues sont des renseignements personnels. Tous les renseignements qui concernent une personne physique et qui permettent directement ou indirectement de l’identifier sont des renseignements personnelles.
- En ce qui concerne l’identité, on peut penser à l’adresse, la photographie, la langue, l’origine ethnique, le handicap, le statut familial.
- Et en ce qui concerne la scolarité, on peut penser à l’inscription à un cours, au choix de cours, aux résultats et aux mesures d’accommodement.
- Assurez-vous également que les données ne contiennent pas d’informations protégées par les droits d’auteur, comme des contenus de cours.
Et la propriété intellectuelle dans tout cela?
Discutons d’abord du texte.
On l’a dit, un système d’intelligence artificielle comme ChatGPT est entrainé sur un imposant corpus de textes provenant de sources diverses. Si OpenAI affirme que ces sources proviennent de textes humains trouvés sur Internet, l’entreprise ne mentionne pas en toute transparence les données qu’elle utilise.
- Proviennent-elles de sources fiables?
- Proviennent-elles de livres protégés par les droits d’auteur?
Ainsi, pour la plupart des résultats générés, ChatGPT ne fournit pas de sources, de notes de bas de page ou de liens vers les sources des informations utilisées pour produire ses réponses. Et si l’utilisateur lui demande de citer les sources qu’il a utilisées, il est possible que les sources qu’il citera soient peu fiables, erronées ou inexistantes.
Discutons maintenant des images…
… en parlant, par exemple, de DALL-E, qui est aussi un outil d’intelligence artificielle comme son cousin, ChatGPT. Au lieu d’être entrainé sur du texte et de générer du texte, DALL-E est entrainé sur des centaines de millions d’images et génère des images à la demande.
Or, les images qui constituent son corpus de données sont disponibles en ligne, certes, mais selon OpenAI, il est raisonnable de penser que « cet ensemble de données puisse contenir des images pouvant être protégées par les droits d’auteur ».
Quand on utilise une intelligence artificielle pour créer une image, plusieurs questions complexes surgissent.
Demandons par exemple à une intelligence artificielle de générer l’image d’un étudiant travaillant à l’écran, à la manière de Van Gogh.
- Qui est le créateur du contenu?
- Est-ce l’artiste original?
- Est-ce l’outil? Est-ce la compagnie qui a produit l’outil? Est-ce la personne qui a entré la demande?
- Et qu’en est-il lorsqu’un créateur s’inspire d’une image générée par Dall-e pour la modifier et produire une nouvelle œuvre? En est-il l’auteur? Si oui, à partir de quel moment?
L’utilisation des outils d’intelligence artificielle générative soulève de nombreuses questions qui n’ont pas reçu de réponses faisant l’unanimité.
Ainsi, en matière de propriété intellectuelle, voici quelques conseils :
- Si vous avez utilisé l’aide de ChatGPT pour rédiger un texte, il est de bon usage d’indiquer les passages ayant mobilisé l’intelligence artificielle générative, voire la question que vous avez formulée.
- Si vous avez utilisé l’aide d’un générateur d’images par intelligence artificielle, il est aussi de bon usage de le mentionner.
Nous avons parlé d’intégrité intellectuelle, de protection des données personnelles et de propriété intellectuelle. Y a-t-il d’autres aspects qu’il serait intéressant de découvrir?
Oui, abordons-en deux, la désinformation et les biais. Tout d’abord, parlons de la désinformation.
Les outils d’intelligence artificielle générative ont tendance à créer des informations qui sont erronées. Ils ne sont pas programmés pour générer « la bonne réponse », mais bien la réponse la plus « plausible », parce qu’ils anticipent de façon statistique les mots qui devraient suivre. Non seulement ils peuvent générer des informations qui sont fausses, mais ils le font de manière très convaincante.
Il faut bien réaliser qu’on n’interagit pas avec une personne, mais avec un outil qui ne comprend pas bien le sens des mots qu’il manipule. D’où l’importance de faire appel à son jugement critique lorsqu’on dialogue avec un outil d’intelligence artificielle générative… même s’il parait confiant et que ses réponses semblent renversantes de précision.
Ensuite, parlons des biais.
Saviez-vous que les contenus générés par les outils d’intelligence artificielle générative peuvent présenter des biais ou même contribuer à alimenter certains stéréotypes et préjugés? Les données sur lesquelles sont entrainés les outils d’intelligence artificielle ne sont pas neutres. Elles représentent la société dans laquelle nous vivons, qui est caractérisée par des inégalités, de la discrimination et des injustices.
Par exemple, on peut penser que ChatGPT a été entrainé de manière disproportionnée sur des textes de langue anglaise et associés à la culture occidentale de même qu’à ses valeurs. ChatGPT pourrait donc reproduire, voire amplifier, les biais qui se trouvent dans ses données d’entrainement. Pour identifier et corriger ces biais qui peuvent se produire quand on l’interroge sur des sujets délicats ou controversés, ça prend des manipulations humaines.
Ainsi, en matière de biais, de désinformation et d’intelligence artificielle générative, voici quelques conseils à suivre :
- Analysez les réponses obtenues de manière critique afin de déterminer si elles sont fiables et exemptes de préjugés ou de stéréotypes.
- Lorsque vous posez une question, surtout s’il s’agit d’un sujet délicat ou controversé, pensez à varier vos sources d’information.
- Signalez aux développeurs les réponses erronées, offensantes ou inappropriées.
Compte tenu de ces risques et de ces enjeux, la question de l’encadrement de l’intelligence artificielle est sur toutes les tribunes.
De nombreuses chartes et déclarations, comme la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, ont été adoptées partout dans le monde afin d’identifier les principes qui devraient guider l’utilisation de l’intelligence artificielle. À l’heure actuelle, il n’existe pas de cadre réglementaire propre à l’intelligence artificielle au Canada ni au Québec. Mais l’intelligence artificielle n’évolue pas dans un vide juridique puisqu’elle est assujettie aux différents régimes de droit et aux lois existantes.
Or, plusieurs de ces lois sont désuètes ou ne sont pas nécessairement bien adaptées pour traiter ces nouvelles technologies. De nombreux appels sont donc faits au législateur pour qu’il encadre mieux l’intelligence artificielle et limite les risques associés à sa conception, à son développement et à son déploiement. Plusieurs poursuites sont aussi en cours. Des auteurs et des artistes condamnent le fait que les œuvres aient été utilisées sans leur consentement pour entrainer les modèles d’intelligence artificielle générative. La manière dont les tribunaux traiteront ces litiges sera déterminante pour la suite des choses.
Un projet de loi sur l’intelligence artificielle et les données est présentement à l’étude. Cette loi permettrait de veiller à ce que les systèmes d’intelligence artificielle déployés au Canada soient sécuritaires et non discriminatoires. Mais compte tenu des délais souvent associés aux processus d’adoption des lois, de la complexité des débats et aussi du temps nécessaire pour se conformer aux nouvelles exigences, il y a fort à parier qu’il faudra encore plusieurs années avant qu’une telle réglementation n’entre en vigueur.
Cependant, le Canada est un des premiers pays à avoir proposé une loi pour encadrer l’intelligence artificielle.
Que retenir de tout ça?
Si on l’utilise de manière créative, éthique et intègre, l’intelligence artificielle générative est porteuse de nombreuses possibilités en enseignement supérieur. Il faut être conscients des enjeux qu’elle soulève et de ses limites si nous voulons tirer les bénéfices qu’elle promet tout en diminuant les risques qui y sont associés.
Il pourrait être intéressant que des échanges s’effectuent à l’intérieur des différents services d’une institution d’enseignement supérieur afin de réfléchir aux bonnes utilisations de l’intelligence artificielle.
Notamment :
- Dois-je le déclarer à mon supérieur ou à mes collègues si je me fais aider par une intelligence artificielle générative pour écrire un courriel?
- Dois-je le faire si je l’ai utilisée pour rédiger le rapport d’analyse demandé par mon gestionnaire?
C’est en créant des espaces de dialogue entre tous les acteurs que l’on pourra construire et mettre en place des stratégies gagnantes qui nous permettront de nous adapter à l’ère de l’intelligence artificielle.
Quelques informations inoubliables
-
Question 1
L’intelligence artificielle générative peut être utilisée comme un outil d’aide à l’apprentissage.
L’intelligence artificielle générative peut fournir des informations, des exemples, des explications et des résumés qui aident les apprenants à comprendre et à assimiler des concepts.
-
Question 2
Des logiciels existent pour détecter avec certitude si le texte remis par un étudiant à son évaluation a été rédigé par un humain ou une machine.
Au moment d’enregistrer cette capsule, aucune solution logicielle ne permet de détecter si un texte a été rédigé par une intelligence artificielle générative. De même, c’est parce que le texte n’est copié de nulle part que les logiciels de détection de similitudes n’arrivent pas à le déceler. Certes, la technologie continue d’évoluer…
-
Question 3
Les données que vous partagez avec une intelligence artificielle générative pour vos besoins personnels et professionnels pourraient être utilisées pour générer du contenu pour d’autres personnes.
Dans la foire aux questions de ChatGPT, on mentionne que les conversations peuvent être revues et réutilisées afin d’améliorer les systèmes. Il est donc recommandé de ne pas partager d’informations personnelles ou protégées par les droits d’auteur.
-
Question 4
Les données sur lesquelles un système comme ChatGPT est entrainé sont neutres.
Ces données sont produites par des humains, hommes et femmes, qui créent des contenus aux couleurs des traits culturels qui les représentent et surtout qui représentent la société dans laquelle nous vivons, qui est caractérisée par des inégalités, de la discrimination et des injustices. Ces caractéristiques sont reflétées dans les textes qu’utilise l’intelligence artificielle pour répondre à nos questions.
-
Question 5
Des œuvres protégées par les droits d’auteur sont utilisées par certains systèmes d’intelligence artificielle générative pour produire de nouveaux contenus.
Selon OpenAI, il est raisonnable de penser que les données d’entrainement peuvent contenir des images pouvant être protégées par les droits d’auteur. Des auteurs et des artistes condamnent le fait que des œuvres aient été utilisées sans leur consentement pour entrainer les modèles d’intelligence artificielle générative.
Question 1 de 2
Pour poursuivre votre familiarisation
Apprenez-en plus sur l’intégrité intellectuelle et les comportements à risque comme le plagiat, la fraude et la tricherie. Accédez à des outils gagnants conçus pour que les étudiants évitent de se retrouver dans une situation déplaisante qui pourrait nuire à leur projet d’études.
Parlons intégrité… et plagiat, Université TÉLUQ.
Note. Cette capsule vidéo a été produite à l’automne 2023. L’intelligence artificielle est un domaine en rapide développement. Cette vidéo se base sur GPT-3.5, la dernière version gratuite de ChatGPT disponible au moment de la conception de cette formation.