Actes du 3e Colloque International de Recherche et Action sur l’Intégrité Académique
“Défis et incertitudes de l’intégrité académique à l’ère de l’intelligence artificielle”
20-22 juin 2024, Université de Coimbra (Portugal), sous la direction de Michelle Bergadaà & Paulo Peixoto
L’utilisation académique d’IA générative : vers une réponse juridique ou éthique ?
Alexandre Zollinger, Maître de conférences HDR, Université de Poitiers (France)
ORCID : 0000-0002-0617-9254
DOI : https://doi.org/10.56240/fdfart04 (provisoire)
Mots-clés : Intelligence artificielle, contrefaçon, fraude, obligation de transparence, citations.
Keywords: Artificial intelligence, counterfeiting, fraud, transparency obligation, citations.
Résumé : Il n’est pas sûr que l’étudiant ou le chercheur, en incluant dans ses travaux un contenu généré par IA, porte atteinte ce faisant au droit d’un tiers. Une réponse académique semble toutefois nécessaire, car cette personne ne doit pas être étrangère à l’élaboration du contenu qu’elle présente comme sien, tant sur le fond que sur la forme. Quel peut être le fondement juridique d’une telle réponse ? Au-delà des qualifications traditionnelles (faute, fraude, contrefaçon), délicates à appliquer ici, l’impact du règlement européen sur l’intelligence artificielle, et plus particulièrement de la nouvelle obligation de transparence dans l’emploi d’IA générative qu’il vient consacrer, doit être étudié. Face aux incertitudes demeurant quant à l’applicabilité de cette nouvelle obligation, il peut apparaître utile, en parallèle, de préciser les usages académiques relatifs aux signatures de publication pour les adapter à l’emploi de ces outils, en amendant les règlements d’examen et chartes d’éthique et de déontologie. Une telle solution devrait s’accompagner de moyens techniques permettant d’identifier le recours à des IA. De plus, la réponse ne doit pas être trouvée dans le seul champ des sanctions potentielles, mais inclure une sensibilisation aux dangers, quant au fond, de l’emploi de ces outils, susceptibles d’être affectés par des biais et de générer des « hallucinations ». Une approche sous 4 angles complémentaires (juridique, technique, éthique et pédagogique) semble ainsi nécessaire pour répondre au défi de l’utilisation académique d’IA générative.
Abstract: It is not clear whether the student or researcher, by including AI-generated content in his or her work, is infringing the rights of a third party. However, an academic response seems necessary, as this person must not be a stranger to the development of the content he or she presents as his or her own, in terms of both content and form. What is the legal basis for such a response? Beyond the traditional qualifications (fault, fraud, counterfeiting), which are difficult to apply here, the impact of the European regulation on artificial intelligence, and more particularly the new obligation of transparency in the use of generative AI that it has just enshrined, needs to be studied. Given the uncertainties surrounding the applicability of this new obligation, it may also be useful to clarify academic practices relating to publication signatures, in order to adapt them to the use of these tools, by amending examination regulations and charters of ethics and deontology. Such a solution should be accompanied by technical means to identify the use of AIs. In addition, the answer must not be found solely in the field of potential sanctions, but must include raising awareness of the dangers, in terms of substance, of using these tools, which are likely to be affected by biases and generate “hallucinations”. An approach from 4 complementary angles (legal, technical, ethical and pedagogical) therefore seems necessary to meet the challenge of the academic use of generative AI.
——————————————————–
En vue de renforcer les “Sciences de l’intégrité” de façon participative, l’IRAFPA a fondé son propre «Pôle Publications de l’IRAFPA» en mars 2022.
Pour en savoir plus.