Actes du 3e Colloque International de Recherche et Action sur l’Intégrité Académique
“Défis et incertitudes de l’intégrité académique à l’ère de l’intelligence artificielle”
20-22 juin 2024, Université de Coimbra (Portugal), sous la direction de Michelle Bergadaà & Paulo Peixoto
IA, Sciences et Médias
Dominique Leglu,
, La Recherche, Sciences et Avenir (France)
DOI : https://doi.org/10.56240/fdfpos05 (provisoire)
Question centrale pour nous : en quoi l’IA affecte le traitement de l’information dans les médias, et tout particulièrement quand ils ont à évoquer les résultats scientifiques. A qui faire confiance ? On évoquera aussi l’utilisation (et ses limites) de l’IA par les médias. Et réciproquement, l’utilisation des informations données par les médias par les concepteurs de LLM.
Comment l’IA va-t-elle (est-elle déjà) utilisée dans la recherche elle-même, mais aussi dans les publications ? Comment les méthodes (avec utilisation d’IA ou pas) seront-elles (sont-elles) signalées /expliquées aux lecteurs/utilisateurs finals ? Comment conserver la confiance.
C’est une question qui peut, à première vue, sembler surtout éthique, en précisant comment on a mené une recherche, puis les modalités selon lesquelles on l’a communiquée. Mais c’est aussi une question juridique (à qui attribuer la responsabilité de telle ou telle affirmation, si elle vient d’un résultat donné par l’IA). Quant au scientifique, il faut se demander en quoi l’IA peut aider dans le travail de recherche (et ses limites). Ce qui a, dans un effet domino, un impact organisationnel (métiers différents…) et intellectuel, donc très humain ! Quant aux médias, quasiment les mêmes questions se posent…
C’est une vision panoramique, du plus spécialisé au plus « grand public », et s’adresse aussi bien aux décideurs (responsables d’universités ou d’institutions de recherche…) qu’aux doctorants. Seront cités des références venant du monde scientifique, de débats sur le sujet, mais aussi de certains articles « grand public ».
Un petit historique « court » : on reviendra sur la façon dont l’IA a été vue par les médias avant ChatGPT et la rupture que cette IA utilisable par le grand public a occasionnée. Le changement de « regard » et la question de la confiance – qui a peur de l’IA aujourd’hui et pourquoi – ponctuera régulièrement le propos.
Un regard plus généraliste, plus « extérieur » au milieu scientifique proprement dit. Cela peut le sensibiliser, si nécessaire, aux divers moyens de communication actuels. Aux difficultés qui se posent « à tous les étages » de l’information et communication scientifiques (une fois les travaux de chercheurs effectués).
——————————————————–
En vue de renforcer les “Sciences de l’intégrité” de façon participative, l’IRAFPA a fondé son propre «Pôle Publications de l’IRAFPA» en mars 2022.
Pour en savoir plus.