UVT le 04 décembre 2025
Vers une IA Responsable et Éthique à l'Université. Co-construisons ensemble le cadre de référence pour notre communauté universitaire.
Notre Feuille de Route (3h30)
Une matinée/début d'après-midi structurée pour passer de la théorie à la production collective.
Présentation des enjeux et des participants.
Quoi, Comment, Pourquoi et exemples internationaux.
Démonstration de l'outil et début des travaux en groupes thématiques.
Reprise des travaux de groupes et finalisation des propositions.
Restitution des faits marquants et prochaines étapes.
Qu'est-ce que la Charte IA ?
Protéger la valeur des diplômes et distinguer assistance et fraude.
Expérimenter en maîtrisant les risques éthiques.
Garantir un accès juste et prévenir les biais.
Un message unique sur les droits et devoirs.
Axe principal : Guide pratique
L'approche se concentre sur la distinction entre utilisation "assistée" et "fraude" selon les disciplines.
Axe principal : Principes Directeurs
Définit l'IA comme outil de soutien et met l'accent sur la déclaration et l'évaluation des compétences.
Axe principal : Position Éthique
Souligne l'importance de la vigilance éthique et la nécessité d'un cadre évolutif.
Quel autre exemple pourrait inspirer notre Charte ? (Ex: Respect des droits d'auteur, formation obligatoire).
Espace de Travail Collaboratif
Sélectionnez un groupe thématique pour voir les articles proposés et lancer le débat.
Tout usage d'outils d'IA générative dans un travail ou processus universitaire doit être systématiquement déclaré, en précisant l’outil utilisé et la nature de son apport.
"Quelle est la meilleure manière d'assurer la déclaration systématique et homogène de l'IA (format, outil, place dans **le livrable (document, média...)**) ?"
L’humain doit rester le maître final et l'auteur responsable des travaux, décisions, ou ressources produits, même s'ils sont assistés par l'IA. L'IA est un outil, non un substitut à l'effort intellectuel.
"Comment garantir que l'utilisation de l'IA renforce l'esprit critique plutôt que de le remplacer ?"
L'université s'engage à sensibiliser l'ensemble de la communauté aux questions éthiques soulevées par l'IAG, incluant la détection et la gestion des biais inhérents à la technologie.
"Comment intégrer l'éthique de l'IA de manière transversale et obligatoire dans tous les cursus universitaires ?"
L'usage de l'IAG doit être fait dans une perspective de sobriété numérique et de responsabilité écologique, en tenant compte de l'impact carbone généré par ces technologies.
"Faut-il mettre en place des indicateurs de 'consommation IA' pour promouvoir l'utilisation durable à l'échelle de l'université ?"
Les enseignants-chercheurs sont encouragés à incorporer l'IAG dans leurs méthodes pour enrichir l'expérience d'apprentissage, et non pas la contourner.
"Quelles sont les pratiques pédagogiques pour lesquelles on peut encourager l'incorporation réfléchie de la technologie?"
Les enseignants doivent établir des critères clairs concernant l'utilisation de l'IAG pour chaque travail (autorisé, proscrit, autorisé sous conditions), et imposer la transparence des étudiants.
"Comment l'université peut-elle soutenir les enseignants dans l'adaptation de leurs évaluations face à l'évolution rapide de l'IAG ?"
Les méthodes d'évaluation doivent être adaptées pour valoriser la réflexion critique, la méthodologie et l'effort de compréhension de l'étudiant, au-delà du simple produit final généré par l'IAG.
"Quelles sont les méthodes d'évaluation les plus efficaces pour mesurer l'effort de compréhension (le processus) de l'étudiant, même avec l'aide de l'IA ?"
L'étudiant doit utiliser l'IAG comme un outil pour approfondir la compréhension, analyser des informations ou générer du contenu préliminaire, mais jamais comme un substitut total à l'effort intellectuel personnel.
"Comment garantir que l'usage de l'IAG reste un soutien et ne devienne pas une source de dépendance pour l'étudiant ?"
L'étudiant est responsable de vérifier l'exactitude des informations générées par l'IAG (risques "d'hallucinations") et de valider les sources citées.
"Quelles sanctions appliquer en cas de soumission de faits erronés générés par l'IA sans vérification ?"
La soumission d'un travail généré par l'IA sans déclaration ou en violation des consignes est considérée comme une faute de plagiat/fraude et sera sanctionnée conformément au règlement académique.
"Les sanctions liées à l'IA doivent-elles être les mêmes que celles du plagiat traditionnel ou faut-il un barème spécifique ?"
Il est strictement interdit d'introduire des données confidentielles, sensibles (personnelles ou de recherche) ou non publiques de l'université dans des outils d'IA générative externes et non sécurisés.
"Comment l'université peut-elle fournir une solution IA sécurisée et interne pour éviter l'utilisation de modèles publics non conformes au RGPD ?"
Tout déploiement d'un système IA dans les processus administratifs (recrutement, gestion) doit faire l'objet d'un audit préalable sur l'impact humain, éthique et la neutralité des décisions.
"Quels départements (RH, Direction, Informatique) doivent être responsables de la validation éthique des outils IA administratifs ?"
La présente Charte sera revue et mise à jour au minimum une fois par an.
"Une revue annuelle est-elle suffisante, ou certains articles nécessitent-ils une évaluation plus fréquente ?"
Cliquez ci-dessous pour agréger l'intégralité des contributions saisies, classées par groupe, dans un rapport modifiable et imprimable.
Vos contributions feront l'objet d'une analyse pour consolider la version préliminaire de la Charte.
Le comité d'éthique traitera toutes les propositions recueillies.
Publication d'un document révisé basé sur vos retours.
Présentation au Conseil pour adoption officielle.
Merci de votre participation !