Les IA sont désormais capables de générer en quelques secondes ce qui prenait autrefois des heures : QCM, cas pratiques, questions ouvertes, corrigés. Mais comment s’en servir pour créer des examens fiables, sans se retrouver enfermé dans un moteur d’IA imposé ou dans une intégration qui vieillira trop vite ? Et surtout : que se passe-t-il après la génération brute, quand il faut transformer ce contenu en examen institutionnel, fiable, validé et sécurisé ? Comment générer des questions avec de l’IA? Concevoir un examen complet est une tâche exigeante : multiplier les types de questions (QCM, cas pratiques, questions ouvertes…), couvrir l’ensemble du programme, calibrer la difficulté et rédiger des corrections ou feedbacks pertinents. Inutile de rappeler que les IA génératives peuvent devenir un levier puissant pour concevoir des évaluations, mais leur efficacité dépend directement de la qualité du prompt et du niveau de détail fourni par l’enseignant. Un LLM ne « devine » pas votre intention : il la reconstruit à partir de vos instructions. Plus celles-ci sont précises, contextualisées et structurées, plus les propositions seront pertinentes, exploitables et conformes aux critères académiques. Ainsi, demander simplement « Génère un QCM en marketing » produit un résultat superficiel. À l’inverse, un prompt élaboré — intégrant le niveau des étudiants, les compétences évaluées, le ratio difficulté/facilité, les exigences métacognitives, le format d’importation, ou encore les sources à mobiliser — permet d’obtenir un contenu beaucoup plus robuste. Exemples de prompts adaptés à l’enseignement supérieur Prompt simple QCM : « Tu es un expert en pédagogie et en évaluation des compétences. Crée un QCM de 10 questions sur le thème [thème]. Chaque question doit avoir 4 propositions de réponse (1 correcte, 3 distracteurs plausibles). Le niveau est [niveau du public], destiné à [profil des apprenants]. Intègre des exemples concrets en lien avec [contexte professionnel]. Pour chaque question, précise la réponse correcte et donne une explication courte pour justifier le choix. Objectif pédagogique : [votre objectif] ».” Prompt pour étude de cas : « À partir du patron d’importation Theia (inséré ci-dessous), génère une étude de cas de 400 mots sur le lancement d’un produit dans le secteur cosmétique, suivie de : 3 questions ouvertes (avec corrigé détaillé), 3 QCM (4 choix, un seul vrai), et 1 mise en situation courte permettant d’évaluer la capacité d’analyse critique. Niveau : Master 1. Niveau de difficulté : 2 facile, 2 moyen, 2 avancé. Utilise un vocabulaire spécifique au marketing stratégique et cite des concepts tels que segmentation avancée, value proposition design et mapping perceptuel.” Prompt orienté docimologie : « Génère 6 QCM pour un examen d’économie niveau L2. Chaque question doit indiquer : la bonne réponse, un distracteur fort, un distracteur faible, et une estimation du niveau de difficulté (facile, moyen, difficile). Veille à ce que le taux de discrimination attendu soit élevé : chaque bonne réponse doit distinguer clairement un étudiant maîtrisant la notion d’un étudiant hésitant. » Et les données sensibles dans tout ça ? Un principe essentiel demeure : ne jamais transmettre de données confidentielles ou identifiantes à un LLM, quel qu’il soit. Cela inclut les copies d’étudiants, les sujets d’examen encore confidentiels, des notes ou métadonnées personnelles, des informations non publiques sur votre établissement. Dans un contexte institutionnel, l’utilisation d’un LLM doit s’aligner sur les politiques internes de confidentialité, de souveraineté et de gouvernance des données, tout en respectant les exigences réglementaires, notamment l’IA Act. Quel modèle d’IA choisir pour vos créer questions ? Le Chat, Gemini3, ChatGPT 5, etc.. les modèles ne manquent pas. Notre approche, c’est de vous laisser libre d’utiliser le LLM de votre choix. Chaque équipe pédagogique a ses préférences et contraintes : certains apprécient la performance de ChatGPT-5, d’autres privilégient des modèles français comme Mistral pour des questions de coût ou de souveraineté des données. Bonne nouvelle, presque tous les LLM du marché peuvent prêter main forte pour générer vos questions d’examen. Par exemple, un prompt conçu pour ChatGPT-4 fonctionnera également avec Mistral ou même avec l’IA Copilot de Microsoft – il suffit d’adapter l’outil selon celui auquel vous avez accès Le passage du LLM à Theia est ensuite très simple, grâce à deux modes d’import complémentaires : Les standards GIFT ou QTI, que votre LLM peut produire directement, permettent d’importer en quelques secondes des QCM, des questions ouvertes ou des textes à trous tout en conservant le formatage essentiel : propositions, bonnes réponses, feedbacks. C’est idéal lorsque l’on veut aller vite et rester sur des structures connues des équipes pédagogiques. Le patron d’importation Theia, lui, va plus loin. Il permet d’intégrer des contenus enrichis que les standards ne gèrent pas : référentiels de compétences, niveaux d’exigence, pondérations pour la notation sur grille, taxonomies pédagogiques, métadonnées avancées. En d’autres termes, l’IA ne génère plus seulement des questions, mais des items complets, déjà articulés avec vos cadres pédagogiques. Deux bonnes raisons de créer vos contenus depuis votre LLM préféré Sur le papier, disposer d’un générateur intégré à la plateforme pourrait sembler confortable ; en pratique, l’écosystème de l’IA évolue à un rythme tel qu’aucun moteur ne reste longtemps en avance. De nouveaux modèles apparaissent chaque mois, parfois plus performants, parfois spécialisés par discipline, parfois optimisés pour des usages académiques très précis. Dans ce contexte, une intégration figée perd naturellement en pertinence au fil du temps. À cela s’ajoutent des interrogations légitimes sur les modèles économiques des LLM : comment anticiper le coût réel de génération de contenu à moyen terme, et comment s’adapter si les tarifs évoluent ? L’approche ouverte de Theia répond précisément à ces enjeux et offre deux bénéfices essentiels. Flexibilité : vous restez libre d’adopter le modèle d’IA qui vous convient, d’en changer à tout moment, ou d’explorer des LLM émergents. Si un modèle francophone spécialisé en sciences ou en droit apparaît demain, vous pouvez l’utiliser immédiatement pour vos évaluations, sans dépendre d’un cycle de mise à jour de la plateforme. Pérennité : la plateforme d’examen se concentre sur son cœur de métier: organiser, sécuriser et fiabiliser les examens tandis que l’IA reste un outil externe, interchangeable