top of page

Parcoursup sera-t-il plus juste avec l’Intelligence Artificielle ?



Depuis le premier jour, lorsqu’il a fallu trouver un moyen de ne plus dépendre d’une évaluation humaine au cas par cas, lorsque les choix sont devenus multiples et les opportunités presque infinies, il a été question d’algorithme. Nous avions trouvé la solution pour satisfaire les demandes et faciliter le travail de sélection de tous les établissements : un algorithme ferait mieux et plus vite ! Un chercheur du CNRS, et son équipe, allait mettre au point ce fameux algorithme et éliminerait d’un seul coup tous les points de friction de l’expérience du lycéen de terminale au moment de définir son avenir dans l’enseignement supérieur.

 

Cinq années plus tard, Parcoursup est-il parvenu à séduire, à rassurer et à satisfaire les attentes de son public ?

 

La question peut être abordée de diverses manières. Pour autant, il semble clair que les progrès constatés ou restant à effectuer sont une source inépuisable de discussion et de débats. Jusqu’à l’année 2023, date qui marquera l’adoption générale de l’Intelligence Artificielle par tous, sous sa forme générative tout du moins. Ainsi déclarer que Parcoursup serait désormais propulsé par de l’IA, devrait nous garantir d’être plus proche que jamais de l’excellence. Autant, nous doutions hier de la bonne foi, de l’intégrité des personnes chargées de trier et de classer des dossiers, autant nous sommes majoritairement convaincus que l’IA sera impartiale.

 

Avec ce nouveau dispositif, le ministère espère notamment atteindre deux objectifs majeurs, afin d’éteindre les critiques persistantes :

 

·     Faciliter les décisions des étudiants face aux questionnements sur leur orientation

 

·     Réduire le phénomène des errances post-bac et le taux d’échec en 1er cycle universitaire, aujourd’hui situé au-dessus de 30%.

 

Deux objectifs ambitieux répondraient les détracteurs de ce système « informatisé » toujours redouté, jamais aimé. Pourtant l’amour aveugle est à la base même de la construction de Parcoursup. En effet, l’algorithme de référence sur lequel se fonde le système, est calqué sur celui dit des mariages stables créés par deux mathématiciens et économistes en 1962, David Gale et Lloyd Shapley. Leur travail a permis de résoudre le problème imaginaire de marier durablement un nombre équivalent d’hommes et de femmes. A chaque étape itérative de cet algorithme particulier, « chaque homme célibataire se propose à la femme qu'il préfère parmi celles à qui il ne s'est jamais proposé (sans regarder si elle est déjà en couple). Chaque femme considère alors les propositions qui lui sont faites (en incluant éventuellement celui avec qui elle est déjà), puis dit « peut-être » à l'homme qu'elle préfère et « non » à tous les autres. » En répétant ce mécanisme de décision, on finit par avoir créé tous les mariages, les derniers célibataires se voyant proposer les femmes encore « disponibles ».

 

On peut naturellement rejeter ces idées d’un autre siècle et c’est sans doute ce principe de « préférence » réservée aux mieux classés qui est sévèrement critiqué chaque année. Pourtant cet algorithme est efficace dans ce contexte. Plus encore, l’idée que si une préférence a été satisfaite quelque part, cela libère d’autres choix éventuels pour un candidat moins bien classé, est à la fois judicieuse mais peu égalitaire. Le choix fait par l’étudiant numéro, le rendant par ailleurs indisponible pour les autres. A la fin, les derniers étudiants se retrouvent à « choisir » des orientations qui ne sont pas vraiment les leurs, mais plutôt celles qui restent disponibles, celles que les autres n’ont pas retenues.

 

Alors comment l’Intelligence Artificielle peut-elle corriger cet algorithme primaire et réduire ce sentiment d’injustice évoqué par celles qui subissent leurs « choix » ?

 

Tout d’abord, les étudiants (lycéens à ce moment de leur parcours) sont sujets à l’auto-censure liée à leur niveau de confiance. Les bons élèves se montrent plus critiques envers leurs résultats de contrôle continu, et ont ainsi tendance à se sous-estimer, de même que les filles et les élèves issus de catégories sociales défavorisées. N’ayant que peu ou pas de visibilité sur les moyennes nationales, ils et elles surtout, se positionnent modestement sous leur niveau réel au moment d’exprimer leurs choix.

 

Sur ce seul exemple de biais cognitif, on peut aisément imaginer l’apport de l’Intelligence Artificielle. Elle pourrait redresser les classements imaginés par les lycéens en comparant l’ensemble des notes à l’échelle nationale de tous les candidats à toutes les formations, simultanément et ainsi corriger ou proposer des corrections de choix. Les évaluations des potentiels de chaque candidat seraient nettement plus ajustées, plus fines et donc moins discutables.

 

Mais qu’en est-il de la préférence qui dicte les décisions de tout algorithme ?

 

La question est compliquée. Une intelligence non humaine est-elle capable d’exprimer et de restituer des préférences ? Les préférences ne sont-elles pas des vues de l’esprit chez l’humain ?

 

La formation des préférences dans le cerveau humain est un processus complexe qui implique diverses régions cérébrales et des mécanismes neurologiques. Par exemple, la méthode des "Préférences Cérébrales" créée par Hermann (ancien DRH chez General Electric) est un outil de connaissance de soi et des autres basé sur ses recherches en neurosciences. Ce modèle divise le cerveau en quatre quadrants, chacun associé à un style de pensée différent : analytique, séquentiel, interpersonnel et imaginatif. On comprend dès lors que les préférences des uns ne seront pas celles des autres. Ceci expliquant que s’il est impossible pour la machine de prédire les préférences de chaque candidat, il est évident que l’analyse d’un grand volume de données comportementales permet de prédire un grand nombre de choix, et ainsi de réduire les possibilités d’un « mauvais choix ».

 

Les préférences algorithmiques sont de toute autre nature. Les algorithmes font des choix en utilisant des méthodes mathématiques et statistiques pour analyser les données et prendre des décisions basées sur ces analyses. Il n’est nullement question de « profil » d’algorithme ici. La culture, les émotions, le vécu au sens de la mémorisation d’expériences, n’ont pas d’impact sur les décisions. Elles sont purement rationnelles et par conséquent, indiscutables d’un point de vue fonctionnel.

 

Alors, l’humain se sentira-t-il rassuré sur l’équité de Parcoursup lorsqu’il comprendra que l’IA permet d’effacer la majorité de ses biais cognitifs dont il est la première victime ? Ou au contraire, ce manque d’humanité dans la prise de décision lui fera-t-elle regretter la possibilité d’un choix improbable obtenu sur un malentendu ?

 

 

226 vues0 commentaire

Comments


bottom of page