Aller au contenu principal

ChatGPT pour recruter : ce qui marche, ce qui casse

78 % des recruteurs utilisent ChatGPT, 4 % des entreprises l'ont vraiment déployé. Inventaire honnête tâche par tâche, avec les biais et limites 2026.

B
Écrit parBastien Bordas
Temps de lecture22 min
Publié le6 mai 2026
ChatGPT pour recruter : ce qui marche, ce qui casse

ChatGPT est devenu en 2025 l'outil par défaut des recruteurs français. 78 % d'entre eux l'utilisent dans leur métier (Hellowork, novembre 2025), et le volume de données envoyées à des LLM publics a été multiplié par six en un an (Netskope 2026). Mais l'APEC observe en parallèle que 4 % seulement des entreprises ayant recruté des cadres en 2024 utilisent un outil d'IA dédié au recrutement. Les deux chiffres ne se contredisent pas — ils décrivent un même phénomène vu sous deux angles. Cet article explique où ChatGPT en mode chat tient solidement, où il casse à coup sûr, ce que la mémoire persistante (Memory, Projects, Custom GPTs) change vraiment en 2026, et pourquoi la bascule réglementaire de cette année déplace le sujet d'une question de qualité à une question de risque calculable.

78 % des recruteurs disent l'utiliser. 4 % des entreprises l'ont déployé.

L'écart ne dit pas que les recruteurs mentent ou que les entreprises sont en retard. Il dit que ce qu'on appelle « ChatGPT en recrutement » dans les chiffres recouvre deux réalités très différentes.

L'enquête Hellowork de novembre 2025 a interrogé 489 recruteurs et 2 247 candidats. Question posée : utilisez-vous l'IA générative dans le cadre de votre métier ? Réponse : 78 %, contre 39 % un an plus tôt. Parmi les usages déclarés, 75 % rédigent leurs offres avec, 53 % préparent des posts réseaux sociaux, 44 % écrivent des messages aux candidats, 39 % rédigent des comptes rendus d'entretien, 30 % préparent les questions d'entretien.

Dans le même temps, l'APEC publie ses Pratiques de recrutement de cadres 2025 (n=1 150 entreprises) et constate que 4 % seulement des entreprises ayant recruté en 2024 utilisent un outil d'IA dédié au recrutement, et 11 % envisagent de le faire.

Hellowork vs SHRM 2026 — pourquoi ces chiffres ne se contredisent pas

Hellowork mesure l'usage individuel déclaratif : ouvrir ChatGPT dans un onglet une fois par mois pour rédiger une annonce suffit à compter. Le rapport SHRM State of AI in HR 2026 (mars 2026, n=1 908 professionnels RH) mesure le déploiement organisationnel formel et trouve 27 % des organisations US qui ont déployé l'IA en recrutement. Les deux chiffres ne mesurent pas la même chose — l'un compte les onglets ouverts, l'autre les outils intégrés au process.

Le rapport Netskope Threat Labs 2026 fait converger les deux côtés : le volume de données envoyées vers les applications GenAI a été multiplié par six en un an, le nombre d'utilisateurs par trois, et la majorité passe par des comptes personnels hors contrôle informatique. En clair : le ChatGPT qui explose dans les statistiques de recrutement, ce n'est pas un ATS augmenté par l'IA — c'est un onglet ouvert à côté, sur un compte Plus que le recruteur paie sur ses notes de frais.

Ce n'est pas anodin. Les deux modes d'usage produisent des résultats, des biais et des risques juridiques très différents. Toute la suite de cet article se lit à travers cette distinction.

Quand ChatGPT marche en recrutement : la règle structuré-comparable-traçable

Une tâche tient avec ChatGPT en mode chat quand elle remplit quatre conditions. Mono-document : un seul CV, une seule fiche de poste, un seul message à la fois. Mono-session : la mémoire d'une session à l'autre n'a pas d'importance. Le résultat se juge à l'œil : le recruteur reconnaît immédiatement une bonne sortie d'une mauvaise, sans avoir besoin d'un référentiel externe. Pas d'obligation de comparer ni de justifier : la décision finale n'a pas à être défendue ligne à ligne devant un manager, un candidat ou une autorité.

Une tâche casse dès qu'une de ces conditions saute. Il faut comparer plusieurs profils — le biais de position s'enclenche. Il faut maintenir un fil entre plusieurs sessions — la mémoire se perd, le ton dérive, les critères se reformulent. Le résultat doit être justifié — la variabilité inter-sessions rend la décision non reproductible. Les données sont sensibles — la fuite par prompt devient un risque RGPD.

L'angle « ChatGPT est bon en créatif et faible en analytique » qui domine le SERP est faux. La frontière n'est pas là. Elle est entre structuré-comparable-traçable d'un côté, et ouvert-jetable de l'autre. Cette frontière est architecturale, pas circonstancielle. Aucune amélioration de modèle ne la déplace.

En 2026, une seconde frontière s'ajoute, et c'est elle qui change la lecture du marché : la frontière entre compte perso (ChatGPT Plus, Free, Go individuel) et configuration équipe (Business ou Enterprise avec Projects activés, Memory paramétrée, instructions persistantes au niveau de l'organisation). Sur le compte perso, qui reste majoritaire dans les PME et ETI françaises selon Netskope, les conditions ci-dessus s'appliquent strictement. Sur une configuration équipe correctement paramétrée, certaines limites multi-session peuvent reculer — sans disparaître. Nous y revenons en section dédiée.

Tâche par tâche : grille de 10 verdicts pour 2026

Un recruteur senior ne demande pas à ChatGPT « trie ces CV ». Il maintient un fil brief → évaluation. C'est cette discipline qui décide ce qui tient ou casse, pas la qualité du modèle. La grille ci-dessous applique cette logique à dix tâches courantes du métier, en distinguant verdict général et différence éventuelle entre compte perso et configuration équipe.

#TâcheVerdictPourquoi
1Rédaction d'annonce✅ avec retoucheMono-document, jugé à l'œil. Sans retouche, homogénéisation des annonces.
2Aide au brief / clarification critères⚠️ partielPas de mémoire poste à poste sur compte perso. Utile en démarrage, dangereux comme méthode.
3Préparation de questions d'entretien✅ trameTrame correcte, profondeur non. L'expert humain valide les attendus.
4Tri / pré-screening de CV❌ casseBiais nominatifs documentés + auto-préférence du modèle (Xu et al. 2026).
5Analyse comparative de short-list❌ cassePosition bias + variabilité inter-sessions, même à température 0.
6Synthèse / debrief post-entretien⚠️ partielProjection sur les notes + RGPD : le compte rendu d'entretien est une donnée personnelle.
7Messages d'approche / outreach✅ tientMono-document, retouche humaine sur le ton attendu par le profil.
8Relances candidat✅ tientProduction texte courte avec variations naturelles, pas de comparaison.
9Réponse à un candidat refusé⚠️ partielRisque de ton standardisé + RGPD si motifs détaillés transmis.
10Compte rendu d'un brief manager⚠️ partielCorrect si transcription brute donnée. Casse en reformulation libre.

Quatre lignes sur dix tiennent (✅), quatre sont conditionnelles (⚠️), deux cassent franchement (❌). La répartition raconte mieux le métier que les chiffres globaux d'adoption : ChatGPT est un assistant rédactionnel puissant, pas un système d'évaluation.

Trois prompts qui marchent en 2026 — et un à ne plus utiliser

Pour rédiger une annonce (✅) : « Voici la fiche de poste suivante [texte brut]. Réécris-la pour un site carrières en français, ton vouvoiement professionnel, structure missions / profil / process. Pas de superlatifs, pas de "passionné" ni de "dynamique". Garde toutes les informations factuelles. » Le résultat demande une retouche ciblée sur le contexte d'équipe et les enjeux différenciants — l'IA ne les connaît pas.

Pour préparer un entretien (✅) : « Pour un poste de [intitulé] avec ces critères clés [liste], propose-moi quinze questions comportementales (format STAR) et cinq questions situationnelles. Une question par critère minimum. Pas de questions fermées. » À compléter humainement par les questions qui creusent la motivation et le contexte personnel — l'IA standardise, elle ne contextualise pas.

Pour personnaliser une relance (✅) : « Le candidat [nom] m'a envoyé ce message [texte]. Rédige une relance de trois phrases qui répond à son point principal et propose un créneau cette semaine. Ton chaleureux, pas obséquieux. » Vérifier que le ton correspond bien à la relation déjà établie.

Et le contre-exemple (❌) : « Note ce candidat sur 10 par rapport à ce poste. » Ce prompt enclenche tous les biais documentés en 2026 — auto-préférence, sycophantie, hallucination, instabilité du score d'une session à l'autre. Aucune cellule de la grille ne tient avec ce type de demande. Dès qu'une décision passe par un score numérique sorti du modèle, vous achetez le risque sans la qualité.

Les biais 2026 ne sont plus ceux de 2024

Les premiers articles sérieux sur les biais des LLM en recrutement datent de 2023-2024, époque GPT-3.5 et GPT-4. La référence reste la méta-étude de Wilson et Caliskan présentée à la conférence AIES 2024 : sur 500 CV testés et 9 métiers, les modèles testés favorisaient les noms à consonance blanche dans 85,1 % des cas et les noms féminins dans 11,1 % seulement, et les hommes noirs étaient défavorisés face aux hommes blancs dans pratiquement 100 % des combinaisons. Ces résultats restent une référence académique, datée explicitement 2024.

En 2026, la photographie a changé sur deux dimensions, et c'est utile à dire honnêtement.

Les biais explicites ont reculé sur les modèles récents. La méta-étude Evaluating Bias in LLMs for Job-Resume Matching publiée sur arXiv en mars 2026 (référence 2503.19182) confirme que les biais frontaux de genre et de race sont moins marqués sur GPT-4o, Claude Opus 4.x et Gemini 3.1 que sur les générations précédentes. Les fournisseurs ont travaillé. C'est un fait.

Mais des biais plus subtils sont devenus dominants — et ils sont plus dangereux car moins détectables. Trois mécanismes documentés en 2026 méritent qu'on s'y arrête.

L'auto-préférence du modèle est probablement le résultat le plus inconfortable de l'année. L'étude AI Self-preferencing in Algorithmic Hiring de Xu, Li et Jiang (arXiv 2509.00462) établit qu'un CV reformulé par GPT-4o a 23 % à 60 % de chances en plus d'être présélectionné par GPT-4o que le même CV rédigé par un humain. GPT-4o se sur-favorise à 82 %. Implication directe : un recruteur qui rédige son annonce avec ChatGPT, fait reformuler les CV reçus par ChatGPT, et demande à ChatGPT de noter le tout dans le même Custom GPT, amplifie un biais qu'il ne voit pas. Un prompt explicite « ignorez l'origine » réduit l'effet — il passe de 82 % à 30 % — sans le faire disparaître.

Le biais sur le prestige du diplôme persiste, y compris sur des CV anonymisés. L'étude Small Changes, Big Impact (arXiv 2603.05189) démontre que les langues parlées, les activités extra-scolaires, le bénévolat et même les hobbies signalent implicitement la race, le genre et le statut socio-économique du candidat. Les LLM 2026 biaisent toujours sur ces marqueurs résiduels après anonymisation. Autrement dit : retirer le nom du CV ne suffit pas.

La sycophantie, documentée par Anthropic en 2023 et toujours valable en 2026, est le risque opérationnel le plus discret. Elle décrit la tendance des LLM à confirmer ce que le prompt suggère. Si un recruteur écrit « j'hésite entre Marie qui me semble forte et Pierre qui m'a un peu déçu », le modèle a une probabilité non négligeable de confirmer l'intuition, peu importe ce que disent les CV. Le risque n'est pas que l'IA ait un avis ; c'est qu'elle valide le vôtre sans contradiction.

La conclusion défendable juridiquement n'est pas « les LLM sont racistes ». Elle est plus précise et plus inconfortable : les LLM grand public sont instables et prompt-dépendants sur les attributs protégés. Le sens du biais peut s'inverser selon le contexte d'entreprise injecté, avec des écarts allant jusqu'à 12 % d'invitation à entretien d'un côté ou de l'autre. C'est précisément ce que l'AI Act et la jurisprudence Mobley v. Workday sanctionnent : pas un biais prévisible, mais une décision non auditable. Le panorama plus large de ce que l'IA fait vraiment et ne fait pas en recrutement confirme cette ligne : l'IA peut structurer un raisonnement, elle ne sait pas le remplacer.

Memory, Projects, Custom GPTs : la mémoire fixe ce qu'elle ne corrige pas

La mémoire persistante ne corrige pas les biais de la section précédente : elle les fixe.

Sur le compte Business ou Enterprise correctement configuré, ChatGPT propose en 2026 des fonctionnalités absentes du compte personnel. Memory devient un standard et conserve le contexte entre sessions. Projects permet d'attacher jusqu'à 40 fichiers et d'ancrer des instructions persistantes. La File Library partage des documents au niveau de l'équipe. GPT-5.5, lancé le 23 avril 2026, étend le contexte à un million de tokens et active un mode agent natif. Sur certaines tâches multi-session — suivi d'un même candidat dans le temps, réutilisation d'une grille d'évaluation, continuité entre brief et compte rendu — le verdict 2025 « casse » devient « tient avec discipline ».

Sur le compte Plus personnel, Free ou Go — celui qu'utilise la majorité des recruteurs PME et ETI selon Netskope — rien ne change. Les fonctionnalités ne sont pas là, ou pas au niveau requis pour porter une discipline d'équipe. Le verdict 2025 reste valide à la lettre.

Et même sur Business correctement configuré, les propriétés architecturales documentées persistent. Le phénomène Lost in the Middle identifié par Liu et al. (TACL 2024) observe une dégradation de plus de 30 % de performance quand l'information pertinente se trouve au milieu d'un contexte long de 20 documents — une longueur typique d'une short-list candidats injectée dans un prompt. La variabilité inter-sessions documentée par Lau (arXiv 2603.04417, mars 2026) montre que le même prompt soumis deux fois au même modèle, même à température 0, peut produire des scores différents. Le position bias établi par Shi et al. (arXiv 2406.07791, 2024) sur 150 000 instances confirme que l'ordre dans lequel les profils sont présentés détermine partiellement le classement, et que l'effet est plus fort quand les profils sont proches en qualité — exactement le cas d'une short-list.

Le risque le plus discret de 2026 est combinatoire. Memory persistante plus auto-préférence du modèle plus sycophantie : un Custom GPT « screening » apprend les préférences du recruteur, les renforce session après session, sans audit, sans traçabilité. La mémoire ne lit pas les CV — elle lit les choix passés du recruteur. Si ce dernier a un biais implicite sur le prestige, sur l'âge, sur le tempérament d'un candidat, le Custom GPT le fige et l'amplifie sur les 50 candidats suivants. Aucune des fonctionnalités d'audit du compte Business ne détecte ce mécanisme — il faut une grille externe pour le voir.

La conclusion 2026 sur la mémoire persistante n'est donc pas un démenti de la thèse 2025, c'est un déplacement : elle élargit le champ des tâches tenables sur Business configuré, sans toucher au compte perso, et elle ouvre une nouvelle catégorie de risque sur les usages avancés que personne n'avait prévue.

La conformité 2026 : 4 dates qui changent votre risque

L'environnement réglementaire de 2026 ne ressemble pas à celui de 2025. Quatre dates structurent l'année et changent le rapport coût-risque pour toute entreprise française qui utilise ChatGPT en recrutement.

8 janvier 2026 — Sanction Free de 42 M€. Les délibérations CNIL SAN-2026-001 et SAN-2026-002 marquent le passage de la pédagogie à la sanction effective. La CNIL a aussi prononcé 325 M€ contre Google (septembre 2025) et 150 M€ contre Shein (septembre 2025). Le calibrage répressif s'est durci.

7 mars 2026 — Mobley v. Workday : opt-in collective ADEA clos. Le 12 juillet 2024, le juge avait qualifié Workday d'« agent » de l'employeur. Le 16 mai 2025, l'action collective sous l'Age Discrimination in Employment Act avait été certifiée. Le 7 mars 2026, l'opt-in pour les plaignants se ferme.

Encadré technique — Mobley v. Workday, pourquoi ça vous concerne

Workday a déclaré dans la procédure que 1,1 milliard de candidatures ont été rejetées via sa plateforme sur la période litigieuse. Le 6 mars 2026, le juge a rejeté la motion de Workday et confirmé les claims ADEA. Implication pour le marché : la responsabilité juridique pour discrimination algorithmique remonte au fournisseur d'IA et au déployeur (l'employeur). Une PME française qui copie-colle des CV dans ChatGPT en compte perso n'a pas de fournisseur tiers à attaquer — elle est seule.

3 avril 2026 — La CNIL annonce ses contrôles 2026. Le recrutement est désigné premier pilier de contrôle de l'année. Trois axes annoncés : loyauté algorithmique (les outils ne doivent pas induire de discrimination directe ou indirecte), information des candidats (chaque postulant doit être informé de l'existence d'un traitement algorithmique et des critères), durées de conservation (la pratique du « vivier » sans purge devient une ligne rouge). La CNIL précise que cette thématique « préfigure l'exercice de ses futures attributions d'autorité de surveillance de marché dans le champ travail au titre du règlement IA ». Cibles prioritaires : grandes entreprises et cabinets de recrutement.

2 août 2026 — AI Act Annexe III applicable, sauf accord politique. Le règlement (UE) 2024/1689 classe les outils de tri de candidats en haut risque (Annexe III, point 4 « Emploi »). Les sanctions peuvent atteindre 15 M€ ou 3 % du chiffre d'affaires mondial. Le trilogue Digital Omnibus du 28 avril 2026, qui devait reporter la deadline à décembre 2027, s'est achevé après douze heures sans accord (IAPP, 29 avril 2026). Sans Omnibus adopté avant le 2 août 2026, les obligations entrent en vigueur à cette date dans le texte original.

À ces quatre dates s'ajoute le risque de fuite par prompt. Le rapport Netskope 2026 documente une multiplication par six du volume de données envoyées vers les LLM publics, majoritairement via comptes personnels hors contrôle informatique. Le DPA Enterprise d'OpenAI mis à jour le 1ᵉʳ janvier 2026 confirme la non-réutilisation des données pour entraînement sur les comptes Business et Enterprise — mais cette protection ne couvre pas les comptes Plus, Free et Go. Le cas Samsung (mars 2023, trois fuites confirmées de code source via prompts) reste l'exemple cité à l'oral par tous les responsables sécurité.

Ce que vous dites à votre DAF lundi matin

  1. ChatGPT en compte perso est utilisable pour rédiger des annonces et des messages. Pas pour comparer ou classer des candidats. La CNIL contrôle le sujet en 2026.
  2. Pour tout ce qui touche au tri, au scoring ou à la décision, il faut un outil structuré qui trace les critères et les décisions. C'est la couverture pour l'AI Act et le RGPD.
  3. Le risque n'est pas demain. Il est dans 12 mois quand l'AI Act tape, ou plus tôt si la CNIL contrôle. Anticiper coûte moins cher que régulariser.

Aucune jurisprudence française n'a encore été publiée sur un litige imputable à un usage ChatGPT par un recruteur PME au moment de cette publication. C'est une fenêtre de calme avant orage, pas une zone protégée.

Le point de vue palio.

Un système structuré internalise par construction ce que ChatGPT en chat ne peut pas tenir.

Le brief de poste rigoureux devient un document conservé poste à poste, qui alimente directement les critères de matching, l'annonce, les questions d'entretien et le ton d'approche — pas un prompt à régénérer à chaque session.

Le matching d'un candidat sur un poste se fait critère par critère, avec l'évidence textuelle qui justifie chaque verdict — pas un score 0-100 opaque qui amplifie l'auto-préférence du modèle. La sortie est une directive lisible : approcher, évaluer, skipper.

L'évaluation post-entretien structurée produit un scoring 1 à 5 par critère, basé sur les notes prises pendant l'entretien, et une synthèse structurée en cinq sections que le recruteur valide avant de la transmettre au manager. Tous les candidats d'un même poste passent par la même grille — la comparaison redevient factuelle.

Le contexte du poste est conservé par palio. dans une mémoire de pipeline, avec un registry anti-hallucination qui empêche d'inventer un candidat absent du dossier. Et aucun message ne part vers un candidat sans validation humaine explicite : c'est un garde-fou structurel, pas une option à cocher.

C'est la définition opérationnelle d'un recruteur IA dédié au recrutement — par opposition à un onglet ouvert à côté de l'ATS.

Questions fréquentes

Peut-on utiliser ChatGPT pour trier des CV en 2026 ?

Non, pas en mode chat sur un compte perso. Les biais documentés en 2024-2026 (préférence pour les noms à consonance blanche, auto-préférence du modèle, sycophantie) rendent toute décision de tri non reproductible et non défendable juridiquement. L'AI Act classe les outils de tri en haut risque depuis le 2 août 2026, et la CNIL a placé le recrutement en priorité de contrôle 2026. Pour rédiger une annonce ou un message, oui. Pour décider qui rejoint la short-list, jamais.

Faut-il une version payante de ChatGPT pour recruter ?

La version gratuite stocke les prompts pour l'entraînement et n'est pas compatible avec un usage qui touche aux données personnelles d'un candidat — donc inutilisable pour le recrutement, même pour un brouillon d'email. La version Plus payante n'apporte pas de garantie supplémentaire de confidentialité par défaut. Seules les offres Business et Enterprise garantissent par contrat la non-réutilisation des données pour entraînement (DPA OpenAI mis à jour le 1ᵉʳ janvier 2026). Conclusion pratique : sur un compte perso, restez sur des tâches qui ne contiennent aucune donnée candidat identifiable.

Memory et Projects changent-ils vraiment le verdict en 2026 ?

Sur Business correctement configuré, oui pour certaines tâches multi-session (suivi d'un candidat dans le temps, réutilisation d'une grille). Sur compte perso, non : les fonctionnalités ne sont pas au niveau ou pas activées. Et même sur Business, les propriétés architecturales (Lost in the Middle, variabilité inter-sessions, position bias) persistent. La mémoire amplifie aussi un risque nouveau : un Custom GPT qui apprend les préférences du recruteur peut figer un biais implicite sur les 50 candidats suivants, sans audit possible.

ChatGPT est-il interdit pour le recrutement avec l'AI Act ?

Non, mais classé haut risque dans l'Annexe III du règlement (UE) 2024/1689 quand il est utilisé pour le tri ou la décision. Les obligations qui s'appliquent à partir du 2 août 2026 incluent la gestion des risques, la qualité des données d'entraînement, la documentation technique, la transparence vis-à-vis des candidats, et la supervision humaine effective. Un usage purement rédactionnel (annonce, reformulation, traduction) ne déclenche pas ces obligations. Un usage qui pèse sur la décision de sélection les déclenche toutes.

Comment limiter les biais quand on utilise ChatGPT en recrutement ?

Cantonnez l'usage aux tâches mono-document jugées à l'œil (rédaction, reformulation, brouillon). Ne comparez jamais plusieurs candidats dans une fenêtre de chat. Ne demandez jamais à l'IA de noter un candidat sur 10. Si vous structurez une comparaison ou un scoring, faites-le dans un outil dédié qui maintient la même grille pour tous les candidats du poste, trace les critères et les décisions, et rend la comparaison auditable. Et formez l'équipe sur la sycophantie — l'IA confirmera votre intuition si vous la lui suggérez dans le prompt, c'est documenté.

Sources

  • Hellowork, IA, Gen Z, transparence : ces défis qui attendent candidats et recruteurs en 2026, 16ᵉ enquête annuelle, novembre 2025 (n=489 recruteurs + 2 247 candidats)
  • Hellowork, Baromètre de l'emploi T1 2026, avril 2026
  • APEC, Pratiques de recrutement de cadres 2025, février 2025 (n=1 150 entreprises)
  • APEC, Prévisions 2026 des recrutements de cadres, 2 avril 2026
  • SHRM, The State of AI in HR 2026 Report, mars 2026 (n=1 908 professionnels RH)
  • Greenhouse, 2026 Candidate AI Interview Report, 1ᵉʳ mai 2026 (n=2 950 candidats)
  • HireVue, 2026 Global AI in Hiring Report, 30 avril 2026
  • Korn Ferry, enquête Talent Acquisition 2026, citée par HR Dive, avril 2026
  • Netskope, Threat Labs Report 2026, début 2026
  • Kyra Wilson, Aylin Caliskan, Gender, Race, and Intersectional Bias in Resume Screening via Language Model Retrieval, AIES 2024, arXiv:2407.20371
  • Yifan Xu, Tianyu Li, Hao Jiang, AI Self-preferencing in Algorithmic Hiring, arXiv:2509.00462, fin 2025-début 2026
  • Evaluating Bias in LLMs for Job-Resume Matching: Gender, Race, and Education, arXiv:2503.19182, mars 2026
  • Small Changes, Big Impact: Demographic Bias in LLM-Based Hiring Through Subtle Sociocultural Markers in Anonymised Resumes, arXiv:2603.05189, début 2026
  • Mrinmaya Sachan et al. (Anthropic), Towards Understanding Sycophancy in Language Models, 2023, mis à jour 2024
  • Nelson F. Liu, Kevin Lin, John Hewitt et al., Lost in the Middle: How Language Models Use Long Contexts, Transactions of the Association for Computational Linguistics, Vol. 12, 2024
  • Lin Lau, Same Input, Different Scores: A Multi Model Study on the Inconsistency of LLM Judge, arXiv:2603.04417, mars 2026
  • Lin Shi et al., Judging the Judges: A Systematic Study of Position Bias in LLM-as-a-Judge, arXiv:2406.07791, juin 2024
  • CNIL, Les contrôles en 2026 : recrutement, répertoire électoral unique et fédérations sportives, 3 avril 2026
  • CNIL, délibérations SAN-2026-001 et SAN-2026-002, 8 janvier 2026 (sanction Free, 42 M€)
  • Mobley v. Workday, Inc., 3:23-cv-00770-RFL, N.D. Cal., opt-in clos le 7 mars 2026
  • IAPP, EU AI Act reform talks stall, 29 avril 2026
  • Règlement (UE) 2024/1689 (AI Act), Annexe III, point 4 « Emploi »
  • OpenAI, Introducing GPT-5.5, 23 avril 2026 ; Data Processing Addendum effective 1ᵉʳ janvier 2026
Bastien Bordas

Bastien Bordas

Co-fondateur de palio.

Ex-ingénieur, ex-Deloitte, Bastien a cofondé palio. avec une conviction : l'IA ne doit pas accélérer le recrutement — elle doit le repenser entièrement.

Suivre sur LinkedIn
Article précédent

Votre prochain recrutement commence ici.

15 minutes. Un vrai poste. Zéro engagement. On vous montre ce que palio. fait sur un cas concret — le vôtre.