Vérité et intelligence artificielle : ce que nous apprend l’intervention de Jacques Pommeraud à Big 2025

Le 23 septembre 2025, sur la scène Bang du salon Big, Jacques Pommeraud, président‑directeur général du groupe Inetum, a consacré sa prise de parole au thème de la « vérité » dans l’intelligence artificielle. En quelques minutes, il a posé avec clarté les grands défis qui conditionnent l’acceptation de l’IA : biais, hallucinations, usages malveillants, mais aussi confiance, transparence et éthique appliquée.

Au‑delà de la conférence elle‑même, son intervention met en lumière une question centrale pour toutes les organisations : comment déployer des systèmes d’IA fiables, responsables et conformes, sans brider l’innovation ni la performance business?


Big 2025, scène Bang : pourquoi parler de « vérité » à l’ère de l’IA ?

Le salon Big de Bpifrance s’est imposé comme l’un des grands rendez‑vous de l’innovation en France. Sur la scène Bang, des dirigeants et personnalités partagent des prises de position courtes, percutantes, autour de thèmes forts. En 2025, le fil conducteur est la « Vérité ».

Dans ce contexte, l’intervention de Jacques Pommeraud s’inscrit au croisement de trois dynamiques qui bouleversent les entreprises :

  • Une adoption massive de l’IA générative dans les métiers (marketing, relation client, finance, RH, industrie…).
  • Un cadre réglementaire qui s’intensifie, avec notamment des attentes fortes en termes de conformité, de traçabilité et de gestion des risques.
  • Une exigence croissante de confiance de la part des collaborateurs, des clients, des partenaires et des citoyens.

Parler de « vérité » en IA, c’est donc poser une question très concrète : sur quoi reposent nos décisions lorsque nous nous appuyons sur des algorithmes? Et comment s’assurer que ces décisions sont acceptables, justifiables et alignées avec nos valeurs ?


Les trois risques majeurs pointés : biais, hallucinations, usages malveillants

En se concentrant sur les risques de biais, d’hallucinations et d’usages malveillants, Jacques Pommeraud résume trois défis que toute organisation doit aujourd’hui affronter si elle veut industrialiser l’IA de manière responsable.

Biais : quand les modèles apprennent nos angles morts

Les biais algorithmiques ne tombent pas du ciel : ils reflètent et amplifient souvent les biais présents dans les données d’entraînement ou dans la façon dont un système est conçu. Concrètement, cela peut se traduire par :

  • Des recommandations ou décisions qui favorisent systématiquement certains profils au détriment d’autres.
  • Des erreurs plus fréquentes sur des groupes sous‑représentés dans les données.
  • Une reproduction automatique de stéréotypes (sociaux, culturels, de genre, etc.).

Pour une entreprise, les impacts sont multiples :

  • risque d’atteinte à l’égalité de traitement;
  • risques réglementaires et juridiques;
  • perte de confiance des collaborateurs, clients et partenaires ;
  • mauvaises décisions business basées sur des signaux déformés.

L’enjeu n’est pas de viser une IA « parfaite », mais une IA conçue, testée et surveillée pour limiter et documenter ces biais.

Hallucinations : quand l’IA « invente » avec aplomb

L’essor de l’IA générative a fait apparaître à grande échelle le phénomène d’hallucination: le modèle produit une réponse plausible, bien rédigée, mais factuellement fausse ou non vérifiable.

Dans un contexte professionnel, cela peut avoir des conséquences lourdes :

  • prise de décision sur la base d’informations erronées ;
  • production de contenus trompeurs ou inexacts envoyés à des clients, prospects ou autorités ;
  • perte de crédibilité de l’organisation si l’erreur est découverte.

D’où la nécessité, que souligne Jacques Pommeraud, de mettre en place des mécanismes de vérification systématique et de ne jamais confondre la fluidité d’une réponse avec sa véracité.

Usages malveillants : quand l’IA devient un levier d’attaque

Au‑delà des erreurs involontaires, l’IA ouvre aussi la porte à des usages intentionnellement malveillants:

  • génération de faux contenus (textes, images, voix) destinés à manipuler ou frauder ;
  • automatisation et personnalisation des escroqueries (phishing, arnaques, faux supports techniques, etc.) ;
  • assistance à la recherche de failles techniques ou organisationnelles.

Pour les entreprises, cela implique de considérer l’IA non seulement comme un outil d’efficacité, mais aussi comme une surface d’attaque à protéger et à surveiller.


Réhabiliter le « je ne sais pas » : une posture sceptique et réflexive

Face à ces risques, le message central de Jacques Pommeraud est limpide : il faut réhabiliter le doute. Autrement dit, accepter que ni les humains ni les systèmes d’IA n’ont toujours raison, et que le « je ne sais pas » est souvent une réponse plus saine que l’illusion de certitude.

Concrètement, adopter une posture sceptique et réflexive signifie :

  • ne jamais déléguer aveuglément une décision critique à un modèle ;
  • encourager les équipes à questionner, challenger, tester les sorties des systèmes ;
  • institutionnaliser le droit au doute: il doit être légitime de dire « je ne sais pas, je vérifie » plutôt que de valider une réponse douteuse ;
  • intégrer des garde‑fous dans les parcours utilisateurs (messages d’alerte, niveaux de confiance, demandes de validation humaine).

Loin de brider l’innovation, cette culture du scepticisme sécurise l’adoption de l’IA: les collaborateurs osent davantage utiliser les outils lorsqu’ils savent qu’ils ont le droit de questionner et de corriger.


Aligner l’IA sur des valeurs et des principes éthiques clairs

Un autre axe fort de l’intervention de Jacques Pommeraud tient en une idée simple : l’IA n’est pas neutre. Ses effets dépendent des finalités qu’on lui assigne, des données qu’on lui fournit et des règles qu’on lui impose. D’où la nécessité d’un ancrage éthique explicite.

Pour une entreprise, cela se traduit par plusieurs chantiers complémentaires.

Définir ses principes éthiques applicables à l’IA

Il ne suffit pas d’afficher des valeurs générales ; il faut les traduire en principes opérationnels pour les projets d’IA. Par exemple :

  • Transparence: expliquer aux utilisateurs quand et comment l’IA intervient.
  • Équité: éviter les discriminations injustifiées, notamment dans les décisions impactant les personnes.
  • Responsabilité: définir clairement qui répond de quoi quand un système se trompe.
  • Proportionnalité: ne pas collecter ou traiter plus de données que nécessaire.
  • Sécurité: protéger les données et les modèles contre les usages malveillants.

Ces principes doivent être compréhensibles par tous : équipes métier, techniques, juridiques et direction.

Faire vivre ces principes dans les projets réels

L’éthique ne doit pas rester un document sur une étagère. Elle doit irriguer le cycle de vie des projets d’IA :

  • lors de l’idéation : se demander si le cas d’usage est légitime et proportionné ;
  • lors de la conception : intégrer l’éthique comme critère de choix technique (type de modèle, type de données, niveaux d’explicabilité) ;
  • lors de la mise en production : prévoir des revues éthiques en plus des validations techniques ;
  • lors de l’exploitation : surveiller les dérives potentielles et prévoir des mécanismes de recours pour les utilisateurs impactés.

C’est à ce prix que l’IA devient un levier de confiance et non un facteur d’inquiétude.


Gouvernance, audits, transparence et vérification : la boîte à outils d’une IA fiable

Pour passer du discours aux actes, Jacques Pommeraud insiste sur la nécessité de mécanismes concrets: gouvernance, audits, transparence des données et dispositifs de vérification. Ensemble, ils forment la colonne vertébrale d’une IA solide et maîtrisée.

Mettre en place une gouvernance de l’IA

La gouvernance de l’IA consiste à organiser, dans l’entreprise, qui décide quoi, comment et sur quelle base. Elle implique généralement :

  • une instance de pilotage (comité IA, comité éthique…) rassemblant métiers, IT, juridique, conformité et parfois représentants des collaborateurs ;
  • des règles de priorisation des cas d’usage, intégrant les bénéfices business mais aussi les risques pour les personnes et pour l’organisation ;
  • des processus d’arbitrage clairs en cas de désaccord (par exemple, sur un cas d’usage jugé risqué) ;
  • des référentiels documentés (guides internes, check‑lists, modèles de dossiers de décision, etc.).

Une bonne gouvernance ne ralentit pas forcément les projets : elle donne un cadre qui sécurise les décisions et facilite les validations.

Audits des systèmes d’IA : mesurer, tester, prouver

Les audits jouent un rôle clé pour vérifier que les promesses d’un système se traduisent dans la réalité. Ils peuvent porter sur :

  • la qualité des données (complétude, représentativité, biais potentiels) ;
  • les performances du modèle (précision, robustesse, stabilité dans le temps) ;
  • les impacts sur différents segments d’utilisateurs (pour détecter les écarts de performance ou de traitement) ;
  • la conformité aux règles internes et réglementaires (documentation, consentements, durées de conservation, etc.).

Au‑delà de la mise en conformité, ces audits sont une opportunité : ils permettent de identifier des leviers d’amélioration et de renforcer la légitimité des projets auprès des parties prenantes internes et externes.

Transparence des données : savoir d’où vient ce que l’IA produit

La notion de transparence des données recouvre plusieurs dimensions :

  • être capable d’indiquer quelles sources de données sont utilisées ;
  • documenter les transformations et traitements appliqués à ces données ;
  • expliquer, au moins à un niveau accessible, comment les données influencent les résultats;
  • donner aux utilisateurs finaux une information claire sur l’usage de leurs données, lorsque c’est pertinent.

Cette transparence est un fondement de la confiance : elle permet aux métiers, aux clients et aux régulateurs de comprendre sur quelle base l’IA fonctionne.

Mécanismes de vérification : ne plus laisser une réponse seule en scène

Dernier pilier clé : la mise en place de mécanismes de vérification systématiques, en particulier pour l’IA générative. Quelques exemples de bonnes pratiques :

  • associer à chaque réponse un score de confiance ou un indicateur de fiabilité ;
  • prévoir des revues humaines obligatoires pour certains types de contenus (juridique, médical, financier, communication externe, etc.) ;
  • afficher des messages d’avertissement clairs sur le caractère potentiellement incomplet ou approximatif des réponses ;
  • permettre aux utilisateurs de signaler une réponse problématique et d’alimenter ainsi une boucle d’amélioration continue ;
  • croiser automatiquement les réponses avec des bases de référence internes (procédures, référentiels, documentation validée).

En combinant ces dispositifs, on transforme l’IA d’oracle supposé infaillible en assistant puissant, mais contrôlé, au service de la décision humaine.


Comment entreprises, développeurs et décideurs peuvent passer à l’action

Les orientations partagées par Jacques Pommeraud au Bang de Big 2025 dessinent une feuille de route pragmatique. Pour toute organisation qui souhaite tirer le meilleur parti de l’IA sans compromettre la confiance, voici quelques étapes structurantes.

1. Poser un diagnostic honnête de la situation actuelle

Avant de multiplier les initiatives, il est utile de se poser une série de questions simples :

  • Quels cas d’usage d’IA sont déjà en place dans l’organisation ?
  • Sont‑ils documentés (objectifs, données utilisées, performances, limites) ?
  • Existe‑t‑il des règles claires sur ce qui est autorisé ou non en matière d’IA générative ?
  • Qui valide les projets d’IA aujourd’hui ? Sur quels critères ?
  • Les collaborateurs savent‑ils comment utiliser l’IA de façon responsable et sécurisée ?

Ce diagnostic, même sommaire, permet d’identifier rapidement les zones de risque et les leviers d’amélioration les plus urgents.

2. Formaliser une politique interne de l’IA

Une politique interne dédiée à l’IA est un outil puissant pour aligner tous les acteurs. Elle peut inclure :

  • une vision de ce que l’IA doit apporter à l’entreprise (performance, qualité de service, innovation, etc.) ;
  • les principes éthiques retenus et leurs implications concrètes ;
  • des règles d’usage claires pour les collaborateurs (ce qu’il est permis de faire ou non) ;
  • les processus de validation pour les nouveaux projets ;
  • les rôles et responsabilités (qui pilote, qui audite, qui forme, qui décide en dernier recours).

L’objectif n’est pas de produire un document parfait dès le premier jour, mais un cadre évolutif, révisé au fil des retours terrain.

3. Outiller les équipes : formations, guides, check‑lists

Pour que la culture de la vérité et du doute constructif infuse vraiment, il faut outiller concrètement les équipes :

  • formations de sensibilisation aux biais, hallucinations et usages malveillants ;
  • guides pratiques pour vérifier et recouper les réponses des IA ;
  • check‑lists d’évaluation éthique pour les nouveaux cas d’usage ;
  • espaces d’échange (communautés internes, retours d’expérience) pour partager bonnes pratiques et incidents.

En donnant des repères concrets, l’entreprise transforme un sujet perçu comme technique ou abstrait en compétence collective, source d’efficacité et de sécurité.

4. Intégrer audits et gouvernance dans le cycle de vie des projets

Enfin, les mécanismes de gouvernance, d’audit et de vérification gagnent à être intégrés dès la conception des projets, plutôt qu’ajoutés a posteriori.

Une approche type peut ressembler au schéma suivant :

Étape projetQuestion clé « vérité & confiance »Action recommandée
IdéationLe cas d’usage est‑il légitime et proportionné ?Revue éthique rapide, validation du sponsor métier.
ConceptionQuelles données et quels modèles utilisons‑nous ?Analyse des données, premiers tests de biais et de robustesse.
DéveloppementComment limiter les erreurs et les hallucinations ?Mise en place de contrôles, règles métier, filtres et garde‑fous.
RecetteLe système est‑il équitable et explicable ?Tests d’audit, documentation des limites, plan de surveillance.
ProductionComment suivre les dérives dans le temps ?Indicateurs, alertes, revues régulières, retours utilisateurs.

Ce type de cadre permet de concilier vitesse d’exécution et maîtrise des risques, deux attentes clés des directions générales.


Vers une IA fiable, responsable et performante : un avantage concurrentiel durable

L’intervention de Jacques Pommeraud sur la scène Bang de Big 2025 rappelle une réalité essentielle : la question de la vérité en IA n’est pas théorique. Elle touche au cœur de la compétitivité des organisations.

Les entreprises qui investissent dès maintenant dans :

  • une culture du doute constructif (réhabiliter le « je ne sais pas ») ;
  • un alignement éthique clair pour leurs usages de l’IA ;
  • une gouvernance solide, des audits réguliers et des mécanismes de vérification bien pensés ;
  • la transparence des données et de la logique des systèmes ;

se donnent un avantage décisif : elles peuvent accélérer l’adoption de l’IA tout en renforçant la confiance de leurs collaborateurs, de leurs clients et de leurs partenaires.

En d’autres termes, la vérité en IA n’est pas un frein, mais un formidable levier de performance durable. C’est cette conviction que porte, avec une tonalité lucide et engagée, la prise de parole de Jacques Pommeraud à Big 2025, et que chaque organisation peut désormais traduire en actions concrètes.

Les dernières publications

Le site