
Ingénieur de formation, Ahmed pilote aujourd’hui les sujets d’intelligence artificielle, data, cybersécurité et IT au sein de Medius, société spécialisée dans l’automatisation de la comptabilité fournisseurs et la gestion des dépenses. Medius compte aujourd’hui près de 900 collaborateurs et a des bureaux en Europe, Amérique du Nord, Australie et Tunisie. Ahmed est également auteur de deux livres, The Data Integration Guide et Digital Transformation.
Je suis ingénieur de formation. J’ai commencé ma carrière dans les télécommunications, sur de grands projets de transformation : la 3G, la fibre optique, puis la 4G. Ensuite, j’ai rejoint l’industrie, avec près de cinq ans chez Alstom comme Head of Data, autour des enjeux de transformation digitale d’un grand groupe industriel.
Plus récemment, je suis passé dans l’univers des start-up et des fintechs en tant que DSI chez Expensya, une plateforme de dématérialisation des notes de frais. Après l’acquisition d’Expensya par Medius, je suis devenu directeur de la transformation et des systèmes d’information du groupe Medius. Nous sommes environ 900 collaborateurs et gérons un volume très important de dépenses pour nos clients dans le monde. De mon côté, je suis en charge de l’IA, de la data, de la cybersécurité et de l’IT.
D’abord, il faut revenir à une définition simple de la transformation digitale. L’objectif de la transformation digitale est de permettre de résoudre des problématiques métiers, en utilisant la technologie. On part d’un besoin opérationnel, un irritant métier, et on cherche les bons outils pour le traiter.
Ce qu’on a vu ces deux ou trois dernières années, c’est qu’on a commencé à mettre de l’intelligence artificielle un peu partout, y compris parfois, pour résoudre des problèmes qui n’avaient pas besoin d’IA. Or l’IA, et en particulier l’IA générative, repose sur un fonctionnement probabiliste. Ce n’est pas une approche déterministe, où l’on sait que si l’on fait A + B, on obtient exactement tel résultat.
Dans mon livre, je parle de plusieurs technologies qui composent la transformation digitale, et l’IA n’est qu’une brique parmi d’autres. L’idée n’est pas de faire des projets “par l’IA”, mais d’avoir une approche globale : il y a des sujets qui se traitent très bien avec des automatisations classiques, du no-code, de l’intégration de données, des plateformes data, bref des chaînes maîtrisées et fiables. Et puis il y a des problèmes auxquels les outils d’avant ne répondaient pas bien, et là l’IA peut apporter quelque chose.
Je ne partage pas cette analyse, pour plusieurs raisons.
D’abord, beaucoup de solutions SaaS reposent sur une profondeur technologique et une propriété intellectuelle qui ne sont pas publiques. Or les grands modèles de langage apprennent essentiellement à partir de données disponibles publiquement ou semi-publiquement. Le savoir-faire interne, les détails d’implémentation, les choix d’architecture et une partie du code ne sont pas accessibles à ces modèles. Par construction, ils ne peuvent pas “ressortir” quelque chose qu’ils n’ont jamais vu.
Ensuite, il y a un point important : les modèles reproduisent des patterns. Ils donnent parfois l’impression de créer, mais ils recombinent des schémas appris. Ce n’est pas la même chose que de bâtir, maintenir et faire évoluer un produit logiciel complexe sur plusieurs années, avec une roadmap, de la sécurité, de la conformité, une expérience utilisateur, du support, etc.
Et puis, très concrètement, on a aussi des retours de terrain. Certaines entreprises ont annoncé vouloir remplacer des pans entiers de leurs équipes par des outils d’IA. Par exemple, le service client dans de nombreuses entreprises a vu ses équipes diminuer drastiquement au bénéfice de modules IA censés le remplacer. La réalité est qu’on a vu certains de ces mêmes acteurs faire ensuite marche arrière et recruter à nouveau après quelques mois, parce que le niveau de fiabilité et la capacité à gérer les cas complexes n’étaient pas au rendez-vous.
Oui. Je pense que l’IA est un levier de productivité, et qu’un salarié qui sait l’utiliser peut aller plus vite, plus loin, et être plus valorisé qu’un salarié qui la rejette.
C’est un outil parmi d’autres. On a appris à utiliser les ordinateurs, puis Internet, puis d’autres outils technologiques. L’IA fait partie de ces transformations qu’il faut adopter. Plus on s’y forme, plus on l’intègre intelligemment, plus on se positionne favorablement pour la suite.
On est, en grande partie, face à une technologie à usage général, ce qu’on appelle une “General Purpose Technology”. Historiquement, ce type de technologie peut être comparé à l’imprimerie, à la machine à vapeur, à l’électricité, ou encore à Internet. Elles ont des points communs : elles demandent une infrastructure, elles exigent du re-skilling, et elles font évoluer la structure des métiers. Certains disparaissent progressivement, d’autres émergent.
Là où il n’y a pas consensus, c’est sur le solde final : est-ce qu’au global on détruit plus d’emplois qu’on en crée, ou l’inverse ? On trouve des études dans les deux sens. Difficile de répondre sans boule de cristal, mais mon côté optimiste pense qu’on peut aller vers un solde positif, à condition de jouer collectivement le jeu de la formation, et d’une utilisation responsable de l’IA.
C’est un vrai sujet, mais je voudrais nuancer : les tensions sur l’emploi ne viennent pas uniquement de l’IA. Il y a une correction post-Covid, avec des recrutements massifs dans la tech pendant une période, puis un ajustement. Il y a aussi un contexte géopolitique et économique compliqué, qui pèse sur le marché.
Ensuite, on vit aussi un phénomène “quantitatif” : aujourd’hui, les candidats peuvent postuler à une vitesse et à une échelle inédites. Quand j’ouvre un poste de junior, je peux recevoir près de mille CV. Je n’avais jamais vu cela auparavant. Il y a moins d’offres, et plus de candidatures, donc mécaniquement la compétition devient plus dure.
À titre personnel, si j’arrivais aujourd’hui, je chercherais à ajouter des éléments d’expérience, même modestes, mais concrets : me former à l’IA, contribuer à un projet open source, monter un projet personnel, renforcer une compétence utile comme l’anglais si elle est insuffisante. Le calcul reste assez simple : plus un CV contient d’éléments tangibles et intéressants, plus il se différencie et est donc valorisé par un recruteur.
Mon métier n’a jamais cessé d’évoluer. Quand je suis sorti d’école, on ne parlait pas de cloud, ni de DevOps, ni de Cryptomonnaies, encore moins d’IA générative. Le seul invariant, c’est le changement.
Je ne sais pas exactement à quoi ressemblera mon métier dans 2, 5 ou 10 ans. Ce que je sais, c’est qu’il faudra continuer à apprendre et à rester curieux. Quand une nouvelle technologie arrive, il ne faut ni l’ignorer, ni l’idéaliser. Il faut la tester, l’évaluer, comprendre son apport réel, prendre conseil, et intégrer ce qui crée de la valeur et en restant très pragmatique.
Je pense aussi qu’un volet va rester sous tension, voire se renforcer : la cybersécurité. L’IA donne aux hackers une force de frappe qui était hors de portée il y a encore quelques années, et il est clair qu’il s’agit d’un phénomène en forte hausse. Les personnes qui maîtrisent la cybersécurité sont des profils difficiles à recruter et ont encore un bel avenir devant elles.
Enfin, il y a des éléments humains qui ne disparaissent pas : être un business partner, donner du sens à une stratégie, travailler avec les équipes, garder de l’empathie et des repères est essentiel. Cela peut paraître old school, mais je pense que c’est fondamental, y compris à l’ère de l’IA.
Je peux donner deux exemples qui illustrent un point central : l’effet “black box” et le manque d’explicabilité.
Dans un premier cas, on entraîne un système autonome avec un objectif à maximiser. Si la récompense est mal définie, le système peut adopter des stratégies inattendues, parce qu’il cherche à “gagner” selon la logique qu’on lui a donnée, pas selon l’intention humaine. Dans le domaine militaire typiquement, ceci peut avoir des conséquences désastreuses.
Dans un second exemple, on a observé des biais d’apprentissage surprenants : une machine peut apprendre un signal corrélé au contexte, plutôt que le bon critère. Par exemple, une IA entrainée pour reconnaître des chars ennemis, a associé le qualificatif « d’ennemi » à la présence de nuages dans le ciel, car le jour où les données lui ont été fournies le ciel était nuageux, alors que le ciel était parfaitement clair lorsque les images soumises ne montraient que des chars amis ! Résultat, on croit que l’IA sait reconnaître une situation, alors qu’elle a juste appris un indicateur parasite.
Ces histoires montrent que le risque IA est réel, complexe, et qu’on doit l’encadrer. À ce titre, le fait qu’il existe en Europe une réglementation qui interdit certains usages et impose des contrôles sur d’autres me paraît globalement positif. Mais il faudra, à mon sens, renforcer encore la capacité d’audit et de contrôle, parce que les enjeux sont sérieux.
Cela dépend de ce sur quoi l’IA aurait été entraînée. Si elle avait appris principalement sur mes contenus publics, par exemple mes publications LinkedIn, elle pourrait donner des réponses assez proches. En revanche, une IA généraliste donnerait probablement des réponses différentes, parce que ce que je partage ici n’est pas toujours la position la plus consensuelle.
Et puis il y a un autre point : l’IA reproduit ce qu’elle a appris. Elle peut imiter un style, une ligne, des arguments. Mais l’expérience et la manière de relier des éléments vécus restent autre chose. Peut-être qu’un jour, on s’en rapprochera. Aujourd’hui, je pense que l’interview aurait été différente.