Introduction à l'intelligence artificielle en 2025
Cet article synthétise mon approche de l'intelligence artificielle en entreprise, fruit de plusieurs années de veille technologique active et de pratique concrète. Mon objectif est de démystifier l'IA et de vous aider à identifier les opportunités réelles qu'elle peut apporter à votre organisation.
Hébergement et sources des modèles
La compréhension de ce point est importante pour faire les bons choix selon vos contraintes. Pour faire tourner les IA, deux options principales s'offrent à vous :
-
en on-premise (sur vos serveurs) avec des modèles open source
-
soit dans le cloud via des providers IA
En local, on a des modèles qui font des trucs, mais moins puissants que ceux dans le cloud (qui tournent dans des datacenters avec beaucoup de puissance de calcul).
L'avantage du local (en tant que consommateur) c'est qu'on garde le contrôle sur les données, mais on n'a pas accès aux modèles les plus puissants (et la différence de capacité est énorme entre les deux).
En effet, les informations qui partent dans le cloud sont stockées par les providers et peuvent être utilisées pour améliorer leurs modèles.
Cela peut poser des problèmes de confidentialité et de sécurité des données. Il est important de bien définir l'alignement organisationnel sur ces sujets en premier lieu.
Types d'IA
Il y a plusieurs types d'IA, avec des usages différents. Voici un tableau de l'essentiel et de leurs usages (non exhaustif) :
| Type d'IA | Usages | Maturité |
|---|---|---|
| Modèles de langage (LLM) | Chatbots, analyse de sentiments, traduction, synthèse de texte, résumé de texte, extraction / transformation de texte (PDF vers des formats utiles en programmation (json, yaml, xml ...), (auto)formation, base de connaissance / support client interactif , création de contenu (Amélioration ligne éditoriale / communication / qualité de contenu / typos... ), automatisation des tâches administratives, audits (validité documents / sécurité dans le code ...) | Très mature, performances excellentes |
| Modèles de vision par ordinateur | Reconnaissance d'images (extraction de texte vers des formats programmatiques : json , xml ...), génération d'images (produire des illustrations pour les sites industriels / communication client ...), classification d'images et vidéo (identification /tri de documents) | Mature, performances très bonnes |
| Modèles de reconnaissance vocale | Transcription de réunions, commandes vocales (parler pour écrire du texte et piloter des systèmes informatiques, dicter des drafts de propales ensuites retravaillées à la main ou via IA), analyse de sentiments dans les appels clients (attention à la confidentialité des données) | Mature, performances très bonnes |
| outils de programmation assistée par IA (également via du LLM) | Génération de code, détection de bugs, refactorisation de code, documentation de code, tests automatisés (plus de détails plus loin) | Très mature, évolution rapide |
| Modèles de Machine learning | Prédictions / Forcast : on alimente avec des données du passé et on peut obtenir des prévisions, Qualité / Détection d'anomalies dans des documents (valeurs aberrantes dans des séries temporelles / valeurs financières anormales dans des projets ...) | Mature, nécessite expertise métier |
Il y a d'autres types d'IA, mais celles-ci sont parmi les plus utiles en entreprise.
Inférence
Une fois que les modèles sont au point, des outils permettent de les utiliser selon leur type. Un modèle de langage (LLM) permet de produire du texte, un modèle de vision permet de traiter des images.
Il existe également des modèles "multimodaux" qui peuvent traiter plusieurs types de données (texte, image, vidéo ...).
Ces fichiers de modèles permettent de faire de l'inférence, c'est-à-dire de prendre en paramètre une entrée "utilisateur" (du texte et / ou un média) et de produire une sortie (du texte et / ou un média).
Ce qui se passe quand un programme utilise un modèle d'inférence sur une entrée utilisateur c'est une version très sophistiquée de résultats "probabilistes", dans le sens ou selon l'entrée fournie, l'IA va simplement produire la sortie la plus probable selon ce qu'elle a appris lors de son entrainement.
Par exemple pour un modèle de langage, si on lui demande "quelle est la capitale de la France ?", l'IA va répondre "Paris" parce que c'est la réponse la plus probable qu'elle a appris lors de son entrainement et que c'est une réponse avec peu de variations possibles.
Si on lui demande "écris moi un poème sur la mer", l'IA va produire un texte qui ressemble à un poème sur la mer, mais il y a une infinité de possibilités de réponses, donc le texte produit sera différent à chaque fois qu'on lui posera la question.
Le principe est similaire pour les modèles de vision, de reconnaissance vocale et de machine learning.
Design de l'IA
L'utilisation des IA se fait via des "modèles". Ce sont des fichiers de données bruts très denses en informations, créés à partir de quantités massives de données (textes, images, vidéos, etc.).
Aujourd'hui, les modèles dits "frontier" (à la pointe) sont entraînés sur la quasi-totalité des données de qualité disponibles sur Internet (contenus de réseaux sociaux, livres, articles, sites web, transcripts de vidéos, etc.). Ces modèles sont donc le produit d'algorithmes complexes qui "moulinent" ces données pendant de longues périodes pour produire ces fichiers denses en informations.
Limites de l'IA
L'IA est puissante, mais elle a des limites. Il faut en être conscient pour adresser les risques associés.
Hallucinations
Par leur nature et le système d'inférence probabiliste, les modèles d'IA peuvent produire des résultats qui semblent corrects, mais qui sont en réalité faux ou inventés. C'est ce qu'on appelle des "hallucinations". Par exemple, un modèle de langage peut inventer des faits, des citations ou des références, des chiffres qui n'existent pas.
Une grosse partie du travail des modèles frontier par les fournisseurs d'IA est de réduire ces hallucinations au maximum et de fournir des résultats les plus fiables possible au fil des versions.
En effet, un modèle ne sait pas discerner s'il dit vrai ou faux, il produit simplement la réponse la plus probable selon son entrainement, et les modèles ont tendance à "broder un peu" lorsqu'ils ne sont pas sûrs de la réponse. Ces comportements sont connus et améliorés au fil des versions.
Il faut donc toujours (pour le moment) vérifier et garder un oeil critique sur les résultats produits par les IA, surtout pour des usages sensibles (juridiques, médicaux, financiers ...).
Cela dit, pour des usages moins sensibles (création de contenu, brainstorming, support client ...), les hallucinations sont moins problématiques. Et aujourd'hui les modèles frontier sont extrêmement performants et élaborés pour minimiser ces risques.
Biais
Les modèles d'IA sont entraînés sur des données qui peuvent contenir des biais (culturels, sociaux, économiques, politiques ...).
Ici aussi, les fournisseurs d'IA / modèles open source font un travail pour minimiser ces biais, mais ils peuvent toujours exister, et communiquent dans ce sens, mais il est important de rester vigilant et de ne pas oublier que ces biais peuvent se retrouver dans les résultats produits par les IA.
Confidentialité et sécurité des données
Les modèles dans le cloud prennent les inputs des utilisateurs pour améliorer leurs modèles. à un moment donné, toutes les informations transmises et traitées par ces IA sont captées et stockées (transformées ou non ?) par les fournisseurs d'IA.
Il est donc important de bien lire les conditions d'utilisation des services d'IA pour comprendre comment les données sont utilisées et protégées selon les usages.
Conformité RGPD et risques juridiques
L'utilisation de l'IA en entreprise soulève des questions importantes de conformité réglementaire, notamment vis-à-vis du RGPD :
- Traitement de données personnelles : Les IA qui analysent des documents clients, emails ou données RH traitent potentiellement des données personnelles nécessitant une base légale et des mesures de protection adaptées.
- Transferts de données hors UE : Les services cloud d'IA peuvent impliquer des transferts de données vers des pays tiers, nécessitant des garanties appropriées.
- Droit à l'explication : Le RGPD accorde aux personnes le droit d'obtenir des explications sur les décisions automatisées les concernant.
- Responsabilité : En cas d'erreur ou d'hallucination de l'IA ayant des conséquences (contractuelles, financières, réputationnelles), la responsabilité reste celle de l'entreprise utilisatrice.
Il est recommandé de réaliser une analyse d'impact (DPIA) pour les usages sensibles et de consulter votre DPO ou conseil juridique avant déploiement.
Capsule temporelle
Les modèles d'IA sont entrainés sur des grandes quantités de données.
Ces données sont des corpus d'information filtrés, et organisés statiques (des copies de livres, articles, sites web ...) à un instant T.
Les modèles sont longs et coûteux à entraîner, et ne sont pas mis à jour en temps réel. Une fois que les modèles sont entrainés, ils ne changent plus.
Cela a pour effet que les modèles d'IA ne sont pas au courant de l'actualité récente, des événements récents, des nouvelles découvertes scientifiques, des nouveaux produits, des nouvelles lois en temps réel.
Concrètement, si l'on demande de l'aide à un modèle pour extraire des informations d'un PDF qu'on vient de recevoir en tenant compte d'une législation autour de l'énergie qui vient de changer la veille, il faut également fournir le contexte de cette nouvelle législation au modèle pour qu'il puisse en tenir compte dans ses réponses.
A noter également que dans certains outils (assistants de programmation, interfaces conversationnelles), de plus en plus, ces outils intègrent une fonctionnalité qui peut aller chercher des informations récentes sur internet pour alimenter les réponses de l'IA.
Mesures de performance
Ces IA sont des outils qui produisent des informations arbitraires comme peuvent le faire des humains.
Les capacités de ces IA sont extrêmement versatiles, parce qu'elles peuvent traiter de l'information sur n'importe quel sujet étant donné la manière dont elles sont mises au point.
C'est la raison pour laquelle mesurer la performance des modèles est un sujet complexe.
Au fil du temps (ces dernières années) dans le domaine de l'IA plusieurs benchmarks ont été mis au point pour évaluer la performance des modèles sur des ensembles de tâches spécifiques.
Par exemples pour les modèles de langage (LLM), il y a des benchmarks qui posent des séries de problèmes mathématiques, dont les résultats permettent de donner un score de performance. pour comparer les modèles entre eux.
Il existe plusieurs benchmarks dans plusieurs catégories (mathématiques, compréhension de texte, raisonnement logique, programmation ...).
Outils de programmation assistée par IA
Un des usages les plus puissants des IA aujourd'hui est l'assistance à la programmation.
En effet, la programmation est sans doute le domaine de l'ingénierie le plus représenté et disponible sur internet, notamment avec l'open source, qui met à disposition des millions de projets contenant chacun possiblement des trésors d'ingénierie logicielle en grande quantité. Cela a permis notamment d'entraîner les modèles de langage (LLM) sur d'importantes quantités de code source dans plusieurs langages de programmation.
Et comme c'est un domaine en plein effervescence qui s'alimente de lui même (du code de qualité généré par IA plus vite peut être rendu dispo en open source pour les prochaines génération d'IA ...), les progrès sont rapides et impressionnants.
On a commencé il y a quelques années seulement avec les IA en ligne comme Chat GPT qui permettaient de générer du code en langage naturel, de coller du code et de demander des modifications, des corrections, des explications ...
Puis assez vite, on a vu apparaître des plugins dans les IDE (environnements de développement) qui permettent d'avoir une assistance en temps réel dans le code en fournissant des suggestions de code, des corrections, des explications ...
Plus récemment (quelques mois) on a vu apparaître des outils dits "agents" qui permettent une fois connecté à une IA de réaliser des tâches complexes en langage naturel.
On peut notamment demander à un agent de:
- faire un audit de sécurité dans un projet, et avoir une réponse avec un bon niveau de confiance rapidement / une liste d'axes d'amélioration
- générer du code (tests automatisés, documentation, refactorisation, fonctionnalités ...) tout en s'inspirant des bonnes pratiques de programmation du projet dans lequel on travaille
- questionner le code d'un projet et comprendre le fonctionnement précis de telle ou telle fonctionnalité ou au contraire extraire simplement la "big picture" du projet
- générer facilement et rapidement de la documentation technique dans le code ou en dehors (wiki, readme ...) avec une ligne éditoriale sur mesure.
- déboguer beaucoup plus facilement et sereinement du code en guidant l'agent sur la tâche à accomplir et en lui demandant d'executer une commande de test dont le résultat textuel (test ok / ko et les détails) lui permet d'itérer sur une correction
Beaucoup de cas d'usages très arbitraires sont rendus possibles grace à ces derniers outils extrêmement puissants.
Résultats mesurables
Des études récentes montrent des gains significatifs :
- GitHub Copilot : les développeurs complètent leurs tâches 55% plus rapidement (étude MIT 2023)
- Productivité code : augmentation de 20-40% de la vélocité sur les sprints de développement
- Réduction bugs : diminution de 15-25% des bugs en production grâce aux suggestions de tests automatisés
- Onboarding : réduction de 30-50% du temps d'intégration sur un nouveau projet grâce à l'exploration de code assistée
- Documentation : multiplication par 4-5 de la couverture en documentation technique
Exemple concret : Une équipe de 5 développeurs payés en moyenne 50k€/an utilisant l'IA à 20€/dev/mois génère un gain net de productivité de 25% (soit l'équivalent de 1,25 développeur supplémentaire = 62k€/an) pour un coût annuel de 1200€, soit un ROI de 50x.
Cependant, il faut bien comprendre comment utiliser ces outils, parce que l'idée d'ajouter de l'IA dans un projet de code est de générer du code automatiquement. Cela nécessite d'autant plus de vigilance dans la qualité du code produit et les review de code.
En effet, comme ces outils s'inspirent du code environnant, si le projet est qualitatif, produire du code automatiquement sera un cercle vertueux. En revanche, si le projet est de mauvaise qualité, l'IA risque de produire du code de mauvaise qualité. Reste à la charge des développeurs de tirer profit de ces outils pour en tirer profit et améliorer la qualité du code plutôt que laisser le projet se dégrader (comme avant, mais plus vite via l'IA).
Une note également sur la confidentialité dans ce contexte d'IA dans le code: - permettre à l'IA de lire et comprendre le code d'un projet est une chose, et dans certains contexte c'est un problème car il y a du secret industriel dans le code - dans d'autres cas, le code est open source, ou alors pas très élaboré (simples opérations de gestion de base de données, manipulation de fichiers ...) et dans ce cas, le risque est moindre car il n'y a pas de "secret sauce" dans le code - par défaut, ces outils tournent sur les postes de développeurs et voient le code, mais n'ont pas directement accès aux données sensibles (informations de la base de données avec les chiffres, emails, contrats etc...). Et si le projet est bien conçu, les données sensibles ne sont pas dans le code dans les environnements locaux / de développement, mais uniquement sur les environnements de production.
En conclusion, ces outils sont extrêmement puissants et permettent de gagner énormément de temps dans le développement, la maintenance et l'évolution des projets logiciels. Cependant, il faut bien comprendre comment les utiliser, et les intégrer dans une démarche qualité globale pour en tirer le meilleur parti, et être conscient des risques associés sur la sécurité des données.
Conclusion
L'IA est un outil extrêmement puissant qui peut transformer la manière dont les entreprises fonctionnent.
Cependant, il est crucial de comprendre ses capacités, ses limites et les risques associés pour l'utiliser de manière efficace et responsable.
Il faut noter que le mouvement IA est en pleine expansion et évolution rapide, avec de nouvelles avancées et applications qui émergent constamment, et que ces outils utilisés correctement peuvent apporter une valeur ajoutée importante dans plusieurs domaines d'activité, et permettre de rester compétitif dans un marché où les concurrents ont également accès à ces technologies.
Une dernière note à propos de cet usage particulier d'outils de code assisté par IA d'après mon expérience personnelle et diverses sources sur internet (notamment hacker news) :
Ces outils permettent une plus grande productivité, et servent (aujourd'hui) davantage les développeurs expérimentés qui savent comment les utiliser efficacement, là où les moins expérimentés ne savent pas forcément comment en tirer profit au mieux ou juste correctement.
(source https://elma.dev/notes/ai-makes-seniors-stronger/)
Vous souhaitez explorer comment l'IA peut bénéficier à votre organisation ? Je propose des accompagnements pour identifier les opportunités concrètes, évaluer les solutions adaptées à vos besoins et mettre en place des POC pour valider le ROI avant tout déploiement. Contactez-moi pour en discuter.