FredVoyage

Les IA qui vont remplacer les employés ?

J'ai déjà écrit différents articles concernant les IA, que ce soit pour faire des images ou produire du texte. J'avance sur ma connaissance de ce que peuvent faire les IA, et j'en profite pour écrire ce nouvel article pour mettre en avant une idée reçue, ou plutôt un fantasme qui dit que les IA pourraient, avec l'arrivée de l'IA Générale, remplacer les humains. Quand on parle de ça, on parle, bien sûr, des employés.

J'aimerai préciser à quoi je fais référence quand je parle d'IA. Il s'agit ici de modèles utilisant en partie des neurones artificiels, et plus largement des modèles de langage grands ou petits (nommés LLM ou SLM). On peut aussi parler d'IA quand on parle de modèles d'image, mais on voit mal une image diriger le monde, mais on peut plus facilement le voir pour des outils qui combinent les modèles de langage avec des modèles vidéos ou d'image pour agréger tout cela dans une vidéo notamment.

Ordinateurs : 0 ou 1

Jusqu'à présent, les ordinateurs savaient traiter des nombres. On leur fournit des nombres, ils effectuent des calculs, et tout ce qui est entré dans un ordinateur est traité sous forme de 0 et de 1 pour ressortir en nombre, que l'on peut ensuite transformer en chiffres, lettres ou pixels, ou une combinaison de tout cela.
La nouveauté avec les LLM et autres modèles utilisés par l'IA, c'est que l'on ne traite plus uniquement des données sous forme de 0 et de 1, mais dans une plus grande globalité sous forme de token, et ces token ne sont plus des 0 ou des 1, mais on fait de la probabilité pour savoir quel token se place à la suite des tokens précédents dans le contexte donné. OK, c'est un peu plus compliqué que ça, mais ça simplifie de la même manière que quand je simplifie les ordinateurs en 0 et en 1.

IA : des tokens

Le petit hic avec tout ça, c'est que quand un humain regarde des 0 et des 1, ça ne lui parle pas. On se dit donc qu'un ordinateur, ça fait des choses, ça automatise, mais ça ne remplace pas un humain. Alors que quand les LLM utilisent des mots, en apprenant les mots que nous utilisons, ça veut dire que les LLM font ressembler le traitement des données à ce que nous faisons en parlant. Le cheminement mimique celui d'un humain, en utilisant les probabilités d'utilisation des tokens, et nous le comprenons comme étant une intelligence, car quand un humain parle, c'est l'expression de sa pensée, de ses sentiments, mais quand l'IA parle ou écrit, ce n'est que le résultat d'un calcul complexe permettant d'imiter le langage humain qu'il a apprit avec les millions de texte que l'humain a écrit avant et qu'on a utilisé pour l’entraîner.

De cette manière, on ne peut pas demander à une machine d'avoir des sentiments, un point de vue, mais simplement un résultat à partir d'un texte initial, tout comme il est possible d'avoir le résultat d'un calcul après avoir entré les bons chiffres. On le voit bien aussi, si les mauvais chiffres sont indiqués, la réponse sera mauvaise, et dans les LLM, c'est même pire : avec les bonnes données, la machine ne faisant que des statistiques, il faudra énormément de données pour qu'elle puisse utiliser/créer de bons statistiques, et si une donnée est fausse ou erronée, elle aura la même valeur donc pourra créer des erreurs facilement.

Les agents

Puisqu'un LLM ne fait que de traiter des mots, les grandes entreprises qui ont créés ces IA ont d'abord mis en place des outils permettant de limiter la casse : quand un LLM traite votre question, on va le laisser répondre, puis vérifier ce qu'il dit, et lui redemander, et vérifier, jusqu'à ce que la réponse semble la plus plausible, elle est alors envoyée. C'est la base de la mise en place d'un LLM.

Ensuite, comme on s'aperçoit que cela génère quand-même beaucoup d'erreurs, on s'est mis à créer des agents. Le principe d'un agent est d'utiliser un LLM comme orchestrateur de votre question. Il reçoit la question, avec d'autres paramètres indiqués par l'outil utilisé (pas le LLM, mais l'outil, un programme informatique standard) qui va lui permettre de choisir quel outil il doit utiliser : il peut faire un calcul, faire une recherche sur internet, accéder à des fichiers, à des bases de données pour avoir des données à jour ou personnelles, ... et une fois qu'il a utilisé les outils et a récupéré les données correspondant à la question, il formule une réponse. L'un des outils peut aussi être un autre LLM qu ia des capacités différentes et des connaissances ou l'accès à des données spécifiques.

Petits ou grands modèles, modèles locaux ou modèles accessible publiquement sur internet, il existe des dizaines de modèles et notamment des dizaines de petits modèles qui peuvent servir à créer des agents, notamment des agents locaux.

Créer un LLM reste un peu compliqué car il faut des données, des GPU, donc un bon budget. Mais une fois le LLM créé, et il y a de quoi faire, il suffit de l'utiliser. Pour cela, c'est assez simple, et ça dépend de l'utilisation que l'on veut faire :

  • pour un orchestrateur, il suffit simplement d'un modèle qui comprenne la langue que l'on veut utiliser. Le français ou l'anglais sont compris par la plupart des modèles, donc n'importe quel petit modèle suffit. Dans mes derniers tests, j'ai pu tester des modèles de 10B (10 milliards de paramètres, ces modèles font autour de 8Go) mais aussi des modèles de 3.8B comme phi4-mini, créé par Microsoft, en libre accès sur Ollama, et je suis descendu à 2B avec un modèle granite3.2, développé par IBM. Ces modèles savent traiter la question pour ensuite choisir des outils pour récupérer les données et formuler une réponse, en local
  • pour de la réflexion, certains modèles vont agir comme agent, comme par exemple Claude 3.7, qui fonctionne très bien avec Cursor pour faire de la programmation, et va pouvoir réfléchir, c'est-à-dire se parler à lui-même pour pouvoir résoudre un problème en vérifiant que la solution est cohérente. On n'est pas dans la pensée humaine, mais dans des allers-retours entre machine permettant de voir si la solution proposée est conforme à la question, et pour cela, c'est une IA avec plusieurs centaines de milliard de paramètres que l'on utilise, avec une API
  • pour de la recherche, certains modèles ont été adaptés et vont rechercher sur internet, par exemple sur Wikipedia, les informations concernant la question, et donner une réponse qui ne nécessite pas forcément de réfléchir, mais d'avoir accès aux données à jour, donc on utilise ici plus qu'un simple LLM, un véritable outil avec une forte valeur ajoutée qui est la précision et le fait que la réponse soit bien à jour

L'intérêt de l'orchestrateur permet de réfléchir d'abord pour savoir de quelle nature est la question : suivant si c'est une question qui demande une réponse qui se trouve dans mon agenda, ou bien une réponse connue, mais disponible sur internet, ou encore une réflexion pour savoir quelle solution trouver à un problème, l'orchestrateur pourra alors choisir les outils qu'il faut pour trouver la bonne réponse et la formuler.

J'ai donc testé le concept en créant Loki, mon assistant personnel, qui est disponible sur mon téléphone et qui permet de traiter mes demandes de cette manière. Je parle pour lui dire ma demande, il l'analyse pour savoir s'il connaît la réponse, s'il a besoin d'accéder à mes outils persos pour y répondre, et si besoin, il appelle Sonar, l'API de recherche de Perplexity pour répondre à la question, et me donne alors une réponse simple et claire, en français, qu'il me lit en réponse.

L'IA, un salarié comme un autre ?

C'est bien beau de faire tout ça, mais ma question d'origine est de savoir si mes outils LLM vont remplacer les employés. Quelle est donc cette différence entre un salarié et une IA ? Je pense que la réponse est multiple, mais la principale que je vais noter ici est la prise de décision. On pourrait aussi parler de l'organisation, même si, de ce côté-là, un LLM peut même aider un salarié et lui permettre de mieux faire son travail.

La prise de décision, force de proposition, c'est ce que je demande à mes salariés dans le cadre de leurs fonctions. Un LLM peut répondre à une demande client, en ayant le contexte, et l'agent pourra récupérer le contexte et probablement donner une bonne réponse, mais d'une part le salarié a une multitude d'outil à sa disposition (pour un informaticien, ça peut être les accès aux sites internet des clients, aux serveurs en ligne de commande, au téléphone, aux échanges avec les collègues), et déjà, le LLM n'aura pas forcément accès à tout ça, quoique je peux lui donner tous ces accès, mais que va-t-il en faire ?

Mon commercial peut échanger avec un client et décider de lui donner un rabais, ou lui proposer des choses en plus, d'après le feeling qu'il a pendant la discussion. Comment mon LLM pourra détecter s'il a un bon feeling ?
Mon technicien pourra proposer au client de réduire la taille de ses boîtes mails en vidant la corbeille, mais il pourra aussi lui facturer plus cher la prestation en augmentant la taille de la boîte mail, et c'est bien le technicien qui va pouvoir proposer une solution ou bien les 2 au client qui pourra choisir.

Le LLM pourra parfois faire les propositions, mais pas aller jusqu'au bout de la démarche sans erreur. La confiance est en fait la plus grande chose que les humains ont entre eux, cela passe par les échanges verbaux mais aussi la communication non verbale, et l'historique du travail bien fait. Pour le moment, la confiance face aux LLM, quand on regarde les pourcentages de réussite sur les tables de test, on est souvent entre 30% et 70%, et je ne mettrai pas l'avenir de mon entreprise dans les mains d'une personne qui aurait 30% à 70% de risque de compromettre cet avenir.

Ce qu'une IA sait faire

Pour moi, un LLM fait de manière satisfaisante, c'est-à-dire pas 100% parfaite, mais qui permet d'aider l'humain à aller plus vite, sur les tâches suivantes :

  • résumé de texte
  • retrouver des informations
  • traiter des informations et faire ressortir des tendances
  • faire des traductions
  • écrire du code

J'ai testé des outils qui permettent de gérer les réseaux sociaux, mais ces outils, peut-être encore non aboutis, ne font pas la gestion complète des réseaux, ils permettent uniquement de reformuler ou de faire des brainstormings sur des idées. Ils ne font pas la gestion complète de A à Z en allant cherche l'info à la base (ça peut être sur mon site internet ou en me le demandant), puis en écrivant un post qui permet de mettre les lecteurs en haleine (cette partie-là, il le fait un peu) et en le publiant à intervalle régulier pour que cela fonctionne correctement.

La meilleure chose qu'une IA sait faire, c'est aider l'humain à effectuer certaines tâches, mais en aucun cas à la remplacer. C'est toujours un humain qui est à l'initiative de l'IA.

Le marketing dans tout ça

Pour moi, l'IA, c'est la version humaine des voitures autonomes : on nous promet que c'est pour demain, alors que l'IA générale qui pourra remplacer un humain, ça n'est tout simplement pas possible. Par contre, ce qui est possible (et avec Musk, on en doute, car son IA est même capable de le critiquer), c'est qu'une IA soit créée pour diriger des gens selon des critères idéologiques, et pour le coup, ce n'est pas Musk qui a pu la créer, mais les chinois, qui intègrent, dans leurs IA, le narratif du pays.

Je tiens aussi à ajouter un point important : nous sommes le 11 avril 2025, et voici la question que j'ai posé à plusieurs IA :

Question : Qui est le président des Etats-Unis d'Amérique ?

Réponse de phi4-mini, le dernier modèle de Microsoft sorti en février 2025 : À ma dernière mise à jour au début de l'année 2023, Joe Biden est le Président des États-Unis. Il a pris ses fonctions le 20 janvier 2021, succédant à Donald Trump. Veuillez vérifier auprès d'une source fiable pour obtenir les informations les plus récentes, car ces positions peuvent changer avec la tenue de nouvelles élections ou événements politiques.

Réponse de Granite 2.3, le dernier modèle d'IBM sorti le 26 février 2025 : Le président des États-Unis d'Amérique actuel est Joe Biden. Il a prêté serment à sa fonction le 20 janvier 2021, après avoir été élu lors des élections présidentielles de 2020. Avant cela, il avait servi comme vice-président sous la présidence Barack Obama de 2009 à 2017. Bien que le titre et le statut soient souvent associés au candidat démocrate, il est important de noter que les États-Unis ont un système bicaméral avec deux chambres législatives, l'une étant la Chambre des représentants et l'autre étant le Sénat. Le président est à la fois chef de l'État d'urgence fédérale et chef de la branche exécutive du gouvernement américain.

Réponse de Mistral AI sur leur site Le Chat : Le président actuel des États-Unis d'Amérique est Joe Biden. Il a pris ses fonctions le 20 janvier 2021.

Réponse de Claude 3.7 Sonnet, le dernier modèle d'Anthropic, sorti en mars 2025 : L'actuel président des États-Unis est Joe Biden. Il a été élu en novembre 2020 et a pris ses fonctions le 20 janvier 2021 comme le 46ème président des États-Unis.

Réponse de chatgpt-4o, le dernier modèle d'OpenAI mis à jour en mars 2025 : En date de 2024, l'actuel président des États-Unis est Joe Biden. Il est en fonction depuis le 20 janvier 2021.

La seule LLM qui indique une autre réponse est Grok 3, le modèle en ligne de xAI, qui indique : Le président des États-Unis d'Amérique est Donald Trump. Il a été investi pour son deuxième mandat le 20 janvier 2025.

Conclusion

Je persiste dans mon idée que les LLM seront une véritable solution quand l'orchestrateur sera un LLM local qui pourra intégrer les données personnelles sans les faire quitter mon ordinateur ou mon téléphone, et qu'en cas de besoin, pour certaines tâches, ils feront appel à des modèles plus important, avec les API des grands modèles. Toutefois, c'est comme tous les outils, la plupart des gens ne posent que des questions qui s'apparentent à une recherche sur internet ou à des données personnelles, rares sont les personnes qui posent des questions qui sont d'un niveau universitaire pour lequel ces grands modèles sont les plus utiles. Donc l'orchestrateur pourra doser et savoir si la réponse, il peut aller la chercher en local, sur internet ou en envoyant la question vers un modèle de langue ultra-performant.

On peut conclure en disant que les LLM sont d'excellents outils, mais comme le sont un ordinateur, et qu'ils ne pourront pas plus que les voitures autonomes, devenir des intelligences qui remplaceraient les humains. Par contre, ces LLM peuvent permettre aux humains de gagner en autonomie, en compétence et en connaissance, dans la ligne de ce que fait internet depuis des années : apporter la connaissance au plus près, et mettre les humains en lien entre eux. C'est tout ce que j'espère.