L'homme qui voulait remplacer les hommes
Le patron d'OpenAI a un plan : vendre des employés virtuels aux entreprises. Est-ce que cela peut marcher ? On décrypte le projet #285
👨🚀 Tous les mardis, Stéphane Schultz décrypte l’impact des technologies sur l’économie et la société... En savoir plus sur cette lettre : À propos
Vous êtes 10 509 abonnés à recevoir cette lettre. Bienvenue aux nouvelles et nouveaux et merci aux autres pour leur fidélité. Pas encore abonné·e ?
🧭 De quoi allons-nous parler
Une grosse partie de mes relations sur les réseaux semblent avoir passé leur week-end à créer des scènes “façon Ghibli” à l’aide du nouveau générateur d’images d’OpenAI, GPT-4o. Au-delà de l’effets whaou! de telle ou telle nouvelle fonctionnalité, la vitesse à laquelle évoluent les IA génératives rend encore plus nécessaire de s’interroger sur leur modèles économiques. C’est génial, mais qui va payer pour ça ?
Je me suis intéressé cette semaine à plusieurs communications de Sam Altman, le co-fondateur d’OpenAI et grand manitou de l’AGI, l’intelligence artificielle générative. “Notre mission est de s’assurer que l’intelligence artificielle générale bénéficie bien à toute l’humanité” écrit-il, “dans la lignée de l’électricité, du transistor, de l’ordinateur et de l’internet”. Rien que ça. “Dans une décennie, chaque personne sur terre pourra peut-être accomplir plus de choses que la personne ayant le plus d’impact aujourd’hui” ajoute-t-il. Le cap est fixé. Encore faut-il pour l’atteindre trouver un modèle économique un peu plus élaboré que : “donnez-moi des dizaines de milliards et vous verrez dans 5 ans” comme l’a montré l’épisode Deepseek. J’ai choisi d’étudier cette phrase plus particulièrement : “En ce moment, je suis plus excité par découvrir comment nous pouvons faire payer les gens beaucoup d’argent pour un vraiment super ingénieur logiciel automatisé ou d’autres sortes d’agents que de gagner des centimes avec un modèle basé sur la publicité”. Sortir de la “triste monétisation de nos clics”1 pour passer à un modèle de “salaire” équivalent à plusieurs centaines voire milliers de dollars par mois. Est-ce bien raisonnable ? Voyons cela plus en détail.
🎯 Cette semaine
À chaque lettre un nouveau sujet décrypté : L’AGI va-t-elle remplacer Jeff le dev du 1er ?
C’est encore loin l’AGI ?
Écoutons encore Altman : “l’intelligence artificielle générale (AGI) est un terme mal défini, généralement entendu comme un système capable de résoudre des problèmes complexes, au même niveau qu’un humain, dans de nombreux domaines”. Je ne me risquerai pas ici à définir ce que pourrait être ce “système capable”, et vais plutôt m’arrêter sur l’item suivant : “au même niveau qu’un humain”. À partir de quel niveau d’intelligence on pourra remplacer un ingénieur par exemple ?
Les outils de benchmarks comparent les nouveaux modèles selon leur capacité à coder, s’exprimer, traduire, résoudre des problèmes de maths ou de logiques. Comme tout bon élève, chaque modèle est calibré pour réussir ces tests. En gros on leur “réinjecte” les résultats des benchmarks précédents et, comme dans l’École des Fans de Jacques Martin presque tous les modèles ont une bonne note à la fin. Ce qui permet à tous les “experts en AI” de proclamer à qui veut l’entendre que “les modèles atteignent ou dépassent les humains dans 90+% des cas”. Afin de sortir de cette logique, Hugging Face a imaginé un test radicalement différent : le Humanity Last Exam AI. Le problème est pris dans l’autre sens : quelles sont les questions qui, si elles sont résolues par une IA, signifieront que celle-ci a atteint non pas le niveau d’un humain (moyen), mais celui de la ou du meilleur spécialiste du domaine ? Attention ça pique un peu :
Notre cher GPT-4o semble tout à coup beaucoup moins à l’aise que pour faire des memes “à la Ghibli” : il ne trouve que 3,1% de bonnes réponses. D’autres modèles d’OpenAI obtiennent cependant de meilleurs résultats. Le meilleur étant pour l’instant Google Gemini avec 18% de bonnes réponses. Ce test a le mérite de représenter le benchmark ultime : le jour où les modèles pourront résoudre des questions d’un tel niveau de difficultés, ils ne seront pas meilleurs que la moyenne des humains, ils seront tout simplement imbattables.
Peut-être que Jeff votre collègue développeur du 1er n’aurait même pas obtenu 2% de bonnes réponses. Va-t-il pour aurant être remplacé par un modèle qui en obtient 18% ou même 6% ? Pas si simple.
Qui veut embaucher un virtual coworker à 10k$/an ?
Imaginons maintenant que, d’ici quelques années - au rythme où OpenAI brûle du cash, il ne faudrait pas que cela dure trop longtemps - des “salariés synthétiques” soient sur le marché. Des solutions tout-en-un capables de vous aider dans vos tâches quotidiennes au boulot, répondre à vos clients ou collaborateurs, assurer en réunion, tout ranger derrière vous et préparer la prochaine campagne marketing de printemps.
Le premier point de passage est de s’assurer que ce collègue virtuel ne fasse pas trop d’erreur. Ou du moins, soit capable de dire humblement qu’il s’est peut-être planté. Les petits malins d’Hugging Face ont assorti leur Last Exam d’une question piège appelée calibration error : ils ont demandé en plus de leur question-pour-prix-Nobel si le modèle pensait s’être trompé. Le résultat est sans appel : dans 90% des cas le modèle répond qu’il ne s’est pas trompé. Gênant quand on se souvient qu’il ne trouve la bonne réponse qu’entre 3 et 18% des fois. Votre employeur est-il aussi tolérant devant une telle arrogance ? Et vos clients ?
Ensuite se pose une question plus profonde. Votre employeur est-il rationnel ? J’entends : la dernière fois que vous lui avez présenté un plan nécessitant de payer d’abord (même quelques dizaines d’euros par mois et par poste) pour avoir plus de productivité, vous a-t-il suivi ? Combien sera-t-il prêt à poser sur la table pour un nouvel assistant ? La version Pro de ChatGPT est déjà à 200€/mois. Qui pourra bénéficier de l’AGI ? Seules les réponses réalistes sont acceptées.
Autres indices : où en est votre organisation dans l’usage de solutions collaboratives, de SaaS de productivité, de partage et valorisation des données ? Autrement dit, dans quel environnement numérique votre futur collègue va-t-il évoluer ? Car, pour pouvoir donner toute la mesure de son “intelligence”, votre assistant virtuel va avoir besoin d’apprendre très vite ce qu’il se passe dans votre entreprise. Votre armoire à dossiers est-elle bien rangée ?
Le cloud c’est quand tu mets tes données dans l’ordinateur de quelqu’un d’autre; le RAG c’est quand tu lui donnes les clés de ta boîte
Les tactiques de négociation de Trump ne s’arrêteront sans doute pas aux taxes sur le cognac ou l’acier européens. Imaginez une minute : en “représailles” de la condamnation d’un de ses géants par l’Union Européenne, les USA décident que tous les abonnements professionnels à Google, Microsoft, Meta, Amazon, verront leurs prix multipliés par 3. Impossible à imaginer il y a un an, ce scénario devient beaucoup plus plausible non ? J’ai du mal à croire dans un tel contexte que les entreprises européennes se lancent tête baissée dans une relation infiniment plus étroite avec une organisation comme OpenAI. Et cela va au-delà de la relation commerciale.
Rappelons quelques principes de base : quand vous posez une question à ChatGPT, l’outil produit une réponse qui correspond à la plus grande probabilité d’association entre des “morceaux de mots” dans un contexte donné (votre question)2. Le modèle s’appuie pour cela sur un corpus de milliers de milliards de données. Quand vous utilisez une version augmentée comme DeepResearch, cette réponse s’enrichira de résultats “recherchés” par le robot sur diverses sources (internet, documents hors web,…). Le robot pose des questions pour clarifier la question et propose différentes options pour ajouter de la pertinence à la réponse. Cette relation peut également prendre la forme d’agents ou assistants qui effectueront à votre place des tâches plus complexes comme réserver des billets de train, tables de restaurant ou rédiger des rapports techniques complets. Sympa pour une conversation à déjeuner, mais pour répondre à un appel d’offres ou convaincre un client qui connaît bien votre boîte ? Il va en falloir plus.
Le RAG - pour Retrieval-Augmented Generation3 - fonctionne différemment. C’est l’utilisateur qui va “pousser” des informations (documents internes, études spécifiques…) vers l’outil en appui à sa question initiale : “d’après nos 100 derniers travaux d’études pour telle industrie, quelles sont les scénarios de développement de l’hydrogène” pourrait être le prompt d’un grand cabinet de conseil. Le RAG permet une contextualisation beaucoup plus fine de la réponse. La ressource fournie aide le GPT à comprendre l’indexation “maison” des informations et les liens sémantiques entre ses différents éléments.
Principes de fonctionnement du RAG. Source : Amazon Web Services.
Mettons que vous disposiez déjà d’une telle ressource (voir plus haut). Autant dire que vous partagerez avec une société tierce non seulement vos données les plus précieuses - sinon à quoi bon ? - et le mode d’emploi de ces données. Votre organisation a-t-elle l’habitude de faire cela, ne serait-ce qu’en interne ? Demandez à votre Direction Juridique.
Franchir le gouffre (ou pas)
Depuis 2 ans et le lancement de ChatGPT nous faisons face à une de ces vagues d’attentes exagérées désormais bien connues des observateurs du secteur. Des organisations très agiles font des prouesses avec ces outils, les présentent sous un jour radieux et tout l’écosystème s’emballe sur leur potentiel - ou leurs risques. Chacun rivalise de prévisions auto-réalisatrices. Dans mon livre Après la Tech, j’ai pris pour exemple la réussite du jeune Pieter Levels, aka @levelsio, qui gagne plusieurs millions d’euros par an en codant des sites web marchands depuis son hamac. Nulle doute que des centaines de Levelsios réussiront eux aussi à monter seuls des business de plusieurs millions, voire centaines de millions de dollars grâce à l’IA et ses agents virtuels. Cela ne signifie pas pour autant que des organisations plus traditionnelles cèderont aux mêmes sirènes. Comme l’écrivait Geoffrey Moore dans son livre culte Crossing the Chasm, les stratégies pour conquérir le marché des primo-adoptants fonctionnent rarement pour celui des entreprises “grand public”. Pire, la réussite des premiers peut servir de repoussoir aux seconds, qui plébiscitent des solutions éprouvées, faciles à interfacer avec l’existant et qui ne nécessitent pas de lourdes adaptations en interne. L’AGI, pourquoi pas mais finissons d’abord le reporting du 3ème trimestre.
Le super ingénieur logiciel automatisé existera peut-être un jour chez OpenAI ou dans le garage qui abrite votre startup. Peut-être remplacera-t-il les effectifs offshore de votre ESN favorite. Je doute fort cependant qu’il se présente à la porte de votre bureau avant longtemps. En attendant, vous pouvez toujours demander à ChatGPT ce qu’il en pense.
Envie de soutenir mon travail et approfondir votre compréhension des ruptures à l’œuvre ?
🧐 Et aussi
Des ressources utiles en lien avec le sujet traité cette semaine.
L’interview de Sam Altman par Ben Thompson (Stratechery) - An Interview with OpenAI CEO Sam Altman About Building a Consumer Tech Company
Le blog personnel de Sam Altman : un monument de techno-solutionnisme - Three Observations
L’évolution du chiffre d’affaires - et du déficit - d’OpenAI - OpenAI expects revenue will triple to $12.7 billion this year, source says - CNBC
Si vous avez raté la folie Ghibli x ChatGPT et la naissance du terme “ghibling” - Know your meme
Une réflexion passionnante sur l’évolution de la chaîne de valeurs de l’IA par Pierre-Carl Langlais - The Model is the Product - Vintage Data
(La minute WTF) Pourquoi Sam Altman n’utilise jamais de majuscules dans ses communications :
🤩 On a aimé
Nos trouvailles de la semaine, en vrac et sans détour
Temps passé en ligne, e-commerce, taux d’équipement…J’ai le souvenir d’avoir souvent utilisé ce baromètre du CREDOC dans mes présentations des années 2010 pour convaincre de la hausse inéluctable des usages numériques - et de l’urgence d’y répondre. La dernière édition le confirme. Le baromètre du numérique - édition 2025 (pdf)
Anti-obsolescence : de jolies vignettes à coller sur vos appareils électroniques pour les faire durer plus longtemps - La vignette tech
Il y a 248 data centers en France, découvrez sur cette carte ceux qui sont près de chez vous - Data Center Map
Combien d’énergie consomme réellement l’intelligence artificielle ? How much energy will AI really consume? The good, the bad and the unknown - Nature
Envie d’aller plus loin sur le sujet des infrastructures du numérique et de leurs enjeux géopolitiques ? Géopolitique du numérique : l’impérialisme à pas de géants - Ophélie Coelho sur Sismique
Comment détecter celles et ceux qui utilisent l’IA sans le dire ? Faux positifs : comment reconnaître les contenus identifiés, à tort, comme générés par IA - Next
Kristen DiMercurio par exemple, une vraie comédienne est la “voix” de nos terminaux bluetooth (“VOICE CANCELATION : FIVE”). Vous l’entendez peut-être plusieurs fois par jour.
Et pour finir, quand l’IA se mesure à un prix Goncourt de littérature pour écrire un essai original - Comment j'ai défié un prix Goncourt avec l'intelligence artificielle
💬 La phrase
“Ce qui est formidable en Amérique, c’est que les consommateurs les plus riches achètent essentiellement les mêmes choses que les plus pauvres. Vous pouvez regarder la télévision et voir du Coca Cola, et vous savez que le Président boit du Coca Cola, que Liz Taylor boit du Coca Cola, et dites-vous que vous pouvez boire du Coca Cola, vous aussi. Un coca est un coca et aucune somme d'argent ne vous permettra d'obtenir un meilleur coca que celui que boit le clochard au coin de la rue. Tous les cocas sont les mêmes et tous les cocas sont bons. Liz Taylor le sait, le Président le sait, le clochard le sait et vous le savez”. Andy Warhol - "The Philosophy of Andy Warhol"(traduit par votre serviteur)
C’est terminé pour aujourd’hui !
À la semaine prochaine, n’hésitez pas à réagir.
Si vous avez apprécié cette lettre, laissez-nous un 💙 pour nous encourager ou achetez mon livre.
Stéphane
Je suis Stéphane Schultz, de 15marches. Le jour je suis consultant, je prends des trains à travers les plaines. La nuit je lis et j’écris cette lettre.
Citation sortie de mon livre (oui, je m’auto-cite, parce que je le vaux bien)
En réalité la réponse dépend d’un certain de paramètres prédéfinis qui influent sur cette probabilité : température, top-k, top-p,…mais l’idée reste la même.
En français : génération augmentée de récupération
Merci Stéphane pour la prise de recul simple, efficace et réaliste - au moins en 2025. (Mince, j'ai mis des majuscules. 😜)
Jolie référence à Bashung! Newsletter très intéressante merci.