Quand l'humain devient un problème
Faut-il éliminer toute interaction "naturellement" humaine au nom de l'efficacité ? Tel semble être le plan de moins en moins secret des géants de la tech avec l'IA #286
👨🚀 Tous les mardis, Stéphane Schultz décrypte l’impact des technologies sur l’économie et la société... En savoir plus sur cette lettre : À propos
Vous êtes 10 614 abonnés à recevoir cette lettre. Bienvenue aux nouvelles et nouveaux et merci aux autres pour leur fidélité. Pas encore abonné·e ?
🧭 De quoi allons-nous parler
Alors que dans la dernière édition je m’étais attardé sur le modèle économique des intelligences artificielles, cette semaine ma réflexion porte sur leurs finalités philosophiques, sociales et politiques. Après nous avoir donné une bicyclette pour l’esprit (logiciel), puis fait discuter nos machines entre elles (API), les ingénieurs souhaitent apparemment avec l’IA enlever aux simples humains que nous sommes leurs dernières capacités à douter, transiger ou négocier. Nos interactions avec les machines doivent se restreindre au strict nécessaire, au nom d’une efficacité dont on se demande bien quelle finalité elle sert.
Quand l’humain devient un problème, c’est le thème de la lettre de cette semaine.
Image : Kate Sade via Unsplash
🎯 Cette semaine
À chaque lettre un nouveau sujet décrypté : en quoi les intelligences artificielles servent une vision de performance et d’efficacité qui n’a que faire de nos subtilités humaines.
Sam Altman, PDG d'OpenAI, a récemment déclaré que l'utilisation de formules de politesse comme « s'il vous plaît » ou « merci » dans les requêtes adressées à ChatGPT engendrait des coûts énergétiques et financiers significatifs pour l'entreprise. Sans préciser évidemment que le simple fait d’utiliser ces solutions, avec ou sans formule de politesse, avait un impact environnemental plus de 10 fois supérieur qu’une bonne vieille recherche sur le web.
On ne dit pas merci
Curieux, j’ai donc demandé à ce même ChatGPT ce qu’il pensait des dires de son guide suprême.
Nous serions donc face à un nouveau dilemme : entre humaniser notre relation ou protéger l’environnement, il faut choisir. J’ai d’abord ri (jaune). Puis je me suis souvenu d’une conversation avec Daniel Kaplan retranscrite dans mon livre Après la Tech : le numérique face aux défis écologiques. Interrogé sur les intentions des acteurs de la tech en matière de la lutte contre le dérèglement climatique, l’entrepreneur a recadré le débat autour de la notion d’organisation qui conduirait à agir de manière indépendante des personnes qui la composent :
“Une organisation a ou acquiert vite une logique autonome, en grande partie indépendante des individus qui y travaillent ou même les dirigent (...). La logique propre à l’organisation l’emporte sur celle des personnes qui y travaillent et, a fortiori, sur celle des personnes qu’elle est censée servir. Depuis les années 1930, le “management scientifique des organisations” en a même fait un objectif : au nom de l’efficacité organisationnelle, retirer autant de décisions que possibles aux humains, parce que ceux-ci discutent, doutent, oublient, changent d’avis, ont des idées, négocient…(...). Comme le disent les gangsters dans les films, “nothing personal, it’s just business.” Le système d’information est devenu la manière pour l’organisation de s’en remettre à des machines, pas seulement pour exécuter, mais petit à petit pour étudier, pour construire la connaissance de base, pour produire des décisions et surtout pour les produire d’une manière qu’elles deviennent tellement insondables que tu ne peux plus les discuter. Les organisations orientées services telles qu’Amazon où chaque service est le client et le fournisseur des autres avec des interfaces normalisées, où les tâches des humains sont tellement formalisées et quantifiées que leur remplacement par un robot devient une issue naturelle... racontent assez bien ça”. (Après la Tech, éditions Apogée 2024).
Les plus cinéphiles d’entre vous apprécieront la référence à The Godfather (Le Parrain) de Coppola. Afin d’éviter d’interminables et destructrices vendettas, les familles de mafiosis procèdent à des assassinats ciblés dont elles s’excusent poliment en arguant : “nous éliminons le membre de ta famille qui est devenu un obstacle à la bonne marche des affaires, mais viens dimanche à la maison pour fêter la communion du petit”. L’analogie avec le manque de vertu des personnes morales est radicale, mais pas si extrême quand on entend les multiples témoignages de détresse au travail et de “maltraitance” de clients ou administrés par ces organisations. It’s business, just business…
Minimiser les risques humains
Pour prolonger la réflexion de Daniel Kaplan, souvenons-nous de la structure tout à fait particulière d’Amazon, l’entreprise-as-a-service, que nous avions décrite en détail dès 2018 (lire ici). Les médias se sont focalisés sur les robots qui suppléent les humains dans les entrepôts : en réalité toute l’entreprise est organisée de manière à limiter les “risques” humains. Amazon, c’est la machine qui fabrique la machine pour paraphraser Benedict Evans.
Dans cette architecture orientée services, chaque fonction de l’entreprise est normalisée, ses ressources sont exposées par des interfaces et des process standardisés. Il y est interdit par exemple d’envoyer même en interne une base de données par email. En rendant accessible par la suite ses capacités informatiques “comme un service” à l’extérieur, Amazon a permis à des milliers de start-up de développer leurs propres applications et gérer leur croissance exponentielle. D’abord limité aux ressources informatiques, ce modèle s’est étendu aux capacités logistiques, marketing, puis publicitaires. Et demain matin, à l’IA et ses agents.
Les gens sont bons
Nous sommes bien loin de la philosophie originelle de Pierre Omidyar le fondateur d’eBay : “In the early days of eBay, I articulated for the very first time this belief that people are basically good” : “aux tout débuts d’eBay, j’ai formulé pour la première fois la croyance que les gens sont fondamentalement bons”. La plateforme d’e-commerce entre particuliers s’est construite sur cet axiome très simple. Il n’est pas nécessaire de “sur-ingéniérer” l’identification, la sécurité des paiements et des envois. Laissons les humains se débrouiller. Blablacar développerait peu après une série de fonctionnalités et de process destinés à renforcer justement la confiance entre humains. Son D.R.E.A.M.S Framework garantit un maximum de confiance entre covoitureurs lors de leurs interactions en ligne.
Source : Blablacar - Entering the trust age.
0% humain, 100% efficace ?
Là où une recherche sur le web aboutissait in fine à des propositions de résultats “générés par des humains” (sites web, Wikipedia, articles rédigés par un journaliste,…), les LLM nous offrent une réponse unique. L’objectivité est feinte en y proposant le cas échéant plusieurs “points de vue”. Le cheminement de la réponse reste cependant insondable.
Les solutions IA ne sont pas là pour outiller la confiance entre humains ou faciliter leurs échanges. Elles sont là pour les remplacer. Dans le présent, le futur et le passé. Plus besoin d’historiens : le modèle génératif prétend reproduire leurs contributions, réflexions et propositions. Les enseignants ou experts sont cantonnés à la correction des erreurs générées par les machine. Les créateurs deviennent de simples producteurs de contenus destinés à nourrir les modèles.
Et déjà les “agents”et autres “assistants” vous proposent de planifier vos vacances et trouver le meilleur cadeau pour votre chéri·e. Même pas besoin de dire merci !
Et en plus ils votent
Il appartient bien sûr à chacun de garder son libre arbitre et décider ce qu’elle ou il souhaite réaliser “à l’ancienne”. Ne soyons pas naïfs cependant sur le modèle de société qui sous-tend ces nouvelles propositions. Écoutons plutôt Peter Thiel, figure emblématique de la Silicon Valley et mentor de J.D. Vance l’actuel Vice-Président américain: "la grande tâche des libertariens est de trouver un moyen d’échapper à la politique sous toutes ses formes" (Philosophie Magazine). Pour ce courant de pensée la politique - celle des débats, des controverses, des votes, celle des humains quoi - est l’ennemi. Curtis Yarvin, autre “néo-réactionnaire” influant, propose une reformulation de la théorie politique sous l'angle de la souveraineté. “À ses yeux, un bon gouvernement ne rend pas de comptes — il délivre des résultats. Pour lui, la démocratie est un "système de gouvernement inefficace et destructeur". À terme, les États-Unis devraient être gérés comme une véritable entreprise, et nommer un CEO comme président” (L’Empire de l’Ombre, Gallimard). Ce CEO, aussi doué soit-il, sera sans doute plus tard remplacé par une machine au nom d’une pseudo-intelligence générale et ubiquitaire.
Humains après tout
Mon premier réflexe est de me dire que je deviens parano. Ce scénario n’arrivera pas. En tout cas pas chez nous. Mon second est de rechercher à partir de quel moment nous avons rendu possible une telle éventualité. Sur quel terrain elle pourrait prospérer si j’avais tort.
La déshumanisation de nos rapports professionnels, sociaux et même amicaux ne date pas d’hier. En se structurant, les entreprises ont dilué la culture de leurs fondatrices ou fondateurs. Les employés doivent y être remplaçables et interchangeables. Des systèmes d’information gouvernent les contributions et échanges entre salariés, fournisseurs et clients. Le télétravail a réduit les “interactions non planifiées” sous l’oeil suspicieux des employeurs. Fini les échanges à la machine à café et les confidences de la cantine.
Pendant ce temps l’essor de l’économie de la flemme (Deliveroo, Netflix, Tinder,…) a réduit les liens avec nos commerçants, prestataires, artistes, amis…à des micro-formulaires à remplir en ligne. Le web avait déjà fait une partie du boulot en nous rendant passifs et étourdis (vous aimez cet article ? Vous l’oublierez d’ici une heure). L’hybridation de nos outils personnels et professionnels a enfin généralisé des comportements problématiques comme le multi-tâches, les troubles de l’attention et le ghosting1. En résumé, j’ai peur que nous ne nous soyons mis nous-même en situation d’accueillir le funeste destin que nous promettent les idéologues de la Tech comme un progrès logique vers plus d’efficacité.
Pour finir sur une note positive, rappelons-nous que l’antidote est à portée de chacune et chacun : se lever de sa chaise, fermer l’ordinateur, sonner chez un voisin, appeler un collègue, parler à des inconnus, programmer un débat, contacter l’auteur d’un article qui vous a plu…
Donner chaque jour un peu plus de temps à l’autre “dans la vraie vie”. Nothing business, just personal.
😎 Mon actualité
J’ai été interviewé dans l’émission “La tech la première” sur France Inter sur les usages numériques et la souveraineté des données dans la ville (à partir de 3’45). La Tech la première du 17 avril 2025.
La librairie Comment Dire m’a fait l’honneur d’une rencontre autour de mon livre jeudi dernier à Rennes.
📘 Après la Tech entre Liberté et (grand) soulagement.
Jeudi prochain le 1er mai sera diffusé mon entretien avec Mick et Cyrille du podcast Trench Tech. Une bonne occasion de s’abonner - Trench Tech
Le 6 mai prochain ne manquez pas le webinaire que j’organise et anime sur la réutilisation des données de mobilité, avec Vélib, Google et Transport Data. Ouvrir ses données, mais qui va les utiliser ? DiaLog
Venez me rencontrer jeudi 13 mai à Marseille où je donnerai une conférence sur les enjeux de l’intelligence artificielle - Les Rencontres de la Plateforme - Intelligence Artificielle
Vous avez un projet, une idée, envie d’en parler ?
🤩 On a aimé
Nos trouvailles de la semaine, en vrac et sans détour
Comment Meta a piraté des millions de livres pour entraîner ses modèles génératifs. The Unbelievable Scale of AI’s Pirated-Books Problem. The Atlantic
Des journalistes ont analysé les données privées de géolocalisation de 12 millions de téléphones durant deux semaines. Ce qu’ils ont découvert va vous choquer -"TrackingFiles" : comment la vie privée de militaires, de diplomates et du personnel politique français est exposée par les données de géolocalisation - France Info
Vous connaissiez les “géo-guessers” ? Ces expertes et experts en photos de lieux capables de localiser une photo de lieu prise au hasard en quelques secondes ? Ils ont désormais un nouveau concurrent : ChatGPT - The latest viral ChatGPT trend is doing ‘reverse location search’ from photos
Données toujours : y a-t-il un cinéma près de chez vous ? L’INSEE publie un jeu de données sur la localisation et l’accès de la population aux équipements - Données sur la localisation et l’accès de la population aux équipements - Data Gouv
Enfin, une belle idée : rebaptiser les stations de métro parisiennes du nom de lieu culturel le plus proche. Envie de culture mais vous ne savez pas où aller ?
💬 La phrase
« Les grands plans échouent parce qu’ils ignorent les ajustements continus du réel. » (Nassim Nicholas Taleb, Le Cygne Noir)
C’est terminé pour aujourd’hui !
À la semaine prochaine, n’hésitez pas à réagir.
Si vous avez apprécié cette lettre, laissez-nous un 💙 pour nous encourager.
Stéphane
Je suis Stéphane Schultz, de 15marches. Le jour je suis consultant, je prends des trains à travers les plaines. La nuit je lis et j’écris cette lettre.
Acte qui consiste à mettre fin à une relation avec une personne en interrompant sans avertissement ni explication toute communication et en ignorant les tentatives de reprise de contact de l'ancien partenaire (Wikipedia).
Je suis allé au théâtre de la Bastille il y a peu. Une pièce sur la famille https://www.theatre-bastille.com/saison-24-25/vaisseau-familles.
On y découvre que le concept de "famille" est né de la volonté de contrôler les interactions personnelles et "intimes" des individus, et la production de capital, par l'état.
Bonne journée cher humain :)
La déshumanisation dans les entreprises est déjà à l'origine de beaucoup des problématiques de risques psychosociaux... le mythe de la standardisation aussi, en tout cas de la standardisation totale... alors que le travail n'est qu'aléas à résoudre, et que sans humains, c'est toujours plus compliqué...