Quand la technologie passe à l'échelle
Quelles limites poser à la technologie quand la technologie n'a plus de limite ? #271
👨🚀 Tous les mardis, Stéphane Schultz décrypte l’impact des technologies sur l’économie et la société... En savoir plus sur cette lettre : À propos
Vous êtes 9 790 abonnés à recevoir cette lettre. Bienvenue aux nouvelles et nouveaux et merci aux autres pour leur fidélité. Pas encore abonné ?
🎯 Cette semaine
À chaque lettre un nouveau sujet décrypté : quand une technologie passe à l’échelle
Dans son billet hebdomadaire1, Benedict Evans pose une question simple : que se passe-t-il quand une méthode efficace à petite échelle passe à une échelle beaucoup plus grande ? Est-ce juste “la même chose en plus grand” ou cela pose-t-il de nouvelles questions, notamment en matière d’éthique et de respect de la vie privée ? L’analyste cite un épisode de Maigret où le célèbre détective des années 50 interceptait “physiquement” la conversation téléphonique d’un suspect après avoir demandé à l’opératrice téléphonique de le mettre en attente le temps de rejoindre ses locaux en taxi.
Aujourd’hui il n’y a plus d’opératrices pour connecter manuellement nos appels mais bien d’autres moyens d’espionner la vie privée de millions de personnes sans se déplacer. Ce qui apparaissait comme une manoeuvre subtile effectuée par un rusé détective devient une dystopie totalitaire lorsqu’elle est réalisée à l’échelle d’une population entière.
La Tesla Model Y embarque 6 caméras, 1 radar et 2 capteurs ultra-sons. Source : Tesla.
Le raisonnement peut s’appliquer à la reconnaissance faciale. Les desperados dont les portraits étaient exposés sur des affiches “Wanted !” ont fait le bonheur des bandes dessinées et des westerns de notre enfance. Il paraît évident que des photos de suspects soient de nos jours à disposition des policiers dans les commissariats et même accessibles depuis leurs véhicules d’intervention. La diffusion télévisée de portraits robots ou plus récemment de signalements précis avec le dispositif Alerte Enlèvement ne choque plus grand monde. Pourquoi alors s’offusquerait-on que les caméras de vidéo-surveillance (pardon : -protection) ne soient pas elles-mêmes “averties” de cette recherche et ne puissent pas “repérer” automatiquement les visages répondant à ce signalement, sachant que c’est déjà techniquement possible ? De John Wayne arrêtant des bandits à un épisode de Black Mirror, il n’y a qu’un pas. Celui du passage à l’échelle et aussi, plus insidieusement, d’un changement de paradigme technologique. Diffuser un portrait robot à la télé ou sur internet, c’est utiliser un media pour toucher le plus grand nombre d’humains en espérant que l’un d’eux puisse informer la police. Il y a toujours un humain au bout de la chaîne, avec ses faiblesses et sa sagacité. Confier à une IA le soin de “reconnaître” un visage parmi les centaines de milliers qui sortent d’une station de métro devient une toute autre affaire.
Pour le moment l’État français expérimente dans le cadre de la loi du 19 mai 2023 l’usage de la “surveillance algorithmique”, c’est à dire la capacité pour une caméra et un programme informatique de reconnaître certaines situations particulières pré-définies dans des cadres restreints. Il s’agit d’après le texte “de déterminer sans a priori les apports possibles des solutions algorithmiques, éthiques et de confiance, à la sécurisation des grands événements, en appui du travail classique des opérateurs de vidéoprotection, sans jamais se substituer à eux”. À signaler que le texte voté avant les JO de Paris interdit expressément la reconnaissance faciale et toute forme de recoupement des informations recueillies avec des bases de données. L’IA Act européen reprend lui l’interdiction plus générale du social scoring qui est la capacité de noter des individus de manière automatique selon leur comportement, leur respect de la loi, statut social ou état de santé.
Qu’est-ce qui est acceptable ? Où fixer la limite ? Quelle “chaîne de logique répétable” - selon les termes de Benedict Evans - appliquer ? Cette question devient centrale au moment où chaque mois nous découvrons de nouveaux usages possibles des intelligences artificielles. Qu’acceptera-t-on de ne pas faire à l’échelle ?
La mobilité offre de nombreux cas de réflexion intéressants.
En 2020 un conflit juridique opposa JUMP, un service de trottinettes à partager, à l’autorité de transport de Los Angeles, autour de l’obligation de transmettre les données d’usage de ses engins en quasi temps réel. Les dirigeants de la filiale d’UBER arguaient que la transmission de ces données permettait à la collectivité de localiser non seulement chaque trottinette mais également chaque utilisateur. En constatant qu’un engin était laissé à une adresse précise il devenait possible d’identifier facilement qui l’avait laissé là. Ce partage de données contrevenait notamment aux conditions générales d’utilisation de l’application JUMP. À l’époque la polémique fit sourire : UBER n’était pas connu pour défendre ardemment la vie privée de ses utilisateurs. Les autorités de Los Angeles se justifièrent en précisant que ces données servaient avant tout à suivre la manière dont l’opérateur gérait sa flotte et son adéquation avec les besoins de la ville. Sans elles le contrôle était matériellement impossible, en tout cas nettement plus complexe. Maintenant son refus, JUMP a vu son permis d’opérer suspendu.
Mobility Data Specification de Los Angeles DOT - Source : Open Mobility Fondation
Ce cas révèle deux nouveaux critères pour justifier (ou non) le passage à l’échelle et le changement de paradigme technologique d’une solution : à qui cela “profite”- t-il ? Quelle est la finalité du contrôle ? Outre que le premier peut prêter le flanc à des procès d’intention (UBER : diable / ville de Los Angeles : sainte), il est utile de se rappeler l’adage “tout ce qui peut être hacké sera hacké”. Comment garantir que ces données seront bien protégées d’un autre usage ? Concernant la finalité, le concept d’intérêt général peut également être entendu de manière assez large. Comment le définir ici ? Par un progrès dans l’affectation de moyens, un progrès dans les résultats ? Pas simple.
Prenons encore deux exemples autour de l’automobile.
Depuis quelques années nous avons vu apparaître dans nos rues des voitures équipées de drôles d’appendices sur le toit. Ces voitures LAPI - pour « lecture automatique des plaques d'immatriculation » - sont chargées de faciliter le travail des agents municipaux pour contrôler le respect du stationnement payant en ville. Leurs caméras “scannent” les plaques d’immatriculation de tous les véhicules immobiles et transmettent cette information à un service qui associe ces plaques avec l’existence ou non d’un droit de stationnement. Les agents n’ont pas disparu de la boucle puisqu’il leur appartient in fine de vérifier la réalité de la contravention et de la dresser formellement. La différence avec la reconnaissance faciale ou même l’automatisation du contrôle de comportements irréguliers semble cependant ténue. De plus ces caméras ne peuvent matériellement pas éviter de filmer les visages et autres espaces identifiables (intérieurs des propriétés, espaces publics,...). Combien ces arguments pèsent-ils par rapport à ceux de l’efficacité du contrôle et de son moindre coût pour la collectivité ?
Encore plus récemment, une évolution de la réglementation des assurances permet de lier directement les bases de données des plaques d’immatriculation à celles des assurances. Plus besoin d’arrêter le véhicule pour contrôler si la “vignette verte” n’est pas fausse, plus besoin même de vignette verte. Tout est accessible depuis un simple téléphone mobile pour les agents. La base de données est mise à jour toutes les 24 heures. Pour mémoire on compterait près de 500 000 conducteurs non assurés (vous avez bien lu). La justification du contrôle est difficile à contester, surtout si l’on ajoute le taux très élevé d’implication de ces conducteurs dans des accidents corporels. Dans quelles conditions ces contrôles vont-ils se dérouler ? Pourra-t-on par exemple utiliser les voitures LAPI, ou encore les caméras à l’entrée des parkings fermés (qui scannent déjà vos plaques pour les associer avec un horaire de passage) ou les bornes des péages ? Techniquement cela semble un jeu d’enfant. À l’inverse, si cela n’est pas fait, quels seront les critères retenus pour ne pas le faire ?
Et puis, en appliquant la même “chaîne de logique répétable”, pourquoi s’arrêter au défaut d’assurance ? L’absence de passage au contrôle technique pourrait être détecté également. Et pourquoi pas le vol du véhicule ou le non-paiement de amendes ? Tout cela n’est qu’une question de croisement de bases de données. Capter des images, y reconnaître une identification ou un visage est désormais à la portée de toutes et de tous. Si vous regardez autour de vous il est probable que vous soyez en ce moment même “épié·e” et “écouté·e”. Votre smartphone est peut-être en mode Siri activé. La Tesla du voisin filme autour d’elle 24/24. La société d’autoroute sait si vous roulez trop vite. Mais encore une fois ce sont les connexions entre ces données et d’autres bases de données qui représente le principal potentiel de création de services - et donc de risques pour la vie privée.
Fenêtre d’Overton. Source : Wikipedia
Il existe en la matière une fenêtre d’Overton2 comme il en existe pour les discours politiques et la communication corporate. Chacun verra dans ces “progrès” techniques la réalisation de ses propres phobies ou attentes, selon ses rapports individuels à ces sujets et selon la culture de sa communauté. Beaucoup d’Allemands par exemple ne supportent pas Google Street View et y font flouter leur domicile. Les Français ne veulent pas des statistiques ethniques pourtant utilisées dans de nombreuses démocraties. Aux Pays-Bas on scanne son ticket de caisse pour sortir du magasin alors qu’en France on sort librement du métro. Les Anglais n’ont pas de titre d’identité,... Les prochaines urgences - sociales, sécuritaires, écologiques - justifieront peut-être de nouvelles “expérimentations” qui seront ensuite pérennisées.
“This is a social, politic et cultural question” : c’est une question sociale, politique et culturelle, nous dit avec sagesse l’analyste Benedict Evans. De moins en moins une question technologique. Et vous qu’en pensez-vous ?
📘 Et aussi
Mon livre Après la Tech, le numérique face aux défis écologiques n’a pas eu le Prix Goncourt mais on peut le trouver désormais en librairie. Vous pouvez également le commander sur mon site si vous souhaitez un exemplaire dédicacé. Livraison rapide. Gratitude éternelle.
🤩 On a aimé
Nos trouvailles de la semaine, en vrac et sans détour
Le laboratoire d’innovation de la CNIL a imaginé un Surveillanscore à l’image du Nutri-Score : "Un premier logo indicateur (…) permet de pointer en un coup d'œil la capacité à surveiller, ou se faire surveiller, offerte par le produit. Cet indicateur est accompagné d'une série de logos correspondants aux moyens et technologies disponibles dans le produit" - Surveillanscore.
J’avais raté ça : l’analyse de la stratégie de SUV-ification des constructeurs automobiles chez la Fondation Jean Jaurès - La SUV-ification du marché autonomible, des stratégies industrielles aux imaginaires de consommation
Et pendant ce temps, Waymo lève 5 milliards supplémentaires pour développer ses flottes de taxis autonomes. Déjà 100 000 voyageurs payants - Blog de Waymo
La filiale de Google Alphabet offre également à ses utilisateurs des crédits pour prendre les transports publics à San Francisco - Waymo offers $3 credit for San Francisco riders going to public transit stations
Si vous préférez le vélo et cherchez un lieu pour le bichonner ou le réparer près de chez vous, ce site recense les ateliers participatifs et solidaires - Heureux Cyclage
💬 La phrase
“[les bâtiments que j’ai construit] sont des créatures, des enfants, comme si on avait une centaine d'enfants un peu partout dans le monde, on se retourne, on les aime, on se préoccupe qu'ils soient heureux, qu'ils se portent bien”. L’architecte Renzo Piano interviewé sur France Inter
C’est terminé pour aujourd’hui !
À la semaine prochaine, n’hésitez pas à réagir.
Si vous avez apprécié cette lettre, laissez-nous un 💙 pour nous encourager.
Stéphane
Je suis Stéphane Schultz, de 15marches. Le jour je suis consultant, je prends des trains à travers les plaines. La nuit je lis et j’écris cette lettre.
“allégorie qui désigne l'ensemble des idées, opinions ou pratiques considérées comme plus ou moins acceptables par l'opinion publique d'une société donnée” (Wikipedia).
... ou comment est-on passés d'un sentiment de grande liberté à celui de ne plus rien contrôler ? Cela fait 2 fois que mes données partent dans un grand hacking massif. Qu'est-ce que je peux y faire ? Bah rien, je surveille mes comptes ; autant rester là où je suis puisque le prochain hacking sera peut-être là où je changerais. Le grand danger de la technologie est le glissement vers la passivité, l'inaction, l'atonie. Je pense au roman de Pierre Bordage "Wang", où des humains hyperconnectés acceptent de se fondre physiquement dans une ruche faite de loges, dans lesquelles les corps de délitent pour ne plus laisser la place qu'à des impulsions neuronales reliées les unes aux autres. Cela me semblait surréaliste et fascinant quand le l'ai lu il y a 15 ans. Bof hein, comme projet humain ? Selon moi le problème du passage à l'échelle, c'est quand la technologie (avec des individus derrière évidemment) prend le pas sur les fondamentaux d'une société humaine (le collectif, le vivre ensemble, les valeurs communes, les règles partagées). Donc oui, je suis complètement OK avec “This is a social, politic et cultural question”.
Je pense que la technologie va toujours au bout de sa propre logique. On le sait depuis la bombe atomique. On le constate avec l'IA. Et vous le précisez avec l'adage "tout ce qui peut être hacké sera hacké".
Ensuite, la vraie question à se poser, c'est la différence que l'on peut faire entre "pouvoir" et "vouloir".
Et ça, ça reste une question profondément humaine.