L'état de la technologie autoritaire | Steven Feldstein
Inside the episode
David :
[0:03] Steve Feldstein est chargé de recherche au programme Démocratie, Conflit et Gouvernance de Carnegie, où il se concentre sur l'intersection de la technologie,
David :
[0:09] des droits de l'homme et de la politique mondiale. Il est également l'auteur de deux livres, The Rise of Digital Repression, How Technology is Reshaping Power Politics and Resistance, paru en 2021. Et un autre livre, Bites and Bullets, Global Rivalry, Private Tech, and the New Shape of Modern Warfare, qui sortira l'année prochaine. Nous voulions que Stephen participe à l'émission aujourd'hui pour nous informer sur un sujet que nous pensons important de garder à l'œil, que j'appellerai l'état de la technologie autoritaire ou de la technologie de répression,
David :
[0:39] la technologie qui aide les États autoritaires à réprimer leurs citoyens. Stephen, pour commencer cette interview, comment se présentent les perspectives de la technologie de répression ? Je dois admettre que lorsque je me réveille le matin, je ne pense pas vraiment à la maturité ou à la sophistication de ce secteur technologique sur NET. Quelle est la capacité de ce secteur technologique aujourd'hui ? À quelle vitesse progresse-t-il ?
Steven :
[1:00] Il progresse rapidement. Tout d'abord, merci de m'avoir invité. Je l'apprécie beaucoup. Le secteur progresse rapidement. Je pense que c'est un arc intéressant que nous avons vu. Je dirais que si vous revenez 15 ans en arrière, il y a eu un moment où l'on a vraiment mis l'accent, je pense, sur la technologie de libération et l'idée que différents outils numériques pouvaient vraiment libérer les gens et leur donner les moyens de lutter contre le contrôle de l'État et ainsi de suite. Je pense qu'il y a eu un véritable retournement de situation depuis lors, les gouvernements ayant pris conscience du pouvoir de ces technologies. Ces technologies sont de plus en plus efficaces et de moins en moins chères. Et des choses comme la surveillance, la biométrie, etc. sont devenues omniprésentes dans le monde, où que l'on soit. Je pense donc que ce qui est intéressant, c'est que ces technologies deviennent de plus en plus courantes et de moins en moins chères à utiliser. Et, vous savez, il y a, il y a quelqu'un qui est, qui est tout autour de nous à un degré beaucoup plus élevé.
Ryan :
[1:52] Steve, est-ce qu'il y a une taxonomie à laquelle tu penses quand tu penses à la répression, à la technologie de répression numérique ? Quelles sont les différentes catégories dans ton esprit ?
Steven :
[2:02] Oui, il y en a plusieurs. Je commencerais par les technologies de surveillance. Et à l'intérieur de celle-ci, il y a quelques types différents. Il y a les technologies de surveillance de masse. Des choses comme les caméras publiques de reconnaissance faciale sont utilisées pour voir qui se rassemble où. Il y a aussi les technologies de surveillance des médias sociaux, qui tentent d'exploiter des millions de messages différents pour voir quels types de sentiments ou de défis politiques sont en train de se produire. Enfin, il y a la surveillance ciblée, comme les logiciels espions, qui permettent aux gouvernements d'utiliser des logiciels pour écouter les conversations, les courriels, etc. Il s'agit donc d'une première catégorie. Une autre catégorie est liée à la censure, à l'idée que l'on essaie d'empêcher et de contrôler la diffusion ou la production d'informations. Il peut s'agir de la Chine et de sa Grande Muraille qui empêche les plateformes ou les médias occidentaux d'entrer. Il peut également s'agir d'une mesure interne visant à contrôler ce que les gens peuvent dire et à prendre les mots clés utilisés par les internautes pour les déclasser ou les supprimer de manière automatisée. Je pense que la troisième chose est en fait la désinformation. Il s'agit donc de l'idée de manipuler l'information à des fins politiques, comme on le voit dans de nombreux pays. J'ai écrit un chapitre dans mon livre sur les Philippines qui en sont un excellent exemple, où l'ancien président, Duterte, a vraiment utilisé et créé tout un réseau de désinformation destiné à ternir la réputation des politiciens de l'opposition.
Steven :
[3:29] Ternir la société civile, les journalistes, tous ceux qui remettaient en cause le discours du gouvernement sur ce qu'il faisait.
Steven : [3:36] Et puis Internet :
[3:36] Et puis les fermetures d'Internet sont une autre chose que je mettrais aussi dans cette catégorie. C'est essentiellement l'idée d'essayer de perturber ou de couper la connectivité, en particulier lorsqu'il y a de grandes manifestations ou un élan contre les opposants. Dans une certaine mesure, l'interdiction des plateformes de médias sociaux qui a eu lieu au Népal la semaine dernière et qui a galvanisé les protestations de masse et entraîné la chute du gouvernement est un exemple de tentative d'utilisation des coupures.
Steven :
[4:06] Cela s'est retourné contre nous et a conduit à un changement politique significatif. Voilà en quelques mots l'univers.
Ryan :
[4:13] Steve, peux-tu nous parler de l'affaire du Népal ? Dave et moi étions en train de suivre cette affaire et de comprendre certaines des technologies anti-autoritaires utilisées par les manifestants et, je suppose, les révolutionnaires, que nous devrions appeler ainsi parce qu'ils ont mené une révolte contre le gouvernement en place. Ils utilisaient donc des technologies de communication cryptées, comme Signal ou Telegram. Selon certaines informations, ils utilisent des crypto-monnaies, car la censure et la répression ne se limitent pas à la fermeture des réseaux de communication. Elle prive également les gens de leurs droits et les exclut du système financier. Pouvez-vous nous en parler ? Parce que cela a fait la une des journaux récemment. Bien que je ne pense pas que les médias grand public, il se passe beaucoup de choses dans le monde occidental en ce moment. J'ai donc l'impression que le Népal, la folie qui s'y déroule, n'a peut-être pas fait l'objet d'une couverture médiatique suffisante. Mais quels sont les faits et quelle est la situation ?
Steven :
[5:10] Oui, c'est très intéressant. J'ai d'ailleurs commandé quelques articles à un réseau que je dirige à Carnegie pour en savoir plus sur le sujet. Cela sortira donc dans les prochains jours. Mais pour l'essentiel, ce que vous avez vu, c'est que pendant un certain nombre de semaines, vous avez constaté une augmentation du niveau. Et c'est vraiment orienté vers la génération Z. L'une des choses les plus importantes, c'est que la plupart des personnes qui manifestaient, diffusaient des messages, etc. appartenaient à une jeune génération qui commençait enfin à s'affirmer et qui était vraiment en colère à propos de plusieurs choses. Ils étaient d'abord et avant tout en colère contre la corruption et ils étaient particulièrement indignés par le hashtag "bébés népo". Ils regardaient les enfants des hommes politiques et toutes les richesses dont ils faisaient étalage. Dans un pays extrêmement pauvre, où les gens sont forcés de partir et de devenir des travailleurs migrants, dans d'autres pays, vous aviez, vous savez, ces enfants, la très petite élite de politiciens riches qui sortaient dans des voitures de luxe, affichant des styles de vie luxueux et ainsi de suite. C'est ainsi que cela commence.
Ryan :
[6:07] La chronique de tout ça sur les médias sociaux, j'imagine, n'est-ce pas ? C'est un peu comme la culture des influenceurs. Mais on peut imaginer ça pour l'élite des bébés Népo, tu sais, les enfants des politiciens.
Steven :
[6:17] Et cela a commencé à prendre de l'ampleur. Et, vous savez, ce qui s'est passé, c'est qu'il y avait déjà eu une tentative de la part du gouvernement. Il avait en quelque sorte adopté une loi qui forcerait essentiellement les plateformes, toutes sortes de plateformes externes, de Meta à Instagram en passant par X et ainsi de suite, à s'enregistrer. Le gouvernement a donc décidé d'appliquer cette loi et a immédiatement suspendu l'activité d'environ 26 plateformes au Népal. À l'époque, le gouvernement a prétendu qu'il agissait ainsi uniquement pour faire respecter la loi. Ce que tout le monde dans le pays a plus ou moins vu, c'est qu'ils essayaient de faire taire ce mouvement anti-corruption grandissant qui commençait à être très dangereux pour le gouvernement. Ils ont donc suspendu complètement ces plateformes. Et ce qui s'est passé immédiatement, c'est que les gens sont devenus encore plus furieux à cause de cela. Ils ont commencé à descendre dans la rue. C'est alors que la violence a commencé à se manifester. Le premier jour, je pense que 19 personnes ont été tuées.
Steven :
[7:13] Immédiatement, le gouvernement a fait marche arrière. Il a dit, d'accord, nous n'allons pas suspendre ces plateformes. Mais à ce moment-là, il était trop tard. Vous savez, les gens étaient tellement en colère. De plus en plus de gens se sont joints à eux. Le deuxième jour, il y a eu plus de morts. Des bâtiments ont commencé à être incendiés. Le premier ministre a immédiatement démissionné. Et tout d'un coup, il y a eu une sorte de changement. Ce qui est intéressant, c'est que l'une des plateformes utilisées - je pense que c'est la première fois que je vois cette plateforme utilisée pour organiser un grand nombre de personnes en ligne - est Discord. Discord a donc été exploité et, vous savez, il était assez ouvert. Ce n'était pas comme s'il y avait beaucoup d'applications cryptées, Signal, Telegram, etc. pour que les gens communiquent entre eux. Mais lorsqu'il s'agissait d'essayer de prendre des décisions politiques entre tout le monde, des milliers d'activistes différents et leurs partisans, ils utilisaient, d'après ce que j'ai compris, Discord comme un moyen de prendre des décisions politiques clés et de déterminer qui prendrait la relève pour diriger le pays dans ce vide qui s'était produit. Et je suppose qu'à ce stade, ils utilisent toujours Discord pour prendre des décisions au jour le jour.
Steven :
[8:13] Ce qui est fou.
David :
[8:14] Je sais que nous sommes au tout début de cet épisode, et qu'il est question de technologie de répression autoritaire, mais je pourrais imaginer dans un univers alternatif, ou peut-être Steve, nous venons juste de vous retrouver, que nous parlions de l'inverse, qui est, comment appelleriez-vous cela, la technologie de la liberté ?
Steven :
[8:26] La libération.
Steven : [8:26] Libération :
[8:27] Technologie de la libération.
David :
[8:27] Technologie de libération, oui. Et il s'avère que Discord pourrait bien faire partie de la boîte à outils pour préserver ses libertés. En utilisant l'exemple du Népal, vous venez de nous donner une taxonomie de quatre catégories différentes de technologies de répression, la surveillance et les logiciels espions, la censure et les pare-feu, la désinformation et les fermetures d'Internet. Pouvez-vous nous expliquer comment le Népal, le gouvernement du Népal avant qu'il ne soit renversé, les mesures qu'il a prises et les catégories auxquelles elles correspondent ?
Steven :
[8:53] Oui. Et vous savez, ce qui est intéressant au sujet du Népal. Je dirais que ce que le Népal a utilisé en premier lieu, c'est la surveillance, moins parce que la surveillance a tendance à être utilisée, elle peut être utilisée de manière plus sophistiquée. Le Népal n'est pas un pays très bien doté en ressources, il n'a donc pas accès aux outils avancés les plus sophistiqués. Nous ne sommes pas face à une Russie. Nous n'avons pas affaire à la Russie, ni à la Chine. Il s'agit d'un pays très pauvre, même au sein de son gouvernement. C'est pourquoi la censure, avant tout, et l'utilisation d'une sorte de guerre juridique en combinaison avec des moyens de censure plus technologiques ont été utilisés de manière classique dans le cas du Népal, n'est-ce pas ? En gros, ils ont dit, écoutez, nous avons un problème avec les gens qui disent des choses qui remettent en cause le gouvernement en ligne. A, nous allons utiliser une loi qui n'est manifestement pas très démocratique. Et nous allons l'utiliser comme une arme pour essayer d'arrêter la communication. Ensuite, nous allons couper complètement la capacité des gens à accéder à ces applications en utilisant ce type de fermeture d'Internet. Dans la mesure où ils ont pu utiliser des techniques de désinformation, il ne semble pas que cela ait été particulièrement efficace. Je veux dire que c'est quelque chose qui demande beaucoup d'investissement et de temps. Ce n'est pas quelque chose que vous pouvez simplement lancer dans le mélange avec zéro follower ou peut-être un influenceur que vous payez et vous pouvez tout d'un coup avoir un impact. Donc, dans ce cas, je dirais que c'était avant tout de la censure, avec des fermetures d'Internet comme modus operandi.
David :
[10:18] Donc entre ces quatre catégories, encore une fois, la surveillance, la censure, la désinformation, les fermetures d'Internet, y a-t-il une catégorie qui vous effraie le plus ? Ou s'agit-il plutôt d'une coordination efficace pour tirer parti de toutes ces catégories, de concert les unes avec les autres ? Si nous parlons de l'archétype de l'État autoritaire, il n'y en aura jamais qu'un seul. Il s'agit plutôt de tirer parti de tous ces éléments de manière habile et coordonnée pour mener à bien la répression. Est-ce que c'est l'idée ?
Steven :
[10:50] Oui, c'est vrai. C'est un système de répression, n'est-ce pas ? C'est comme une structure que vous mettez en place et que vous utilisez en équilibrant les différents outils parce que chacun d'entre eux peut servir un objectif différent, mais seul, ils n'apportent pas nécessairement l'effet que vous voulez. En les combinant, ils peuvent être très puissants. Si vous y réfléchissez bien, la surveillance peut être utile pour comprendre ce que disent des personnes spécifiques d'une part, ou pour comprendre plus largement s'il y a des problèmes qui surgissent au sein d'une population, comme, par exemple, s'il y a beaucoup de mécontentement en ce qui concerne les problèmes de corruption ? Cela peut être très utile à un régime pour comprendre qu'il y a une vulnérabilité et qu'il faut y remédier. D'un autre côté, s'ils disent, oh, ces quatre ou cinq meneurs mènent vraiment la charge en ligne ou hors ligne lorsqu'il s'agit d'organiser des manifestations, prenons-les. Emprisonnons-les, n'est-ce pas ? Il y a donc une combinaison de plusieurs types de mesures.
Steven :
[11:42] La surveillance et, vous savez, franchement, des mesures de répression de base comme l'emprisonnement. La censure est également utile une fois que l'on a compris qu'il y a un mécontentement bouillonnant. Que faire alors ? Je veux dire que l'une des façons d'y remédier est d'essayer de l'empêcher de se manifester. Et vous savez, en Chine, c'est une stratégie de repli très typique. Des dissensions se font jour. Il peut s'agir de questions environnementales. Il pourrait s'agir de corruption. Essayons de l'arrêter, de l'étouffer, soit en supprimant ces comptes, soit en utilisant d'autres moyens. Une autre option consiste à recourir à la désinformation. Déformer le message. Essayons de le retourner contre les personnes qui le diffusent pour commencer. Prétendre que les personnes qui disent que le gouvernement est corrompu sont en fait payées par des gouvernements étrangers et qu'elles sont elles-mêmes corrompues. Mais il faut utiliser d'autres moyens pour déformer le message et faire en sorte que les gens aient du mal à discerner ce qui est vrai et ce qui ne l'est pas. C'est ainsi que la combinaison des effets fonctionne. Il ne s'agit pas d'une seule chose en soi, mais d'une sorte d'adaptation. Il s'agit d'utiliser des techniques de répression physique et numérique. Il essaie de
Steven :
[12:49] de les travailler de manière dynamique.
Ryan :
[12:51] Oui. Il semble donc, Steve, que la chose la plus effrayante soit le niveau de sophistication auquel une entreprise pourrait appliquer cette pile de répression numérique, n'est-ce pas ? Et il y a différents niveaux de sophistication. Il semble que le Népal utilise plutôt l'instrument contondant de la censure. Hé, vous savez, nous n'aimons pas la dissidence. Nous allons couper l'internet. Mais ce qui se passe est incroyablement évident pour les manifestants. Si vous coupez Internet, tout le monde dans le pays s'énerve. Et c'est très clair ce que vous, en tant que gouvernement, essayez de faire.
David :
[13:25] Exactement. Si le gouvernement fait ça, c'est comme si on savait qu'on faisait de mauvaises choses.
Ryan :
[13:29] Exactement.
Steven :
[13:30] C'est une omission de défaite. Exactement.
Ryan :
[13:32] Ce sont les choses les plus subtiles qui semblent effrayantes : si l'on peut faire dévier la conversation qui se déroule déjà en ligne dans une certaine direction, ou si l'on peut susciter la peur pour que les citoyens s'autocensurent, ou si l'on peut faire passer un message qui semble distraire les gens de ce qui se passe vraiment. Je suis frappé de constater que c'est ce que ferait un État-nation autoritaire plus sophistiqué. Il ne va pas interdire purement et simplement l'internet ou certaines applications. Il se contente d'orienter la population de manière très subtile vers son objectif coordonné. C'est ainsi qu'un pays comme la Chine pourrait utiliser ce type de technologie. C'est exact.
Steven :
[14:19] Oui. Non, je veux dire, je pense que ce qui compte avant tout, c'est, je dirais, de regarder le système sous-jacent et de voir à quel point il dispose de ressources et à quel point il est coercitif. Et la Chine correspond vraiment, vous savez, à tous les égards. Elle est sophistiquée, elle dispose de ressources importantes, elle est très motivée pour réprimer. Elle a également une tradition en la matière, étant un pays autoritaire. Il peut donc réunir tous ces éléments de manière assez significative. Et ce qu'il fait, c'est un peu des deux. Ainsi, on ne voit plus de fermetures d'Internet en Chine. Je ne pense pas qu'il y en ait eu une seule au cours des dernières années, ce qui est intéressant compte tenu de l'ampleur de la censure. Mais ce qu'ils ont fait, c'est qu'ils ont tout d'abord pris la décision, il y a environ 20 ans, de ne pas autoriser l'accès aux plateformes occidentales, du moins sans utiliser un VPN, n'est-ce pas ? Donc le citoyen ordinaire, sans faire d'efforts supplémentaires.
Steven :
[15:07] Ne peut pas accéder aux informations extérieures. C'était donc la première étape. Et ensuite, ce qui leur a permis de faire, c'est qu'il y a un vide parce que les gens veulent toujours communiquer et faire des choses. Il faut donc créer nos propres substituts, créer un écosystème alternatif d'applications chinoises que nous pouvons contrôler. Et nous pouvons le faire par des moyens coercitifs très discrets. Vous savez, nous faisons pression sur les entreprises ou nous utilisons des moyens plus simples. Nous mettons en place des algorithmes de filtrage qui interdisent tel ou tel type de discours. Et si nous commençons à recevoir trop de messages de corruption par hashtag, nous nous assurons de les supprimer ou de les déclasser. C'est vrai. Et puis vous trouvez d'autres moyens, comme vous l'avez mentionné, vous savez, en termes d'utilisation de désinformation subtile, de techniques de distorsion, de diffusion de messages pro PCC et ainsi de suite. La combinaison de tous ces éléments a rendu l'écosystème chinois presque impossible lorsqu'il s'agit d'être ouvert, démocratique, pluraliste, etc. Et vous voyez que cela se passe de la même manière dans des pays comme la Russie. L'Iran essaie également de faire la même chose.
Steven :
[16:06] Vous savez, certains des
Steven :
[16:06] Les États du Golfe ont réussi à créer des environnements fermés. Mais, vous savez, ce sont tous des endroits qui sont très motivés, qui ont beaucoup de ressources et qui sont prêts à déployer différents types de techniques
Steven :
[16:17] et à les combiner pour repousser un environnement numérique plus ouvert.
David :
[16:22] Y a-t-il un centre névralgique de cette industrie, de la même manière que la Silicon Valley est le point central des plateformes de médias sociaux et plus récemment de l'IA, ou vous avez la Virginie, le Maryland, Washington, D.C. pour le complexe industriel, le complexe industriel militaire. Où se trouve le centre de cette technologie ou est-elle disséminée dans le monde entier ?
Steven :
[16:45] Oui. C'est une question intéressante. Je veux dire, je pense que d'un côté, on peut avancer un argument valable à deux égards. D'une part, on peut dire qu'il y a beaucoup d'apprentissage autoritaire en cours. Les gens se tournent donc vers des modèles et la Chine est le modèle par excellence. Et ils se demandent comment ils ont fait. Voulons-nous avoir un grand pare-feu ? Quelles sont les autres techniques utilisées par la Chine pour contrôler son environnement ? Il est donc possible d'emprunter différents aspects de ce modèle. Je dirais en outre que la Chine est connue pour exporter une grande partie de sa technologie autoritaire vers d'autres pays. Il arrive donc que des systèmes de reconnaissance faciale soient utilisés dans des pays qui n'ont pas forcément intérêt à disposer d'un tel système. Dans des pays comme l'Ouganda ou le Kenya, des systèmes de reconnaissance faciale chinois ou serbes sont utilisés.
Steven :
[17:30] Et donc, vous avez une sorte de stratégie d'exportation. On peut donc dire que la Chine elle-même et certaines de ses villes, Hangzhou, Pékin, etc. sont des lieux où vit cette technologie de répression. Mais l'autre point que j'ai essayé de faire valoir et que, vous savez, je pense que les gens ont compris, c'est qu'il n'y a pas que la technologie chinoise qui est utilisée. De nombreuses entreprises occidentales sont également responsables non seulement de l'alimentation de la répression chinoise, mais aussi de l'exportation de différentes parties de la pile qui sont ensuite utilisées à des fins répressives. Et, vous savez, quand on parle de quelque chose comme la désinformation ou la propagande en tant qu'outil de répression, comme aux Philippines, c'était tout méta.
Steven :
[18:08] C'est une entreprise américaine. Vous savez, cela n'a rien à voir avec la Chine. En fait, dans mon étude de cas, tout était centré sur quelques plateformes de médias sociaux. Je veux dire, franchement, en grande partie méta pour commencer. Donc, vous savez, l'idée que c'est strictement quelque chose qui émane d'un pays autoritaire et qu'en tant que démocraties libérales ou quasi-démocratiques, nous sommes en quelque sorte vulnérables à cela. Ce n'est pas vraiment ainsi que cela fonctionne. Les choses se passent de différentes manières, à partir de différentes sources, occidentales ou américaines, démocratiques ou autoritaires.
Ryan :
[18:38] Dans le cas de Meta aux Philippines, la façon dont nous vivons Facebook aux Etats-Unis est une plateforme raisonnablement ouverte. Bien sûr, il y a des sélections algorithmiques pour déterminer quels fils d'actualité sont poussés vers notre ligne de temps, ce genre de choses. Mais à notre connaissance, il n'y a aucune censure. Lorsqu'ils exportent Meta ou Facebook vers un pays comme les Philippines, est-ce qu'ils donnent au gouvernement une boîte à outils, des boutons pour activer le mode autoritaire ou quelque chose comme ça ? Et, vous savez, est-ce que c'est essentiellement ce qu'ils font ? Ils prennent la structure, mais ils la personnalisent. Vous donnez au gouvernement la possibilité de la personnaliser. Et je suppose que pour défendre cela, du côté de meta Facebook, ils diraient, eh bien, chaque nation a ses propres lois spécifiques et nous ne pouvons pas prendre nos valeurs occidentales américaines et les appliquer à un autre pays. Il est donc évident que nous devons adapter notre plateforme aux lois d'un pays donné. Et quelqu'un pourrait écouter cet argument et raisonnablement être d'accord et dire, ouais, c'est juste Facebook qui est, je suppose, en train de donner aux États-nations la capacité de personnaliser les choses pour leurs traditions locales ou leur culture ou leurs lois ou quoi que ce soit d'autre. Mais d'un autre côté, que se passe-t-il si les lois sont autoritaires ? Dans ce cas, les gouvernements disposent d'une boîte à outils pour censurer et modifier les algorithmes. Est-ce que c'est comme ça que ça fonctionne ?
Steven :
[20:06] Oui, vous savez, c'est une question compliquée parce que c'est vraiment le chat et la souris. Je pense qu'il est probablement trop simpliste pour moi ou pour d'autres de dire que la raison pour laquelle la propagande s'est répandue aux Philippines est due à META. META a été le moyen par lequel cela s'est produit. META était l'intermédiaire, mais la source et la motivation venaient du gouvernement. Je pense que la première chose la plus intéressante que les gens soulignent à propos de l'expérience de META aux Philippines et avec Duterte, l'ancien président en particulier, c'est qu'ils ont participé à sa campagne alors qu'il était en quelque sorte un candidat présidentiel à long terme. Ils lui ont dit, et ils l'ont proposé à tous les candidats à la présidence, et il a été le seul à accepter l'offre et à dire : "Écoutez, nous pouvons vous être très utiles. Vous pouvez faire de la publicité politique ici. Vous pouvez utiliser notre plateforme, ces différents outils pour promouvoir votre message. Et puis, si vous gagnez, nous pourrons continuer à travailler avec vous pour vous montrer comment Meta peut être utile à votre propre programme politique. Il s'est donc dit que c'était une excellente idée. Il a rencontré les représentants de Meta. Il a en quelque sorte intégré leurs idées. Il a réussi à utiliser Facebook avec succès. En fait, certains affirment que c'est grâce à cette collaboration et à son utilisation adroite de Meta qu'il a remporté la campagne présidentielle.
Steven :
[21:21] Et à partir de là, il s'est manifestement dit que c'était un outil puissant. Laissez-moi continuer à l'utiliser. Donc, vous savez, la première partie était le fait qu'ils sont allés vers lui et qu'ils sont allés vers d'autres candidats politiques. Il a été assez intelligent pour l'utiliser. Et Meta était d'accord pour qu'il manipule ou envoie de mauvais messages parce qu'ils disaient, regardez, c'est plus d'yeux. C'est plus de revenus pour nous. Nous allons donc nous abstenir et nous verrons bien ce qui se passera. C'était un problème. Ensuite, je pense que la deuxième chose, c'est qu'une fois que vous avez commencé à voir un écosystème empoisonné par une rhétorique vraiment violente, par le harcèlement et ainsi de suite, particulièrement orienté d'un point de vue politique pour ternir et salir les ennemis d'une manière anti-démocratique, cela ne signifiait pas grand-chose, n'est-ce pas ? Donc, vous savez, l'idée, et s'il y a quelque chose, je dirais, vous savez, le fait qu'il ait été capable de manipuler si habilement les algorithmes, d'amener des influenceurs et d'orienter, de voir, vous vers ses messages était quelque chose que Meta aurait peut-être voulu réfléchir, ou au moins réfléchir à ces grands utilisateurs d'influence qui diffusent ses messages, si c'est quelque chose qu'ils veulent permettre de rester sur la plateforme. Quoi qu'il en soit, c'est ce qui s'est passé. Nous pouvons débattre de la question de savoir dans quelle mesure ils sont coupables, et dans quelle mesure il faut permettre un environnement ouvert et laisser les choses se faire. Quoi qu'il en soit, sans Meta, cela aurait enlevé à cette personne un outil qu'elle utilisait pour diffuser sa politique.
Ryan :
[22:43] Je suppose que la question, Steve, est de savoir ce qu'ils auraient dû faire. Qu'est-ce que Meta aurait dû faire ? Est-ce qu'ils n'auraient pas dû ne pas jouer le jeu du tout et retirer la plateforme Meta et Facebook des Philippines ? Cela me rappelle en quelque sorte la discussion avec, je ne sais pas, il y a plus de dix ans maintenant, sur le retrait de Google de Chine. En fait, Baidu est devenu le moteur de recherche par défaut en Chine parce que Google s'est retiré pour ne pas personnaliser ses résultats de recherche en fonction du PCC. Est-ce que c'est ce que vous préconisez essentiellement ? Est-ce que c'est ce qu'une entreprise technologique occidentale devrait faire, c'est-à-dire s'en tenir fermement aux valeurs libérales occidentales de l'internet ouvert, ne pas permettre la personnalisation de ces plateformes et se retirer s'il le faut ?
Steven :
[23:29] Oui, je le ferais. C'est ce que je ferais. Je veux dire, je pense qu'il faut le faire.
Steven :
[23:32] Tracer une ligne.
Steven :
[23:32] Je veux dire, je pense que, je veux dire, tout d'abord, l'argument que, et je m'en souviens, j'ai entendu cet argument assez souvent lorsque je servais dans le gouvernement en tant que responsable de la démocratie et des droits de l'homme pour l'Afrique. Je parcourais le continent, et partout où j'allais, on me disait des choses du genre : "Écoutez, vous ne respectez pas nos lois et traditions locales, qui sont autoritaires, et vos valeurs libérales ne conviennent pas à nos pays". Et c'est amusant, parce que je parlais à beaucoup de gens différents, vous savez, je parlais à des étudiants, des jeunes, des citoyens ordinaires, des groupes de la société civile dans ces mêmes pays. Ils me disaient : "De quoi ces gens parlent-ils ? Bien sûr, nous voulons pouvoir nous exprimer comme nous le voulons. Alors, cette idée que les lois locales, en quelque sorte, comme si nous avions des cultures différentes qui sont, vous savez, favorables à la censure et à l'autoritarisme, je veux dire, je pense que c'est une feuille de vigne. C'est fait pour mettre les gens dans l'embarras. Ce que j'ai toujours dit à l'époque, c'est qu'il s'agit de valeurs universelles, pas de valeurs imposées par les Etats-Unis.
Steven :
[24:21] En général, universellement, vous savez,
Steven :
[24:23] On croit à la liberté d'expression, à la liberté d'association, etc. Et c'est ce que nous essayons d'épouser. Et je pense que si vous allez dans un endroit et que vous êtes en quelque sorte, et qu'il y a un pistolet sur la tête de Meta, ou sur une autre plateforme, et qu'ils disent, conformez-vous ou partez, je dirais, suivez les principes universels, dites, nous allons suivre ces principes. Si vous ne voulez pas de nous, nous trouverons des moyens de contourner vos restrictions. Mais en fin de compte, nous ne pouvons pas le faire. Je préférerais ne pas être complice du PCC et sortir comme Google l'a fait, laisser Baidu entrer quand même, parce qu'en fin de compte, je pense que Baidu, la Chine remplacerait Google de toute façon, plutôt que d'essayer de jouer le jeu avec une entreprise clairement autoritaire et répressive qui, avec le temps, vous expulserait une fois qu'elle aurait l'occasion de le faire.
David :
[25:08] L'une des raisons pour lesquelles je pense que ce problème est si répandu ou si difficile à combattre est que les clients de la technologie de répression sont les entités les plus grandes et les plus riches du monde, les États-nations. Non seulement ce sont les entités les plus riches de tous les temps, mais elles peuvent toutes imprimer de l'argent, ce qui, si c'est votre client, si votre client peut imprimer de l'argent à partir de rien, c'est un très bon client à avoir. Je suppose donc qu'il y a cette notion de complexe militaro-industriel, comme le gouvernement qui veut une armée très puissante. Il confie au marché libre le soin d'entretenir et de fournir les armes les plus meurtrières du monde. Je suppose qu'il existe un complexe industriel similaire entre les technologies de répression et les États-nations. Mais Steven, en dehors des entreprises américaines capables de fabriquer des armes, Northrop Grumman, Lockheed Martin, toutes ces entreprises, je ne peux pas vraiment savoir. Et puis Meta aussi, comme vous savez la répression adjacente, je ne pourrais pas vraiment vous citer une autre entreprise qui se consacre à la vente de technologies de répression pour un pays ? Y en a-t-il ? Suis-je naïf ? Est-ce qu'elles ne sont pas aussi connues que d'autres entreprises ? Qu'est-ce qui existe ?
Steven :
[26:29] Oui, il y en a beaucoup. C'est en partie dû au fait que le marché est assez diffus. Cela dépend donc du type de technologie que vous recherchez. Je vais vous donner un exemple classique de logiciel espion, NSO Group, le fabricant israélien. Je veux dire qu'ils ont été impliqués. Et si vous êtes dans ce monde, NSO Group est connu de tous. Ils sont mauvais. Il a été impliqué dans toutes sortes d'affaires, de l'espionnage de la femme du journaliste du Washington Post assassiné Jamal Khashoggi à de nombreux autres scandales de ce type, en passant par l'espionnage de toutes sortes de politiciens, de chefs d'État, et ainsi de suite, de manière illégale. C'est donc un exemple. Pour moi, ils sont la quintessence de la surveillance ciblée par logiciel espion et de la nécessité de mettre en place des règles pour restreindre leurs produits. HitVision, une entreprise chinoise, est un autre exemple. Elle fabrique des caméras de reconnaissance faciale. Elles jouent un rôle clé dans la sécurisation des villes. Elle travaille souvent en étroite collaboration avec Huawei, qui est l'entreprise chargée de l'installation des villes sûres. Donc si vous regardez dans le monde et dans les différents endroits où il y a de la répression et des objectifs de surveillance publique, ces entreprises sont là pour vendre de la technologie de répression.
David :
[27:36] Est-ce que ce sont des vendeurs de technologies de répression dédiées, c'est-à-dire que c'est leur seule chose ? Ou est-ce qu'elles ont aussi d'autres produits comme Apple qui a une fantastique technologie de reconnaissance faciale. C'est comme ça que je déverrouille mon iPhone. C'est un service pour moi. J'y attache de l'importance. C'est une bonne chose. J'aime ça. Mais il y a là une arme à double tranchant. Ils sont également les pionniers de la technologie de reconnaissance faciale. Je ne sais pas si Apple vend cette technologie à des États-nations, mais vous pouvez voir qu'il y a un bon et un mauvais côté au même produit, ce qui rend un peu plus difficile de pointer du doigt une entreprise et de dire qu'elle est mauvaise. Parce que vous ne vendez des produits, des technologies de répression qu'à des États-nations, vous venez d'en nommer trois, qui sont comme, ok, peut-être que ce sont, leurs seuls vendeurs sont les côtés autoritaires des États-nations. Mais j'imagine que c'est aussi un peu plus diffus dans le sens où il n'y a que de la technologie. Et parfois, un acheteur comme la Chine pourrait l'utiliser à de mauvaises fins. Il est donc un peu plus difficile de mettre le doigt sur la malfaisance réelle.
Steven :
[28:34] Oui, non, quelques points à ce sujet. C'est un point très intéressant que vous soulevez. En ce qui concerne NSO Group, il s'agit simplement d'un fabricant de logiciels espions. Il n'y a donc pas d'autre aspect à double usage.
David :
[28:43] C'est leur slogan. Nous fabriquons des logiciels espions.
Steven :
[28:45] Nous fabriquons très bien des logiciels espions. Et vous pouvez faire de mauvaises choses avec. Il n'y a donc pas grand-chose.
Ryan :
[28:50] Ou vous pouvez faire de bonnes choses. Est-ce que c'est si mal pour une agence de renseignement d'un pays de déployer un logiciel espion pour perturber une organisation terroriste et infiltrer son groupe, n'est-ce pas ?
Steven :
[29:01] Eh bien, c'est l'argument qu'ils avancent. Je veux dire qu'il y a ces exceptions étroites. Elles sont très étroites. Elles sont très petites. Si vous regardez, il y a tout un cadre juridique. Il doit s'agir d'une nécessité légale, elle doit être proportionnée à la menace, elle doit être, vous savez, finement adaptée à cette menace.
Steven :
[29:19] Et dans l'ensemble, si vous regardez de manière empirique comment c'est utilisé, la réponse est que ce n'est pas comme ça que c'est utilisé. Tout le monde utilise l'exception relative à la sécurité nationale, mais ne s'y conforme pas. Pour moi, c'est un peu comme une propagande de la part du groupe NSO. Mais pour ce qui est de l'autre point, regardons Huawei ou Hikvision, etc. Vous avez raison.
Steven :
[29:37] C'est un double usage. Huawei est une énorme entreprise, n'est-ce pas ? Ils fabriquent tout, des puces semi-conductrices aux téléphones, en passant par les systèmes d'exploitation, etc. Et franchement, bon nombre d'entre eux sont utilisés pour des raisons bénignes, pour la productivité économique, etc. Il n'est donc pas tout à fait exact de dire que Huawei est une entreprise de répression numérique en soi. Je pense que beaucoup de gens diraient, et cela nous ramène à la question de TikTok que nous avons vu surgir et à d'autres types d'entreprises chinoises, que parce que l'establishment politique chinois est si étroitement lié à leurs entreprises parce qu'ils ont une loi sur la sécurité nationale et qu'ils contrôlent la façon dont les produits sont utilisés et qu'ils peuvent intégrer des portes dérobées et la surveillance qu'ils souhaitent parce que cela a été prouvé sous différents aspects. Certains disent que s'il s'agit d'un produit numérique avancé chinois, nous ne pouvons pas faire confiance à une période de démocratie libérale, et qu'à long terme, cela représente une menace pour notre écosystème. Et vous voyez ce débat se dérouler en ce moment même aux États-Unis, sur ce qu'il faut interdire, dans quelle mesure, s'il faut désinvestir TikTok, parmi d'autres types de plateformes, parce que même si nous n'avons pas encore vu la menace se manifester, c'est parce qu'il n'y a pas d'autre solution.
Steven :
[30:50] Il y a une telle possibilité parce que leur système est si résolument opposé au nôtre et qu'ils ont un tel contrôle sur leurs entreprises, nous pourrions aussi bien le supposer, supposer le pire, et aller dans cette direction. C'est l'argument.
David :
[31:03] C'est comme si la Chine avait un siège au conseil d'administration de toutes les entreprises technologiques qui sortent de Chine. Et donc si nous adoptons cette entreprise technologique, TikTok, aux États-Unis, peut-être qu'ils n'ont pas de porte dérobée maintenant, mais la Chine fait partie du conseil d'administration. Si TikTok influence les États-Unis, c'est en fait la Chine qui influence les États-Unis.
Steven :
[31:25] Non seulement ils ont des sièges au conseil d'administration ou des sièges implicites au conseil d'administration, mais ils peuvent parler à n'importe quel membre du conseil d'administration et lui dire, hé, votez de telle ou telle manière. Mais ils les subventionnent. Ils leur donnent des milliards de dollars. Lorsque Huawei a été en quelque sorte condamnée à mort parce qu'elle figurait sur la liste noire, d'abord sous Trump puis sous Biden, la société a pu rester à flot parce que le PCC lui a donné des milliards de dollars pour qu'elle continue à fonctionner. Un certain nombre d'ouvrages et de rapports intéressants le démontrent. Il ne s'agit donc pas seulement de contraindre, mais aussi de donner de l'argent et de dire : "Vous nous appartenez et nous pouvons décider de ce que vous faites. Le moment venu, faites X, Y ou Z. Et c'est certainement ce qui se passe.
Ryan :
[32:06] Quels sont les pays les plus délinquants, Steve ? Nous avons beaucoup parlé de la Chine. On y pense peut-être quand on parle de technologie autoritaire, mais c'est omniprésent. Il n'y a pas que la Chine. Quelles sont les régions du monde les plus autoritaires du point de vue du déploiement des technologies numériques ?
Steven :
[32:25] Oui. Ce qui est intéressant aussi, c'est que lorsque j'ai commencé à m'intéresser à ce sujet, à la recherche, à la répression numérique, il n'y avait pas autant d'intérêt pour la répression numérique. Il n'y avait pas de chevauchement aussi net entre le simple fait d'être autoritaire et l'utilisation de ces techniques, en partie parce que je pense que c'était encore assez nouveau, et qu'il y avait beaucoup de pays qui n'étaient pas encore au point ou qui n'avaient pas encore beaucoup de gens en ligne ou qui n'avaient pas encore acquis un grand nombre de ces technologies. Mais les choses évoluent rapidement. Nous vivons aujourd'hui dans un monde numérique. Les gens sont connectés partout. Je dirais donc qu'en général, si un pays autoritaire est également répressif sur le plan numérique, les deux vont de pair. Je ne connais pas de pays qui ne restreigne pas les droits politiques et d'autres choses de ce genre, mais qui ait un environnement libre et ouvert. La Russie est un cas intéressant, même si elle ferme complètement son écosystème numérique. Mais pour l'instant, je dirais qu'il faut trouver un pays autocratique, une région où il y a beaucoup d'autoritaires, et vous verrez aussi le numérique.
Steven :
[33:30] répression numérique. Donc, vous savez, nous pouvons regarder quelques endroits, vous savez, qui sont là. Le Golfe en est un, très autoritaire en termes de répression des droits civils et politiques. Il y a aussi les grands pourvoyeurs de tout, des logiciels espions à la surveillance, la technologie autoritaire chinoise, etc. La Russie, la Corée du Nord, vous savez, des pays comme ça, qui sont des dictatures classiques.
Steven :
[33:52] Le Rwanda est un autre bon endroit. Si vous regardez l'Afrique, le Moyen-Orient en général, vous savez, tous ces pays qui répriment les droits, qui sont autoritaires, qui incarcèrent les prisonniers s'appuient aussi sur ces outils pour essayer de contrôler leurs populations.
Ryan :
[34:06] Et dans les démocraties ? Qu'en est-il dans les pays occidentaux ? Et ceux d'entre nous qui... Impossible.
David :
[34:12] Ne pourraient jamais.
Steven :
[34:13] Je ne sais pas de quoi vous parlez. Ce n'est pas ce qui se passe ici.
Ryan :
[34:15] C'est le cas ? C'est vrai ? C'est juste dans les pays autoritaires ?
Steven :
[34:17] Oui. Ces outils sont utilisés,
Steven :
[34:20] C'est vrai ? Je veux dire que l'argument des démocraties est qu'en général, ils sont utilisés dans le cadre de l'État de droit, de sorte que, quelle que soit la manière dont ces outils sont déployés, il y a des freins et des contrepoids, que vous avez le droit de faire appel, que vous devez suivre une procédure régulière lorsqu'il s'agit de poursuites judiciaires, et ainsi de suite. Mais cela ne veut pas dire qu'il n'y a pas d'abus, et ceux-ci sont souvent révélés. Et il y a beaucoup de cas marginaux. C'est là le problème. L'une des principales critiques est que la loi n'a pas rattrapé la technologie. Ainsi, en ce qui concerne la surveillance des médias sociaux, quel que soit le type d'enquête, il se peut que la police de New York recherche un certain type d'individu. Il peut s'agir d'un autre type de problème d'application de la loi. C'est particulièrement vrai en ce qui concerne les frontières. Il n'existe pas de règles claires sur ce qui est invasif, ce qui constitue une violation de la vie privée et ce qui est acceptable, en particulier lorsqu'il s'agit d'Internet. Et c'est là que je pense que nous avons vraiment pris du retard en ce qui concerne la législation sur la protection de la vie privée, etc. Il est certain qu'aux États-Unis et dans de nombreuses autres démocraties, la responsabilité est beaucoup plus grande. Il est beaucoup plus facile de réagir et d'obtenir réparation en cas d'abus. Mais la loi n'est pas tout à fait au point en ce qui concerne la manière dont ces techniques avancées sont déployées.
David :
[35:34] Le taux d'accélération dans ce secteur de la technologie de répression, je suppose qu'il s'accélère. Il y a des technologies partout qui s'accélèrent. Ma compréhension des démocraties est tellement lente. Il doit y avoir un écart entre le taux de croissance des technologies de répression et le taux de croissance des démocraties pour pouvoir faire face à ces choses, n'est-ce pas ?
Steven :
[35:54] Oui, oui, non, il y en a un. Et je pense que c'est l'un de ces problèmes où, vous savez, il est difficile de créer des lois quand vous n'avez pas de consensus sur ce que ces lois devraient être. En général, l'un découle de l'autre. Vous parvenez à une sorte de consensus sociétal et vous dites, ceci est mauvais, quel qu'il soit, et maintenant créons une loi pour le codifier. Je pense que les gens essaient encore de comprendre ce que cela signifie. Ils essaient de comprendre quel rôle joue l'intelligence artificielle dans ma vie ? Quels garde-fous devons-nous mettre en place à ce sujet ? Si les forces de l'ordre utilisent cette technologie pour certaines activités, qu'est-ce que cela signifie pour moi ? Est-ce que cela me plaît ? Est-ce que je ne l'aime pas ?
Steven :
[36:29] Quel est l'équilibre entre la lutte contre les menaces terroristes et la protection de la vie privée ? Les gens en débattent encore beaucoup. Et franchement, dans l'environnement politique actuel, nous n'allons pas vers un consensus. Nous allons vers plus de division et, vous savez, plus de reproches les uns envers les autres. C'est donc une partie du problème. Comment créer une loi dans une société qui s'éloigne du consensus et s'oriente davantage vers la division et le désaccord, en particulier lorsqu'il s'agit de nouveaux outils ?
Ryan :
[36:57] Il y a peut-être deux grandes explications quand je regarde cette question, Steve, et je me demande si ça, tu sais, ça résonne pour toi. La première raison pour laquelle la répression numérique augmente dans le monde entier, même dans nos démocraties, c'est l'aspect économique. Le déploiement de la répression numérique à grande échelle est si peu coûteux. C'est tellement bon marché, peu coûteux et efficace par rapport aux anciennes méthodes analogiques qui consistaient à mettre en place une sorte de police secrète qui espionnait les conversations de tout un chacun à table. C'est comme si nous pouvions avoir des machines et des bases de données, et nous n'avons même pas parlé de l'IA, ce que nous allons faire, mais toutes ces choses peuvent être écoutées et déployées à l'échelle. Il y a donc un récit économique, je pense, en ce qui concerne cette histoire, et cela doit être un moteur important. L'autre élément est que j'ai l'impression que même en Occident, nos libertés civiles ont été conçues pour un monde analogique où l'on considère quelque chose comme le Premier Amendement.
Ryan :
[38:00] Les plateformes de médias sociaux, quelle est leur place là-dedans ? Quelle est la place du droit à la vie privée ? Peut-être que les auteurs et les pères fondateurs n'ont pas créé d'amendements sur la protection de la vie privée dans la Déclaration des droits parce qu'espionner tout le monde n'est pas pratique d'un point de vue économique. Et nous n'avions rien qui puisse le faire. Le monde numérique et le monde dans lequel nous vivons aujourd'hui n'étaient pas envisagés. Ainsi, même dans nos démocraties occidentales, cette transformation de l'analogique et du physique vers le numérique, nous n'avons tout simplement pas adopté la boîte à outils, ni la boîte à outils juridique. Et je pense que les gouvernements, lorsqu'ils deviennent grands, sont-ils incités à le faire ? Ou ont-ils plutôt intérêt à s'immiscer dans les domaines de notre vie qui vont les pénétrer ? Dans quelle mesure pensez-vous que ce sont ces deux histoires, l'histoire économique et la transformation de l'ère analogique vers l'ère numérique, qui expliquent en grande partie la direction du voyage ?
Steven :
[39:03] Oui, je pense que vous avez bien cerné la question. Il y a la question de l'économie politique, n'est-ce pas ? Le fait que l'on puisse faire quelque chose à moindre coût et à grande échelle. Et pourquoi pas ? C'est comme l'idée que si vous essayez de rechercher un suspect, vous savez, pourquoi appelleriez-vous les compagnies de téléphone et chercheriez-vous des enregistrements de téléphone portable alors que vous pouvez simplement aller en ligne et, en quelque sorte, immédiatement, vous savez, essayer de chercher et de voir une personne spécifique avec les caractéristiques en place et utiliser un algorithme pour restreindre rapidement à un petit nombre de personnes. C'est tout à fait logique. Mais il faut aussi des lois pour s'assurer qu'il n'y a pas de faux positifs et que l'on respecte les protections fondamentales des libertés civiles. Et c'est là que les choses se gâtent. En fait, cela nous amène à deux des problèmes que vous avez mentionnés, à savoir que la loi n'a pas rattrapé son retard et qu'il s'agit d'outils dont l'utilisation est relativement peu contraignante et qui sont très efficaces en termes de résultats. Je veux dire, l'autre chose que je voudrais dire c'est que, vous savez.
Steven :
[39:59] Vous savez, cela tient en partie au fait que nous vivons dans des sociétés numériques. Vous savez, la façon dont nous interagissons en tant qu'humains est très différente. Cela n'a pas de sens de revenir à des outils analogiques alors que franchement, nous ne communiquons plus de manière analogique, n'est-ce pas ? Je veux dire que l'idée d'examiner les relevés téléphoniques, ce n'est pas vraiment ça. Je veux dire, combien de personnes parlent au téléphone sans arrêt tous les jours, par opposition aux textos et à d'autres choses ? Ce que vous voudriez trouver de toute façon, c'est que la façon dont nous communiquons et interagissons les uns avec les autres est différente. Vous vivez dans un monde numérique, vous devez utiliser des outils numériques. Vous devriez utiliser les outils numériques de manière plus responsable. Et c'est là que nous n'en sommes pas encore là.
David :
[40:34] Stephen, je suis conscient que nous avons laissé un peu nébuleuse la boîte à outils dont disposent les États-nations. Et je pense que c'est une partie du problème : d'où vient la technologie de répression ? Eh bien, elle peut venir de partout. Elle ne vient pas vraiment d'un endroit en particulier. Il n'y en a pas un seul. Nous avons défini des catégories assez vagues, mais il n'y a pas de stratégies spécifiques.
Steven :
[40:57] Je pense que ce que nous avons laissé dans le flou pour l'auditeur,
David :
[41:00] Peut-être que pour être plus précis, nous pourrions parler des arcs de certaines technologies qui vont vers l'avenir. Donc quand on parle d'IA, on n'a même pas encore parlé de l'IA. Quand l'IA se combine avec les drones, par exemple, je pense que nous savons tous qu'il y a quelque chose qui devrait nous effrayer. Ce n'est pas encore tout à fait le cas, mais quelque chose comme ça existe. Quelles sont les technologies futures dont nous savons qu'elles vont arriver et qui vous donnent la chair de poule ?
Steven :
[41:24] Oui, eh bien, je veux dire, je pense que cette idée de police prédictive est en place depuis un certain temps. En grande partie, elle est basée sur des actions passées, que l'on reporte sur une carte en se disant que s'il y a eu beaucoup de crimes ici dans cette zone, on peut supposer qu'il y en aura plus ici. Cette méthode a d'ailleurs fait l'objet d'un certain nombre d'abus en termes de profilage. Mais avec les algorithmes, il est possible d'en tirer le meilleur parti. On peut avoir beaucoup plus de points de données. Vous pouvez commencer à faire des prédictions basées sur, vous savez, la façon dont une personne va publier en ligne et la langue, la linguistique, et ensuite commencer à surveiller les individus qui sont signalés. Il s'agit donc d'une idée d'automatisation où l'on supprime l'humain et où l'on s'appuie de plus en plus sur la puissance de calcul et les algorithmes, voire sur des agents, pour faire le gros du travail. Et pendant ce temps, alors que vous externalisez ou déléguez ce type de responsabilité, vous ne mettez pas en place les bons contrôles. Ainsi, non seulement des erreurs sont commises, mais les libertés civiles sont bafouées à gauche et à droite.
Steven :
[42:28] Vous avez très peu de recours pour vous défendre en tant que citoyen. Cela m'inquiète. Cela m'inquiète. Cela m'inquiète que si nous continuons à avancer dans cette voie, où nous embrassons l'automatisation à tout prix, nous retirons les humains de la matrice de prise de décision,
Steven :
[42:43] qu'on se retrouve avec des situations qui mènent à des abus. Je vais vous donner un exemple plus concret de ce que nous voyons en ce moment. Vous savez, j'ai écrit un peu sur le ciblage par l'IA en temps de guerre. Et c'est quelque chose que nous avons beaucoup vu dans le contexte israélien lorsqu'il s'agit de s'appuyer sur des algorithmes pour générer des milliers de suspects qui seraient ensuite utilisés pour des frappes. Par le passé, il fallait donc collecter ces informations par le biais du renseignement humain. Il fallait faire appel à des individus, ce qui était laborieux. Le nombre de personnes repérées était donc beaucoup plus faible. De manière générale, même en cas d'erreur, vous savez, si vous faites une erreur pour un taux d'erreur de, disons, 1 %. Donc, une erreur sur 100, cela ne représente qu'une seule personne. Le nombre total est donc inférieur.
Steven :
[43:30] Maintenant, disons que vous frappez 10 000 ou 15 000 personnes. Même si le taux d'erreur est relativement le même, il y a beaucoup plus de personnes qui vont être tuées parce qu'on s'appuie sur ces systèmes à une telle échelle. C'est en partie la raison pour laquelle le nombre de victimes civiles est si élevé à Gaza, car on s'appuie sur des systèmes automatisés pour recommander les personnes à cibler. Et parce que vous augmentez ce nombre à un niveau si élevé, davantage de personnes meurent en conséquence. Si l'on extrapole ce même type de phénomène aux outils d'application de la loi de la police, le nombre de suspects pour différents crimes est porté à un niveau beaucoup plus élevé. Cela signifie également que le nombre de faux positifs, le nombre de problèmes potentiels, le nombre de violations de procédure augmentent également. C'est un scénario que je trouve très inquiétant, et il s'agit d'un scénario basé sur l'IA.
David :
[44:21] Alors peut-être pour ramener ça à la maison, laissez-moi peindre un exemple qui est complètement hypothétique. Ce n'est pas en train de se produire. Mais je commence à voir des signes avant-coureurs, des lumières clignotantes sur mes fils de médias sociaux aux États-Unis, surtout après le meurtre de Charlie Kirk, où la droite est très contrariée par le fait que la gauche célèbre le meurtre de Charlie Kirk. Et maintenant, il y a une sorte de Daily Podcast qui a évoqué ce terme, une peur bleue, qui est l'inverse de la peur rouge, comme si les libéraux prônaient la violence politique et que l'on pouvait faire une combinaison d'IA en consommant les messages sur les médias sociaux de tout le monde et si vous savez qu'un côté est au pouvoir, si les conservateurs sont au pouvoir, ils disent que ce compte Twitter dit un peu trop de choses sur la violence politique et qu'il y a 95 % de chances, selon nos modèles, qu'il commette un crime. Nous allons donc les arrêter aujourd'hui, parce qu'ils sont coupables à 95 %, mais ils n'ont en fait commis aucun crime. Il s'agit d'un scénario hypothétique que j'ai inventé de toutes pièces en faisant appel à mon imagination. Il n'y a aucune preuve que cela va se produire. Mais cela fait partie d'un arc potentiel qui pourrait vous inquiéter, du genre, oh, oui, 95 % des coupables sont au-dessus de nos limites. Nous allons donc arrêter cette personne. C'est comme une police prédictive, comme un modèle de police prédictive que vous pourriez imaginer.
Steven :
[45:46] Oui. Donc, oui, et c'est un très bon exemple parce que, vous savez, en fin de compte, ce que je pense, c'est que je me concentre, écoutez, la technologie fait peur, peut être effrayante, elle peut être effrayante, mais en fin de compte, cela se résume à la politique sous-jacente, je pense. C'est donc la question qui se pose.
Steven :
[46:03] Avons-nous un premier amendement qui compte ? Ayant appris, je veux dire, nous avons eu une peur rouge quand nous n'avions pas beaucoup de haute technologie. Aujourd'hui, nous avons potentiellement une peur bleue. Nous verrons bien où cela nous mènera. Espérons que cela n'ira pas très loin. Mais quoi qu'il en soit, cela reste basé sur le fait que vous voyez des gens qui essaient de repousser les limites d'une loi telle que nous la connaissons, qui au moins en termes pratiques, si vous regardez la police prédictive, si vous essayez de mettre les gens hors ligne en raison de leur lien potentiel avec la criminalité. Selon toute la jurisprudence que je connais, je veux dire, cela ne tient pas la route, n'est-ce pas ? Ce n'est pas une raison suffisante, l'idée que quelque chose pourrait se produire sur la base de circonstances un peu floues qui signifient que vous ne pouvez pas dire cela et que vous devriez donc être arrêté. Ce n'est pas ainsi que la Constitution devrait fonctionner. Et franchement, même si la Constitution est ancienne, je veux dire qu'elle a été suffisamment mise à jour par les tribunaux pour que nous puissions encore l'appliquer de cette manière. Ce qui m'effraie le plus dans ce genre de choses, ce ne sont pas les algorithmes, c'est l'utilisation abusive de ces algorithmes à des fins politiques par ceux qui détiennent le pouvoir. Il s'agit donc d'outils puissants qui peuvent être exploités de manière désagréable et contraire à nos principes démocratiques. Et, vous savez, je pense que c'est assez alarmant.
Ryan :
[47:17] Oui, l'exemple de la police prédictive est alarmant pour nos démocraties. Mais au moins, l'objectif final de la police prédictive est quelque chose que nous voulons dans des démocraties saines, c'est-à-dire la sécurité, la sécurité publique, n'est-ce pas ? Et vous pouvez imaginer que nos libertés civiles et les institutions qui empêchent le gouvernement d'empiéter sur ces libertés civiles doivent tenir. Elles doivent vraiment tenir pour que cette technologie ne nous apporte pas seulement la sécurité ou une certaine perception de la sécurité, mais qu'elle nous prive également de nos libertés civiles. Je suppose que ce même concept de police prédictive, si vous l'appliquez à un État-nation autoritaire, n'est-ce pas ? On pourrait parler de dissidence politique prédictive.
Ryan :
[48:01] Et on pourrait recueillir toutes sortes d'informations sur les citoyens pour prédire lesquels sont anti-gouvernementaux ou lesquels ont une trajectoire de leadership anti-gouvernemental. On pourrait prédire les manifestations avant qu'elles ne se produisent, et on pourrait les démanteler. Vous pourriez découvrir qui sont les perturbateurs d'un mouvement politique et prendre des mesures pour les censurer, les limiter ou lancer une campagne de désinformation à leur encontre. Je veux dire, la capacité prédictive de dissidence politique quand vous commencez à suivre toutes les informations à travers toutes vos sociétés dans les mains d'une autorité gouvernementale qui a tout ce pouvoir et cette IA à sa disposition, il semble presque que le régime autoritaire, ceux qui essaient de rester au pouvoir, comment pourraient-ils être perturbés à ce moment-là ?
Ryan :
[48:55] Tu vois ce que je veux dire ? Une fois que tu as cette technologie, et que tu l'as déployée à grande échelle dans ta société, n'es-tu pas un dieu ? N'êtes-vous pas à l'abri de toute révolution ou dissidence politique ? Le pouvoir que cette technologie confère aux gouvernements existants est tout simplement stupéfiant, et je ne pense pas que le monde l'ait jamais vu.
Steven :
[49:18] C'est assez, je veux dire, je suis d'accord. Je pense que c'est très alarmant. Et vous savez, je pense que l'un des principaux problèmes, l'une des principales choses qu'il fait, c'est qu'il brise en quelque sorte la capacité à se mobiliser pour une action collective, n'est-ce pas ? Je veux dire qu'en fin de compte, c'est ce qu'il faut. Que ce soit au Népal, dont nous avons parlé plus tôt, ou dans d'autres contextes, vous savez, c'est la capacité des gens à trouver un moyen de se connecter les uns aux autres, de parvenir à une décision commune d'entreprendre une action, et ensuite de le faire, même s'il s'agit d'un défi à relever dans la rue. Et la raison pour laquelle certaines manifestations fonctionnent et d'autres non, c'est la capacité d'un grand nombre de personnes à descendre dans la rue. Je crois que les spécialistes des sciences sociales disent que 3,5 % de la population est un chiffre magique. Ainsi, si 3,5 % de la population manifeste ou descend dans la rue, il y a de fortes chances que le régime soit renversé. Ainsi, en Chine ou en Russie, qui disposent déjà de ces systèmes de contrôle, comme vous l'avez mentionné, qui permettent de surveiller et de réguler la capacité des gens à communiquer des choses qui remettent en cause l'autorité du parti communiste chinois ou de Poutine, pouvez-vous obtenir 3,5 % ? Pouvez-vous obtenir 1 % ? Je veux dire, regardez, nous avons eu un million de personnes qui sont mortes en Russie pour une guerre inutile, et pourtant vous pouvez à peine convoquer un millier de personnes parce qu'elles sont immédiatement identifiées.
Steven :
[50:36] On frappe à la porte de leurs familles après, ils sont arrêtés, les gens le savent. Donc la capacité à vouloir collectivement sortir et protester est sévèrement limitée. Alors, même si je pense personnellement qu'il y a très peu d'amour perdu en ce qui concerne le soutien au régime de Poutine, je pense que la capacité de ce gouvernement à briser la volonté d'action collective dans le pays le maintient au pouvoir pour une période de temps indéterminée. Et je pense qu'il en va de même en Chine.
David :
[51:05] Mon intuition est que si vous êtes un État autoritaire et que vous savez que le chiffre magique est de 3,5 %, votre objectif est de ne jamais autoriser 3,5 %. Mais autoriser 0% est également mauvais parce que vous voulez permettre une certaine expression. Il ne faut donc pas aller trop loin dans l'autre sens. Vous voulez que les gens soient comme, ouais, vous savez quoi ? Je vais protester contre le thé.
Ryan :
[51:28] Quelque chose d'inoffensif.
David :
[51:29] Le thé dans la Boston Tea Party, tu vois ? Et je vais jeter le thé par-dessus bord. Et je me sentirai bien. Et je vais me dire, oui, j'ai exprimé mes désirs en tant que citoyen. Je rentrerai chez moi et je serai heureux. Donc, si j'essayais, je me dirais : vous savez quoi ? 0,5 %. Encourageons 0,5 % de la population à exprimer ses besoins, mais pas plus. Et j'utiliserais mon IA et mes outils de propagande et de désinformation pour encourager, mais pas plus, 0,5 % de la population à sortir et à manifester pacifiquement. Vous pourriez enfin régler ces paramètres. Oui, exactement.
Ryan :
[52:05] David, tu ferais un très mauvais dictateur, mon ami.
Steven :
[52:08] Je suis déjà un peu refroidi par ça. Je suis déjà un peu refroidi par ça. Non, mais je pense que c'est vrai. Je pense que l'idée est d'avoir un peu de soupape, comme un exutoire, pour que les gens aient un moyen d'agir. Plus ils peuvent canaliser leur indignation ou leurs émotions vers quelque chose de bénin. Je veux dire, cela pourrait être, vous savez, une journée de shopping. Il pourrait s'agir du consumérisme. Cela pourrait être vers, vous savez, le fanatisme sportif d'une équipe. Mais tant que vous canalisez. C'est possible.
Ryan :
[52:35] Même envers un ennemi de l'état, n'est-ce pas ? Une sorte d'ennemi international, c'est ça ? Tu peux canaliser dans ces directions.
Steven :
[52:41] Oui, c'est une tradition ancestrale. Je veux dire, regardez l'Iran, n'est-ce pas ? Je veux dire, depuis des décennies, à chaque fois, vous savez, la mort des États-Unis, à chaque fois que vous voulez distraire les gens de leur propre situation, trouvez un bouc émissaire à l'extérieur et utilisez-le. Le fait est que les gens ne sont pas dupes non plus. Ils savent, en quelque sorte, ce qui se passe. La question est de savoir si vous pouvez prendre, je veux dire, franchement, même en Chine, ce n'est pas comme si les gens avaient subi un lavage de cerveau. Je veux dire qu'ils sont très avisés. Ils sont très connectés. Ils comprennent beaucoup plus de choses que les citoyens ne le croient. Mais la question est de savoir s'il est possible de passer à l'action. Cela vaut-il la peine pour eux de risquer individuellement de tout perdre, de relever le défi du gouvernement, alors qu'ils savent que tout autour d'eux, il y a d'autres... ?
Steven :
[53:20] citoyens, quelle que soit la répression. Et cela, vous savez, franchement, la vie peut être agréable pour beaucoup de Chinois. Est-ce que ça vaut la peine de se mettre en avant quand on sait que les autres citoyens ne vont pas le faire ? Je veux dire que le problème réside en partie dans cette sorte de paralysie collective. Lorsque vous avez une société qui s'enrichit, qui semble aller bien, et un État très fort et coercitif pendant ce temps, pourquoi ne pas aller vers la porte A pour obtenir les avantages et vivre votre vie sans parler de politique, plutôt que vers la porte B, où vous pouvez défier les agents de l'État et vous retrouver en prison à vie ? Je veux dire que la situation de And Dore semble bien meilleure pour la plupart des citoyens chinois et, franchement, pour beaucoup de citoyens d'autres pays également. Je veux dire, cela fait partie de, vous savez, une sorte de jeu de la structure d'incitation, je pense.
David :
[54:02] Oui, je suppose que cela nous ramène à l'échec du Népal et à la raison pour laquelle la Chine est bonne dans ce qu'elle fait. Le Népal a échoué parce qu'il a utilisé un instrument contondant et qu'il a arrêté des citoyens respectueux de la loi aux côtés des manifestants parce qu'ils ont simplement coupé Internet pour tout le monde. Ainsi, aucun d'entre vous n'a accès à Internet, ce qui encourage les modérés à rejoindre les manifestants. Vous m'avez mis dans le même sac que les manifestants, alors je vais me joindre à eux. En revanche, je pense que ce que la Chine fait probablement de manière assez efficace, c'est qu'elle identifie intelligemment le meilleur rapport qualité-prix, c'est-à-dire qu'elle se demande si cette action permet de contraindre le plus grand nombre de personnes de la manière la plus invisible possible. Ainsi, les citoyens respectueux de la loi ne sont pas dérangés, mais nous pourrions simplement faire disparaître cet individu bruyant, ce dissident bruyant. Et oui, ils ne manqueront à personne car il ne s'agit que d'une seule personne. Cela a aussi un effet de refroidissement, mais les gens normaux s'en fichent. Et en fin de compte, c'est invisible. C'est donc une décision intelligente. Je vais faire en sorte d'en avoir pour mon argent. Et c'est probablement ce qui fait la différence entre un État autoritaire efficace comme la Chine et un État inefficace comme le Népal. Est-ce que c'est une ligne ?
Steven :
[55:19] Je pense que c'est juste. Je veux dire, le Népal n'est franchement pas, je veux dire, le Népal est une sorte de mélange de toute façon. Il y a un président démocratiquement élu. C'est un régime kleptocratique, n'est-ce pas ? Il s'agit d'un régime peu représentatif et de petite taille, mais les élections sont relativement libres et équitables. Ainsi, dans un sens, même les outils dont dispose la Chine n'étaient pas nécessairement disponibles pour le Népal de toute façon. Ils utilisent donc un outil émoussé à la toute fin, et à ce moment-là, les dés étaient déjà jetés. Mais je pense que ce qui est également intéressant au Népal par rapport à la Chine, c'est que pour beaucoup de citoyens, en particulier ceux qui sont dans la pauvreté, qui sont dépossédés, qui sont forcés de chercher du travail en dehors du pays, je me demande ce que j'ai à perdre pour sortir dans la rue.
Steven :
[56:00] Quel est le coût pour moi ?
Steven :
[56:01] La vie est déjà difficile. La corruption est déjà endémique. J'ai très peu de chances de m'élever et de gagner correctement ma vie pour ma famille, et encore moins d'avoir une voix dans le système. Alors pourquoi ne pas descendre dans la rue ? Je veux dire que vous avez vu la même dynamique jouer lors du printemps arabe avec toutes les manifestations contre la corruption, y compris des millions d'Égyptiens se rassemblant dans des endroits comme la place Tahrir pour dire : "Je ne veux plus de ça parce que le système ne me donne rien". Je ne pense pas que le citoyen chinois ordinaire dirait la même chose à Pékin. Je pense que l'une des choses que le parti communiste chinois a très bien réussies, c'est qu'il a vraiment fait reculer la pauvreté. C'est un pays florissant. Il y a beaucoup d'innovation. Il y a beaucoup d'opportunités et de voies pour réussir. C'est pourquoi il est très difficile pour quelqu'un qui a beaucoup plus à perdre de prendre une décision face à ce repos coercitif. Je pense qu'au Népal, étant donné que la vie était beaucoup plus difficile pour les gens ordinaires, je pense que le fait de sortir dans la rue et de dire, vous savez quoi ? Que ce régime aille se faire voir. Et d'ailleurs, ils sont ineptes. Ils ne sont donc probablement pas si coercitifs que cela. Et non, maintenant ils m'ont enlevé la seule chose que j'avais, vous savez, mon accès à la communication avec d'autres personnes. Maintenant, je suis doublement en colère. Je vais donc sortir, c'est certain. C'est ce qui se passe dans des pays comme l'Indonésie. Aux Philippines, les manifestations se multiplient également. C'est donc un phénomène courant. Vous savez, la plupart des pays ne sont pas la Chine. Je pense que c'est une chose qui est également importante, que la Chine est assez unique en termes de ce qu'elle est capable de faire.
David :
[57:19] Oui, je suppose qu'il y a une énorme différence entre les régimes répressifs autoritaires qui sont économiquement pauvres et les régimes répressifs autoritaires qui sont économiquement riches. Et je suppose que si vous êtes un régime autoritaire et que vous contrôlez vos citoyens, mais que vous les rendez également riches, cela commence à poser une question différente sur ce qui est bon ou mauvais ici. Steve, que pensez-vous de Curtis Yarvin ? Le connaissez-vous ?
Steven :
[57:46] Oui. Je ne connais pas assez bien son travail pour le commenter publiquement. Je vais donc...
Steven :
[57:53] Nous allons sauter cette question.
David :
[57:55] Pour les auditeurs, Curtis Yarvin est un homme qui pense qu'une monarchie est le meilleur style de gouvernance. La question que j'ai posée à Stephen était la suivante : que pensez-vous de cela ? Mais encore une fois, nous allons passer à autre chose.
Steven :
[58:08] Eh bien, je peux dire que je peux faire des commentaires généraux sur vous sur le plan politique. Je ne pense pas que, vous savez, je crois fermement en l'expérience démocratique, aussi imparfaite soit-elle, je pense que donner une voix aux gens et ne pas s'en remettre aux caprices d'un individu particulier, même s'il s'agit d'une personne que vous espérez bénigne, vous savez, si vous regardez simplement le côté agrégé en termes de systèmes qui donnent de meilleurs résultats à long terme, ce sont toujours les démocraties, et non les autocraties. Donc, vous savez, j'en resterai là sans commenter spécifiquement les opinions de Curtis Yarvin, mais je serais tout à fait en faveur de la démocratie.
David :
[58:38] Bien sûr. Que peut-on dire du pipeline entre la Chine et l'Iran ? D'après ce que je sais de l'Iran, c'est une sorte de banc d'essai pour de nombreux produits chinois parce que l'Iran est le plus autoritaire des deux. Il a une emprise beaucoup plus forte sur sa population. Il applique donc des technologies de répression dans une plus large mesure que la Chine, mais il reçoit une grande partie de ses technologies de la Chine. Tout cela est-il exact ? Et que pouvez-vous dire des relations de l'Iran avec la Chine ?
Steven :
[59:07] Oui, c'est intéressant. En fait, j'aurais tendance à inverser les choses. Je pense que l'Iran est un suiveur de la Chine. Je pense qu'ils essaient de faire ce que la Chine a fait. Par exemple, l'une des choses qu'ils essaient de mettre en place, c'est une sorte d'Internet national qui serait fermé au monde extérieur. Et ils ont encore du mal à le mettre en place. La Chine l'a fait, n'est-ce pas ? L'Iran utilise une partie de la technologie chinoise. Mais ce n'est pas exclusif. Je pense qu'il y a d'autres types de, d'appareils et de composants qu'ils utilisent également et qui proviennent d'un certain nombre de pays, mais oui, bien sûr, ils sont loin de la Chine, mais je pense qu'ils essaient de faire ce que la Chine a fait, et dans une certaine mesure, on peut dire qu'ils sont plus répressifs, dans le sens où ils ont enfermé plus de gens, qu'ils sont prêts à tuer plus de gens en raison de l'absence d'un système de sécurité. ils sont prêts à tuer plus de gens dans les rues et c'est en partie parce qu'ils sont obligés d'y recourir parce que leur emprise et leur pouvoir sont beaucoup plus lâches et que l'économie est en chute libre et vous savez, c'est un état théocratique dans un pays où la plupart des gens ne croient plus en la religion d'état, n'est-ce pas ? Le lien avec la légitimité est donc beaucoup plus lâche que celui du parti communiste chinois. Ils doivent donc recourir à des tactiques physiques beaucoup plus rudimentaires pour amener les gens à faire ce qu'ils veulent, parce que c'est la seule façon de procéder. De plus, ils se font attaquer à droite et à gauche par leurs voisins, avec beaucoup de succès. Ils perdent donc des guerres et leur économie se dégrade. Le prix du pétrole est en chute libre et c'est la pagaille. Mais je pense qu'ils suivent ce que fait la Chine. Je ne pense pas que ce soit l'inverse.
David :
[1:00:34] D'accord, oui. Oui, c'est ce que je pense. La raison pour laquelle je pose cette question, c'est que je veux comprendre comment la technologie de répression va proliférer. Si je comprends bien votre littérature et tout ce que vous avez écrit, vous pensez que la technologie de répression va proliférer encore plus qu'aujourd'hui dans le futur. Dans le futur, il y aura plus de technologies de répression qu'aujourd'hui. Y croyez-vous ?
Steven :
[1:00:55] Oui, eh bien, je pense que cela suivra en partie l'évolution des modèles autocratiques. Est-ce que de plus en plus de pays deviennent autoritaires ? Si vous pensez que la réponse est oui, et jusqu'à présent, il semble que ce soit le cas. Si vous regardez la Freedom House et le nombre de pays démocratiques par rapport aux pays autocratiques, nous sommes dans 15 ou 19 années consécutives de baisse du nombre de démocraties et d'augmentation des niveaux d'autoritarisme. Donc, le premier point est que si vous avez plus de pays autoritaires, il y aura une demande croissante pour obtenir ces systèmes. Je pense que c'est en partie le cas. Je pense que le deuxième point est aussi que j'ai trouvé que, vous savez, certaines personnes se concentrent beaucoup sur l'aspect exportation, l'aspect offre. J'ai tendance à penser davantage au mélange entre l'offre et la demande. Il s'agit donc autant de savoir si la Chine pousse ou met en vente certains types de technologies de répression ou, franchement, si d'autres pays occidentaux comme les États-Unis et Israël disposent de certains types de technologies que les gens peuvent acheter, que de savoir qui en a réellement besoin. Les gens sont-ils motivés pour l'utiliser ? Ont-ils les ressources nécessaires pour mettre en place un système de surveillance qui les aidera à contrôler qui dit quoi dans le pays ? Et vous savez, certains pays veulent le faire. D'autres, même s'ils sont autocratiques, se disent que nous avons d'autres moyens de gérer les choses. Alors, pourquoi s'en préoccuper ? Cela semble très cher. Peut-être que la Chine nous fera une réduction, mais à quoi bon ? Nous.
Steven :
[1:02:21] Mais emprisonner les gens fonctionne très bien. Ou tirer sur trois ou quatre personnes et en faire des symboles de défis pour l'Etat, ça marche plutôt bien. Nous verrons bien. Je veux dire qu'il y a beaucoup de façons différentes. Mais je pense que l'aspect de la demande et le fait de s'y intéresser sont vraiment importants.
David :
[1:02:38] Avez-vous une opinion sur la façon dont cette technologie de répression prolifère dans le monde ? Pensez-vous qu'il s'agira d'un processus ascendant qui partira des pays les plus faibles qui ont besoin d'avoir recours à l'autoritarisme en premier ? Et donc les pays les plus faibles qui commencent à perdre le contrôle. Ils commencent donc à se tourner vers l'autoritarisme afin de contraindre leur population avant de perdre le contrôle. Peut-être que cela commence par les pays les plus faibles et que cela va de plus en plus loin jusqu'aux pays de plus en plus grands. Ou bien cela commence-t-il par les superpuissances ? La Chine, la Russie, les États-Unis, vous savez, la Chine a cette relation avec l'Iran dont nous venons de parler. Et ensuite, il se propage en quelque sorte. Il prolifère dans les sphères répressives des superpuissances qui les entourent. Avez-vous une idée de la façon dont cela est adopté ?
Steven :
[1:03:26] Je pense que c'est vraiment spécifique au contexte. Je pense qu'il est difficile de généraliser, mais je pense que nous pouvons observer quelques modèles qui seront probablement appliqués. Je pense que l'une des tendances que nous verrons est que les pays riches qui sont très autocratiques. Vous savez, les pays qui ont beaucoup de ressources, l'Arabie saoudite, les Émirats arabes unis, peut-être l'Égypte dans une certaine mesure, des pays comme ceux-là, qui ont beaucoup de ressources et qui ont aussi un très haut...
Steven :
[1:03:48] L'intérêt pour l'acquisition de ces technologies autoritaires les obtiendra et continuera à les faire entrer autant que possible. Vous savez, c'est intéressant quand il s'agit de pays plus faibles, je pense qu'il faut reconnaître sa faiblesse assez longtemps à l'avance pour faire quelque chose d'important, parce que ce n'est pas comme si vous mettiez en place un système de surveillance, que vous l'installiez du jour au lendemain, que vous sachiez comment l'utiliser et que vos forces de police soient capables de le déployer. L'une des choses que j'ai examinées était la capacité de vos forces de sécurité à être hautement coercitives et organisées ou non. Vous devez donc déjà disposer d'un système capable de tirer parti de ces technologies pour en faire quelque chose. Si vous êtes un pays qui a déjà commencé, comme le Népal, en chute libre, quasi-démocratique, ou le Bangladesh, qui a connu un changement de gouvernement l'année dernière à cause des manifestations, il est déjà trop tard. Je veux dire, A, vous n'avez pas les ressources pour faire grand-chose. B, vos forces ont été formées à son utilisation. Et C, vous avez des problèmes immédiats.
Steven :
[1:04:42] Ces technologies sont plus adaptées aux problèmes à moyen et long terme. Je veux dire, vous savez, encore une fois, l'exemple classique est celui d'un pays comme la Russie qui, à long terme, ne fait qu'ancrer lentement des niveaux de contrôle plus élevés dans la société. Lentement, elle expulse les différentes plateformes occidentales et tente de contrôler ce qui est dit sur celles qui restent, qu'il s'agisse de YouTube ou de Telegraph. Lentement, il met en place des systèmes de reconnaissance faciale dans toutes ses grandes villes et même dans les villes périphériques. Et il complète cela par des assassinats très médiatisés de dissidents comme Navalny. Vous savez, c'est ainsi que l'on procède. Vous avez en quelque sorte un horizon temporel un peu plus long. Vous disposez de l'espace de ressources nécessaire et vous avez la motivation pour les obtenir. C'est une sorte de tempête parfaite. Je dirais donc qu'il faut réfléchir aux pays qui entrent dans cette catégorie, qui se situent dans ce cadre. C'est là que vous verrez de plus en plus d'achats.
Steven :
[1:05:34] Je suppose que c'est le meilleur déploiement,
Ryan :
[1:05:36] Vous savez, le déploiement le plus efficace d'une technologie de répression, c'est quand la population ne s'en aperçoit pas.
Steven :
[1:05:44] Bien sûr, ou qu'elle choisit de regarder ailleurs.
David :
[1:05:48] C'est vrai. Le meilleur moment pour planter un arbre, c'était hier.
Ryan : [1:05:50] Oui :
[1:05:50] Oui. C'est vraiment le genre d'effet qui fait bouillir la grenouille. Steve, je voudrais parler d'un autre élément parce que, bien sûr, nous parlons, je veux dire, c'est aussi un podcast sur les crypto-monnaies, c'est l'élément de répression financière qui se produit aussi. Je pense qu'une grande partie de votre travail sur la répression numérique se concentre sur la couche de communication. Il s'agit du premier amendement, vous savez, la technologie de répression qui restreint le droit de se réunir ou la liberté d'expression, ce genre de choses. Il y a aussi le débancarisation qui peut se produire une fois que la technologie de répression numérique est déployée dans toute la société. Cette semaine, le Vietnam a fait la une des journaux. Le Vietnam a institué une carte d'identité gouvernementale, une carte d'identité nationale, avec une application biométrique sur tous les smartphones, n'est-ce pas ? Ils ont donc mis en place cet élément. Et maintenant, ils ont mis en place la nécessité pour tous les comptes bancaires d'exiger ces données biométriques avant leur ouverture ou avant que vous puissiez envoyer un paiement ou un transfert de fonds de plus de 750 $, par exemple. Et donc
Ryan :
[1:06:56] De cette manière, ils peuvent contrôler et réprimer numériquement l'ensemble du système financier. Bien sûr, quand on parle de communication ou de transfert d'argent, il s'agit de technologies de coordination. Si vous êtes un régime autoritaire, vous voulez empêcher vos citoyens de se coordonner. Vous pouvez l'empêcher en censurant vos communications. Vous pouvez également l'empêcher sur le plan économique, n'est-ce pas ? S'ils ne peuvent pas payer pour de la littérature différente ou s'ils ne peuvent pas faire de transactions dans l'économie, vous avez un contrôle total.
David :
[1:07:27] Ils ne peuvent pas faire de dons à des partis politiques opposés.
Ryan :
[1:07:30] Exactement. Dans quelle mesure la répression s'exerce-t-elle également sur le plan financier ?
Steven :
[1:07:35] Oui, non, je pense que c'est un excellent point. Et, vous savez, nous avons déjà vu un grand nombre de cas de ce genre. L'un des exemples les plus souvent cités est le système de crédit social en Chine, où l'on essaie de relier différents types d'enregistrements et de bases de données pour obtenir une image composite d'un individu et lui attribuer un score basé sur d'autres choses qu'il fait. Et si cette personne, en quelque sorte, échoue dans quelques catégories différentes, cela peut signifier qu'elle n'est pas autorisée à ouvrir des comptes bancaires dans certaines régions ou à faire d'autres choses. Et en fait, en Chine.
David :
[1:08:08] Vous avez même vu... Mais n'est-ce pas aussi un moyen de restreindre les déplacements ? Comme vous empêcher de prendre le métro ?
Steven :
[1:08:13] Vous pouvez faire tout cela, n'est-ce pas ? Je ne sais pas dans quelle mesure cela a été appliqué. Je veux dire, un peu comme un mélange d'hyperbole ou de perspective. Cela pourrait arriver, mais pas la mise en œuvre réelle. C'est donc l'une des choses qui, à mon avis, est un peu fluctuante, mais il est certain que l'on peut le faire. Je veux dire que l'État peut exercer tout type de levier financier qu'il souhaite à l'encontre d'un individu. Il n'est donc pas nécessaire de les enfermer. Il peut s'agir de leur refuser l'accès à des prestations ou à leur argent. La coercition économique est très importante dans l'arsenal des gouvernements, des gouvernements répressifs.
Ryan :
[1:08:47] Peux-tu imaginer quelque chose comme ça, Steve ? Quelqu'un dit quelque chose sur les médias sociaux que le gouvernement n'aime pas. On lui donne une leçon et on gèle son compte en banque pendant 30 jours.
Steven :
[1:08:58] Je veux dire, dans un pays, vous savez, sans l'état de droit et, vous savez, où, en supposant que vous puissiez en quelque sorte aux États-Unis, je pense que ce serait difficile, n'est-ce pas ? Bien sûr. Mais dans d'autres pays, certainement là où il n'y a pas de protection réglementaire en place ou là où les règles ont de grandes failles, des failles de sécurité nationale, ce qui semble être le cas dans tous les pays. Oui. Je veux dire, pourquoi pas ? Je veux dire, en fait, il y a comme un côté des droits de l'homme assez florissant qui a regardé les cryptocurrencies comme un moyen de contourner cela. L'un des exemples les plus souvent cités est celui du Myanmar, où une junte militaire illégale est arrivée, a destitué le gouvernement démocratiquement élu, les a tous jetés en exil ou dans une insurrection, et maintenant il y a une guerre civile. C'est un exemple où l'on essaie de faire passer de l'argent aux gens à travers la frontière, surtout si l'on ne peut pas faire de transactions normales parce que le gouvernement peut l'empêcher. L'utilisation des crypto-monnaies est un excellent moyen de contourner ces contrôles. Et donc, vous savez, il y aura probablement de plus en plus de cas où les gouvernements essaieront de tirer parti de leur capacité à contrôler les réseaux financiers normaux et où les crypto-monnaies peuvent être une option pour contourner cela, comme une technologie de libération, franchement, pour les dissidents.
Ryan :
[1:10:08] C'est ce qui s'est passé au Népal, n'est-ce pas ? Il y avait des manifestants, des comptes bancaires gelés, et ils utilisaient des pièces stables comme l'USDT pour contourner le problème, ainsi que d'autres crypto-monnaies.
David :
[1:10:18] Je dirais, Ryan, que toutes les pièces stables centralisées, USDT, USDC, peuvent toutes geler vos comptes bancaires si elles en reçoivent l'ordre par la procédure légale des États-Unis, mais elles pourraient le faire.
Ryan :
[1:10:31] Oui, ils le pourraient. Et ce n'est pas le cas de certains de nos crypto-actifs natifs, dont nous sommes les défenseurs. Donc le Bitcoin et les ethers du monde. Steve, alors que nous arrivons à la fin de cet épisode, je pense que nous avons eu une discussion fantastique. Je pense que cette discussion a été fantastique.
Steven :
[1:10:45] Je ne sais pas.
Ryan :
[1:10:46] Je me sens un peu déprimé, honnêtement. C'est un peu, je veux dire, comment tu vois les choses ?
Ryan :
[1:10:51] tout cela et ne pas devenir pessimiste, je suppose ? Ce serait une question ou peut-être une façon plus optimiste de poser la même question : comment éviter tout ça ?
David :
[1:11:02] Et nos enfants ? Et nos enfants ?
Ryan :
[1:11:03] Qu'est-ce qu'on va faire ?
Steven :
[1:11:05] Oui. J'ai deux enfants qui sont jeunes, alors j'y pense souvent. Je pense qu'il y a plusieurs choses. L'une d'entre elles est que la technologie, je ne crois pas en un avenir technologique déterministe. Je ne pense pas que ce soit parce que nous disposons de technologies puissantes qu'elles seront mal utilisées et exploitées par les gouvernements. Je pense qu'en fin de compte, tout dépend de la politique et de la manière dont les gens choisissent de voter, de s'organiser et de prendre des décisions. Ainsi, pour chaque situation comme celle de la Chine, qui est plutôt sombre et pessimiste, il y a d'autres situations où l'on voit la possibilité d'un changement, comme au Népal, en Indonésie ou au Bangladesh.
Steven :
[1:11:40] Et même dans notre propre pays. Je pense donc que, au moins dans les démocraties et les endroits qui penchent vers la démocratie, il y a beaucoup d'ouverture. Je ne pense pas que l'avenir soit écrit. C'est pourquoi, d'une certaine manière, l'observation des pays autoritaires peut constituer une sorte d'avertissement. Elle peut nous montrer ce qui nous attend. Il peut nous indiquer les problèmes qui peuvent survenir si nous ne protégeons pas soigneusement nos libertés, si nous ne réfléchissons pas à des moyens de riposte, si nous ne pensons pas à ajouter des frictions dans l'utilisation de ces technologies. En d'autres termes, je ne pense pas qu'il soit prévu que des algorithmes puissants s'emparent du monde et renforcent les gouvernements. En même temps, je pense que nous devons être prudents, car si nous nous endormons sur nos lauriers et détournons le regard, nous pourrions nous réveiller un jour et nous dire soudain : "Attendez une seconde, nous vivons dans un État de surveillance. Nous sommes censés avoir une constitution. Comment ai-je pu me retrouver dans une situation où je ne connais pas mes droits ? Il semble que le gouvernement puisse faire beaucoup de choses. C'est pourquoi nous devons constamment nous opposer à cette situation. Je pense que le recours au droit, à l'action collective, aux modèles et aux exemples d'autres régions du monde pour apprendre ce qu'il ne faut pas faire peut être très instructif et important pour les générations futures. Steve est là.
David :
[1:12:43] Tout ce que vous faites ou ne faites pas au quotidien et qui est lié à ce genre de choses,
Steven :
[1:12:48] Je ne sais pas.
David : [1:12:48] Je ne sais pas :
[1:12:48] J'imagine qu'on va appeler ça l'hygiène de la technologie de répression. Par exemple, vous savez, je peux généralement diffuser toutes mes opinions sur Twitter. Et je suis également conscient qu'à l'avenir, les gens liront ces opinions. Il m'arrive donc d'y penser lorsque je tweete. Y a-t-il quelque chose que vous faites quotidiennement ? Vous vous dites : "Oh, je ferais mieux de ne pas faire ça. Ou peut-être que je devrais faire ça juste au cas où, vous savez, juste au cas où.
Steven :
[1:13:09] Pas mal de choses. Je communique de plus en plus. Je communique avec mes amis, en particulier avec les groupes par signal et non par SMS. Et en fait, vous savez, quand les choses se sont un peu envenimées sur le plan politique, j'ai remarqué que dans plusieurs groupes, les gens ont, les modérateurs ont changé les messages qui disparaissent pour les faire disparaître un jour plutôt qu'une période plus longue. Ce n'est pas que les gens veuillent dire quoi que ce soit, mais il y a un peu d'appréhension. J'ai commencé à m'autocensurer il y a un certain temps, mais en ce qui concerne ce que je dis publiquement sur les médias sociaux, c'est plutôt anodin, c'est plutôt ennuyeux. Ce n'est pas nécessairement ce que je ressens ou ce que je pense dans une situation donnée, mais j'ai aussi appris que si je peux avoir une réaction émotionnelle très spécifique à quelque chose, il est peut-être préférable de prendre un peu de recul et certainement pas de l'exprimer publiquement. Je dis donc des choses aux gens, à mes amis par exemple, mais je n'en parle pas publiquement. D'une certaine manière, c'est dommage, n'est-ce pas ? Parce que, vous savez, je connais très bien l'idée de l'effet paralysant de l'autocensure et je sais pourquoi c'est une mauvaise chose pour une société saine. D'un autre côté, il faut être prudent.
David :
[1:14:11] Vous faites cela pour faciliter le travail de l'autoritaire.
Steven :
[1:14:14] C'est vrai.
David :
[1:14:16] Si tout le monde décide d'être un peu plus calme.
Steven :
[1:14:18] Oui. Donc, vous savez, je veux dire, je pense beaucoup à l'aspect des médias sociaux. Oui, ce sont des choses importantes. Mais le passage aux applications cryptées, je pense que c'est vraiment intéressant. Et c'est un peu comme dans beaucoup de mes différents groupes d'amis, vous savez, les gens sont en quelque sorte revenus à cela de plus en plus. Oui, c'est vrai.
David :
[1:14:36] Donc vous dites que si nous devions boire une bière ensemble en dehors de l'antenne, je pourrais entendre des points de vue différents.
Steven :
[1:14:42] Peut-être qu'il n'y a pas de micros chauds à proximité ou que quelqu'un utilise discrètement votre iPhone pour vous filmer. Oui.
David :
[1:14:50] Je pense que si Ryan et moi étions dans votre fauteuil, notre réponse serait, vous savez, vous n'avez pas besoin de mettre votre crypto, vos économies dans le crypto. Donc, mais je mettrais en place un pipeline pour passer de votre compte bancaire au monde de la crypto, de sorte que si jamais vous en avez besoin, c'est là pour vous. Ne vous en rendez pas compte avant qu'il ne soit trop tard. Je pense que c'est ce que nous dirions d'ajouter à l'arsenal des individus. Oui, ce n'est pas une mauvaise idée.
Ryan :
[1:15:14] Oui, je pense que c'est le cas, n'est-ce pas ? Le cryptage dans tous les domaines, même le cryptage pour les
Ryan :
[1:15:18] vos communications, je suppose que le cryptage, la crypto-monnaie pour votre argent aussi. Steve, ce fut un plaisir. Je pense que vous avez élucidé beaucoup de choses aujourd'hui et la conversation a été vraiment fascinante. Merci beaucoup de nous avoir rejoints.
Steven :
[1:15:30] Oui, merci de m'avoir invité. Vos questions étaient excellentes et j'ai beaucoup appris rien qu'en parlant et en écoutant votre point de vue. Cela m'oblige en quelque sorte à lancer des choses. Oh, dernière chose, Steve. Oui, c'est ça.
Ryan :
[1:15:38] Le nouveau livre. Il sortira en 2026. C'est bien cela. Intitulé Bites and Bullets, Global Rivalry, Private Tech and the New Shape of Modern Warfare (Morsures et balles, rivalité mondiale, technologie privée et nouvelle forme de guerre moderne). Donnez-nous un avant-goût. De quoi ce livre va-t-il parler ?
Steven :
[1:15:49] Oui, il traite de la manière dont les pays et les différentes armées utilisent la technologie dans le cadre de la concurrence géopolitique. Il aborde tous les sujets, de la guerre technologique entre les États-Unis et la Chine à la façon dont elle se déroulera et déterminera le pouvoir, en passant par l'utilisation des drones et les champs de bataille en Ukraine et ailleurs, en termes de rééquilibrage, vous savez, de la façon dont les armées gagnent ou perdent en matière de guerre. Il s'agit donc d'un regard extérieur sur l'équilibre entre la technologie, le pouvoir et la puissance militaire et sur ce que cela pourrait signifier pour l'avenir.
Steven :
[1:16:23] Oui, c'est aussi une force motrice.
Ryan :
[1:16:25] Donc quand ce livre sortira,
Steven :
[1:16:26] Il faudra le lire.
Ryan :
[1:16:26] Et peut-être te faire revenir. Mais merci pour
Steven :
[1:16:28] de nous avoir rejoints aujourd'hui. C'est formidable.
Ryan :
[1:16:30] Bankless Station, je dois vous dire que les crypto-monnaies sont risquées. Bien sûr, vous pouvez perdre ce que vous avez investi, mais nous allons vers l'ouest. Et le cryptage est la défense contre la perte de ce que vous avez investi. C'est la frontière. Ce n'est pas pour tout le monde, mais nous sommes heureux que vous soyez avec nous dans ce voyage sans banque. Merci beaucoup.