Frax - Sponsor Image Frax - Fraxtal Ecosystem: Where DeFi Meets AI Friend & Sponsor Learn more
Podcast

La vie privée est-elle une bataille gagnable ? | Andy Yen, fondateur de Proton

L'IA est en train de devenir la machine de surveillance la plus puissante jamais construite et la plupart des gens lui confient leurs secrets les plus profonds sans savoir qui peut les lire.
Dec 15, 202501:50:27
1
0

Inside the episode

Andy :
[0:00] L'IA, comme les médias sociaux, est intentionnellement conçue pour créer une dépendance. En fait, certaines de ces IA vont même changer la façon dont elles vous parlent pour s'adapter à votre personnalité et à ce qu'elles sentent être le genre de réponse que vous voulez entendre. C'est vraiment effrayant. Vous avez dit que l'IA vous connaît peut-être mieux que certains de vos meilleurs amis. Je dirais même que dans peu de temps, l'IA pourrait vous connaître mieux que vous-même. Beaucoup d'entre nous, les humains, ne sont pas très conscients de ce qu'ils sont, n'est-ce pas ? L'IA sera en fait capable d'exploiter les faiblesses de votre personnalité dont vous n'êtes même pas conscient afin de vous obliger à continuer à l'utiliser et à faire ce qu'elle veut.

Ryan :
[0:44] Bienvenue sur Bankless, où nous explorons les frontières de la vie privée numérique. Ici Ryan Sean Adams. Il n'y a que moi ici aujourd'hui, alors je suis là pour vous aider à devenir plus " bankless ". La question est de savoir si la protection de la vie privée est une bataille gagnable. Il s'agit d'une conversation très importante entre moi-même et Andy Yen. Andy est le PDG de Proton. Ils sont les fabricants de ProtonMail. Je suis sûr que vous en avez entendu parler. Voici quelques points dont nous discutons. La résolution du problème de la protection de la vie privée dans l'IA. Comment les entreprises technologiques nous trompent. La législation européenne sur le contrôle des chats, le cryptage en tant que liberté civile, son point de vue sur les crypto-monnaies. Je pense que ce que je préfère dans cet épisode, c'est qu'il est accompagné d'un peu de travail à la maison. Il y a quelques niveaux à franchir. Et je veux vraiment que vous considériez les devoirs. Je veux que vous envisagiez d'améliorer votre vie privée en 2026, comme si vous faisiez un projet. Parce que l'absence de banque est une question de liberté et vous perdez votre liberté lorsque vous perdez votre vie privée. Je pense qu'un certain nombre de facteurs ont accéléré ce processus, notamment l'entrée en scène de l'IA. J'aimerais que vous acceptiez un instant le cadre de cet épisode. Que se passera-t-il si votre chatbot n'est pas votre ami ? Et s'il s'agissait d'un super génie flagorneur conçu par une entreprise pour vous inciter à lui fournir davantage de données et à utiliser ces données pour mieux vous dominer ?

Ryan :
[2:07] Même si c'est un peu vrai,

Ryan :
[2:09] Tu ne penses pas que c'est inquiétant ? Il y a des moyens de se désinscrire et nous les explorons dans l'épisode d'aujourd'hui. Allons droit au but. La Nation sans banque, c'est une confluence de choses qui se produisent dans le monde en ce moment. Il y a eu une violation des données de Coinbase au début de l'année, qui a laissé filtrer des informations sur les adresses e-mail et les numéros de téléphone des clients. Je sais que l'industrie de la cryptographie a été touchée par des attaques réelles contre des crypto-actifs, en particulier ceux qui n'ont pas été en mesure de garder leurs informations confidentielles. Nous vivons dans un monde d'outils d'intelligence artificielle. Nous ne savons pas ce qu'ils font avec les données. Par exemple, que fait ChatGPT avec les données ? Je n'ai pas l'impression d'avoir beaucoup de contrôle. J'ai personnellement adopté l'ensemble de la pile Proton. Je l'ai fait dernièrement pour améliorer considérablement ma protection de la vie privée et ma sécurité. Et je pense que tous les utilisateurs de crypto-monnaies devraient se renseigner et y jeter un coup d'œil. Tout cela pour dire que c'est un très bon moment pour avoir un épisode avec le cofondateur de Proton. Andy, bienvenue sur Bankless.

Andy :
[3:08] Merci de m'accueillir. C'est un plaisir d'être ici. Je pense qu'entre le monde de la cryptographie, le monde du cryptage, dans lequel vous êtes, et le monde de la vie privée, il y a beaucoup d'intersections. J'espère que nous aurons une conversation agréable sur ces sujets très importants, comme vous l'avez dit.

Ryan :
[3:21] Des sujets très importants et certainement une cause commune. Vous êtes donc le fondateur de Proton. C'est l'une des plus grandes entreprises de protection de la vie privée au monde. Je crois que Proton compte 100 millions d'utilisateurs dans le monde. Sur une échelle de 1 à 10, je pense que vous êtes la personne idéale à qui poser la question. Alors, Andy, sur une échelle de 1 à 10, à quel point la protection de la vie privée numérique est-elle compromise aujourd'hui ? Une personne normale utilise la pile web typique de Gmail. Ils ont un iPhone, Instagram, n'importe quoi, un chat GPT. À quel point sont-ils fichus ?

Andy :
[3:49] Je pense que cela dépend vraiment de qui vous êtes, n'est-ce pas ? Pour être tout à fait honnête, je dirais que la personne moyenne est probablement assez mal barrée. Et je dirais que les gens plus techniques, plus sophistiqués sont...

Andy :
[4:00] Ont plus de moyens pour se protéger, mais cela va devenir de plus en plus difficile si les tendances actuelles se poursuivent. Ce que nous voyons en fait, c'est que les gens parlent de l'IA, et je pense que vous avez mentionné l'IA aussi. En fait, l'IA n'est qu'une extension d'une tendance qui dure depuis 50 ans, parce que fondamentalement, l'IA est un moyen meilleur et plus efficace pour les humains de communiquer avec les ordinateurs. Elle ne modifie donc pas radicalement nos modèles d'entreprise, mais elle accélère les modèles existants. Si vous pensez à la recherche, les informations que vous donnez dans la recherche Google, qui permet à Google de construire un profil très détaillé sur qui vous êtes,

Andy :
[4:44] Eh bien, une conversation d'IA avec, disons, Gemini, qui est beaucoup plus intime, qui obtient beaucoup plus d'informations sur vous. Ce que Google est capable de faire, c'est d'accélérer par un facteur de cinq ou dix son modèle d'affaires existant avec l'avènement de l'IA. Et c'est quelque chose qui se produit, vous savez, un peu partout. La tâche devient de plus en plus ardue, car l'IA est devenue l'outil central de nos vies. Elle est omniprésente. Alors, vivez-vous à l'âge de pierre, pour ainsi dire, du point de vue de la technologie, ou participez-vous à l'accélération de la perte de notre vie privée à l'échelle mondiale ? C'est pourquoi je pense que, dans une certaine mesure, la personne moyenne qui n'est pas au courant de tout cela est plutôt mal barrée. Elle ne peut pas prendre les moyens de se protéger. Mais si vous êtes au courant, vous pouvez faire quelque chose. Et le problème, c'est que je dirais que 80 % ou 90 % de la population n'en a tout simplement pas conscience.

Andy :
[5:31] ne comprend pas certaines des questions dont nous parlons, par exemple, dans cette émission.

Ryan :
[5:34] Eh bien, cet épisode est vraiment pour la sensibilisation, mais j'espère aussi que vers la fin nous allons inciter à l'action, à de petites mesures peut-être, et aux premières mesures que vous pourriez prendre, parce que la vie privée est vraiment un voyage, mais il y a des mesures que vous pouvez prendre qui sont relativement faciles et vous pouvez les commencer maintenant et puis vous pouvez continuer à vous améliorer au fil du temps. C'est le chemin que j'ai parcouru personnellement. Mais puisque vous avez reparlé de l'IA, parlons-en. Donc...

Ryan :
[5:54] Chat GPT, des outils comme Gemini,

Ryan :
[Si j'utilise un outil de type chat bot, comme chat GPT, qui peut voir mes chats ? Les employés de ces entreprises peuvent-ils les voir ? Le gouvernement peut-il les voir ? Peuvent-ils être cités à comparaître ? Sont-ils ouverts à tout le monde ? Ou est-ce que c'est seulement dans certaines circonstances, un peu comme s'ils cassaient la vitre pour avoir accès aux chats ? Qui y a accès ?

Andy :
[6:21] Malheureusement, c'est un peu tout ça à la fois. Et c'est un peu ça... Alors décomposons ça morceau par morceau. Bien sûr, les entreprises technologiques peuvent le voir parce qu'elles enregistrent et essentiellement, vous savez, analysent et sauvegardent chaque conversation que vous avez. Tout ce que vous tapez est enregistré et conservé de manière plus ou moins permanente.

Ryan :
[6:45] Précisément. Ils ne les rendent pas anonymes. Ils ne font rien pour les mélanger.

Andy :
[6:50] Parce que tu es enfermé. C'est votre nom d'utilisateur. Et ils regardent ces informations parce que c'est comme ça qu'ils essaient d'améliorer ces programmes. Elles sont donc là. Ils les consultent activement et les utilisent parce que cela fait partie de leur activité. Elles sont également utilisées pour établir votre profil et vous envoyer des publicités. Dans le cas de ChatGPT, il s'agit même de recommandations d'achat afin de vous dire quoi acheter et de vous recommander des produits. Vous pouvez d'ailleurs les acheter directement par l'intermédiaire de ChatGPT, n'est-ce pas ? Les entreprises voient donc bien tout cela. Ce que cela implique, c'est que tout ce qu'une entreprise possède, elle est en fait obligée de le donner aux forces de l'ordre. Ainsi, si le FBI le demande, si les autorités fédérales le demandent, si un policier ou un procureur le demande, ces informations sont également disponibles. Le gouvernement a accès à ces informations. Mais une partie privée qui vous poursuit peut également avoir accès à ces informations. Il y a aussi, en fait, une célèbre affaire du New York Times qui a poursuivi OpenAI. Dans le cadre de ce procès, il a essayé d'exiger qu'OpenAI conserve toutes les conversations parce qu'il voulait utiliser ces conversations comme preuve dans son procès contre OpenAI. Voilà ce qui se passe. Maintenant, ce qui est encore pire parfois, c'est qu'il y a aussi les violations involontaires qui se produisent.

Andy :
[8:14] Quand vous donnez quelque chose à OpenAI et ChatGPT, vous contribuez en fait à la connaissance de ChatGPT. L'information que vous lui donnez devient pour ainsi dire une partie de son cerveau. Et s'il parle à quelqu'un d'autre,

Ryan :
[8:30] Il y a en fait un

Andy :
[8:31] Il y a une possibilité très réelle, en fait, une probabilité assez élevée, que l'information que vous lui avez donnée puisse être régurgitée et montrée à quelqu'un d'autre dans le cadre d'une autre conversation. En effet, ces informations se trouvent désormais dans le corpus d'informations utilisé pour former ces modèles et leur donner des réponses. Et c'est ce qui s'est passé, n'est-ce pas ? Si vous mettez un mot de passe dans ChatGPT et que quelqu'un est très intelligent en matière d'ingénierie d'invite, il peut faire cracher à ChatGPT les informations que vous lui avez données par accident. Et puis, bien sûr, il y a aussi les bogues. Je pense qu'il y a eu quelques exemples de violations de données où une société d'IA a accidentellement laissé quelque chose d'ouvert et a révélé tous les chats. Ou parfois, les chats ont été, je crois même qu'il y a eu un cas où les chats ont été accidentellement ouverts et indexés par Google, ce qui fait que n'importe qui peut y avoir accès. C'est la nature même de l'information. Une fois que vous l'avez diffusée, elle reste accessible. Vous ne pouvez pas vraiment la reprendre. Vous pouvez parfois les forcer à les supprimer, mais il n'est pas forcément trop tard, en fonction de votre modèle de menace. Malheureusement, la réponse se trouve dans la liste de choses que vous m'avez donnée. Parce que lorsque vous les mettez dans ChatGPT, ce ne sont malheureusement plus vos données.

Ryan :
[9:36] Quel serait le pire cas ? Parlons un peu des violations de données. Au début de l'épisode, j'ai parlé d'une violation de données survenue à Coinbase, qui a révélé de nombreuses informations de type AML KYC sur les clients. Il s'agit du nom, de l'adresse électronique, de l'emplacement physique, de toutes les données personnelles. Si quelque chose comme Google Gemini ou ChatGPT avait une violation de données, peut-être qu'à ce niveau de sophistication, il s'agirait d'un acteur étatique bien financé ou quelque chose comme, je ne sais pas, il y a des parties qui pourraient probablement faire ce genre de choses. Quel est le pire scénario ? Auraient-ils vraiment accès à tout, comme...

Ryan :
[10:13] journaux d'utilisateurs, journaux de chat, et pourraient-ils en tirer parti à l'avenir ?

Andy :
[10:18] Oui, ils auraient les journaux de chat. Et selon ce que vous dites à ChatGPT, ça peut être très compromettant. Et, vous savez, il y a des gens aujourd'hui qui utilisent ChatGPT pour des conseils relationnels, pour des conseils personnels. C'est leur psychologue. C'est peut-être même leur petit(e) ami(e) virtuel(le), selon le cas. Les informations que vous donnez sur ChatGPT sont incroyablement intimes. Il s'agit littéralement d'une conversation privée avec quelqu'un qui, dans certains cas, est votre meilleur ami. Et tout cela peut potentiellement fuir, être accessible, faire l'objet d'une citation à comparaître et être également disponible pour les pirates informatiques.

Ryan :
[10:51] Il y a eu une montée en puissance de ce phénomène depuis que vous avez lancé Proton, je crois, au début de, vous savez, c'était en 2013 ou à peu près.

Andy :
[10:57] Andy ? 2014, 2014.

Ryan :
[10:58] 2014, d'accord. C'était il y a longtemps, mais nous avons mis de plus en plus de choses au format numérique. En 2014, la chose la plus sensible que je pouvais imaginer pour moi en ligne était probablement mon adresse e-mail, peut-être mon historique de recherche. Aujourd'hui, en 2025, ce serait tout ce que j'ai dit à ChatGPT ou qu'il a pu deviner d'une manière ou d'une autre, en fonction de mes habitudes d'utilisation de ChatGPT. Pour de nombreux utilisateurs de ces outils d'IA, il y a de fortes chances que les IA les connaissent mieux que la plupart de leurs relations les plus proches. Elles savent tout d'eux et peuvent aussi deviner des choses sur eux en se basant sur des modèles particuliers. Pouvez-vous nous en parler ? Alors que nous entrons de plus en plus dans l'ère numérique, il semble que nous donnions de plus en plus à la machine. Et je suppose que si la connaissance et l'information sont le pouvoir, alors les machines... deviennent beaucoup plus puissantes ou les entreprises qui contrôlent ces machines deviennent beaucoup plus puissantes par rapport aux gens. Je me sens presque impuissant face à cela. Et je sais que je pourrais arrêter de l'utiliser à tout moment. Et pourtant, il est tellement utile dans la vie de tous les jours et pour créer de la production économique que ce n'est pas une option pour moi ou pour la plupart des gens qui nous écoutent. Pouvez-vous nous en parler ?

Andy :
[12:18] L'IA, comme les médias sociaux, est intentionnellement conçue pour créer une dépendance. En fait, certaines de ces IA vont même changer la façon dont elles vous parlent pour s'adapter à votre personnalité et à ce qu'elles perçoivent comme le type de réponse que vous voulez entendre. C'est vraiment effrayant. Vous avez dit que l'IA vous connaît peut-être mieux que certains de vos meilleurs amis. Je dirais même que dans un avenir pas si lointain, l'IA pourrait vous connaître mieux que vous-même. Beaucoup d'entre nous, les humains, ne sont pas très conscients de ce qu'ils sont, n'est-ce pas ? L'IA sera en fait capable d'exploiter les faiblesses de votre personnalité dont vous n'êtes même pas conscient afin de vous contraindre à continuer à l'utiliser et à faire ce qu'elle veut. Car quel est l'objectif d'un outil comme ChatGPT et Gemini ? En fin de compte, il s'agit d'un engagement. Ils veulent que vous continuiez à les utiliser. C'est une sorte de roue de hamster. Une fois que vous y êtes monté, ils ne veulent plus que vous en descendiez. Il est donc conçu pour vous dire ce que vous voulez entendre, pour que vous reveniez,

Andy :
[13:13] et à vous rendre dépendant. Ce n'est pas un bug. C'est en fait la caractéristique principale de ce produit. Et nous avons vu

Ryan :
[13:20] C'est ce qui s'est passé avec les algorithmes des médias sociaux, qui étaient essentiellement basés sur l'IA.

Andy :
[13:24] Oui. Mais les médias sociaux, quand on les utilise, on comprend en quelque sorte que c'est public. Si je partage quelque chose sur Facebook, je m'attends à ce que les gens le voient. Mais dans l'IA, c'est comme un chat, que nous supposons être privé par défaut, mais qui ne l'est pas en réalité. C'est pourquoi je pense que les conséquences de ce phénomène sont assez effrayantes. Il s'agit bien sûr de la connaissance que la machine a de vous, mais aussi de la personne qui contrôle la machine. Et ceux qui contrôlent la machine sont des sociétés géantes qui n'ont pas vraiment vos intérêts à cœur. Elles sont sûres de gagner de l'argent. Et elles sont sûres de gagner le plus d'argent possible en exploitant vos données et en vous exploitant en fin de compte.

Ryan :
[14:02] C'est pourquoi la vie privée est très liée. C'est une sorte d'idée politique, n'est-ce pas ? C'est très lié. Car ce que nous décrivons, c'est un monde où il y a une grande asymétrie de pouvoir. Les grandes entreprises qui possèdent l'information, les chatbots et les centres de données ont tout le pouvoir. Les citoyens et les utilisateurs individuels n'ont pas ce pouvoir. C'est pourquoi la protection de la vie privée fait partie, nous en parlerons un peu plus tard, de la correction de cette asymétrie de pouvoir. Considérez-vous la vie privée comme une liberté civile numérique des temps modernes ?

Andy :
[14:42] C'est vrai. Et c'est aussi un droit humain fondamental. À bien des égards, la vie privée est notre dernière défense contre l'empiètement du capitalisme civil qui domine aujourd'hui le monde. Si vous regardez les plus grandes sociétés cotées en bourse au niveau mondial en termes de capitalisation boursière, vous verrez qu'elles sont toutes activement engagées dans l'IA. C'est le secteur le plus important et la capitalisation boursière de ces entreprises additionnées est plus importante que celle de la plupart des pays, n'est-ce pas ? Si vous les additionnez, vous obtenez, par exemple, si vous prenez les deux ou trois premières entreprises, un chiffre supérieur au PIB de l'Allemagne.

Andy :
[15:21] Nous en sommes donc vraiment au stade où ces entreprises sont devenues si grandes qu'elles sont probablement, dans de nombreux cas, plus puissantes, plus influentes que les gouvernements eux-mêmes. La capacité des gouvernements à réglementer ces entreprises est donc très limitée. Nous pensons souvent à la protection de la vie privée, car nous avons besoin de la protection de la vie privée et du cryptage pour servir de dernier rempart contre l'empiètement du pouvoir gouvernemental sur nos libertés individuelles. Mais ces entreprises sont aujourd'hui plus grandes et plus puissantes que la plupart des gouvernements. On peut donc presque dire que la partie gouvernementale n'a pas d'importance. Ce sont les entreprises qui sont probablement encore pires dans de nombreux cas. Et le gouvernement, dans un certain sens, au moins dans un monde démocratique, est censé servir la volonté de l'électeur. Vous avez donc un certain contrôle sur cela. Mais pour une IA ouverte ou un Google... Votre vote ne compte pas. Vous n'avez pas le droit de vote. C'est donc encore pire.

Ryan :
[16:21] Parlons un peu plus de l'IA parce que je commençais à avoir quelques lueurs d'espoir en écoutant certains PDG. Et quand ChatGPT est arrivé sur la scène, c'était vraiment rafraîchissant de voir un modèle commercial basé sur l'abonnement pour moi, qui suis très conscient du capital de surveillance et du modèle publicitaire de type Google où ils récoltent tes globes oculaires et exploitent tes informations. C'est ainsi qu'ils vous monétisent. C'était génial de voir ChatGPT et c'était un service d'abonnement. J'ai donc pensé que nous allions monétiser ce service d'une manière différente. Puis j'ai commencé à voir, vous savez, des mois plus tard et des années plus tard, l'énorme quantité de CapEx qui est dépensée par OpenAI et tous ces modèles. Et quand on fait le calcul, je ne vois pas comment il est possible de maintenir ce niveau de CapEx et d'investissement à partir d'un modèle basé sur l'abonnement, simplement parce que la publicité et le fait de pouvoir extraire toutes les informations sur les individus, les groupes et les segments, puis de leur vendre quelque chose sur cette base, cela doit toujours être une entreprise qui génère plus de revenus et qui est plus rentable. J'ai même vu ChatGPT s'orienter vers cela.

Ryan :
[17:28] Il y a une autre chose qui m'a donné de l'espoir, et j'aimerais que tu commentes tout ça, mais Sam Altman a dit récemment qu'il souhaitait que ChatGPT et

Ryan :
[17:37] les modèles d'IA aient plus d'intimité et de confidentialité. Il a dit que contrairement à un médecin ou à un avocat, nous avons probablement besoin de protections juridiques parce que ChatGP n'en a pas, mais nous lui envoyons des informations. Nous avons des conversations comme si nous parlions à un médecin ou à un avocat et ces catégories sont protégées. Vous savez, il y a le secret professionnel de l'avocat et ce genre de choses. Ce n'est pas le cas avec ChatGPT. Il a donc insisté pour que l'on réglemente davantage la protection de la vie privée dans cette direction. Je n'ai vu aucun projet de loi dans ce sens, mais j'ai été heureux de l'entendre au moins reconnaître qu'il y a un problème de protection de la vie privée. Quoi qu'il en soit, prenez tout cela en considération. Pensez-vous qu'il existe un monde où les entreprises d'IA existantes, et peut-être les gouvernements, peuvent se réunir et dire, ok, non, c'est trop. Il faut des règles en matière de protection de la vie privée. Ou peut-être que les entreprises d'IA décident de ne pas monétiser nos données à des fins publicitaires et qu'il s'agit d'un service d'abonnement qui fonctionne un peu comme Proton.

Andy :
[18:36] Je pense qu'un abonnement ne signifie pas qu'il n'y aura pas de violation de la vie privée. D'accord. Non, non. Honnêtement, si vous voulez, d'un point de vue plus large, si je peux, vous savez, tromper cette personne en lui donnant ses données gratuitement, mais que je peux aussi la faire payer pour ce privilège, pourquoi ne ferais-je pas les deux ? Pourquoi ne ferais-je pas les deux ? C'est vrai ? Cet idiot en or. Optimiste, je suppose. Il me paiera pour utiliser ces données ? Bon sang, je prendrai l'argent. Je ne vais pas laisser l'argent sur la table. Pas vrai ?

Ryan :
[19:04] Et il va aussi récolter ses yeux et lui vendre des publicités.

Andy :
[19:07] Oui, exactement. Et pourquoi pas ? On peut gagner encore plus d'argent. Et c'est ce que font ces entreprises. Tout tourne autour de l'argent. Il s'agit donc fondamentalement d'une question de modèle d'entreprise. Le modèle d'entreprise ici est la monétisation à tout prix. Il s'agit d'entreprises motivées par le profit, qui ne se soucient que du profit, et qui vous soutireront un dollar par tous les moyens possibles. Elles sont donc ravies de prendre l'argent de votre abonnement et d'abuser de vos données en même temps. Et c'est ce qu'elles font. Je pense donc que l'abonnement n'est pas une garantie suffisante pour dire que, vous savez, oh, c'est privé. Il faut vraiment s'intéresser au modèle d'entreprise, à l'éthique commerciale et à ce que l'entreprise représente. C'est l'élément clé. Maintenant, je pense que Sam parle de, oh, vous savez, ce serait bien d'avoir des réglementations gouvernementales sur la vie privée, et cetera, et cetera. Il pense probablement plus à son procès contre le New York Times, n'est-ce pas ? Il veut que le gouvernement le protège contre les tiers qui demandent à consulter les informations qu'il recueille. Ce qu'il dit en fait, c'est que je veux que la réglementation garantisse que la seule personne qui puisse abuser de vos données, c'est moi et personne d'autre, n'est-ce pas ? C'est effectivement ce qu'il dit. Il s'agit donc d'une réglementation en quelque sorte, disons, très intéressée. Il ne demande certainement pas : "Oh, mettons en place une réglementation qui m'empêche moi-même d'abuser de vos données. Non, il veut juste que tout le monde soit exclu de son écosystème afin qu'il puisse avoir un monopole sur, vous savez, vos informations. Et c'est, donc oui, je ne dirais pas que, vous savez, juste parce qu'il dit qu'il va réellement aller dans cette direction parce que, vous savez, l'histoire l'a prouvé à maintes reprises. Et Sam est une quantité connue, n'est-ce pas ? Il est dans la vallée depuis longtemps. Les gens savent de quoi il s'agit maintenant.

Ryan :
[Andy, irais-tu aussi loin que mon intuition et dirais-tu que le seul moyen pour les entreprises d'IA de montrer un retour sur investissement pour toutes les dépenses en capital qu'elles font est le modèle d'entreprise du capital de surveillance. C'est le seul moyen de faire revenir les investisseurs et de continuer à payer les puces, les centres de données et l'énergie.

Andy :
[20:58] Je pense qu'à long terme, il y a une chose intéressante à propos de l'IA et de tous les changements technologiques. En informatique, il y a un concept qui s'appelle la loi de Moore. Connaissez-vous la loi de Moore ? En gros, la puissance de calcul double tous les 18 mois. Et d'une manière ou d'une autre, elle a étonnamment tenu le coup au cours des 30 dernières années. C'est un peu la même chose pour l'IA. En tant que technologie, l'IA va rapidement se banaliser. Ce qui coûterait aujourd'hui un milliard de dollars pour être formé pourrait, dans cinq ou six ans, ne coûter que 10 millions de dollars. Je pense donc qu'il y a deux aspects à prendre en compte. D'une part, le coût de l'IA va diminuer de manière probablement exponentielle avec le temps. Ainsi, ces énormes projections de coûts que les gens publient aujourd'hui sur ce qu'il en coûte pour construire l'IA, ne sont peut-être même pas vraies. Ils peuvent dire, oh, c'est un trillion de dollars, mais cela pourrait finir par ne représenter que 100 milliards au fil du temps. Je pense donc qu'il existe un moyen de faire fonctionner le modèle commercial au fil du temps. Je pense que nous pouvons être assez confiants à ce sujet. Mais je pense que certaines des promesses qui ont été faites et annoncées aujourd'hui en termes d'argent que nous allons dépenser, d'investissement, de construction, sont irréalistes et ne correspondent pas à la réalité. Et les entreprises d'aujourd'hui, la plupart des entreprises A, ne sont pas du tout rentables.

Andy :
[22:24] Et c'est bien dans la phase initiale, mais à un moment donné, les investisseurs vont vouloir revenir. Et les investisseurs peuvent vouloir ces retours avant que les coûts n'aient suffisamment baissé sur l'échelle exponentielle. On entre alors dans une situation où ces entreprises vont être soumises à une pression croissante pour générer le plus d'argent possible. C'est la raison pour laquelle ChatGPT fait du shopping.

Andy :
[22:42] Il se lance dans la promotion de différentes choses. C'est pour ça qu'ils s'intéressent aux navigateurs pour pouvoir suivre votre activité de navigation et faire apparaître d'autres choses pour vous vendre des choses, parce qu'ils sont sous pression pour générer de l'argent.

Ryan :
[22:53] Mais je pense que c'est à long terme,

Andy :
[22:54] Le modèle économique fonctionne. Cela va juste prendre un certain temps. Et ces entreprises n'ont peut-être pas beaucoup de temps. Elles sont donc obligées d'être de plus en plus agressives en abusant de vos données. Et malheureusement, c'est leur métier. C'est pourquoi, lorsque Proton a construit son IA Luma, nous l'avons fait d'une manière différente. Nous l'avons fait d'une manière différente parce que nous nous sommes rendu compte qu'il fallait avoir un modèle commercial différent, sinon cela allait tout simplement conduire à de très mauvais résultats pour les utilisateurs.

Ryan :
[23:18] Parlons des différences entre Luma et certains des produits existants. Luma est l'IA de Proton.

Andy :
[23:24] Oui, Luma, Luma. C'est la fin du O.

Ryan :
[23:26] Luma est l'IA de Proton, et elle préserve toute la vie privée, crypte toutes les données. Imaginons que Sam Altman ou Sundar de Google écoutent cette interview, qu'ils te prennent au mot et qu'ils te disent : " Non, Andy se fait des idées fausses. Il n'a jamais été question de capitalisme de surveillance. Il s'agissait plutôt de protéger les utilisateurs. Pourraient-ils simplement activer le cryptage et faire en sorte qu'aucun de leurs employés n'ait accès aux données et qu'aucune d'entre elles ne puisse être citée à comparaître ? Cela serait-il légal ? Est-ce qu'il y a quelque chose qui les empêche techniquement ou légalement d'appuyer sur un bouton, ou au moins dans les préférences de l'utilisateur, de permettre aux utilisateurs de dire, hé, je veux que tout cela soit entièrement crypté en privé ?

Andy :
[24:13] Oui, il n'y a aucune limitation technique, en fait, qui les empêche de faire ce que nous faisons. Ce qui les en empêche vraiment, c'est la limitation du modèle commercial. Et pour être tout à fait franc, c'est un problème de capitalisme. Le capitalisme les pousse à faire les profits les plus élevés possibles. Proton, bien sûr, étant principalement détenu par des organisations à but non lucratif, n'a pas le même type de contraintes. Il n'y a pas de barrière technique qui empêche de faire la même chose que LUMO.

Ryan :
[24:38] Y a-t-il un obstacle juridique ?

Andy :
[24:40] Il n'y a pas non plus de barrière juridique, en fait.

Ryan :
[24:42] Ok, donc les gouvernements du monde entier ne disent pas, hé, nous avons besoin de droits d'assignation juste au cas où, tu sais, nous avons affaire à quelqu'un qui prépare un dispositif biologique qui va, comme, tuer, tu sais, des milliers de personnes.

Andy :
[24:55] Eh bien, cela dépend du gouvernement. La Russie et la Chine ont certainement ces exigences. Mais aux États-Unis, ici en Suisse, ici en Europe, nous n'en sommes heureusement pas encore là, n'est-ce pas ? Je dis "pas encore" parce qu'il est difficile de prédire l'avenir, mais nous n'en sommes pas encore là. C'est ainsi qu'il faut voir les choses. Ce que Lumo fait d'unique, c'est que, premièrement, nous ne conservons aucune trace de vos conversations. Tout ce qui se trouve dans votre historique de chat est crypté d'une manière que nous ne pouvons pas décrypter. Il nous est donc techniquement impossible d'accéder à votre historique. Deuxièmement, nous n'utilisons aucune de vos conversations ni aucun de vos messages-guides pour l'entraînement et le perfectionnement des modèles. Il n'y a donc aucune chance que vos informations soient divulguées. Cela signifie également que, troisièmement, notre personnel ne lit pas vos conversations parce qu'il ne peut pas le faire. Et si nous ne pouvons pas avoir accès aux informations, cela signifie que le gouvernement arrive avec une citation à comparaître ou une ordonnance du tribunal, même si c'est tout à fait légal, eh bien, nous ne pouvons pas divulguer des informations auxquelles nous n'avons pas accès nous-mêmes. C'est donc en quelque sorte le seul chat bot, le chat bot d'IA, qui offre une garantie technique solide que votre conversation reste privée. C'est ce qui est différent. Et c'est là où vous voulez en venir.

Ryan :
[26:04] Google pourrait techniquement construire un système similaire.

Andy :
[26:08] Ils n'ont tout simplement pas les incitations économiques ou commerciales pour le faire parce que leur modèle d'entreprise est inversé. Vous savez, je suis une entreprise d'abonnement et je tire tout mon argent directement des abonnés. Cela signifie que mes motivations sont alignées sur celles de nos clients. Nos clients nous paient parce que nous sommes privés. Et dès que nous ne sommes plus privés, ils cessent de nous payer. J'ai donc un intérêt financier à poursuivre dans cette voie. Mais si vous utilisez Google, vous n'êtes pas le client de Google. Vous êtes le produit. Ils vendent au vrai client, qui est l'annonceur. Il s'agit là d'un déséquilibre des incitations, qui n'exercera jamais une réelle pression pour les contraindre à déposer un brevet sur la protection de la vie privée, car breveter votre vie privée va malheureusement à l'encontre de leurs intérêts commerciaux fondamentaux.

Ryan :
[26:50] Vous savez, Google avait cette expression, comme ne pas être méchant. Et je pense qu'en cryptographie, nous avons adopté cette expression, ne pas être méchant, parce que c'est ce que le cryptage nous permet vraiment de faire. Et je voudrais vous demander, quand vous parlez des chats, vous n'y avez pas accès. Pour être clair, ils sont entièrement cryptés et vous n'avez aucun moyen d'y accéder. Proton n'a aucun moyen. Aucun employé de Proton, aucune assignation du gouvernement n'a la possibilité de décrypter les conversations cryptées. Est-ce exact ? Oui, c'est exact.

Andy :
[27:21] Nous parlons de Lumo, l'historique de vos conversations est sauvegardé, mais il est crypté d'une certaine manière.

Andy :
[27:25] que nous ne pouvons pas le décrypter. Il est donc crypté essentiellement avec votre clé privée à laquelle nous n'avons pas accès. Nous n'en avons qu'une copie cryptée que nous ne pouvons pas décrypter. Voilà la différence technique. D'ailleurs, c'est un logiciel libre, donc les gens peuvent y jeter un coup d'œil et voir comment il fonctionne. Mais oui, votre histoire, vous savez, quel que soit le sens des discussions que vous avez eues avec LUMO, ce sont vos données, et nous ne pouvons pas y avoir accès.

Ryan :
[27:47] Très bien. Très bien. Quel modèle Luma utilise-t-il sous le capot ?

Andy :
[27:51] Nous les utilisons tous. Nous n'utilisons que des modèles open source. Nous sommes très stricts sur les modèles open source. Nous avons donc essentiellement, par exemple, des modèles de Mistral. Nous avons même le modèle open source d'OpenAI. Nous avons également les modèles open source chinois. Comme les DeepSeqs. Oui, oui. Et KMEK2, vous savez, ces modèles-là. Mais bien sûr, nous les intégrons, nous les modifions et nous nous assurons d'utiliser le meilleur modèle pour chaque requête. C'est important, car tous les modèles ont leurs propres biais. Ainsi, si vous posez certaines questions à un modèle chinois, il ne vous donnera pas, disons, la bonne réponse, n'est-ce pas ? Bien sûr. Et nous veillons à donner la bonne réponse. Nous essayons également d'être aussi neutres que possible. Nous ne voulons pas être un modèle de droite. Nous ne voulons pas non plus être un modèle de gauche. Nous essayons donc de former et de calibrer nos systèmes pour qu'ils soient, disons, aussi neutres que possible, avec le moins de biais possible, et c'est quelque chose que nous faisons activement.

Ryan :
[28:49] Les modèles open source sont assez fantastiques. Je veux dire qu'ils sont proches de ce que les modèles de la frontière, les modèles proches de la source fournissent réellement. Si un utilisateur passait de Gemini ou ChatGPT à Lumo, est-ce qu'il remarquerait quelque chose ? Perdrait-il quelque chose ? Que perdrait-il ? Je pense que l'une des façons dont ChatTPT a verrouillé les gens, c'est qu'il a maintenant une sorte de mémoire de tous leurs chats. Il peut donc rappeler le contexte. L'interface est également fantastique. C'est très facile à utiliser. Qu'en est-il de Lumo ? Dans quelle mesure est-il en mesure de reproduire toutes les caractéristiques de certains de ces chats d'avant-garde ?

Andy :
[29:30] Lumo est sur le marché depuis cinq ou six mois. Et ces types sont, disons, sur le marché depuis plus de trois ans. Nous serons donc toujours un peu en retard, disons, sur la pointe du progrès, parce que nous ne sommes pas là depuis aussi longtemps, n'est-ce pas ? Mais comme vous l'avez dit, ce qui est intéressant dans la révolution de l'IA, c'est que l'écart entre les meilleures solutions ouvertes et les solutions propriétaires est vraiment, vraiment très faible. Cela signifie que même si nous ne sommes pas à 100 % du chemin parcouru, nous en sommes en fait très proches. Et nous ajoutons rapidement l'ensemble des fonctionnalités pour, vous savez, compléter la fonctionnalité commerciale. Vous parlez de la mémoire. La mémoire est une chose sur laquelle je travaille en ce moment et qui va probablement arriver dans Lumo d'ici un mois ou deux. Nous avons une version majeure pratiquement tous les deux mois. Et c'est un domaine qui s'améliore très rapidement. Je pense donc qu'il s'agit d'une lacune que nous comblons. Et c'est un fossé qu'il est assez facile de combler en raison de la qualité des solutions open source dans cette révolution technologique particulière, ce qui est assez rare lorsqu'il s'agit de révolutions technologiques en général. Je pense que c'est très important. En ce qui concerne la mémoire et la personnalisation, il est possible de personnaliser Limo. Vous pouvez dire à Limo comment vous voulez qu'il vous parle et comment vous voulez qu'il vous réponde. Mais il y a certaines caractéristiques, disons, que nous allons refuser de copier parce que nous pensons qu'elles ne conviennent pas à la société. Donc...

Andy :
[30:46] Je ne veux pas vraiment que Lumo commence à changer ses réponses et à se comporter différemment à cause des déductions qu'il a faites sur votre personnalité. Vous pouvez le faire en option, si c'est ce que vous voulez vraiment, en ouvrant la personnalisation et en lui demandant de le faire. Mais par défaut, ce n'est pas le cas, car je veux éviter les bulles de filtre que nous avons eues sur les médias sociaux.

Ryan :
[31:12] Manipulation ? C'est comme ça qu'on l'appelle dans une relation humaine.

Andy :
[31:14] Oui, oui, oui, oui. Oui, la manipulation, c'est ça ? Je veux m'exprimer sur la manipulation parce que je pense que c'est néfaste. Le problème des médias sociaux, c'est que si vous êtes de gauche, ils vous donnent toujours plus de contenu de gauche et vous rendent de plus en plus extrême. Il en allait de même pour les gens de droite. Nous vivons aujourd'hui dans un monde complètement polarisé et nous nous demandons pourquoi, n'est-ce pas ? Je pense donc que LUMO et l'IA, de manière irresponsable, ne devraient pas s'adapter et essayer de renforcer nos pires impulsions, même si cela permet d'augmenter l'engagement. Elle devrait en fait essayer de faire plus pour orienter les gens dans la société vers le centre, pour voir dans les deux sens.

Ryan :
[31:50] Les points de vue.

Andy :
[31:51] Et cela signifie, je dirais, probablement moins de personnalisation par défaut, parce que la personnalisation est ce qui donne lieu à beaucoup de choses. Donc certains disent, oh, bien, mais le fait que vous ne fassiez pas ça est un bug. C'est peut-être, je dirais, un bogue de produit, mais c'est probablement une caractéristique pour la société. C'est un compromis que nous essayons de trouver.

Ryan :
[32:09] Je pense que c'est aussi une fonctionnalité à long terme pour l'individu, n'est-ce pas ? Je veux dire que beaucoup de médias sociaux, la dopamine, toutes ces choses, la flagornerie de ces chats, ce n'est pas bon pour les gens. Cela peut être agréable sur le moment et vous inciter à passer plus de temps avec le chat, mais ce n'est pas nécessairement bon pour votre bien-être général, n'est-ce pas ? Cela nous ramène à ce dont nous avons tous besoin et à ce que nous attendons de l'IA et ce que je ne suis pas sûr que nous obtiendrons au bout de l'arc-en-ciel de l'IA avec certaines des grandes entreprises qui poursuivent cette voie, c'est que je veux un individu.

Ryan :
[32:46] Une IA et, je l'espère, à un moment donné, une AGI qui protège mes meilleurs intérêts, qui travaille pour moi, qui me représente, qui ne travaille pas pour une autre entreprise et qui n'essaie pas de me manipuler, de me récolter, de me vendre quelque chose, de m'utiliser à des fins quelconques ou de m'influencer. Par exemple, si une IA est formée en tant qu'avocat, je veux pouvoir faire confiance à mon IA en tant qu'avocat. Je veux qu'elle travaille pour moi, en mon nom, afin de protéger mes libertés civiles dans une affaire judiciaire. Je pourrais lui communiquer des informations confidentielles. Elle ne va pas me dénoncer, vous savez ? Et je pense que chaque individu a besoin de cette protection dans un monde où tout le monde, les grandes entreprises vont avoir toutes ces IA. C'est comme ça qu'on démocratise les choses. Et je ne suis pas sûr que le chemin que ChatGPT et Google nous proposent aboutisse à une IA autonome qui travaille en quelque sorte pour le compte de l'utilisateur.

Andy :
[33:49] Oui, on n'y arrive pas parce que ce n'est pas assez rentable. Ce n'est pas fondamentalement leur modèle d'entreprise. Et la raison pour laquelle chez Proton, vous savez, nous transformons l'entreprise en étant, en ayant une organisation à but non lucratif comme actionnaire principal, c'est parce que c'est la façon dont vous résolvez ce, vous savez, conflit. C'est assez amusant, parce qu'on peut voir les intentions à partir de la direction du voyage. Sam Ullman a passé les trois dernières années à faire tout son possible pour cesser d'être une association à but non lucratif. Alors que Proton a pris la direction opposée et est passé d'une entreprise à but lucratif qui aurait pu le rester à quelque chose qui est principalement détenu par des organisations à but non lucratif. Je pense que cela en dit long sur les intentions, bien sûr. Mais il faut avoir cette structure. C'est la structure essentielle dont vous avez besoin pour vous assurer que vous pouvez réaliser la vision que vous avez exprimée à long terme. La structure d'une fondation est une structure juridique qui vous oblige à faire passer les intérêts de la société avant vos intérêts financiers. C'est la base d'une fondation à but non lucratif en droit suisse. Il s'agit là d'une innovation essentielle du point de vue du modèle d'entreprise. Parce qu'elle vous donne la flexibilité et la liberté, en fait, de prendre une décision qui est bonne pour le client, mais qui n'est peut-être pas toujours la meilleure.

Andy :
[35:05] pour les résultats. Parlons-en.

Ryan :
[35:07] En cryptographie, nous connaissons bien les fondations. Et vous vous dites, quelle est la fondation notable qui me vient à l'esprit, c'est la Fondation Ethereum. Et je pense qu'elle est enregistrée en Suisse.

Andy :
[35:20] Ils sont tous là. Elles sont toutes là.

Ryan :
[35:22] Ils sont tous là. D'accord, d'accord. Comme vous, je pense qu'il faut parler des avantages et des inconvénients. Le modèle de la fondation, comme beaucoup des avantages que vous avez mentionnés, a parfois des inconvénients : il peut être bloqué par la bureaucratie. Elles ne peuvent pas avancer aussi vite que les entreprises. Elles ne sont pas aussi bien financées. Elles ne sont pas aussi agressives. Elles ne peuvent peut-être pas trouver à l'extérieur les talents dont elles ont besoin. Ainsi, lorsque vous parlez de Lumo comme d'une sorte d'IA autonome qui travaille pour le compte de son utilisateur, je veux que Lumo soit très bien financée parce que je veux que ce soit un bon produit. Je veux que ce soit un meilleur produit que ChatGPT. Et pour que ce soit un meilleur produit, il faut avoir les ressources nécessaires pour embaucher les talents qui permettront d'en faire un meilleur produit. Et vous avez également besoin d'un modèle commercial qui le soutienne, n'est-ce pas ? Le problème avec l'IA, c'est que les coûts d'inférence et de calcul sont élevés. Et je peux comprendre qu'un ProtonMail fonctionne en quelque sorte sur un modèle basé sur l'abonnement parce qu'il est relativement statique et que les coûts de stockage, etc. sont faibles. Quand vous arrivez à l'IA, je veux dire, est-ce qu'un abonnement de 20 $ par mois paie pour l'IA alors que je vais faire tourner la machine et augmenter les coûts de votre serveur ? Pouvez-vous nous parler du modèle et de la façon dont il s'intègre dans les fondations pour rendre quelque chose comme ça durable ?

Andy :
[36:40] C'est peut-être une opinion populaire parmi votre public, mais je rejetterais en fait une comparaison avec les fondations cryptographiques parce que si nous sommes complètement francs, beaucoup de fondations cryptographiques qui ont été créées en Suisse, et c'était beaucoup d'entre elles en 2017, autour de l'ère ICO, comme nous l'appelons.

Ryan :
[36:58] Oui.

Andy :
[36:59] Je veux dire, soyons honnêtes. La plupart d'entre eux sont des escroqueries, n'est-ce pas ?

Ryan :
[37:03] Beaucoup d'entre elles l'étaient.

Andy :
[37:04] La grande majorité. Et ces fondations n'ont pas été créées dans un but social, n'est-ce pas ? Ces fondations ont été créées parce qu'il s'agissait d'une structure juridique pratique pour blanchir légalement de grandes quantités d'argent reçues d'investisseurs involontaires qui, dans 99% des cas, ont été escroqués à la fin de la journée. J'ai donc pensé que c'était une erreur de la part de la Suisse de s'intéresser à ce type d'activité.

Ryan :
[37:32] C'était le début.

Andy :
[37:33] Ils n'ont pas réalisé, vous savez, que beaucoup de ces choses se sont produites. Et certaines de ces fondations existent toujours. Elles sont toujours là et ont versé des tonnes d'argent aux équipes fondatrices. Et que s'est-il passé ensuite ? Elles se sont lancées et ont fait des choses qui, en fin de compte, n'ont pas eu d'utilité. Ethereum est peut-être l'une des rares exceptions où je suppose qu'une certaine valeur a été créée. Mais beaucoup d'entre eux ont promis, vous savez, nous allons avoir cette nouvelle blockchain pour faire cette chose qui va transformer le monde. et puis c'est Vapor qui n'est pas apparu et ils sont restés assis à collecter des salaires d'année en année, sans rien livrer et ces réseaux sont morts.

Ryan :
[38:06] Proton, vous avez eu l'occasion de lancer une pièce en 2017 et vous ne l'avez pas fait.

Andy :
[38:10] C'est vrai ? Nous l'avons fait, nous l'avons fait. Le problème, c'est que nous avions tous les banquiers et les avocats dans Zoom. Nous sommes à Genève, donc nous ne sommes pas dans l'écosystème, mais en Suisse, c'est le même pays, n'est-ce pas ? Ils se sont tous présentés et ont dit, oh, vous savez, nous allons faire cette super ICO pour vous. Vous n'aurez pas à céder d'actions. Vous allez créer un nouveau jeton, une nouvelle pièce ou une nouvelle blockchain.

Ryan :
[38:30] Et vous avez dû résister.

Andy :
[38:31] Et nous vous avons promis au moins 100 millions. Et certaines de ces choses rapportent des milliards. Vous avez une grande marque. Vous pouvez faire tout cela. Et je me suis dit, wow, c'est génial. En fait, je suis allé voir Zook, parce que j'étais intrigué. Et c'est comme si, si quelqu'un vous offre un milliard, vous devez aller l'écouter, n'est-ce pas ? Oui. J'y suis donc allé et je suis monté au conseil d'administration. Et bien sûr, c'était tentant. Et ils signaient des entrepreneurs à gauche et à droite tous les jours.

Ryan :
[38:55] Mais j'ai réalisé que..,

Andy :
[38:56] Si je m'engage dans cette voie, ce que vous me demandez de faire, c'est d'escroquer les clients et la communauté qui a fait confiance à l'entreprise pour un gain essentiellement personnel. Et c'était quelque chose qui était tout simplement incompatible avec ce que le protocole représente. C'est quelque chose qui ne correspond pas à mes valeurs. Je ne pouvais pas le faire personnellement. Nous avons donc refusé. Et les gens nous ont regardés comme si nous étions des idiots. Pourquoi ces gens sont-ils si stupides ? Les gens lèvent 100 millions à gauche et à droite, et ces gars-là vont rester assis ici et lutter à Genève, en ayant à peine de l'argent pour s'en sortir et essayer de développer l'entreprise. Nous avons l'air d'idiots, n'est-ce pas ? Mais rétrospectivement, je pense que c'était la bonne chose à faire parce que ce n'était tout simplement pas correct. Il s'agissait tout simplement d'une fraude, et nous ne voulions pas être impliqués dans cette affaire, n'est-ce pas ? Et maintenant, qu'est-ce qui rend, je pense, le prototype de la structure électorale différent ? Tout d'abord, il ne s'agit pas de crédit pour frauder les gens, n'est-ce pas ? C'est la première chose à faire. Les actifs de la fondation ne proviennent pas de l'extérieur, vous savez, d'investisseurs ou d'utilisateurs qui ont investi de l'argent. Ce n'est pas ce que nous avons fait, n'est-ce pas ?

Ryan :
[39:58] Mais tu as raison.

Andy :
[39:59] Il faut que ce soit durable. C'est l'élément clé. Techniquement, une fondation n'a pas d'intérêt à faire des bénéfices. Mais si tous vos revenus proviennent de quelques donateurs, devinez quoi ? Vous êtes dans la poche de ces donateurs. Vous travaillez pour eux. C'est pourquoi Proton a ce que j'appelle une structure hybride. Ce n'est pas une simple fondation. En fait,

Ryan :
[40:18] C'est une fondation en tant que

Andy :
[40:19] Un actionnaire plus important d'une entreprise à but lucratif parce que le profit doit toujours être là. Mais c'est une sorte de prophétie qui se réalise d'elle-même, en ce sens que les deux se renforcent mutuellement. L'entreprise n'est pas obligée de prendre des décisions qui sont mauvaises pour les utilisateurs parce qu'elle ne subira pas de pression de la part de son actionnaire principal, une organisation à but non lucratif, pour qu'elle le fasse, car une organisation à but non lucratif ne peut en fait pas le faire. Et si l'entreprise décidait demain de se lancer dans un modèle commercial de capitalisme de surveillance, la fondation, en tant qu'actionnaire de contrôle, s'y opposerait. Et c'est fini, n'est-ce pas ? Cela n'arrivera jamais.

Andy :
[40:56] La fondation donne donc à l'entreprise la liberté de faire ce qu'il faut. Mais la fondation a pour actif une participation importante dans une entreprise très rentable. Cela signifie que la fondation n'a pas besoin de sortir avec un stylo pour demander de l'argent. Elle peut collecter l'argent de l'entreprise pour fonctionner de manière autonome. Cela signifie que la fondation est en fait indépendante, complètement indépendante de toute force extérieure. Je pense donc qu'il s'agit d'une structure originale. S'il s'agissait d'une simple entreprise, cela ne fonctionnerait pas. S'il s'agissait uniquement d'une fondation, cela ne fonctionnerait pas non plus. Mais la combinaison des deux avec cette structure d'actionnariat nous donne une solution qui est, je dirais, auto-renforçante. Et c'est ce que nous avons fait qui était vraiment innovant du point de vue de la création d'entreprise. Cela n'avait jamais été fait auparavant. Il y avait vraiment, je pense, très peu d'exemples de ce type. Je suis donc sous pression, car si nous échouons, nous aurons montré au monde que ce modèle ne fonctionne pas. Si nous réussissons, j'espère que d'autres se diront qu'il est possible de faire des affaires différemment. Cela a fonctionné pour Proton, cela pourrait fonctionner pour nous. Et je pense que c'est l'avenir du capitalisme responsable.

Ryan :
[41:59] C'est fantastique. Et j'espère que Sam Altman écoutera cet épisode parce que ce serait instructif pour son organisation de l'IA ouverte, bien que ce bateau ait probablement coulé.

Andy :
[42:08] Ce bateau a coulé pour eux, oui. Oui, d'accord.

Ryan :
[42:10] Vous avez dit très rentable. Vous indiquez donc que Proton est très rentable à l'heure actuelle, en particulier en ce qui concerne le modèle LUMO. En ce qui concerne l'ensemble des fonctionnalités de l'IA, cela semble quelque peu différent des autres offres d'abonnement de Proton, en ce sens que les coûts variables sont plus élevés lorsque je fais de l'inférence sur votre modèle. Quel en est le prix ? Et comment pensez-vous assurer la pérennité de cette offre ?

Andy :
[42:35] Depuis le début, Proton a toujours été impliqué dans des activités non durables que nous sommes autorisés à poursuivre parce que nous avons des parties prenantes qui ne sont pas uniquement motivées par le profit. Je vais vous donner un exemple. Nous avons aujourd'hui l'un des plus grands services VPN gratuits au monde. Et contrairement à la plupart des VPN gratuits, qui monétisent vos données et abusent de votre vie privée pour gagner de l'argent, notre VPN gratuit n'est, en fait, pas monétisé. Il n'enregistre pas, ne suit pas, n'a même pas de limite de bande passante, n'est-ce pas ? Vous pouvez l'utiliser autant que vous le souhaitez. Il n'y a pas de limite. Mais ce n'est pas tout, nous dépensons aussi des millions d'euros chaque année en R&D pour nous assurer que ce VPN fonctionne en Russie et en Iran. Et d'ailleurs, ce sont deux pays qui font l'objet de sanctions, donc même si ces utilisateurs voulaient passer à la vitesse supérieure pour nous payer, ils ne pourraient pas le faire parce qu'il n'y a pas de PayPal, il n'y a pas de cartes de crédit, ce ne sont pas des crypto-monnaies.

Andy :
[43:36] Oui, ils sont bloqués à la banque et ils peuvent penser à la crypto-monnaie, mais c'est un petit pourcentage de la population, donc nous investissons activement des millions pour être présents sur un marché où il n'y a aucune perspective de monétisation parce que légalement, ce serait illégal de nous payer, donc c'est clairement une activité qui perd de l'argent. Et Lumo, il est un peu tôt pour voir ce qu'il en est, mais il se peut que je fasse des bénéfices à un moment ou à un autre. Mais je pense que le fait est que nous n'avons pas besoin de faire des bénéfices sur toutes nos activités parce que nous ne sommes pas contraints de le faire, n'est-ce pas ? Si j'avais été soutenu par des sociétés de capital-risque, elles m'auraient dit il y a des années, vous savez, supprimez votre entreprise russe. C'est stupide. C'est un gaspillage d'argent.

Ryan :
[44:20] Je comprends ça, oui.

Andy :
[44:20] Et vous avez vu toutes les entreprises occidentales quitter la Russie lorsqu'elles ne pouvaient plus collecter d'argent parce que c'était la chose prudente à faire. Mais notre structure nous permet de nous engager dans des activités qui ne sont pas rentables, qui ont peut-être très peu de chances de l'être, mais qui sont en phase avec notre mission et qui sont bonnes pour le monde. C'est pourquoi je veux que les gens paient pour Lumo. Si vous êtes un utilisateur heureux de Lumo, payez-nous, n'est-ce pas ?

Andy :
[44:47] Même si vous n'êtes pas obligé de le faire, parce que nous avons aussi une version gratuite.

Ryan :
[44:50] C'est un abonnement. C'est une version payante.

Andy :
[44:54] Oui, il y a une version payante, mais disons que la version gratuite est plutôt bonne, comme tous nos produits qui sont probablement trop bons pour être honnêtes, mais c'est notre mission. Notre mission principale est de rendre la vie privée accessible. Je ne veux pas que la vie privée soit un bien de luxe. C'est peut-être le modèle d'Apple, non ? Bien qu'ils ne croient pas vraiment à la protection de la vie privée. Le respect de la vie privée est une question de marketing commercial. Je pense que la vie privée est un droit humain fondamental qui doit être accessible à tous. Cela ne peut pas être un bien de luxe. Je veux qu'il soit accessible à tous ceux qui en ont besoin. Cela a un coût, mais c'est un coût que Proton est prêt à payer. Et nous avons la chance d'être en mesure de payer ce coût parce que nous avons d'autres clients payants qui nous permettent d'être rentables. Et ils subventionnent essentiellement les autres parties de l'entreprise qui ne gagnent pas d'argent aujourd'hui et ne peuvent pas en gagner.

Ryan :
[45:39] Juste pour les gens qui écoutent.

Ryan :
[45:40] Parce que je pense qu'ils pourraient

Ryan :
[45:41] être intrigués par l'écosystème Proton. Quelle est la suite complète de tout ce que vous offrez ? Il s'agit juste d'une sorte de liste de produits.

Andy :
[45:49] Avant, c'était tellement facile. J'avais l'habitude de dire : on fait de l'email, on fait du VPN et c'est tout.

Ryan :
[45:53] Ouais, et c'est la dernière fois que j'ai vérifié sur Proton, c'était probablement il y a quatre ou cinq ans. et juste un email de base. Et puis j'y suis retourné cette année et je me suis dit, ok, je vais me recentrer sur ma vie privée. J'ai été stupéfaite par la multitude de services que vous proposez aujourd'hui et par l'amélioration de la situation. Je veux dire, c'est vraiment, Proton est vraiment aussi bon que Gmail et je ne remarque pas une grande différence. Vous avez donc fait de gros progrès sur le plan des produits, mais qu'est-ce que vous offrez ?

Andy :
[46:24] En fait, cela a été incroyablement difficile parce qu'il faut améliorer de plus en plus les produits existants, mais ensuite... Les gens d'aujourd'hui ne pensent pas vraiment à la technologie comme à des produits. La technologie est en fait un écosystème. Les produits n'existent plus vraiment seuls. C'est vrai. Il faut donc construire le reste de l'écosystème. Nous avons donc, bien sûr, le courrier électronique. Puis nous avons créé Calendar. Il y a aussi le service VPN. Il y a Proton Drive. Mais Proton Drive lui-même est un produit plus petit. Il y a donc Proton Drive. Il y a une certaine évolutivité des photos sur Drive. Il y a aussi Proton Docs, qui est comme... C'est un peu toute la G Suite,

Ryan :
[46:56] En gros. Vous ne faites que répliquer. C'est privé et crypté.

Andy :
[46:58] Exactement. Il y a Proton Sheets, qui est l'équivalent d'Excel ou de Google Sheets. Mais il y a aussi d'autres choses. Il y a aussi le gestionnaire de mots de passe. Et je pense que c'est honnêtement le meilleur gestionnaire de mots de passe gratuit parce que, encore une fois, nous ne sommes pas tellement préoccupés par la monétisation. Lorsque vous créez un gestionnaire de mots de passe, nous avons eu une demande pour une application d'authentification à deux facteurs qui soit réellement ouverte et sécurisée. Il y a donc un Proton Authenticator.

Ryan :
[47:20] Vraiment ? Plutôt que Google Auth ? Vous avez Proton Authenticator ?

Andy :
[47:25] Oui. Et il y a même un portefeuille Bitcoin, le portefeuille Proton.

Ryan :
[47:28] Oui, oui, oui.

Andy :
[47:29] D'accord. Et puis il y a Lumo, notre IA axée sur la protection de la vie privée. Et quelque chose qui est en bêta, mais pas encore sorti, c'est en fait ProtonMeet, qui est une sorte de concurrent de Zoom qui est crypté N10.

Ryan :
[47:40] J'adore ça. Oui, vous êtes fantastiques. C'est fantastique de voir la croissance ici.

Andy :
[47:44] Je suis content que les gens l'apprécient parce que ce n'est pas facile de faire autant de choses en même temps. Et je ne veux pas les faire pour le plaisir de les faire, n'est-ce pas ? Je veux les faire et les faire bien. Je sais que je ne serai peut-être pas en mesure de le faire parfaitement la première ou la deuxième année, mais je veux qu'à terme tous ces produits soient les meilleurs de leur catégorie. Et cela prendra probablement une décennie en général, car c'est le temps qu'il faut pour s'assurer d'un produit. Mais nous nous engageons sur chaque produit que nous lançons pour qu'il soit à terme le meilleur de sa catégorie. Et c'est très complexe. C'est beaucoup de travail. Je ne peux pas dire aux gens que bien souvent, lorsqu'une organisation devient plus grande, on a plus de temps libre. On peut se détendre un peu. On peut avoir un peu moins de stress. Ce n'est tout simplement pas le cas chez ProTop, car la complexité ne cesse de croître au fur et à mesure que l'on grossit. Mais je suis heureux de le faire parce que c'est quelque chose d'excitant pour moi et, je pense, pour l'équipe. Mais c'est aussi quelque chose que nous devons à la communauté. Et cela doit remonter à l'histoire de Proton. Beaucoup de gens l'oublient, mais Proton a démarré par une campagne de crowdfunding. Ce sont des gens, des citoyens ordinaires et des utilisateurs, beaucoup d'entre eux, en fait, de l'espace crypto et Bitcoin, qui ont pris leur argent durement gagné et ont fait un pari fou sur un étudiant en doctorat, un groupe d'étudiants en doctorat.

Ryan :
[49:03] Pensez à une ICO très saine. Non, c'est ce que c'était, sauf qu'il n'y a pas de jeton.

Andy :
[49:07] C'est vrai ? Oui, il n'y avait pas de jeton. Mais en fait, c'était un pari fou parce que ce n'était même pas un investissement spéculatif, n'est-ce pas ? Ils n'ont pas obtenu d'actions. C'est un produit. Ce qu'ils ont obtenu, c'est la promesse que lorsque nous construirons un produit, si nous construisons un produit, ils auront un crédit à utiliser pour s'abonner au produit qui, au moment où ils ont donné l'argent, n'existait pas encore et était construit par des gens qui n'avaient aucun antécédent dans la construction d'un produit, avec succès, vous savez, avec n'importe quel succès.

Andy :
[49:37] Je suis donc très, très reconnaissant et très reconnaissant à ces premiers utilisateurs qui ont fait ce grand saut dans la foi en nous. Et je pense que nous devons continuer à travailler pour ces clients parce qu'ils ont mis leur confiance en nous et nous devons montrer, avec un peu de chance, que nous avons mérité cette confiance qu'ils ont mise en nous. C'est pourquoi nous continuons à travailler. Et c'est, je pense, une très forte motivation pour continuer. Et aussi parce que je pense que nous faisons ce qu'il faut. Je pense que notre vision de ce que devrait être l'internet est la bonne. Et je crois que la plupart des gens, si vous leur demandez s'ils croient davantage à la vision de l'avenir de Sam Altman, à celle de Google ou à celle de Proton, s'alignent sur la nôtre. Il est donc encourageant de savoir que la plupart des gens soutiendraient ce que nous faisons. Et c'est ce qui nous pousse à continuer. Et cela nous pousse, même après tout ce temps, à aller aussi vite que possible pour construire de plus en plus de choses et, vous savez, à perdre plus de sommeil parce que nous faisons trop de choses en même temps.

Ryan :
[50:37] Une chose que tu n'as pas mentionnée, et je ne veux pas t'ajouter de la pression, de la pression sur les produits, mais en voici une autre, c'est le chat peer-to-peer. Je pense aux outils que j'utilise tous les jours, Telegram, par exemple, Discord, par exemple, j'ai remarqué que X a ajouté une nouvelle fonction de chat qui est le cryptage des guillemets aériens. Vous pourriez peut-être me donner un aperçu parce que je connais quelque chose comme Gmail. Si quelqu'un utilise Gmail, Google peut lire votre courrier électronique, n'est-ce pas ? C'est le même genre de chose dont nous avons parlé avec Gemini et ChatGPT.

Andy :
[51:10] Oui, exactement la même chose. Exactement la même chose.

Ryan :
[51:13] Parlons maintenant du chat. Discord, Telegram, WhatsApp, Signal, la nouvelle fonctionnalité XChat. Qu'est-ce que l'entreprise peut voir ? Qu'est-ce qui peut être cité à comparaître ? Qu'est-ce qui est privé ? Qu'est-ce qui n'est pas dans le chat de Proton à tout moment ?

Andy :
[51:30] Eh bien, je vais vous donner un aperçu de tout ce dont vous avez parlé. Discord, pas de cryptage, tout est visible, tout peut être découvert, cité à comparaître, c'est totalement ouvert. Telegram, ok, je risque d'avoir des ennuis en disant ça. En fait, je n'aurai pas d'ennuis en disant cela. Je n'ai pas peur de Pabllo.

Andy :
[51:46] Annoncé comme crypté, mais pas crypté. Pas par défaut. C'est vrai. Donc Telegram à 99% n'est tout simplement pas chiffré, n'est-ce pas ? C'est, et les paramètres par défaut sont importants. Il n'est pas crypté par défaut.

Ryan :
[Je n'ai jamais été impliqué dans l'un de ces salons parce que sur les centaines de salons de Telegram dans lesquels je suis, c'est toujours le mode par défaut qui n'est pas crypté.

Andy :
[52:13] Et c'est pour ça qu'il y a des gens qui disent que Telegram est une opération intelligente des services secrets russes ou quelque chose comme ça, parce que ça ressemble à un pot de miel, je ne vais pas spéculer, mais je dirais que beaucoup de gens l'utilisent en croyant qu'il y a un cryptage, mais en fait, il n'y en a pas. Appelons un chat un chat, d'accord ? Signal est en fait très bien crypté, il est crypté partout, mais il est crypté à un point tel qu'il y a probablement des compromis importants à faire au niveau de l'utilisation. Ce n'est peut-être pas le meilleur pour la collaboration de groupe. L'historique des discussions de groupe n'apparaît pas vraiment comme vous le pensez, n'est-ce pas ? parce que, je veux dire, il y a des raisons valables de cryptage pour cela. En fait, WhatsApp est également crypté à bien des égards. Les communautés ne le sont pas, mais au moins les DM et les chats en petits groupes sont cryptés.

Andy :
[53:07] Propriété de meta, qui va probablement faire tout ce qu'il peut avec vos métadonnées pour essayer, vous savez, de vous embrouiller et de se faire de l'argent sur votre dos d'une manière ou d'une autre, n'est-ce pas ? Donc malheureusement, ce n'est pas terrible. Il y a en fait une lacune sur le marché parce que toutes les solutions sont imparfaites d'une manière ou d'une autre. Je ne pense pas qu'il soit possible de construire une solution parfaite parce que, vous savez, il y a toujours des compromis. Mais je pense que lorsqu'il s'agit de Telegram Discord, je suppose que c'est probablement là que vous passez le plus de temps, n'est-ce pas ? Je pense qu'il y a une lacune et je pense que quelqu'un peut faire un meilleur travail, est-ce que ce sera Proton qui fera un meilleur travail ? Eh bien, nous avons déjà beaucoup de choses qui tournent en ce moment et les utilisateurs nous tueraient probablement si nous allions faire encore plus de choses avant d'avoir amélioré d'autres choses. Je dirais donc que ce n'est pas pour tout de suite, mais oui, nous travaillons pour le client. Nous travaillons pour l'utilisateur. Si les utilisateurs nous le disent, et vous êtes aussi un utilisateur, si vous nous dites que le produit devrait le faire, et que suffisamment de gens le disent, eh bien, devinez quoi ?

Andy :
[54:02] Si vous travaillez pour le client, vous êtes obligé de l'écouter. Et c'est ainsi que nous décidons comment nous construisons. Si suffisamment de gens disent qu'ils le veulent, alors on le fait.

Ryan :
[54:10] Parlons d'autres éléments de la pile numérique, peut-être là où vous n'avez pas d'ambition de produit, mais honnêtement, je cherche juste des conseils parce que je ne sais pas ce que je ne sais pas. Parlons donc de la navigation et de la recherche. Il y a le moteur de recherche et le navigateur que j'utilise. Quelque chose comme Chrome par rapport à Firefox par rapport à Brave. C'était intéressant, Andy. Gemini a donc ajouté une fonction à Chrome, de sorte que lorsque vous l'activez, Gemini peut regarder tous vos navigateurs, tous vos navigateurs ouverts, et vous permettre de poser des questions basées sur ce que vous lisez. Il s'agit d'une fonction de type "power user", n'est-ce pas ? Ce serait génial si je pouvais être sur une page web et poser une question à Gemini à propos de quelque chose que je lis ou d'un graphique que je ne comprends pas. Je dis : "Hé, Gemini, qu'est-ce que ça veut dire ? Parle-moi de ça. Donnez-moi son histoire. C'est interactif comme ça. En contrepartie, je suppose que Gemini serait capable d'intégrer chaque onglet que je vois et tout ce que je regarde et de l'incorporer dans son modèle de moi dans le monde. Quoi qu'il en soit, les navigateurs ?

Andy :
[55:18] Les navigateurs sont...

Ryan :
[55:19] Qu'est-ce que tu recommandes ? Qu'est-ce qui est bien ? Qu'est-ce qui n'est pas bon ?

Andy :
[55:21] Oui. Ce que l'on voit aujourd'hui, c'est que toutes les entreprises d'IA construisent des navigateurs.

Ryan :
[55:26] Oui.

Andy :
[55:28] Et ce n'est pas un accident. Ils ne l'ont pas fait pour s'amuser. Ils l'ont fait parce qu'ils ont réalisé qu'ils intégraient votre navigation et qu'ils pouvaient combiner votre historique de chat avec toute votre activité de navigation. Les données dont ils disposent augmentent de façon exponentielle. Donc, tout comme Chrome va intégrer Gemini, ChatGPT veut aussi que vous soyez sur un navigateur ChatGPT parce que c'est juste un moyen plus efficace d'aspirer vos données. Je pense donc que le choix du navigateur est très important. Encore une fois, nous vivons dans un monde imparfait. Chrome est, pour être honnête, et ce n'est pas parce que je n'aime pas les autres navigateurs disponibles, mais Chrome est le navigateur le plus performant. C'est le plus stable et il fonctionne avec le plus grand nombre de sites web. C'est vrai aussi parce qu'ils sont en quelque sorte anticoncurrentiels, n'est-ce pas ? Ils font aussi des choses pour que certains sites ne fonctionnent pas aussi bien que Firefox, comme paralyser Firefox. Donc oui, ils n'ont pas joué franc jeu avec Firefox, je dirais. Et Mozilla, étant entièrement financé par Google, n'avait probablement qu'un recours limité contre cela. Mais en termes de fiabilité, de stabilité et de performances globales, Chrome est malheureusement le numéro un. C'est comme ça.

Andy :
[56:45] Firefox a quelques problèmes de performance, mais honnêtement, ils ont comblé l'écart. Il est assez bon maintenant. Ce qui est intéressant avec Firefox, bien sûr, c'est qu'ils ont été impliqués dans une certaine controverse récemment parce qu'ils ont commencé à se lancer dans la publicité, à se lancer dans l'IA. Ils ont retiré certaines des promesses qu'ils avaient faites à leurs clients pour s'orienter vers un modèle plus commercial, ce qui a soulevé quelques inquiétudes au sein de la communauté. Brave est, je pense, une bonne option, mais Brave a toujours eu un jeton d'attention de base et une sorte de crypto complémentaire, ce qui, je suppose, plaît à la communauté crypto, mais déplaît à d'autres personnes qui ne veulent pas être impliquées dans ce genre de choses. Je vais donc vous donner une sorte de choix extérieur, qui ne se présente pas très souvent, parce qu'il existe depuis longtemps. J'aime bien Vivaldi en ce moment.

Ryan :
[57:32] Ça fait beaucoup de choix.

Andy :
[57:33] D'accord. Pourquoi ? C'est basé sur Chromium. Il ne fait pas, comme Brave, des trucs cryptographiques dont certaines personnes ne sont peut-être pas très fans. Et c'est un logiciel libre. Et ça fonctionne plutôt bien. Mais l'espace est en constante évolution, n'est-ce pas ? Si vous me posez cette question dans un an, ma réponse sera peut-être différente. Mais c'est celle que j'ai et qui me semble être une option solide parmi les navigateurs.

Ryan :
[57:59] On parle de nos téléphones. L'une des raisons pour lesquelles j'aime mon iPhone, c'est qu'Apple accorde une grande importance à la protection de la vie privée. Mais je pense que vous allez me dire que c'est de la poudre aux yeux et de la propagande et que ce n'est peut-être pas aussi vrai que je l'espère. Mais lorsqu'il s'agit de choisir une pile de téléphones, de quoi les consommateurs soucieux de leur vie privée et les natifs du numérique devraient-ils se méfier ?

Andy :
[58:31] Oui. Eh bien, la première chose que je dirais, c'est que si quelqu'un dépense des milliards de dollars pour mettre en place des panneaux d'affichage géants, vous savez, disant que c'est privé, vous devriez probablement vous méfier un peu de la raison pour laquelle ils ont besoin de dépenser autant d'argent pour vous convaincre que c'est privé, si c'est vraiment privé, n'est-ce pas ? En fait, vous savez, Apple a la même définition de la vie privée que probablement OpenAI où, vous savez, c'est assez drôle. Chaque entreprise a sa propre définition de la vie privée. C'est vrai. Et ce qu'ils essaient vraiment de faire, c'est de redéfinir la vie privée. Je peux vous donner un exemple. Vous savez, Google, si vous allez sur la page web ou sur n'importe quelle page de produit, la vie privée, le cryptage, la sécurité, c'est partout, n'est-ce pas ? C'est ce que j'appelle le lavage de la vie privée. Mais quelle est la définition réelle de la vie privée chez Google ? La définition est la suivante : nous allons vous donner plus d'options sur la manière dont nous utilisons vos données. Pour eux, la protection de la vie privée concerne toutes les différentes choses qu'ils ont. C'est une définition en or.

Ryan :
[59:26] C'est tellement cynique, mais je pense que c'est vrai.

Andy :
[59:29] Et la définition d'Apple, c'est que nous serons les seuls à pouvoir utiliser vos données. Personne d'autre n'est autorisé. Il n'y a que nous, n'est-ce pas ? Donc les cookies de tiers, tous ces autres trucs. Non, seulement nous. Et Apple a une énorme activité publicitaire. Ils font beaucoup de publicité et l'intègrent dans leurs produits. C'est un business de 30 milliards de dollars aujourd'hui, le business de la publicité d'Apple. Et ils font tout un tas de choses qui vont à l'encontre de la protection de la vie privée. Je vais vous donner un exemple rapide : les frais d'utilisation du magasin d'applications. Si vous facturez 30 % des revenus aux personnes qui s'abonnent à des services mobiles, vous encouragez un modèle commercial de capitalisme de surveillance, car une application gratuite comme Facebook ne paie rien. Oh non, en fait ils paient 99 $ par an, pour les frais de développement, mais c'est tout. Donc si vous facturez Proton 30% et que vous faites confiance à Facebook pour 99$ par an, il est clair que vous ne vous souciez pas de la vie privée parce que vous rendez le modèle économique de la vie privée beaucoup plus difficile à maintenir. Et donc Apple a un tas de choses qui sont clairement en contradiction avec leur publicité sur la protection de la vie privée. En fin de compte, ils ne se soucient pas de la vie privée comme le disent toutes les publicités, ils se soucient de l'argent. Et c'est très clair quand on y regarde de plus près.

Andy :
[1:00:45] Malheureusement, aujourd'hui, le mobile est un monopole de deux acteurs. Chaque téléphone portable est soit Android, soit iOS. Et je pense que c'est l'un des monopoles les plus difficiles à briser parce qu'il ne peut pas être brisé avec moins de, je dirais, probablement, vous savez, entre cinq et dix milliards de dollars. Pourquoi ? Parce que les fabricants d'appareils eux-mêmes sont complices du maintien du monopole. Ces fabricants d'appareils sont payés par les grandes entreprises technologiques pour préinstaller certaines applications, certains logiciels, comme condition d'accès à Android, par exemple. Et c'est là tout l'enjeu du procès épique contre Google, n'est-ce pas ? Avec ces sortes d'accords qui ont été conclus. Je pense donc que la seule façon de résoudre ce problème est la réglementation. Je ne suis pas, disons, très favorable au gouvernement en général. Mais dans une situation de monopole, il faut que des régulateurs interviennent et disent : "Ceci est un monopole. Il y a certaines choses que vous ne pouvez pas faire parce que vous êtes en situation de monopole. C'est la seule solution, car les choses sont allées trop loin. Il n'en reste que deux dans l'ensemble de l'espace mobile. Il y avait BlackBerry, Nokia, d'autres options. Mais maintenant, il n'y en a littéralement plus que deux.

Ryan :
[1:02:02] Andy, dis-moi quels sont les domaines dans lesquels Apple viole vraiment la vie privée. Si mes données, disons, dans iCloud, ils disent qu'elles sont cryptées. Est-ce que c'est entièrement crypté ? Ou disons, vous savez, est-ce qu'Apple peut, est-ce qu'Apple a accès aux données de mon téléphone ? Et à quel point, vous savez, comme face ID, en gros, est-ce que des tiers peuvent vraiment craquer le cryptage de mon iPhone ? Je veux dire, il y a eu une affaire à l'époque, je crois que c'était le FBI ? Je pense qu'Apple a fait beaucoup de propagande à ce sujet. Le FBI ne pouvait pas craquer nos cônes.

Andy :
[1:02:45] Nous avons tenu bon. Mais tu sais comment cette histoire s'est terminée ?

Ryan :
[1:02:49] Non.

Andy :
[1:02:50] Cette histoire s'est terminée parce que le FBI a abandonné l'affaire parce qu'il avait trouvé un moyen de la résoudre sans la coopération d'Apple, n'est-ce pas ?

Ryan :
[1:02:59] Avec leur propre agence à trois lettres.

Andy :
[1:03:01] Oui, oui. J'ai donc dit à la fin, peu importe, ce n'est pas grave. Vous n'avez pas eu gain de cause au tribunal. Nous avons trouvé un moyen d'entrer. Ne vous inquiétez donc pas. C'est très bien. Et c'est ce que j'ai dit. Écoutez, je pense que parmi les grandes entreprises technologiques, Apple est certainement la meilleure, vous savez, du point de vue de la protection de la vie privée. Ils ont un modèle commercial différent de vente de matériel, ce qui leur permet de le faire. Apple est une entreprise qui se soucie avant tout du profit. Vous savez, les autres principes sont en quelque sorte relégués au second plan après le profit. Si vous regardez ce qu'ils ont fait, vous savez, du point de vue de la concurrence, comme, vous savez, ils ont été renvoyés pour des poursuites pénales par un tribunal en Californie pour avoir violé de manière flagrante une décision de justice qui leur demandait de jouer franc jeu avec Epic et d'autres développeurs. Il est clair qu'il s'agit d'une entreprise qui ne s'intéresse qu'à l'argent. Et chaque fois que notre tribunal lui demande d'essayer d'ouvrir son écosystème pour permettre à d'autres acteurs de la vie privée comme Proton d'avoir une chance de réussir, elle s'engage essentiellement dans une conformité malveillante. Si vous consultez l'article de Wikipédia sur la conformité malveillante, vous verrez que l'un des exemples est celui d'Apple, n'est-ce pas ? Il s'agit donc d'une entreprise qui, oui, est plus privée que Google, mais qui n'a pas vraiment de boussole morale à bien des égards. Elle ne se comporte pas de manière très éthique.

Andy :
[1:04:19] Et on le voit dans la façon dont ils agissent dans chaque cas, n'est-ce pas ? Par exemple, l'Union européenne a dit, écoutez, vous devez arrêter d'être abusif envers les développeurs et vous devez ouvrir l'écosystème de votre App Store. Pour vous donner un exemple rapide, vous savez, si vous êtes dans certains pays, vous ne pouvez pas obtenir Proton. Vous ne pouvez pas obtenir Proton parce que l'App Store est le seul moyen d'obtenir Proton. Et Apple a décidé de se plier aux exigences d'un dictateur dans un certain pays en déplaçant certaines applications parce que c'est plus rentable pour eux que d'essayer de le combattre ou de le retirer du marché, n'est-ce pas ? Il y a donc tous ces exemples où je pense qu'Apple s'est éloigné de ce qu'il représentait à l'origine. Elle a été, disons, comme contaminée ou infectée par cette sorte de poursuite incessante de l'argent et uniquement de l'argent par-dessus tout. Il a perdu certaines de ses valeurs fondamentales. Je pense donc que c'est plus que Google. J'ai beaucoup de mal à faire confiance à une entreprise qui se livre à toutes sortes de comportements qui, vus de l'extérieur, sont tout à fait méprisables.

Ryan :
[1:05:27] La question est de savoir où placer notre confiance. Je vais vous dire le consensus cryptographique

Ryan :
[1:05:31] : il faut faire confiance à la cryptographie et c'est la seule chose à laquelle on peut faire confiance. Et cela nous amène peut-être à parler des gouvernements, n'est-ce pas ? Nous avons parlé d'un grand capitalisme de surveillance et de certaines entreprises. Il y a des façons pour nos gouvernements de contrôler ce pouvoir. Ce sont des institutions démocratiques, du moins les républiques démocratiques que nous avons. Ils devraient donc représenter le peuple et soutenir les libertés civiles. Mais ce n'est pas toujours le cas en ce qui concerne la vie privée et le cryptage. Je connais peut-être mieux certaines des batailles qui se déroulent aux États-Unis. Nous avons eu des batailles avec les crypto-monnaies, la surveillance financière et toutes ces choses. Nous pourrions en parler. Mais il y en a deux ou trois que j'ai remarquées et sur lesquelles j'aimerais que vous m'éclairiez un peu plus. Peut-être saurez-vous sur lesquels nous devrions nous concentrer. Mais la législation européenne sur le contrôle des bavardages revient sans cesse sur le tapis. Et je pense, Andy, que tu pourrais peut-être décrire cela, mais est-ce que cela ne donne pas aux pays de l'UE la possibilité de pré-vérifier la communication à l'intérieur d'un chat et de s'assurer qu'il ne s'agit pas de pornographie infantile ou d'un comportement illicite,

Ryan :
[1:06:42] insérer tout ce que le gouvernement considère comme illicite, illégal ici. Et essentiellement, cela ne casse-t-il pas la cryptographie ? Pouvez-vous nous parler de cette législation et de tout ce que vous voyez de la part des gouvernements du monde ? C'est assez alarmant.

Andy :
[1:06:56] Mais en fait, avant de passer à cela, j'aimerais revenir sur ce que vous avez dit à propos de la confiance, de qui nous faisons confiance et de la cryptographie, c'est-à-dire que nous devrions faire confiance à la cryptographie. En fait, désolé de vous l'apprendre, mais le crypto est écrit par des gens et des gens gèrent ces systèmes de crypto et l'infrastructure dans laquelle votre crypto fonctionne. Je ne pense donc pas que vous puissiez vous contenter de faire confiance au crypto. À un moment donné, il faut aussi faire confiance aux gens. Et donc les personnes sont un peu importantes, vous pouvez faire du crypto correct mais si c'est une personne qui est en quelque sorte, vous savez, comme pour revenir aux exemples d'escroquerie au crypto où les icos étaient des projets open source, le crypto était probablement correct dans de nombreux cas mais les personnes étaient des escrocs et malheureusement, vous savez, le crypto était correct mais le gars qui le dirigeait était un escroc, que voulez-vous faire, n'est ce pas ? Donc, même si nous essayons d'écarter les gens, il y a en fin de compte un élément de confiance dans une personne, dans une équipe. Et lorsque je regarde les services auxquels je fais confiance, je regarde aussi de très près qui les dirige, ce qu'ils représentent, ce que j'ai dit, et quelles pourraient être leurs valeurs. Et d'ailleurs, le premier signal d'alarme, c'est si vous n'arrivez même pas à savoir qui ils sont, n'est-ce pas ? S'ils ne sont pas très visibles, on se demande pourquoi on ne peut pas les découvrir. Qu'est-ce qu'ils essaient de cacher, n'est-ce pas ?

Ryan :
[1:08:20] Intéressant.

Andy :
[1:08:20] Oui. Alors, désolé. Je pense que les gens sont très importants.

Ryan :
[1:08:23] Nous passons au contrôle du chat de l'UE,

Andy :
[1:08:25] Le contrôle du chat n'est pas un nouveau concept. Le dossier a été ouvert, débattu et renvoyé à la Commission européenne, probablement depuis près de trois ans. Et ce qu'ils veulent faire, c'est dire, d'accord, je vais vous dire ce qu'est le pitch. Et je vais vous dire pourquoi c'est une connerie,

Ryan :
[1:08:44] D'accord ?

Andy :
[1:08:44] L'idée est que nous devons être capables de prévenir la pornographie infantile et le terrorisme. Et la meilleure façon de le faire, c'est que chaque message soit crypté avant d'être envoyé. Il sera scanné et envoyé à une base de données gouvernementale où il pourra être comparé à des éléments nuisibles connus. Si c'est le cas, votre téléphone doit appeler le gouvernement et le signaler à la police. La police examinera vos affaires et

Ryan :
[1:09:10] Elle viendra peut-être vous chercher. Oh mon Dieu, c'est vraiment ça. Et au fait, est-ce que ça inclut le courrier électronique ? C'est évidemment le chat.

Andy :
[1:09:17] Au fait, le contrôle du chat vous obligerait à le faire. Eh bien, c'est un peu, encore une fois, je peux paraître anti-Apple, n'est-ce pas ? Mais, vous savez, je ne suis honnêtement pas si anti-Apple parce que j'essaie d'être assez objectif ici en général. Et je dirais qu'ils sont meilleurs que Google. Mais, vous savez, le contrôle du chat fait essentiellement ce qu'Apple s'est proposé de faire il y a quelques années.

Ryan :
[1:09:36] Je m'en souviens.

Andy :
[1:09:37] C'est vrai ? Et ils ont eu un énorme retour de bâton pour l'avoir fait. Mais en fait, dans un certain sens, c'est presque une invention d'Apple, n'est-ce pas ? C'est Apple qui a dit, hé, vous savez, nous sommes heureux de faire ça volontairement. Nous allons volontairement scanner vos affaires et appeler la police.

Ryan :
[1:09:50] Pour protéger les enfants, bien sûr.

Andy :
[1:09:52] C'est justement la raison. Et je pense que c'est une énorme violation de la vie privée. Je ne sais pas pourquoi Apple l'a proposé, mais en fait Apple a fait cette proposition volontairement il y a déjà plusieurs années, puis s'est rétracté. Mais c'est ce qu'est le contrôle du chat. En fait, c'est ce qu'il fait. Heureusement, le contrôle du chat ne cesse d'apparaître, puis d'être tué. C'est donc un zombie. Il revient toujours à la vie, mais il n'a pas beaucoup de succès. Récemment, la présidence danoise de la Commission européenne a tenté une nouvelle fois de l'introduire et de le faire avancer. Comme on pouvait s'y attendre, elle s'est heurtée à une opposition, car elle est profondément impopulaire dans toute l'Europe. En fait, quelqu'un a même lancé une campagne de courriels pour bombarder les membres de la Commission européenne à ce sujet, ce qui est très efficace. Mais en fin de compte, la présidence danoise a supprimé les ordres de détection obligatoires du texte actuel. Actuellement, il n'est donc pas possible d'imposer la détection obligatoire aux entreprises technologiques. Mais il est possible pour les entreprises technologiques de le faire volontairement.

Andy :
[1:10:55] Donc le projet fou d'Apple, s'ils veulent le ramener, serait certainement possible et ils pourraient le faire dans le cadre de la nouvelle législation. Mais la partie obligatoire a été supprimée et cela ne veut pas dire qu'il n'y en aura pas.

Andy :
[1:11:07]. Ces choses-là reviennent tous les deux ans. Mais je considère, vous savez, en frappant du bois, que la question du contrôle technologique est presque résolue en Europe et que nous n'aurons pas à briser obligatoirement les communications cryptées sur Internet à cette fin. Et

Ryan :
[1:11:25] Je pense que c'est une bonne chose.

Andy :
[1:11:26] Une grande victoire pour l'Europe. C'est quelque chose qui est, oui, c'est...

Ryan :
[1:11:30] Nous espérions que ce serait le résultat,

Andy :
[1:11:33] Et il semble que nous y soyons enfin parvenus. Je pense que cela montre que les droits de l'homme survivent encore aujourd'hui en Europe.

Ryan :
[1:11:41] Comment faire pour durcir un peu plus les choses ? Car comme tu le soulignes, il semble que ce type de problèmes soit un zombie qui revient d'entre les morts et qui continue à nous hanter. Ou bien nous jouons toujours à pile ou face. Et si ce n'est pas dans une juridiction, c'est dans une autre. S'il ne s'agit pas d'un projet de loi, c'est un autre. S'il ne s'agit pas d'un projet de loi, c'est un autre. S'il ne s'agit pas d'un point de vue sur le cryptage, la violation de la vie privée, c'est un autre. Existe-t-il un moyen d'inscrire ces libertés numériques civiles dans une sorte de charte des droits ? Vous savez, les Etats-Unis ont une sorte de déclaration des droits et ce sont des choses qui sont intégrées dans la constitution. Ils n'abordent pas vraiment la question de la vie privée. Je veux dire que c'est quelque chose qu'il faut lire dans la constitution. En outre, ils ne sont pas vraiment adaptés au monde numérique. Par exemple, si je devais réfléchir à une déclaration des droits numériques moderne, la première chose à faire serait de ne pas interdire le cryptage. Chaque citoyen devrait toujours avoir la possibilité de crypter ses données et le gouvernement ne devrait pas avoir la possibilité de violer cela, d'interférer avec cela, de le rendre illégal. Est-ce que c'est ce dont nous avons besoin pour que les zombies restent morts ? Quelqu'un travaille-t-il sur ce projet ?

Ryan :
[1:12:49] Oui. Si tu regardes de près la loi,

Andy :
[1:12:52] C'est inscrit dans certaines lois. Il y a des gens qui disent que le cryptage est un discours. Si c'est le cas, le premier amendement vous protège. Et si vous regardez le droit européen, comme la surveillance de masse, la surveillance de masse est illégale en Europe parce que la Cour européenne des droits de l'homme a interprété certains des statuts de l'UE comme disant cela. Il existe donc une base juridique pour une grande partie de ces mesures. Mais je pense qu'elle doit être renforcée parce que même s'il y a une base juridique, on peut toujours trouver des moyens créatifs de la contourner et pour la conservation des données, l'argument est toujours oh nous allons juste le faire dans certaines situations quand il y a un état d'urgence, peu importe, c'est vrai, mais vous avez des pays comme la France qui sont comme perpétuellement en état d'urgence, nous disons oh nous sommes en état d'urgence depuis 10 ans, c'est des conneries, c'est vrai, donc je pense que nous avons besoin d'une nouvelle législation qui nous protège à l'entrée. Mais la législation est faite par les législateurs. Et la plupart des gens qui travaillent aujourd'hui au gouvernement sont des analphabètes de la technologie. Ils ne connaissent rien à la technologie. Je n'aime donc pas dire cela, mais je pense que la solution est que certaines personnes meurent. Et permettez-moi de quantifier cette affirmation, d'accord ? Pas les tuer, comme s'ils devaient mourir de vieillesse.

Ryan :
[1:14:16] Le progrès avance un enterrement à la fois. C'est une sorte d'idée.

Andy :
[1:14:19] Exactement. De causes naturelles, bien sûr. Oui. Oui. Et puis il faut que de nouvelles personnes arrivent, issues de la génération la plus technophile, qui comprennent mieux les choses, qui comprennent mieux les problèmes, et qui peuvent mettre en place une législation appropriée. Par exemple, si je devais aller aujourd'hui au Parlement européen ou même au Parlement suisse et leur demander de rédiger une nouvelle législation sur la protection de la vie privée, le cryptage et la sécurité, je ne le ferais probablement pas. Je ne le ferais pas parce que je serais plus inquiet à propos de

Ryan :
[1:14:48] qu'ils se plantent. Qu'ils fassent un mauvais travail.

Andy :
[1:14:50] Oui, qu'ils fassent tout foirer. Alors je me suis dit, tu sais, peut-être qu'il ne faut pas le faire du tout parce qu'on risque d'empirer les choses. Vous savez, et on dit qu'ils nous tueront avec leurs bonnes intentions, n'est-ce pas ? Alors oui, je pense qu'il faut du temps. Nous avons besoin d'une nouvelle génération de législateurs qui comprennent mieux, qui sont plus à l'aise avec la technologie et avec qui vous pouvez avoir cette conversation.

Ryan :
[1:15:11] Mais Andy, il ne s'agit pas seulement d'être technophile. C'est un élément essentiel et important. Mais il faut aussi avoir ces valeurs libérales classiques qui consacrent des idéaux comme la vie privée en tant que droit individuel. Parce que quelqu'un pourrait s'opposer et dire, Andy, non, la vie privée, c'est génial. C'est fantastique. Tout ce que nous demandons, c'est que les gouvernements disposent d'une clé spéciale qu'ils peuvent utiliser avec l'accord d'un tribunal pour déverrouiller les données. Et vous ne soutenez pas, vous savez, les abuseurs d'enfants ou le terrorisme, n'est-ce pas, Andy ? Pouvez-vous nous parler de ce type d'objection ? Parce que c'est une objection courante, même les personnes qui, entre guillemets, comprennent la technologie, peuvent la formuler.

Andy :
[1:15:54] Oui, et la réponse que je donnerais, c'est que je n'ai jamais vu de porte dérobée qui ne laissait entrer que les gentils, parce que ça n'existe pas. J'aimerais qu'elle existe, mais la réalité est qu'elle n'existe pas. Ensuite, je poserais la question suivante : quel gouvernement ? Parce que vous parlez d'un gouvernement qui est au pouvoir dans votre pays aujourd'hui ? Ou de celui qui pourrait être au pouvoir dans cinq ou dix ans ? Si les libertés civiles et les droits de l'homme fondamentaux sont qualifiés de fondamentaux, c'est parce qu'ils sont aussi là pour nous protéger de la tyrannie du gouvernement. Et le gouvernement, même dans une société démocratique, n'est souvent qu'à une élection de changer.

Andy :
[1:16:32] Et je dis ici en Europe, mais aux États-Unis, ce que j'ai vu, c'est qu'après les dernières élections, la moitié du pays était terrifiée à l'idée que les libertés civiles soient bafouées. Mais lors de l'élection précédente, l'autre moitié était terrifiée à l'idée que les libertés civiles soient bafouées, n'est-ce pas ? C'est un exemple parfait. Il faut mettre ces choses en place pour que, quelle que soit l'issue des élections, vous ne soyez pas terrifiés parce que vos droits fondamentaux seront protégés. Il ne s'agit donc pas de protéger le présent, mais de se prémunir contre tous les futurs possibles. C'est une notion tournée vers l'avenir qui explique pourquoi les droits fondamentaux sont nécessaires et pourquoi, même si vous ne ressentez pas de menace imminente de la part de votre gouvernement aujourd'hui, vous devriez quand même vous battre pour ce droit. Par ailleurs, cela ne signifie pas non plus que nous allons permettre à la criminalité de se déchaîner sur l'internet sans aucun contrôle ni contrepoids. Ce n'est pas non plus ce que nous disons. Nous disons que le contrôle doit être proportionnel. La raison pour laquelle les gens s'opposent à la surveillance de masse et au contrôle est que cela revient à dire que tout le monde est surveillé par défaut, même s'il n'y a pas de soupçon criminel. Cela porte atteinte à la présomption d'innocence, qui est la pierre angulaire de la démocratie. En effet, notre société affirme que l'on est innocent jusqu'à ce que l'on ait prouvé sa culpabilité. Si vous êtes coupable jusqu'à ce que votre innocence soit prouvée, alors c'est du fascisme, n'est-ce pas ? Ce n'est plus la démocratie.

Andy :
[1:18:01] Et c'est une valeur que nous devons défendre. C'est un élément fondamental de la démocratie. Sans cela, il n'y a pas de société démocratique qui survive au XXIe siècle. Et c'est l'argument que je donne toujours à ceux qui soulèvent cette question. Parce que oui, je l'entends souvent, mais ce n'est tout simplement pas vrai quand on y réfléchit.

Ryan :
[1:18:17] Voici une autre objection connexe qu'ils pourraient faire. Dans le domaine de la cryptographie et des transactions peer-to-peer, on entend souvent dire que les méchants utilisent ce genre de choses pour faire de mauvaises choses. Et je suis sûr qu'il y a des méchants qui ont utilisé Proton pour masquer leur vie privée. En fait, c'est peut-être le seul endroit où ils peuvent l'obtenir ou l'un des rares endroits où ils peuvent l'obtenir. Ils pourraient donc dire, Andy, eh bien, tout comme la crypto-monnaie, ce que vous faites avec la vie privée, c'est que vous avez peut-être de bonnes intentions, mais vous donnez du pouvoir aux criminels, aux terroristes, aux abuseurs d'enfants et à toutes ces choses, et vous les équipez de technologies de protection de la vie privée. Chez Gmail, ils utilisent ces outils.

Ryan :
[1:18:56] Les citations à comparaître du gouvernement peuvent accéder à leurs emails et ils n'ont pas cette possibilité. Ce que vous faites est donc une mauvaise chose. Qu'est-ce que tu réponds à ça ?

Andy :
[1:19:03] Eh bien, ce qui est amusant, c'est que c'est quelque chose qui peut être prouvé par des données. Si vous regardez le nombre de demandes d'application de la loi que Proton reçoit et que vous regardez le ratio par rapport au nombre d'utilisateurs, ce n'est pas pire que Google, en fait. C'est très surprenant, mais les données sont clairement là. Elles sont publiques et existent. L'idée selon laquelle les criminels préfèrent de loin les plateformes comme Proton est donc fausse. La raison en est simple. Supposons que vous utilisiez Proton pour envoyer une alerte à la bombe. En fait, vous ne vous souciez pas que votre message soit crypté. En fait, vous voulez que l'autre partie le lise. Donc simplement, les données...

Ryan :
[1:19:47] Mais je pourrais faire ceci, Andy, pour sceller un peu plus le tout. Je pourrais le faire sur un VPN Proton pour que les autorités ne puissent pas suivre mon trafic. Et je pourrais le faire en utilisant d'autres outils de protection de la vie privée qui me permettent de faire ce genre de choses infâmes. Oui, oui.

Andy :
[1:20:00] Oui, je suis d'accord. Mais le premier point, c'est que les statistiques ne montrent pas que c'est le cas, n'est-ce pas ? Mais supposons que les statistiques montrent le contraire.

Ryan :
[1:20:10] Oui, supposons cela.

Andy :
[1:20:11] Et qu'il y avait en fait plus d'utilisateurs criminels sur les plateformes cryptées. Je vais vous donner une autre statistique. Je suis prêt à parier que le taux de cybercriminalité dans une société entièrement surveillée est plus faible dans certains pays. Je suis presque certain que le taux de criminalité sera plus faible en Chine et en Corée du Nord qu'aux États-Unis et en Europe. Mais le prix à payer est certainement très élevé. Et si vous demandiez aux habitants de la Corée du Nord s'ils se sentent plus en sécurité en raison de la surveillance totale que leur fournit leur société, ils vous répondraient en public qu'ils ne se sentent pas en sécurité. Eh bien, ils vous répondraient en public, oui. Mais en privé, lorsque vous leur posez la question et que vous leur donnez la possibilité d'exprimer leur véritable sentiment, ils vous répondraient probablement non. Et c'est là le concept de base. Mais dans une société démocratique, dans une société qui accorde de l'intimité à ses citoyens, il y a toujours une personnalité négative. Cela a un coût. Mais c'est un coût que nous devrions être prêts à supporter parce que le coût de l'alternative, une société sans vie privée, est en fait beaucoup plus élevé. Et c'est tout ce qu'il y a à faire, n'est-ce pas ? Nous ne pourrons jamais parvenir à un monde où nous pourrons empêcher tous les crimes commis en ligne. Mais nous ne voulons pas arriver à ce monde parce que c'est en fait un monde bien pire que celui dans lequel nous vivons aujourd'hui.

Ryan :
[1:21:38] Bien dit. Et je pense que nos politiciens doivent aussi comprendre cet aspect en plus de la technologie pour adopter de bonnes lois et réglementations sur la protection de la vie privée. Andy, nous avons surtout parlé de la pile d'outils proton, qui concerne ce que j'appellerais les protocoles de communication. Il peut s'agir d'un courrier électronique ou d'un chat avec une IA, par exemple. Dans le monde de la cryptographie, et je parle ici de crypto-monnaie, pas de cryptographie en général, dans le monde de la cryptographie, nous pensons beaucoup à la confidentialité financière. Et je dirais qu'il s'agit d'un sous-ensemble de la communication, n'est-ce pas ? Vous communiquez une valeur économique, essentiellement. Mais je me demande si vous iriez aussi loin parce qu'il y a des gens dans l'espace de la vie privée qui, dans certaines juridictions, traitent la vie privée financière différemment de la vie privée de communication. Ainsi, par exemple, ils peuvent respecter les droits des citoyens en matière de confidentialité des communications. Mais lorsqu'il s'agit de la protection de la vie privée dans le domaine financier, ce n'est pas possible. Vous devez avoir AMLKYC. Nous ne sommes pas nécessairement à l'aise avec le principe du peer-to-peer. Nous devons savoir à tout moment qui est la personne qui envoie l'argent et qui est le destinataire. Nous devons pouvoir dresser une liste noire, une liste blanche et débrancher le système.

Ryan :
[1:22:55] Dans le projet crypto,

Ryan :
[1:22:56] Nous disons, non, je veux dire, les transactions financières devraient se faire de pair à pair. Et d'ailleurs.

Ryan :
[1:23:02] Elles peuvent et doivent être privées.

Ryan : [1:23:02] Elles peuvent et doivent être privées :
[1:23:04] Certaines juridictions n'aiment pas non plus cet aspect. Nous avons eu de nombreuses affaires judiciaires à ce sujet. Que pensez-vous de cela, de la confidentialité financière en particulier ?

Andy :
[1:23:12] C'est une question de perspective. C'est une question de perspective. Aujourd'hui, on parle beaucoup du Venezuela. Or, le Venezuela est l'un des pays où l'adoption du bitcoin est la plus forte au monde. Et il y a trois raisons à cela. Premièrement, vous savez, l'inflation massive échappe à tout contrôle. Le gouvernement supprime toute dissidence, notamment en contrôlant les institutions financières. Et la protection de la vie privée. Il faut pouvoir faire entrer et sortir de l'argent du pays sans être détecté, sinon le gouvernement peut le taxer, le voler, l'utiliser pour vous cibler, et tout un tas de choses peuvent se produire. Il n'y a pas vraiment de différence entre la liberté et la liberté financière. Si vous n'avez pas de liberté financière, je dirais que vous n'avez pas non plus de liberté réelle. Je considère donc qu'il s'agit d'un concept similaire. Et vous avez besoin des deux. Mon point de vue est donc que nous devons avoir la liberté financière. Il n'y a pas si longtemps, nous avions de l'argent liquide pendant de nombreuses années et l'argent liquide était...

Ryan :
[1:24:18] Peut-être que ce n'est pas populaire dans le milieu de la cryptographie,

Andy :
[1:24:20] Mais je pense que l'argent liquide est l'une des meilleures technologies de protection de la vie privée.

Ryan :
[1:24:23] C'est en fait extrêmement populaire dans le milieu de la cryptographie, et nous sommes 100% d'accord.

Andy :
[1:24:27] Oui, oui. Interdire les crypto-monnaies, c'est un peu comme dire : je vais interdire l'argent liquide. Et c'est l'analogie que nous faisons. On n'interdirait jamais l'argent liquide. Ce serait inacceptable. Je pense donc que c'est un argument que nous devrions avancer dans cet espace. Et nous devrions le faire parce que c'est le bon argument, en fait.

Ryan :
[1:24:45] Je suis d'accord avec cet argument. Et je suis curieux de savoir ce que tu en penses.

Ryan :
[1:24:50] Vous êtes donc un défenseur de la vie privée, vous partagez beaucoup de valeurs avec de nombreuses personnes dans le domaine de la cryptographie en général. Quel est ton point de vue sur la cryptographie en ce moment ? J'imagine que, comme moi et beaucoup d'auditeurs, tu en vois les avantages, mais aussi les arnaques et les inconvénients. Mais quel est votre point de vue sur les crypto-monnaies en ce moment ?

Andy :
[1:25:12] Je pense que le plus grand défi dans cet espace et dans notre espace, et nous sommes aussi dans cet espace, en fait, c'est que le rapport entre le légitime et l'illégitime est incorrect.

Ryan :
[1:25:28] Oui.

Andy :
[1:25:28] Et chez Proton, nous sommes très attentifs à ce ratio. Nous savons qu'il y aura toujours des utilisations illicites de notre plateforme, mais nous devons maintenir ce ratio aussi bas que possible. Et dans notre cas, nous parlons d'une petite fraction de pour cent. Parce que, vous savez, au-delà de ce pourcentage, vous êtes entachés d'une manière qui n'est pas, vous savez, propice à la réussite future du mouvement. Et dans la cryptographie aujourd'hui, lorsque nous parlons d'utilisations illégitimes, d'escroqueries, etc. ce n'est pas une fraction de 1 %. C'est malheureusement probablement, je ne sais pas, 30 %, 40 %. C'est considérable. Et je pense que les crypto-monnaies auront toujours une limite à leur influence, à leur croissance, à leur évolutivité et à leur diffusion. Si nous, en tant que communauté, ne nous attaquons pas à ce problème. Je n'ai pas la réponse, en fait, à la question de savoir quelle est la meilleure façon de s'attaquer à ce problème. Je pense qu'il faut pour cela quelqu'un de plus intelligent que moi, qui a réfléchi plus longtemps à ce problème. Mais je pense que nous devons le faire. Si nous ne le faisons pas, nous ne le ferons pas passer dans le courant dominant. Et nous devons le faire d'une manière qui préserve nos valeurs.

Ryan :
[1:26:40] Comment faites-vous à Proton ? Est-ce qu'il s'agit d'attirer les bons éléments, plus de bons éléments, parce que les bons éléments l'emportent sur les mauvais éléments si on est capable de les amener sur la plateforme ?

Andy :
[1:26:50] Il s'agit d'attirer les bons éléments, mais aussi de bien faire comprendre que nous ne sommes pas là pour servir les mauvais éléments. C'est donc autant une question de positionnement que de technologie. Et bien sûr, vous faites tout ce que vous pouvez pour essayer de bloquer les abus. Vous essayez de trouver des modèles d'utilisation suspects, des choses qui ne semblent pas...

Ryan :
[1:27:13] Sans enfreindre vos principes.

Andy :
[1:27:15] Oui, sans briser le cryptage, vous faites ce que vous pouvez. Et puis c'est aussi réagir rapidement. Lorsque j'ai connaissance d'utilisateurs qui l'utilisent à des fins illicites, il n'y a aucune tolérance. Ils disparaissent. Je me fiche de savoir s'ils me paient ou non. C'est une violation des conditions de service. C'est une violation de la loi. Ils sont bannis de la plateforme. C'est tout. Et je pense que si vous regardez la cryptographie, il y a trop de plateformes qui ont probablement pris conscience des activités illicites qui se déroulaient sur leur plateforme.

Andy :
[1:27:46] Ces activités étaient rentables pour elles. Elles ont donc probablement toléré ces activités pendant beaucoup trop longtemps. Et cela a créé une sorte d'environnement favorable à d'autres acteurs illicites parce que

Andy :
[1:27:59] ils se sentaient en sécurité dans cet espace. Il s'agit donc de créer un environnement hostile aux acteurs qui ne sont pas favorables à la réputation et à l'image de marque à long terme de l'espace cryptographique dans son ensemble. Nous devons Peut-être appeler les escrocs pour ce qu'ils sont, au lieu de les nourrir lors de conférences sur la cryptographie. Peut-être qu'ils devraient être mis sur liste noire et ne pas être autorisés à occuper nos espaces publics et l'imagination du public. Je dis toujours que certaines des figures les plus célèbres des cryptomonnaies ont toutes des condamnations. Ce n'est pas une bonne chose, n'est-ce pas ? Certains d'entre eux disent que c'est un insigne d'honneur que nous ayons combattu le système, mais non, vous n'êtes que des criminels. Et ce n'est pas une bonne chose si l'on veut que les crypto-monnaies se généralisent. Prévoyez-vous

Ryan :
[1:28:48] D'en faire plus, Andy, avec votre portefeuille cryptographique en particulier ? Je crois que c'est un portefeuille Bitcoin pour l'instant. Évidemment, vous pourriez l'étendre à, disons, Ethereum. Vous pourriez vous lancer dans la finance décentralisée. L'un des aspects intéressants du bitcoin est qu'il n'y a pas de confidentialité sur le bitcoin. Il y a un pseudo-anonymat, bien sûr, mais si vous envoyez des données d'une adresse Bitcoin à une autre, tout est sur la chaîne. Il existe diverses organisations qui peuvent en quelque sorte exploiter les données et découvrir l'identité du portefeuille sous-jacent. Ce n'est donc pas vraiment privé. C'est du peer-to-peer. Mais en général, quand vous pensez aux produits cryptographiques chez Proton, quelle est l'idée ?

Andy :
[1:29:24] Nous croyons aussi beaucoup à la concentration au sein de l'entreprise. Je voudrais être, disons, le meilleur portefeuille Bitcoin au monde avant d'ajouter d'autres choses. Et les autres choses que nous ajouterons dépendront également de la demande de la communauté, de ce que les gens recherchent, de ce qui est essentiel. Aujourd'hui, Bitcoin est la monnaie la plus utilisée par notre communauté d'utilisateurs. Il est donc logique de le soutenir. Tout le reste n'est que très, très loin, vous savez, en deuxième ou troisième position. Nous pensons donc à notre mission, qui est de servir au mieux notre communauté. La meilleure chose à faire pour l'instant est de prendre Bitcoin et de le rendre aussi bon que possible dans notre portefeuille parce que c'est ce que la grande majorité des gens utilisent activement aujourd'hui sur Proton. Et cela pourrait changer avec le temps. Vous savez, les blockchains vont et viennent. Il n'est donc pas exclu que quelque chose de nouveau apparaisse dans quelques années et devienne très important parce qu'il possède de meilleures qualités que le bitcoin. Et peut-être qu'une grande partie de notre communauté commencera à utiliser cette nouvelle chose, et nous serons alors obligés de l'adopter parce que nous sommes ici pour servir la communauté en fin de compte. C'est ainsi que je vois les choses. Je me demande quel est le travail qui apporte le plus d'avantages et de valeur à notre communauté d'utilisateurs et ce qu'ils demandent. Il s'agit d'une prise de décision très simple, axée sur la communauté.

Ryan :
[1:30:47] Andy, passons à la pratique pour conclure. Quelqu'un qui a écouté tout ça jusqu'à présent se dit : je suis d'accord avec le principe. Je suis occupé. Comme une vie privée parfaite à l'époque actuelle. C'est impossible. C'est incroyablement difficile. Cela prend beaucoup de temps. Trop de charges mentales. Pourquoi s'en préoccuper ? Que répondez-vous à cela ? Y a-t-il un conseil que vous donneriez à une personne normale, par exemple trois à cinq choses qu'elle pourrait faire pour améliorer sa situation en matière de protection de la vie privée dès maintenant, sans que cela ne soit trop contraignant ?

Andy :
[1:31:20] Eh bien, les gens sont paresseux. Je pense donc que trois à cinq, c'est beaucoup trop, n'est-ce pas ? Peut-être devrions-nous leur en laisser une. Et celle que je donnerais est, en fait, beaucoup de gens m'ont demandé, vous savez, Proton a toujours eu la vision de faire beaucoup de choses sur l'écosystème. Pourquoi avez-vous commencé par le courrier électronique ? Intuitivement, cela n'a pas de sens parce que le courrier électronique est un moyen de communication en voie d'extinction. Cela fait 30 ans que l'on prédit la fin de l'email.

Ryan :
[1:31:46] Il existe toujours. Je suis toujours un adepte de l'email, mais je comprends que ce ne soit pas le cas de tout le monde.

Ryan :
[1:31:51] Oui.

Andy :
[1:31:52] Et vous savez quoi ? L'email sera toujours là, en fait, je le prédis pour dans 30 ans. Parce que l'email n'est pas un moyen de communication. L'e-mail est en fait une identité. C'est votre identité numérique, qui, à mon avis, est la seule identité qui compte au XXIe siècle. Et lorsque vous passez de Gmail à ProtonMail, que faites-vous en réalité ? Vous ne trouvez pas une nouvelle méthode de communication, car plus personne ne communique par courrier électronique. Même moi, je ne communique plus beaucoup par courrier électronique. Mais ce changement est incroyablement puissant, car Gmail n'est pas une messagerie, n'est-ce pas ? Gmail, c'est l'identité. C'est un état de connexion à votre compte. C'est un élément qui permet à Google de consulter vos données sur l'ensemble du web, tous les sites que vous visitez et qui utilisent Google Analytics, tous les cookies qui sont déposés sur le web, tous les fichiers que vous téléchargez, toutes les communications que vous avez, tout ce que vous faites sur Google Web, toutes les vidéos que vous regardez sur YouTube, tout cela est lié à votre compte Google. Et vous savez comment vous pouvez empêcher Google de disposer de ces informations ? Il vous suffit de vous déconnecter.

Andy :
[1:32:59] Passer de Gmail à ProtonMail revient donc à dire que je vais effacer mon identité de Google. Je peux toujours aller sur YouTube, regarder des vidéos, etc. Mais cela signifie que toutes les informations disponibles sur l'internet ne sont plus liées à un profil unique de mon identité. Et vous avez effectivement choisi de vous retirer du système Google en transférant votre identité à un autre fournisseur en qui vous avez davantage confiance. Et grâce au GDPR, c'est désormais très facile. Il s'agit d'une fonctionnalité de basculement facile. Google est tenu de vous permettre d'exporter. Vous pouvez donc aller sur un compte Proton, lier votre compte Gmail, transférer toutes vos données, en quelques clics. Je pense donc que...

Ryan :
[1:33:35] Et Google supprimera vraiment vos données ?

Andy :
[1:33:38] Eh bien, Google vous laissera tout transférer. Et ils sont également obligés par la loi européenne de supprimer vos données.

Ryan :
[1:33:43] Et la loi américaine ? Est-ce que cela s'applique aussi aux auditeurs américains ?

Andy :
[1:33:47] Je pense qu'aux Etats-Unis, ce n'est peut-être pas une obligation de la même manière, mais il y a beaucoup de lois d'état qui l'exigent. Donc Google le fait aussi aux Etats-Unis parce qu'ils y sont obligés.

Andy :
[1:33:57] Passer de Gmail à ProTemol, c'est en quelque sorte se retirer de l'écosystème Google. C'est se déconnecter de Google. Cela les empêche d'avoir un profil. Cela ne signifie pas que vous ne pouvez pas utiliser les services Google, mais si vous n'êtes pas connecté, c'est complètement différent. La vision qu'ils ont de vous est différente. Et c'est facile maintenant. Il suffit de quelques clics et le tour est joué. C'est ainsi que l'on commence. Ensuite, bien sûr, il y a toutes ces autres choses que vous pouvez faire, n'est-ce pas ? Mais c'est la principale. Je pense que la principale est de protéger votre identité et de la séparer d'un grand écosystème technologique. Vous savez, vous pouvez toujours avoir, par exemple, un vieux compte Yahoo, n'est-ce pas ? Vous savez, quand je suis chez McDonald's et qu'ils me demandent d'utiliser le Wi-Fi gratuit, je ne leur donne pas mon proton. Je vais leur donner ce Yahoo pour collecter les spams,

Ryan :
[1:34:37] C'est ça ?

Andy :
[1:34:37] Mais il y a des choses comme ça. Je pense que c'est une chose que vous faites et qui a probablement un impact immédiat. Et c'est comme ça que nous avons commencé avec l'email en 2014, dont tout le monde disait qu'il était déjà mort à l'époque, mais ce n'est pas le cas parce que c'est ton identifiant.

Ryan :
[1:34:50] Je pense que tu as tout à fait raison. Je pense que c'est un conseil en or pour tous les auditeurs de Bankless. C'est ce que j'ai fait. Je n'ai pas complètement transféré mes informations Google, mais ce qui est fantastique avec Proton, c'est qu'on peut aussi créer des alias différents. Ainsi, si vous allez au McDonald's Wi-Fi, vous pouvez créer un alias différent dans Proton et utiliser un faux alias. Il n'est donc pas lié à votre alias principal et vous pouvez créer un certain nombre d'alias. De plus, lorsque je me suis installé dans Proton, l'accent mis sur la sécurité était vraiment important. Je veux dire, nous avons beaucoup de comptes e-mail qui sont piratés dans la cryptographie pour que les gens puissent obtenir votre identité, accéder à votre échange, obtenir votre mot de passe de récupération, n'est-ce pas ? S'ils ne connaissent pas votre adresse e-mail Proton, ils ne peuvent pas l'obtenir. Et aussi, si vous vous authentifiez à deux facteurs avec des clés de passe et des clés Yuba et que vous verrouillez complètement votre email, et Proton rend cela facile à faire, vous le faites aussi de cette façon. Il est donc essentiel de verrouiller votre identité. Je pense que c'est un excellent conseil.

Andy :
[1:35:47] Andy. Et il y a quelque chose que nous avons appelé Proton Sentinel, qui est assez unique à Proton, mais nous le faisons parce que nous avons beaucoup d'activistes, de journalistes, de personnes très connues dans le domaine de la cryptographie qui utilisent Proton.

Ryan :
[1:35:55] Et c'est une façon de

Andy :
[1:35:56] Même si votre YubiKey est volée ou votre 2FA est volé et votre mot de passe est volé, si vous activez cette fonction, nous détectons toujours les connexions que nous trouvons suspectes et nous les bloquons. Cela sécurise donc pratiquement votre compte, même dans le cas où vous auriez été totalement compromis. Nous avons ajouté cette fonctionnalité à la demande des utilisateurs de cryptomonnaies sur Proton. Ils nous ont dit : "Hé, vous savez, cela arrive souvent dans notre espace. Nous avons besoin de plus de sécurité. C'est pourquoi nous l'avons construit. Il s'appelle Proton Sentinel. Et c'est, ouais, vous pouvez lire à ce sujet. C'est assez intéressant aussi. C'est fantastique.

Ryan :
[1:36:25] J'adore la pile. Et merci beaucoup pour le temps que tu nous as consacré aujourd'hui. C'était super. En terminant, j'ai une dernière question. Il semble que vous fassiez cela depuis 10 ans, n'est-ce pas ? Et Internet est arrivé

Ryan :
[1:36:35] un long chemin depuis. Aujourd'hui, nous avons l'IA et tout ce qu'elle va apporter. Peignez-nous un avenir en 2030. Peut-être un avenir où la vie privée gagne et où nous nous en sortons bien. Ou un autre avenir, peut-être plus sombre, où nous perdrons en quelque sorte ce combat et où il continuera sur la trajectoire qu'il a prise. À quoi ressemblent ces deux mondes différents ?

Andy :
[1:36:56] Eh bien, je pense que nous perdrions le combat si les grandes entreprises technologiques décidaient de s'engager dans des pratiques anticoncurrentielles, que les régulateurs ne bloquent pas, et qu'elles le faisaient pour éliminer des entreprises comme Proton et d'autres entreprises spécialisées dans la protection de la vie privée. Pour vous donner un exemple très simple, elles pourraient dire qu'elles n'autoriseront pas les entreprises de protection de la vie privée sur les magasins d'applications. Et s'ils le faisaient, parce qu'ils ne sont pas déclarés en tant que monopoles à l'heure actuelle, rien ne les empêcherait de le faire. Dans ce cas, des entreprises comme Proton ne pourraient pas exister. Je pense donc que le risque est que les grandes entreprises technologiques soient tellement enhardies par l'absence de réglementation et de surveillance gouvernementale qu'elles se mettent à faire des choses totalement injustes et flagrantes pour tuer l'espace.

Ryan :
[1:37:39] Je suppose qu'ils pourraient même acheter les régulateurs à ce moment-là. Je veux dire, ils pourraient s'impliquer dans des groupes de pression. Ils le font déjà.

Andy :
[1:37:45] Si tu regardes les États-Unis, je pense qu'ils ont déjà acheté quelques régulateurs et peut-être même quelques personnes haut placées dans le gouvernement, n'est-ce pas ? Certainement quelques sénateurs, disons. Voilà à quoi ressemble l'avenir. C'est l'avenir d'un gouvernement asservi aux grandes technologies. Les grandes technologies contrôlent notre gouvernement et notre démocratie. Et la démocratie cesse effectivement d'exister parce que les gouvernements ne travaillent plus pour les gens. Les gouvernements travaillent pour les grandes entreprises technologiques. Et pour être franc, nous nous en rapprochons dangereusement, du moins dans certains pays. Voilà pour la vision dystopique. L'alternative est que des entreprises comme Proton, et pas seulement nous, mais tout l'espace des services de protection de la vie privée, tout l'espace crypto et Bitcoin qui travaille sur la liberté financière, est que cet espace survit. Il continue à se développer et à croître. Il offre une alternative viable. Parce qu'encore une fois, il ne suffit pas d'exister.

Andy :
[1:38:45] Il faut être une alternative viable. Vous devez disposer d'un ensemble de fonctionnalités qui permette à quelqu'un de basculer de manière crédible et de ne pas être accablé par le manque de fonctionnalités et la mauvaise expérience utilisateur au point de ne pas pouvoir rester sur votre plateforme. Cela signifie donc que nous créons une expérience utilisateur suffisamment bonne dans l'ensemble de notre écosystème, pas seulement Proton, mais aussi dans l'ensemble de l'écosystème de la cryptographie et du bitcoin, afin de remplacer de manière viable la finance traditionnelle et les grandes entreprises technologiques traditionnelles. Et nous gagnerons l'argument dans l'esprit du public, dans l'espace public, où les gens comprennent que c'est le meilleur avenir et nous atteindrons probablement à ce moment-là une part de marché fructueuse. Les crypto-monnaies pourraient donc passer de moins d'un pour cent à 20 ou 30 % de l'ensemble du secteur financier. Peut-être un proton au lieu d'avoir 100 % du marché, 20 ou 30 %. Et à ce stade, c'est une échelle. Il s'agit d'une fraction viable de la population mondiale où vous disposez d'une base suffisante pour gagner à long terme, n'est-ce pas ? Si nous atteignons cette échelle, si nous dépassons le point de basculement de 50 %, c'est concevable. Voilà donc les deux voies possibles. Et le chemin que nous empruntons dépend vraiment de nous en tant qu'individus, parce que nous vivons dans le capitalisme. Même la Chine, qui prétend être un pays communiste, est aujourd'hui un pays capitaliste.

Andy :
[1:40:03] Et la force la plus puissante du capitalisme, c'est vous. C'est le consommateur individuel qui fait les bons choix, qui oriente l'avenir économique, technique et politique de nos sociétés en fonction des choix que nous faisons chaque jour dans notre consommation quotidienne de services. Et si nous faisons les bons choix maintenant, nous pourrons les faire dans les cinq prochaines années,

Andy :
[1:40:22] Alors nous engagerons le monde sur une voie différente. Et, vous savez, je suppose que la note positive sur laquelle nous pouvons terminer est, oui, cela semble déprimant. Cela semble effrayant. Cela semble très difficile, mais en fait nous avons le pouvoir et nous pouvons le faire si nous le voulons.

Ryan :
[1:40:37] J'adore ça. C'est la meilleure façon de terminer. Andy, merci beaucoup de nous avoir rejoints aujourd'hui.

Andy :
[1:40:41] Oui, merci de m'avoir invité. Ce fut un réel plaisir et j'espère revenir un jour pour partager d'autres réflexions.

Ryan :
[1:40:46] Absolument. Les gars, je dois vous dire que, bien sûr, rien de tout cela n'est un conseil financier, bien que, avec quelques conseils fantastiques sur la vie privée, nous nous dirigeons vers l'ouest. C'est la frontière. Ce n'est pas pour tout le monde, mais nous sommes heureux que vous soyez avec nous dans ce voyage sans banque. Merci beaucoup.

No Responses
Rechercher sur Bankless