HU are responsible
À l’heure de l’intelligence artificielle, la seule question qui compte est peut-être celle que vous n’avez pas encore osé vous poser.
Il y a une scène, dans le documentaire The AI Doc: Or How I Became an Apocaloptimist (2026), qui résume à elle seule le problème. Le réalisateur Daniel Roher, futur père anxieux, s’assoit en face des PDG d’OpenAI, d’Anthropic, de DeepMind. Il leur pose les questions les plus simples du monde : qu’est-ce que l’IA ? Est-ce bien ? Est-ce dangereux ? Comment s’y préparer ? Et pendant une heure quarante-quatre, ce sont eux qui répondent. Eux qui expliquent. Eux qui rassurent ou qui alarment, selon leur tempérament du moment.
Ce cadrage dit quelque chose d’essentiel : nous avons collectivement accepté que les constructeurs soient les sages. Que ceux qui bâtissent la technologie soient les mieux placés pour en définir les contours éthiques, les limites, la trajectoire. C’est une erreur de perspective. Non pas parce que ces gens seraient mauvais, mais parce que leurs structures les en empêchent. Une entreprise dont la valorisation repose sur la croissance de l’usage ne peut pas, structurellement, conseiller la sobriété. Un modèle économique fondé sur la captation d’attention ne peut pas, structurellement, recommander la déconnexion. Ce ne sont pas des accusations. C’est de la mécanique.
La tentation du spectateur
Regarder ce documentaire depuis son canapé, c’est confortable. On observe des gens très intelligents débattre de l’avenir de l’humanité. On s’inquiète un peu. On se dit que « quelqu’un devrait faire quelque chose ». Et on ferme l’écran.
Mais ce réflexe de spectateur est précisément ce que la situation ne peut plus se permettre. L’histoire de l’internet nous l’a déjà enseigné, douloureusement : nous avons confié nos données, notre attention, nos relations sociales, notre mémoire collective à des plateformes dont le seul vrai produit était nous-mêmes. Nous l’avons fait par confort, par ignorance, par manque d’alternatives perçues. Le résultat est visible : une poignée d’entreprises contrôle désormais une part considérable de ce que nous pensons, de ce que nous voyons, de ce que nous désirons.
L’IA générative est une accélération de ce mouvement, pas une rupture avec lui. La différence, c’est que cette fois nous lui confions non plus nos clics et nos « j’aime », mais nos questions les plus intimes, nos doutes, nos projets, nos documents confidentiels. Ce que nous ne disons à presque personne, nous le soufflons à une interface dont nous ne savons pas grand-chose.
Il existe pourtant des alternatives
C’est ici que le tableau mérite d’être nuancé, et que deux exemples suisses méritent d’être cités.
Proton, la société genevoise connue pour ProtonMail, a lancé en 2025 Lumo, un assistant d’IA fondé sur un principe simple : vos conversations ne servent pas à vous profiler, ne partent pas à l’étranger, ne sont pas vendues. Le chiffrement est dit « zéro accès », ce qui signifie que même Proton ne peut pas lire vos échanges. Le code est open source, vérifiable. La posture du PDG Andy Yen est tranchée : « L’IA ne doit pas devenir l’outil de surveillance le plus puissant du monde. »
Infomaniak, un autre hébergeur suisse, a lancé fin 2025 Euria, une IA souveraine dont l’infrastructure ajoute une dimension supplémentaire. Le datacenter D4 de Genève qui fait tourner Euria récupère intégralement la chaleur produite par ses serveurs, la porte à plus de 67 degrés via des pompes à chaleur industrielles, et l’injecte dans le réseau de chauffage urbain de la ville, géré par les Services Industriels de Genève. À pleine charge, ce dispositif permettrait de chauffer quelque 6 000 logements en hiver et d’éviter la combustion d’environ 3 600 tonnes de CO2 de gaz naturel par an. Utiliser Euria, c’est littéralement chauffer le salon de quelqu’un.
Ces deux exemples ne sont pas parfaits. Euria repose notamment sur des modèles open source chinois, ce qui soulève des questions de souveraineté réelle que leurs concepteurs eux-mêmes ne devraient pas éluder. Mais ils démontrent quelque chose d’important : une autre conception est possible. Sobre, circulaire, respectueuse. Elle existe. Elle est accessible. Elle n’attend que d’être choisie.
HU are responsible
Ce jeu de mots n’est pas anodin. You are responsible. Mais le « you » commence par « HU », comme human. Comme si la responsabilité et l’humanité étaient inséparables, ce qui est exactement la thèse de cet article.
Devenir plus humain, ici, ne veut pas dire rejeter la technologie. Cela veut dire refuser de la subir. Cela veut dire reprendre le fil de quelques questions simples :
- de quoi cet outil a-t-il besoin pour fonctionner ?
- Qui en bénéficie réellement ?
- Qu’est-ce que j’y dépose, et que devient ce dépôt?
Ces questions ne requièrent aucune compétence technique. Elles requièrent ce qu’Hannah Arendt appelait simplement « penser », c’est-à-dire ne pas déléguer son jugement.
La tragédie possible que l’IA porte en elle — énergétique, démocratique, sécuritaire — ne sera pas uniquement le fait de quelques dirigeants de la Silicon Valley. Elle sera aussi le fait de milliards de gens qui ont utilisé ces outils sans y réfléchir, qui ont nourri ces modèles de leurs pensées les plus intimes sans en comprendre les implications, qui ont regardé le spectacle sans jamais se demander de quel côté de la scène ils se trouvaient.
L’alternative existe. Elle se construit à la marge, notamment en Suisse, dans des laboratoires universitaires, dans des collectifs de développeurs qui croient encore qu’un outil peut servir son utilisateur plutôt que l’inverse. Mais cette alternative ne se déploiera que si les gens la demandent, la choisissent, et comprennent pourquoi.
Ce n’est pas une question politique. C’est une question de conscience.
Et la conscience, personne d’autre que vous ne peut l’exercer à votre place.
Ressources mentionnées :
- The AI Doc: Or How I Became an Apocaloptimist, documentaire de Daniel Roher et Charlie Tyrell, 2026
- Euria, assistant IA d’Infomaniak : euria.infomaniak.com
- Lumo, assistant IA de Proton : lumo.proton.me

