PLAY PODCASTS
XY Magazine

XY Magazine

54 episodes — Page 1 of 2

Votre prochain recruteur sera peut-être une IA avec MIIKAA

May 9, 202619 min

L'euro numérique arrive dans votre smartphone

May 2, 20269 min

Jade ROUBY entrepreneuse de 23 ans qui créée FEROCE AI

Apr 25, 202619 min

Recontre avec Alix ROY cofondateur de MEETABLE

Apr 18, 202622 min

La vraie révolution de l'intelligence artificielle n'est plus dans le Cloud, mais dans votre poche

La vraie révolution n’est plus dans le Cloud, mais dans votre poche Par Régis BAUDOUIN « Désolé, je n’ai pas de connexion internet. » Cette phrase, qui rendait vos assistants “intelligents” totalement inutiles en zone blanche ou dans les transports appartient désormais au passé. En ce mois d’avril 2026, la tendance s’inverse radicalement : les géants de la tech et les champions de l’Open Source ne jurent plus que par les SLM (Small Language Models). Ces modèles réduits, capables de prouesses comparables aux géants de 2024, mais tournant à 100 % localement sur votre smartphone ou votre PC, marquent la fin de la dépendance aux data centers énergivores. Bienvenue dans l’ère de l’Intelligence artificielle souveraine par défaut. En clair fini l’exigence de disposer d’un carte graphique GPU pour héberger une Intelligence artificielle, un smartphone va suffire. C’est un mouvement de fond important. Pour le décideur, cette démesure des modèles LLM s’accompagne d’une “taxe sur l’inefficacité” de plus en plus lourde : factures cloud opaques, latence incompatible avec l’expérience utilisateur et risques persistants sur la souveraineté des données. Nous assistons bien aujourd’hui à un basculement stratégique : le passage vers l’Intelligence artificielle utilitaire. Les Small Language Models (SLM) ne sont pas de simples versions “dégradées” des géants ; ils représentent une réponse agile, souveraine et économiquement viable aux besoins réels des entreprises. L’intelligence ne se mesure plus au volume de données ingurgitées, mais à l’efficacité du résultat produit. Qu’est-ce qu’un SLM ? Depuis trois ans, la course à l’Intelligence artificielle s’est résumée à une démesure de paramètres. Plus le modèle était gros (LLM – Large Language Models), plus il semblait intelligent. Mais cette approche a atteint ses limites : coût écologique désastreux, latence et surtout, une opacité totale sur le traitement des données. La rupture de 2026 s’appelle le SLM. Grâce à des techniques de “quantification” (une compression mathématique de pointe) et à l’émergence des puces NPU (Neural Processing Unit) intégrées dans nos processeurs, un modèle de 3 à 7 milliards de paramètres peut désormais raisonner aussi bien que GPT-4. La différence ? Il pèse quelques gigas et réside physiquement dans le processeur de votre appareil. L’intelligence ne voyage plus sur le réseau ; elle habite votre machine. A propos des NPU, ils sont maintenant intégrés aux derniers processeurs Intel et la rumeur veut que le prochain Windows 12 exige des NPU pour fonctionner. L’idée qu’un modèle plus petit est nécessairement moins intelligent est un mythe qui s’effondre. En se concentrant sur moins de 10 milliards de paramètres, des modèles comme Phi-3.5 Mini (3,8B), Llama 3.1 8B ou Mistral Nemo 12B rivalisent avec les mastodontes sur des tâches métier précises. La force d’un modèle comme Phi-3.5 réside notamment dans sa capacité à gérer un contexte long de 128 000 tokens, le rendant idéal pour l’analyse de documents juridiques ou techniques complexes. La véritable rupture réside dans le duo gagnant : Petit moteur + Grande bibliothèque. Grâce au RAG (Retrieval Augmented Generation) et aux bases de données vectorielles, un SLM n’a plus besoin de “tout savoir”. Il utilise sa capacité de raisonnement pour interroger en temps réel les documents internes de l’entreprise. Cette approche élimine le besoin de réentraînements coûteux, réduit drastiquement les hallucinations et garantit que l’Intelligence artificielle parle la langue de votre expertise. Le point clé est de connecter ces SML sur vos données et pas sur la totalité de du contenu d’internet. Vous être plus pertinent et les réponses sont propres à vos données passées sasn risque des les faire fuiter. Le triple dividende : Souveraineté, Écologie, Vitesse Le passage au local n’est pas qu’une prouesse technique, c’est un acte politique et stratégique pour l’utilisateur. Quels sont les bénéfice de cette évolution de modèle d’Intelligence artificielle? Souveraineté et Vie Privée : C’est l’argument massue. Puisque la donnée ne quitte jamais votre appareil, le risque d’espionnage industriel via le Cloud Act américain est fortement réduit. C’est enfin une Intelligence artificielle compatible avec le secret professionnel, le secret médical et la vie privée la plus stricte. Ca c’est sur le papier. En réalité les services sont liées à leurs fournisseurs car certains traitements nécessitent d’interroger une base distante. Sobriété Énergétique : Selon les derniers rapports de l’Arcep (2025/2026), interroger une Intelligence artificielle locale consomme jusqu’à 100 fois moins d&#8217

Apr 11, 2026

Votre banque va-t-elle limiter vos achats

L’ère du score carbone personnel : Quand votre banquier devient votre conscience Par Régis BAUDOUIN « Transaction refusée : Quota carbone mensuel atteint. » Imaginez la scène : vous êtes à la caisse, votre solde bancaire est largement positif, mais votre paiement est bloqué. Ce n’est pas une panne réseau, ni un oubli de code. C’est l’intelligence artificielle de votre banque qui vient de juger votre empreinte écologique trop lourde pour ce mois-ci. Ce scénario, digne d’un épisode de Black Mirror, n’est plus une fiction dystopique. En ce printemps 2026, plusieurs néo-banques européennes et géants du paiement testent le “blocage vert” : une fonctionnalité qui lie votre plafond de dépenses à l’empreinte carbone de vos achats. Entre incitation vertueuse et crédit social déguisé, XY Magazine décrypte cette nouvelle frontière du contrôle numérique. BNP Paribas propose un bilan carbone individuel pour le mesurer et le réduire. Mais si vous ne le faites pas. Peut-il bloquer certaines dépenses ? exemple du reportions BNP Ce service de plafond carbone existe aussi avec Helios une néo banque française qui propose des cartes visa associées à une compteur de carbone. Le mécanisme du Plafond Carbone : De la donnée au contrôle Jusqu’à présent, vos données de transaction servaient principalement à vous profiler pour vous soumettre des offres ciblées. Aujourd’hui, la finalité change : il s’agit de piloter votre comportement. Pour limiter vos dépenses et votre consommations, les banques ont pris l’angle bilan carbone. On peut le considérer comme positif au regard de l’enjeu climatique. L’analyse automatique “Vert vs Brun” Grâce à l’IA et aux normes ISO de reporting extra-financier 2026, votre banque catégorise désormais chaque dépense. Ce traçage est facilité par l’ADEME, qui a poussé l’étiquetage environnemental sur presque tous les produits de consommation. Votre banque sait donc, en temps réel, si votre achat est “vert” ou “brun”. Le Nudging : L’incitation qui murmure à votre oreille Cela commence doucement par des notifications : « Cet achat de billet d’avion représente 40 % de votre budget annuel » C’est le Nudging. Mais une question demeure : qui définit l’étalon du “bien” et du “mal” écologique ? On le voit bien avec la SNCF qui le fait pour chaque voyage. On se dit bien que un jour on pourra agir sur cet indicateur au niveau des droit fondamentaux. La question du référentiel de ce qui est bien ou pas sera un point clé de la restriction des libertés. Cela va se faire par la loi. C’est déjà le cas avec les taxes sur les voitures pour inciter à acquérir une technologie electrique. Le Plafond Dynamique : La liberté sous conditions La nouveauté de 2026, c’est l’apparition de comptes bancaires “engagés”. L’utilisateur accepte volontairement — souvent en échange d’une réduction de frais — un blocage réel au-delà d’un certain seuil d’émissions. Helios, la néo-banque française, propose déjà des cartes Visa associées à un compteur carbone. Bilan carbone En Suède, la Carte DO de Doconomy permet de choisir un montant carbone à ne pas dépasser. Mais que se passe-t-il si ce choix, aujourd’hui individuel, devient imposé par la banque ou un organisme externe ? Pourquoi mesurer, si un jour, ce n’est pas pour réduire. Enjeux de souveraineté et dérive vers le “Crédit Social” Le rôle historique d’une banque est de sécuriser vos dépôts et d’octroyer des financements. Est-il de suivre vos habitudes alimentaires ou vos modes de chauffage ? L’outil de surveillance totale : En analysant le Carbone, la banque accède à une radiographie complète de votre mode de vie. C’est une mine d’or pour le profilage qui dépasse largement l’objet social bancaire. Le risque du score de crédit : À quand un taux de crédit immobilier indexé sur votre score carbone ? Les assureurs et banquiers y voient déjà un moyen de calculer le « risque de transition » de leurs clients. Un mauvais bilan carbone pourrait demain signifier un emprunt plus cher. On peut aussi basculer sur le crédit social comme en Chine qui donne ou retire des droits en fonction de ses actions. L’IA de confiance en question : Comment vérifier la transparence de l’algorithme qui calcule votre impact ? Un bug ou un biais dans la base de données de l’ADEME pourrait restreindre vos droits fondamentaux sans recours simple. Conclusion : Conscience ou contrainte ? Ce qui commence de manière ludique — comme l’affichage carbone de la SNCF pour chaque voyage — glisse inexorablement vers une régulation des droits individuels. Sous couvert de survie climatique, pourrons-nous demain interdire des voyages ou des dépenses essentielles ? Qui va décider comment gérer les exceptions. La CNIL veille, mais la pression de l’urgence écologique est

Apr 4, 20269 min

Microsoft 365 sous pression

« On ne peut pas quitter Microsoft. » Cette phrase, entendue dans toutes les DSI depuis dix ans, est en train de devenir obsolète. Entre une hausse des tarifs de 25 % à 30% en deux ans sous prétexte d’IA et une pression juridique sans précédent (commission d’enquête parlementaire de mars 2026, directive NIS2, circulaire ministérielle), l’alternative souveraine n’est plus un choix militant, c’est une stratégie de survie pour les entreprises. Pourquoi le vent tourne en 2026 Plusieurs éléments contribuent à ce changement d’attitude vis à vis de Microsoft mais aussi de tous les éditeurs qui La “Taxe IA” : Microsoft a généralisé ses hausses de prix en injectant Copilot par défaut. Pour beaucoup d’entreprises, payer pour une IA qu’elles n’utilisent qu’à 10 % devient inacceptable. D’autant que le constat est fait que d’autres modules ne sont jamais utilisés. Le piège du Cloud Act : Malgré les promesses de résidence des données en Europe, l’ambiguïté juridique demeure. La commission parlementaire présidée par Cyrielle Chatelain (mars 2026) pointe du doigt la vulnérabilité des secteurs critiques (santé, éducation). L’effet de masse : Le Health Data Hub a officiellement amorcé son retrait des services Microsoft. Quand le “paquebot” de l’État bouge, tout l’écosystème suit. A cela s’ajoute un contexte international anxiogène. Les USA jouent leur propre partition laissant leurs alliées historiques de coté. La position de la France est désormais sans ambiguïté. Le Directeur interministériel du numérique (DINUM) a acté que Microsoft 365 est “non conforme” à la doctrine “Cloud au centre”. De fait, la solution est exclue du label “Cloud de confiance“, réservé aux infrastructures protégeant les données contre les lois extraterritoriales. Qui sont les challengers ? On ne cherche plus “le Microsoft français” (qui n’existe pas en un seul bloc), mais un assemblage de briques de solution françaises ou européennes. Les caractéristiques sont les suivantes. Une offre cloud souveraine (Secnumcloud), des modules open source ou totalement libres. L’inconvénient par rapport aux solution des acteurs en place est l’effet patchwork. En réalité, les besoin sont simples : une solution collaborative, un traitement de texte, un tableur, une base de données, un messagerie, une solution de visio. Avec cela on peut travailler dans presque tous les domaines. Quand on regarde la marché présente beaucoup d’alternatives. La Suite Collaborative : Jamespot (TeamWork) et Wimi s’imposent comme les alternatives les plus matures pour la gestion de projet et la communication, mais il existe aussi des solution installées et auto hébergeables comme Nextcloud et mes amis de Div Protocol. La Bureautique : Le couple OnlyOffice ou Collabora Online intégré à des solutions comme eXo Platform ou Nextcloud offre désormais une compatibilité .docx quasi parfaite. Le Cloud de Confiance : L’arrivée de S3NS (Thales/Google) et de Bleu (Orange/Capgemini/Microsoft) qualifiés SecNumCloud crée une zone “hybride” pour ceux qui veulent la puissance des outils US sans le risque juridique. Le seul vrai hyperscaler Secnumcloud et français c’est OVHcloud. Une méconnaissance persistante laisse croire que la localisation physique des serveurs sur le sol européen suffit à garantir la protection des données. En tant qu’expert, je dois marteler cette vérité : la souveraineté n’est pas une question de géographie, mais de juridiction. Un fournisseur dont le siège social est hors de l’Union européenne demeure structurellement soumis à sa législation d’origine, créant un conflit insoluble avec le RGPD. Le CLOUD Act américain permet aux autorités d’outre-Atlantique d’exiger l’accès aux données, indépendamment de leur lieu de stockage. Ce risque n’est plus théorique : l’arrêt Schrems II de la CJUE et l’amende record de 1,2 milliard d’euros infligée à Meta en 2025 pour transferts illégaux soulignent la responsabilité financière et juridique colossale qui pèse sur les dirigeants. “Même lorsque les données sont stockées dans des centres européens, un fournisseur basé hors UE peut rester soumis à une législation étrangère (comme le Cloud Act américain).” La stratégie de la “Migration Invisible” Quitter Microsoft ne se fait pas en un week-end. Les entreprises qui réussissent en 2026 adoptent une approche hybride : Auditer la dépendance : Seuls 16 % des entreprises analysent réellement leurs flux de données (Baromètre EY/Hexatrust 2025). Auditer également des documents et process qui sont basés sur des technologies propriétaires (macro Excel, tableaux croisées et liées entre eux, workflow) Basculer par domaine: Garder Excel pour les finan

Mar 28, 202613 min

DIV PROTOCOL, Gaspard BONNOT nous parle de souveraineté

DIV PROTOCOL : le service qui veut hacker l’hégémonie du Cloud américain Aujourd’hui, à 19 ans, Gaspard BONNOT s’attaque aux titans du Cloud. Avec sa start-up DIV Protocol, il défie Amazon, Google et Microsoft sur le terrain le plus brûlant : la souveraineté des données. À l’heure où les fleurons industriels français livrent toujours leurs secrets aux serveurs d’outre-Atlantique, ce jeune prodige propose une rupture technologique radicale pour reprendre le contrôle de vos données et les partager en toute sécurité et en toute souveraineté. Quand l’entrepreneuriat court-circuite le lycée Le parcours de Gaspard BONNOT est le reflet d’une génération qui ne demande plus la permission pour bâtir. Tout débute à 15 ans quand il convainc son père d’utiliser un compte sur Binance. L’effondrement des marchés et l’explosion des NFT en 2021 ne sont pas pour lui des jeux spéculatifs, mais des cas d’école. En observant l’engouement pour les “images de singes”, il perçoit une vérité sous-jacente : si l’on peut sécuriser une image de collection, on peut sécuriser des données vitales. C’est l’idée qui fait germer en Gaspard le projet de DIV PROTOCOL. L’aventure DIV PROTOCOL prend racine dans une chambre d’internat, avec son complice Solane. Le projet prend forme entre les murs de l’internat du lycée, loin des incubateurs parisiens. L’apprentissage est rapide pour passer d’une bande de “copains de chambrée” à celui de dirigeants d’une équipe de six cofondateurs et d’ingénieurs. Ce passage exige expérimentés a exigé une mue brutale. L’amitié et le business ce n’est pas toujours possible. Gaspard BONNOT a dû apprendre à s’entourer, remplaçant des amis par des profils matures pour répondre à la complexité d’un protocole de cybersécurité. Cette trajectoire souligne une maturité stratégique : l’agilité des “digital natives” couplée à une rigueur industrielle nécessaire pour délivrer une solution industrielle et sure. La souveraineté par la preuve cryptographique En France, le terme “souveraineté” est souvent galvaudé, réduit à une simple affirmation de stockage des données en France. Gaspard BONNOT dénonce ce “marketing de la souveraineté” qui endort les entreprises. Installer des serveurs sur le sol français ne sert à rien si les clés de chiffrement restent accessibles à un prestataire soumis au US Cloud Act ou à d’autres législations extraterritoriales. “Avoir des datacenters en France, ça ne suffit pas à être souverain. Nous avons poussé la souveraineté via les clés de chiffrement : nous n’en possédons aucune, nous les rendons toutes aux clients.” L’engagement de DIV PROTOCOL est très fort. Ce changement de paradigme est essentiel. En garantissant que le fournisseur n’a techniquement aucun moyen d’accéder au contenu, DIV PROTOCOL propose une résilience infrastructurelle totale. Contrairement aux initiatives comme Gaia-X qui se sont enlisées dans des compromis politiques, la démarche de Gaspar est une réponse technique pure : l’agnosticisme technologique. En rendant le client maître de ses clés, il transforme la souveraineté d’un concept politique flou en une réalité cryptographique inviolable. La blockchain réhabilitée Loin des fantasmes de la “crypto-sphère”, DIV PROTOCOL utilise la blockchain comme une solution industrielle. Ici, pas de jetons volatils, mais un usage structurel de l’immutabilité pour stocker les métadonnées (logs de connexion, adresses IP, horodatage). Cette approche redonne ses lettres de noblesse à une technologie souvent décrédibilisée. En cas de contentieux, l’entreprise peut prouver, de manière infalsifiable, l’état exact d’une donnée à un instant T. C’est un atout juridique majeur : la traçabilité devient une preuve irréfutable. Pour les professions réglementées, c’est la fin du doute sur l’intégrité des documents partagés. Cette utilisation “sérieuse” de la blockchain démontre que la valeur réelle de cette technologie réside dans la confiance numérique qu’elle génère, et non dans la spéculation qu’elle a pu alimenter. La solution pour des professions sensibles Plutôt que de s’épuiser dans une guerre frontale contre iCloud ou Dropbox pour le grand public, Gaspard BONNOT a opté pour une stratégie chirurgicale : cibler les niches B2B à haute exigence déontologique. Le choix des cabinets d’avocats comme premier marché est un coup de maître stratégique. Les structures de 1 à 20 collaborateurs offrent des cycles de vente courts tout en ayant un besoin vital de confidentialité. En signant plusieurs dizaines de cabinets en seulement quatre semaines, DIV PROTOCOL valide son modèle. Cette adoption par les professions juridiques agit comme une certificat

Mar 14, 202614 min

Stratégie cyber des USA

La Stratégie cyber des USA a été mise à jour ce mois-ci (Mars 2026) dans un document que l’on peut consulter en ligne sur le site de la Maison Blanche. C’est un document attendu car Le Président TRUMP a beaucoup évolué sur ce sujet de la cyber sécurité. Une rupture de la nouvelle Stratégie cyber américaine en 5 points Une stratégie cyber qui marque une rupture brutale avec la timidité des administrations précédentes. Là où les politiques passées se contentaient de mesures partielles et des ambiguïtés stratégiques, la doctrine Trump de mars 2026 affirme une volonté de domination totale. cyber sécurité Le cyberespace est né en Amérique ; cette nouvelle vision pose un jalon historique pour garantir qu’il reste sous influence américaine, transformant ce domaine immatériel en un pilier de la puissance nationale pour les siècles à venir. Déploiement des puissances non cinétiques Le premier point de rupture réside dans la transition radicale de la simple “défense” contre la menace cyber vers une “perturbation proactive” donc une posture offensive. La stratégie ne se contente plus de fortifier des frontières numériques ; elle vise l’oblitération pure et simple des capacités adverses. Les exemples cités sont sans équivoque : le soutien à l’oblitération de l’infrastructure nucléaire iranienne et l’opération ayant aveuglé les réseaux du narco-terroriste Nicolas Maduro lors de sa capture. Ces opérations démontrent une maîtrise technologique inégalée. Ce recours aux “puissances non cinétiques” redéfinit la souveraineté numérique par la dissuasion et par l’action. “Nos guerriers du cyberespace travaillent chaque jour pour s’assurer que quiconque chercherait à nuire à l’Amérique paiera le prix le plus lourd et le plus terrible.” tel que rédigé dans le document. Ce sont des affirmation que l’on peut voir habituellement dans les doctrines de dissuasion nucléaires. Cette doctrine ne laisse plus de zone de confort aux ennemis de l’Amérique : il s’agit de démanteler les réseaux et de priver les adversaires de tout refuge numérique. L’IA “Agentique” et le bouclier Post-Quantique La stratégie cyber introduit l’IA “agentique” comme fer de lance de la défense à l’échelle. L’objectif est de surpasser les adversaires qui saturent le domaine avec des technologies de surveillance et de censure à bas coût. On pense ici à la Chine, L’iran, la Russie. L’administration mise sur des outils autonomes capables de détecter, détourner et tromper les acteurs menaçants en temps réel. Cette supériorité repose sur la sécurisation du “socle technologique de l’IA” (AI technology stack), des centres de données jusqu’aux modèles de langage. Parallèlement, la stratégie impose une transition vers la cryptographie post-quantique pour moderniser les réseaux fédéraux. En anticipant la menace des calculateurs quantiques, les États-Unis transforment leur infrastructure en une forteresse imprenable, garantissant que l’innovation américaine demeure le standard mondial de sécurité. Le bon sens comme moteur d’agilité La stratégie lance une attaque frontale contre les réglementations obsolètes, qualifiées de “listes de contrôle coûteuses” qui freinent la préparation et la réponse. Le document prône une réglementation basée sur le bon sens (“Common Sense Regulation”) pour libérer le secteur privé du fardeau de la conformité inutile. Cette notion est très TRUMP dans le texte. Clairement c’est dangereux. Le bon sens doit être défini par la stratégie et pas par son intuition. Actuellement, le président TRUMP a déclaré via sa porte parole qu’il a déclenché les opérations de guerre contre l’Iran par bon sens. Il avait le sentiment que l’Iran allait attaquer en premier. Aucune preuve ne l’atteste. Le gouvernement doit changer de rôle : de frein bureaucratique, il devient la fondation de la sécurité nationale. L’idée est de permettre aux entreprises d’innover à la “vitesse des menaces”. Ce compromis assumé entre dérégulation et résilience postule que l’agilité industrielle est l’arme la plus efficace contre des adversaires étatiques rigides. En simplifiant les normes et en modernisant les systèmes fédéraux, l’État s’aligne enfin sur le rythme du secteur privé. Cette déduction est tirée de la lecture du rapport. Neutraliser le “financement de sortie” La capture de 15 milliards de dollars issus de réseaux criminels n’est que le début d’une reconquête financière des cybers transaction illégales. La stratégie place la sécurisation des crypto-monnaies et de la blockchain au cœur de la sécurité nationale. L’innovation ne se limite plus au code, elle s’étend à la neutralisation du modèle économique du cybercrime et du trafic qui l

Mar 14, 202610 min

Interview de Thomas MARCELLE créateur de NAANO

Interview de Thomas MARCELLE créateur de NAANO Cette semaine nous faisons connaissance avec Thomas MARCELLE, jeune entrepreneur qui a créé la plateforme d’influence NAANO qui met en relation des entreprises avec des créateurs de contenus sur la plateforme linkedin. De l’entrepôt-chambre à LinkedIn L’entrepreneuriat, pour la Gen Z, n’est pas une carrière, c’est un terrain de jeu. À 15 ans, quand ses pairs révisent le brevet, Thomas manipule déjà du coton bio et du polyester recyclé. Sa première marque de vêtements, née d’une impulsion post-confinement, transforme rapidement sa chambre d’adolescent en un entrepôt saturé de stocks. Depuis, Thomas MARCELLE a connu d’autres expériences à l’étranger. Il revient en France et lance son projet actuel, Naano, Thomas est saisissant de maturité d’autant que cette aventure est menée en même temps qu’il reste salarié de son employeur actuel qui l’aide avec du mentoring. #NAANO En résumé, Thomas est passé de la logistique physique encombrante à l’architecture d’une plateforme digitale : l’expertise sur LinkedIn. Mais au-delà de l’anecdote, une problématique centrale demeure : comment convertir une présence sociale organique en une machine de guerre B2B, capable de rassurer les décideurs tout en restant fidélisant une communauté de créateurs de contenus. L’entrepreneuriat comme terrain de jeu Du textile, Thomas pivote vers la tech durant ses études en Angleterre en développant une IA capable d’analyser les pitch decks pour les fonds de Venture Capital. Ce projet ne sera jamais monétisé, mais il devient son meilleur atout : un “Credibility Hack”. Le bruit généré sur LinkedIn attire l’attention de Fundora, où il décroche un stage transformé aujourd’hui en emploi. Chez Fundora, il s’entoure de mentors comme Bradley LAFOND, Benoit FERON, et Alan HUET. Ils le challengent sur ses modèles et son marketing. “Créateur” vs “Influenceur” : la bataille de la légitimité réelle Dans l’univers du B2B, le terme “influenceur” est souvent synonyme de vanity metrics et de risques d’image. Thomas et ses associés ont tranché : ils ne recrutent que des créateurs de contenus. L’entreprise est bien sur le marché de l’influence, mais l’approche de Naano veut rester qualitative. La nuance est fondamentale. Là où l’influenceur cherche la masse, le créateur de Naano cherche l’expertise. La plateforme mise sur des micro-profils, souvent loin des dizaines de milliers d’abonnés, mais possédant une expertise sectorielle indiscutable. Pour une entreprise cliente, la valeur ne réside pas dans la portée globale, mais dans l’alchimie entre le savoir-faire du créateur et le produit promu. C’est le passage du marketing de l’apparence au marketing de la compétence. Le modèle économique d’une croissance maitrisée À l’heure où l’écosystème startup redécouvre la vertu de la rentabilité, Naano fait figure d’élève modèle. En refusant de lever des fonds prématurément, l’équipe a bâti un modèle économique axé sur l’efficacité financière avec un modèle économique qui ne brule pas de cash. Les clients paient un abonnement d’avance et les créateurs sont rémunérés au résultat. Coté trésorerie, l’impact est positif dès les premiers mois. Ce système permet à Naano d’encaisser le chiffre d’affaires dès le premier jour, finançant son propre développement sans dilution. « Pas besoin de lever pour l’instant », affirme Thomas avec le calme de celui qui maîtrise sa trésorerie. L’alchimie d’une équipe L’équipe de Naano n’est pas née d’une amitié de lycée, mais d’une convergence de compétences brutes rencontrées sur le terrain . Justine NAMOUR ( la CTO et associée) assure la solidité de la plateforme tech ; Alexis JARRE apporte son expertise algorithmique LinkedIn et sa vision marketing ; et Thomas MARCELLE pilote la stratégie et les opérations. L’origine de l’équipe est purement organique : un message LinkedIn d’Alexis JARRE à Thomas, suivi d’un café. Justine NAMOUR, amie d’Alexis avant l’aventure, est venue compléter ce trio où la confrontation d’idées est la norme. L’équipe s’étoffe désormais avec l’arrivée de nouvelles compétences prouvant que la structure passe de l’artisanat à l’échelle industrielle. Conclusion : la fin du marketing traditionnel ? En professionnalisant la micro-influence LinkedIn, Naano donne de la valeur aux posts experts. L’authenticité est un métrique de performance. Thomas et son équipe ont compris que dans un monde saturé de messages automatisés, seule l’expertise humaine, tracée et rémunérée au résultat, possède encore une valeur de conversion. Les profils des créateurs de Naano sont de vrais profils avec un vrai réseau L’ascension de Naano prouve que les barrières à l’entrée s’effacent deva

Mar 7, 202616 min

Souveraineté numérique 2026 : Pourquoi tout est en train de basculer

Souveraineté numérique 2026 et ce que cela change pour vous Le réveil technologique de l’Europe Le 13 janvier 2026, devant la Commission des affaires économiques de l’Assemblée nationale, Anne Le Hénanff, ministre déléguée chargée de l’IA et du numérique, a posé un diagnostic lucide : l’Europe ne peut plus se contenter d’être une « colonie numérique ». Depuis le Sommet de Berlin du 18 novembre 2025, la doctrine a pivoté. Le numérique n’est plus un simple support technique, mais un « champ de compétition, de contestation et de confrontation » où se joue notre autonomie stratégique. Les USA ont ouvert les hostilités et maintenant il faut réagir. L’Europe ne peut plus utiliser des solutions qui ne respectent pas nos règles et qui sont surtout soumises à des législations antagonistes à ces règles. La souveraineté n’est plus un débat théorique ; c’est une architecture de puissance que la France et l’Europe construisent désormais pour maîtriser leur destin. De la protection juridique à la « Souveraineté par le Design » L’ère de la protection a posteriori (type RGPD) s’efface devant la Souveraineté par le Design. L’objectif est de graver l’indépendance dès la conception des services pour garantir une immunité réelle face aux ingérences étrangères. #image_title Pour rompre avec la dépendance aux licences ARM ou aux processeurs NVIDIA, l’effort se concentre sur l’architecture RISC-V. Ce standard open-source permet de concevoir des puces dont chaque transistor est auditable, éliminant ainsi les risques de « backdoors » physiques. Contrairement aux modèles « boîtes noires » américains, la priorité est donnée aux modèles à poids ouverts (type Mistral). Cela permet l’hébergement de l’IA sur nos propres serveurs qualifiés, garantissant qu’aucune donnée ne quitte le territoire. L’adoption systématique d’architectures micro-services et de standards ouverts facilite la réversibilité et permet d’expliquer techniquement chaque décision algorithmique, un impératif pour les services publics. Sortir du Vendor lock-in Le vendor lock-in, ou verrouillage technologique, est un obstacle majeur à la souveraineté numérique et à l’indépendance de l’État. Il se manifeste lorsqu’une organisation devient captive des solutions d’un fournisseur, rendant tout changement extrêmement complexe et coûteux. Perte de souveraineté numérique L’enfermement propriétaire réduit la capacité d’une nation à agir de manière autonome dans ses domaines stratégiques. Dépendance aux acteurs non-européens : La France et l’Europe dépendent massivement de fournisseurs américains ou asiatiques pour les infrastructures cloud, les semi-conducteurs et les modèles d’IA. Incapacité de pilotage : Un État qui ne maîtrise pas ses fondations numériques s’expose à des dépendances durables, voire irréversibles, perdant ainsi le contrôle sur ses services publics. Risques juridiques et vulnérabilité aux lois extraterritoriales Le verrouillage auprès de fournisseurs soumis à des législations étrangères (comme le Cloud Act américain) pose des problèmes de sécurité nationale. Les autorités étrangères peuvent exiger l’accès à des données stockées, même en Europe, si le prestataire est soumis à leur droit. Le vendor lock-in empêche de garantir que l’hébergement des données assure une protection effective contre toute ingérence étrangère. Conséquences financières et économiques L’absence de concurrence due au verrouillage entraîne une hausse incontrôlée des coûts. Inflation : Les tarifs des logiciels et services cloud américains augmentent d’environ 10 % par an en Europe, faute de pouvoir facilement changer de fournisseur. Microsoft annonce des hausse des 30% sur office 365 pour 2027. Manque de levier de négociation : Étant captive, l’administration perd sa capacité à négocier des prix ou des conditions avantageuses. Rigidité opérationnelle et blocage de l’innovation Le vendor lock-in freine l’évolution technique des systèmes d’information. Défaut d’interopérabilité : Les solutions propriétaires utilisent souvent des standards fermés, empêchant les différentes briques logicielles de communiquer entre elles ou avec des alternatives locales. Absence de réversibilité : Sans clause de réversibilité (capacité à changer de solution) et de portabilité des données, l’État se trouve incapable de faire évoluer ses systèmes selon ses besoins futurs. Obsolescence imposée : L’organisation subit le rythme de mise à jour et de maintenance imposé par l’éditeur, sans possibilité de se tourner vers le marché pour des solutions plus modernes ou sobres. Solutions préconisées pour éviter le verrouillage Intégrer systématiquement des exigences de réversibilité, de portabilité et d’immunité au droit extraterritorial dans les marchés publics. C’est actuellement obligatoire en F

Feb 28, 20269 min

L’EUDI Wallet, Portefeuille d’identité numérique européen

L’EUDI Wallet, Portefeuille d’identité numérique européen Nous vivons de plus en plus dans un système qui nécessite de prouver son identité. Récemment de nouvelles lois prévoient de justifier son age pour les réseaux sociaux. Pour cela une identité numérique s’impose. A chaque contrôle on donne plus de données que nécessaire en réalité. Faut-il sacrifier son intimité pour une simple transaction. Aujourd’hui, prouver sa majorité pour accéder à un service ou ouvrir un compte bancaire exige de scanner l’intégralité d’un titre d’identité. C’est un paradoxe flagrant : pour une simple vérification d’âge, un tiers accède à votre adresse, votre lieu de naissance et votre nom complet. Ce partage excessif facilité l’usurpation d’identité et le traçage publicitaire systémique. L’EUDI Wallet (European Digital Identity Wallet) promet de briser ce cycle. Plus qu’une application, c’est le pivot d’un changement de paradigme où l’utilisateur ne subit plus la collecte de données, mais orchestre sa propre « économie de la preuve ». Quelques précisions sur le EUDI Wallet Le Portefeuille Européen d’Identité Numérique (EUDI Wallet) est un système sécurisé de gestion de l’identité instauré pour permettre aux citoyens, résidents et entreprises de l’Union européenne de s’identifier et de s’authentifier en ligne et hors ligne. Ce dispositif s’appuie sur un cadre réglementaire et technique précis pour transformer les interactions numériques au sein du marché unique. Le Cadre Juridique : eIDAS 2.0 La mise en place du EUDI Wallet repose sur le règlement eIDAS 2.0, adopté en avril 2024. Ce texte fait évoluer le cadre de 2014 pour imposer de nouvelles obligations : D’ici fin 2026 : Chaque État membre doit fournir au moins un portefeuille numérique à ses citoyens. C’est cette année que vous allez découvrir votre identité numérique généralisée. D’ici fin 2027 : Les entreprises soumises à la réglementation de lutte contre le blanchiment (AML), les grandes plateformes numériques et certains services publics devront obligatoirement accepter le portefeuille comme moyen d’identification. Objectif 2030 : L’Union européenne ambitionne que 80 % des citoyens utilisent cette solution d’ici 2030. Fonctionnement et Technologies Clés Le portefeuille fonctionne comme une application mobile sécurisée stockant des identifiants numériques vérifiés (permis de conduire, diplômes, certificats de santé). L’Architecture Reference Framework (ARF) : C’est le cadre technique qui définit les normes, protocoles et spécifications pour garantir l’interopérabilité entre les différents pays. Zéro Knowledge Proof (ZKP) : Pour protéger la vie privée, le portefeuille utilise des preuves à divulgation nulle de connaissance. Cela permet, par exemple, de prouver que l’on est majeur sans révéler sa date de naissance exacte. SD-JWT (Selective Disclosure JSON Web Tokens) : Cette technologie permet de ne dévoiler que les champs strictement nécessaires d’un document numérique. Usages et Avantages pour les Utilisateurs Le EUDI Wallet simplifie de nombreuses démarches quotidiennes : Services Financiers : Ouverture de comptes bancaires ou demandes de prêts facilitées par la transmission instantanée de documents certifiés (KYC en temps réel). Signatures Électroniques : Le portefeuille permettra de réaliser gratuitement des signatures électroniques qualifiées (QES), ayant la même valeur juridique qu’une signature manuscrite. Services Publics et Vie Quotidienne : Demande de passeport, déclaration fiscale, accès à la sécurité sociale, ou encore enregistrement d’une carte SIM. Mise en œuvre en France : France Identité La France est particulièrement avancée grâce à l’application France Identité, qui sert de socle à cette transition. Elle permet déjà d’accéder à des titres d’identité (CNI, permis de conduire numérique, carte grise) sur smartphone. L’Agence nationale des titres sécurisés (ANTS) coordonne le consortium POTENTIAL, un projet pilote européen majeur impliquant 19 États membres pour tester les usages du portefeuille. Pour les entreprises françaises, l’enjeu est immédiat. Grâce à l’avance prise par l’ANTS avec France Identité et le pilotage du consortium européen POTENTIAL, on dispose d’une longueur d’avance. Ce socle technique national permet d’anticiper le “go-to-regulatory” (conformité) sans sacrifier le “go-to-market” (expérience client). Autant faut-il accepter pour chaque citoyen de disposer des identités compatibles, permis de conduire et carte d’identité. Exemple pour un prêt bancaire. Procédure actuelle Prêt bancaire Procédure numérique Prêt bancaire Enjeux et Risques Identifiés Malgré les avantages en termes de lutte contre la fraude et de fluidité, plusieurs points de vigilance sont soulevés : Risque de traçage : Certains craignent que l’utilisation du portefeuille

Feb 21, 202610 min

Sold Out : Malo Bernard veut devenir le « Too Good To Go » du sport français

Sold Out le pitch Dans le monde du sport, rien n’est plus triste que le silence visuel des sièges vides au milieu d’un kop vibrant. Pour Malo Bernard, jeune entrepreneur de 21 ans, le contraste brutal entre la magie d’un stade comble et « l’effet négatif » d’une enceinte à moitié vide. C’est par une analogie entre des applications anti gaspi et sa passion pour le sport que germe une idée ambitieuse : transformer les invendus de places en une nouvelle économie de la passion. Avec sa startup « Sold Out », il se donne pour mission de réinjecter de la vie dans les tribunes en appliquant au sport les codes de la consommation. L’économie circulaire au service du sport Sold Out ne se contente pas de vendre des billets ; la plateforme transpose le modèle de l’anti-gaspillage alimentaire au secteur de l’événementiel sportif. En s’inspirant de la réussite de Too Good To Go pour le commerce de proximité ou de Ticket Nunc pour la culture, Malo Bernard veut briser la barrière de l’accès au direct. L’objectif est simple : permettre aux clubs de remettre sur le marché leurs invendus de dernière minute à prix réduit. Le service s’articule autour d’un écosystème mobile binaire : Pour l’utilisateur : Une interface intuitive permettant de géolocaliser les opportunités, de recevoir des alertes en temps réel et d’acheter son billet instantanément pour une réception par mail. Pour le club partenaire : Un outil de gestion conçu pour une totale autonomie de gestion des places disponibles et de leur prix de vente. « La mission de Sold Out, c’est de remplir toutes les tribunes parce que je suis persuadé qu’un match ça se vit dans des tribunes pleines à craquer. » Malo BERNARD Démocratiser la tarification dynamique Pourquoi les clubs ne maximisent-ils pas déjà leur remplissage ? Le diagnostic de Malo Bernard est sans appel : les équipes administratives sont souvent en sous-effectif durant la saison. Le manque de temps et d’outils empêche la mise en œuvre de stratégies de yield management sophistiquées. Si des structures comme le Brest Handball ont déjà prouvé l’efficacité de la tarification dynamique, elles restent des exceptions. Sold Out arrive comme un complément agile aux billetteries traditionnelles, offrant une solution clé en main pour adresser spécifiquement la niche du « last-minute » sans alourdir la charge de travail des clubs. L’héritage des JO : Vers une synergie communautaire L’inspiration de Sold Out puise également dans la ferveur des Jeux Olympiques de Paris. Malo y a observé un phénomène de transfert : une fois la barrière du prix et de l’accès levée, le public s’est rué sur des disciplines dites « mineures », créant une ambiance électrique sur tous les terrains. L’ambition est ici de créer une synergie communautaire. En abaissant le seuil financier, Sold Out permet à un fan de football de s’essayer au handball, au basket ou au rugby. Cette transversalité transforme l’application en un puissant levier de recrutement : elle attire de nouveaux profils qui, après une première expérience réussie, ont vocation à devenir des supporters réguliers via les canaux classiques des clubs. Un modèle « Gagnant-Gagnant » La force de frappe commerciale de Sold Out réside dans son absence totale de risque financier pour les organisations sportives. Le modèle repose exclusivement sur une commission prélevée sur les ventes effectives. La startup mise sur un respect scrupuleux de l’identité de marque des clubs : Autonomie totale : Le club reste le seul maître à bord pour définir le volume de places et, surtout, le prix de vente. Zéro risque : Aucun engagement financier initial. Si aucune place n’est vendue, le club ne doit rien. Cette approche lève les freins psychologiques des directeurs de billetterie, souvent frileux à l’idée de perdre le contrôle sur leur politique tarifaire. Sold’out L’audace à 21 ans Le parcours de Malo Bernard incarne cette nouvelle génération d’entrepreneurs qui préfèrent l’action à la théorie. Après avoir interrompu ses études en licence, il s’est immergé dans l’écosystème entrepreneurial, soutenu par le réseau Pépite puis par la Technopole d’Angers. Malo documente les coulisses et les revers de son aventure sur LinkedIn, fédérant déjà une communauté avant même le lancement technique. Il vous fait vivre son aventure sur linkedin et les réseaux sociaux. Côté capital, la startup a démarré avec des ressources maîtrisées : un apport familial de complété par une aide régionale à l’innovation. Ce capital d’un peu moins de 20K€ a permis de financer le développement technique confié à l’agence angevine CodeKraft. Cap sur septembre 2026 Le déploiement de l’application Sold Out suit une trajectoire structurée de Proof of concept (POC) avant de passer à un plus large commercialisation. Février 2026 marque l’étape cruciale

Feb 14, 202615 min

Matter 2.0 et l'offensive IKEA : La domotique devient abordable pour tous

Matter 2.0 et l’offensive IKEA On a déjà parlé de domotique sur XY Magazine mais il faut bien avouer que c’était un sujet de niche réservé à des bidouilleurs passionnés. Matter 2.0 et l’offensive IKEA c’est clairement l’entrée sur ce marché d’un géant de la distribution avec des prix très attractifs. Ce temps-là est officiellement révolu. En ce début d’année 2026, la maison connectée vit son “moment Windows 95” : une simplification radicale portée par la maturité du protocole Matter 2.0 et l’arrivé sur la marché mass market de géants comme IKEA. Si la technologie devient invisible et bon marché, elle change de statut. D’un hobby pour technophiles, elle glisse vers un équipement de base de l’habitat, presque au même titre que l’électricité ou l’eau courante. Mais cette “standardisation pour tous” est-elle un gage de liberté ou une nouvelle forme de dépendance ? Entre promesse d’interopérabilité totale et enjeux de souveraineté des données domestiques, XY Magazine décrypte la nouvelle infrastructure MATTER 2.0. Quand le le distributeur suédois démocratise le protocole MATTER 2.0 Le “Langage Universel” : Matter et Thread expliqués simplement Pour comprendre pourquoi cette transition est capitale, il faut distinguer deux technologies complémentaires qui travaillent en coulisses. Leur standardisation permet de produire des composants moins couteux et de les diffuser à grande échelle en s’appuyant sur les service Amazon, Apple et Google. • Matter : C’est le langage commun. C’est un standard universel qui permet à une ampoule connectée de “parler” nativement à un HomePod d’Apple, une enceinte Echo d’Amazon ou un Google Nest. Il garantit que tous vos appareils sont compatibles entre eux. • Thread : C’est le réseau de transport. Contrairement au Wi-Fi, qui sature vite, Thread est un réseau maillé (“mesh”) local. Chaque appareil branché renforce le réseau pour les autres. L’un de ses grands atouts est sa capacité “auto-réparatrice” : si un routeur (comme une prise connectée) est débranché, le réseau redirige automatiquement les données par un autre chemin pour maintenir la connexion. • Le Border Router : C’est le pont entre votre réseau internet et vos objets Thread. De nombreux appareils ,HomePod Mini, Apple TV 4K, Google Nest WiFi Pro, remplissent ce rôle. Matter 2.0, c’est la version boostée : plus puissante, plus rapide et surtout, plus sécurisée grâce à une cryptographie digne d’un film d’espionnage. Elle élargit son champ d’action à la gestion d’énergie et à la gestion de l’eau. La maison devient intelligente et éco-responsable. La domotique comme “Commodity” La fin de la barrière du prix : De la technologie de pointe à moins de 10 € IKEA s’est donné pour mission de démocratiser des technologies autrefois réservées aux technophiles avertis. L’annonce la plus marquante concerne le prix : la gamme débute aux alentours de 10 €, avec des produits phares comme un capteur de mouvement proposé à seulement 7,99 €. Pour ceux qui ne connaissent pas les prix, habituellement on est plutôt sur plus de 50€ pièce. Jusqu’à présent, la technologie de la maison connectée n’était pas facile à utiliser pour la plupart des gens, ni assez abordable pour que beaucoup l’envisagent. En intégrant Matter à ses produits, IKEA fait un grand pas dans la bonne direction. L’objectif du distributeur est de rendre la maison intelligente facile à utiliser, facile à comprendre et accessible au plus grand nombre. La gamme annoncée en janvier 2026 dépasse largement l’éclairage classique, même si l’on note une légère baisse de la qualité perçue des plastiques et du “clic” des boutons par rapport à l’ancienne génération. Il faut faire des compromis pour avoir des prix aussi agressifs. Avec des détecteurs et des capteurs, cette gamme devient complète pour un projet de domotique simple et peu couteux. Alpstuga : Ce contrôleur de qualité d’air surveille la température, l’humidité, les PM 2.5 et le CO2. Avec son look de radio-réveil, il affiche l’heure, mais attention : l’écran ne peut pas être éteint, ce qui peut gêner dans une chambre. Il nécessite une alimentation USB-C. Usage concret : Une LED orange s’allume lorsque le CO2 dépasse les seuils recommandés, signalant qu’il faut aérer. On a déjà traité de ce sujet, la qualité de l’air dans les logements est trop négligée Alpstuga Timer Flot : Un capteur de température et d’humidité discret. Son écran est éteint par défaut et s’active d’une pression. Il est ultra-réactif avec une mise à jour des données toutes les 5 minutes. Clipbook : Evolution du capteur Badring,

Feb 7, 20269 min

Openclaw votre futur meilleur ami

Pourquoi openclaw votre futur meilleur ami est aussi votre double numérique Openclaw va au-delà du simple chatbot Face à l’avalanche de promesses non tenues dans le domaine de l’intelligence artificielle, on peut rester sur sa faim concernant les applications concrète. Openclaw surgit comme une rupture brutale. Crée par Peter Steinberger en open source. Ce créateur est très prolifique sur github et là il a trouvé la killer app pour l’intelligence artificielle. Nous assistons peut-être à la mort du chatbot passif au profit de l’agent autonome, un outil doté de “mains” pour agir et d’une mémoire pour apprendre. En seulement 19 jours, ce projet open source a accumulé plus de 94 600 étoiles sur GitHub, une explosion qui témoigne du succès rencontré. Pour faire simple vous pouvez donner à Openclaw le contrôle total de votre vie vie votre PC et vos comptes. Openclaw En résumé avec Openclaw vous donnez les clé du camion à un robot intelligent qui va assumer vos taches à votre place. A peine sorti, déjà un procès pour Openclaw En une semaine le service a changé deux fois de nom. Au départ le nom était Clowdbot. Mais Claude IA a trouvé que c’était trop proche de son nom et a engagé un procès. Le service a changé pour Moltbot cette semaine, et au moment ou cet article est rédigé le nom vient de changer pour Openbot. L’autonomie réelle : Quand l’IA arrête de suggérer pour commencer à agir La véritable force de Openclaw réside dans sa boucle agentique, un concept qui lui permet d’improviser des plans complexes pour atteindre un objectif précis. Pour lui donner les consignes vous passez par une messagerie type telegam ou whatsapp. Ensuite, en utilisant seul les ressources du PC, il va réaliser la tache. Si il a besoin d’un mot de passe vous lui donnez ou il va le chercher dans votre coffre fort de mot de passe. Imaginez les possibilités. Contrairement aux assistants classiques, il peut créer de lui-même un tableau Excel ou prendre l’initiative de contacter un restaurant par téléphone via une synthèse vocale, ou télécharger des documents pour vous. Si une interface numérique lui résiste, l’agent explore des voies alternatives, comme l’utilisation de logiciels pour accéder au résultat. Cette capacité à naviguer entre les outils pour résoudre un problème imprévu marque une étape majeure vers une IA qui n’est plus un outil, mais un partenaire. “Il ne s’agit pas de routines préprogrammées. Ce sont des comportements dynamiques nés d’une boucle agentique qui prend un objectif et improvise un plan, saisissant tous les outils nécessaires à son exécution.” — Jason Meller, 1Password. A chaque tache réussie, il apprend pour toujours comment la réaliser et sera plus efficace la fois suivante. Pour fonctionner pas besoin d’un centre de data entier, un mini PC suffit ou un Raspberry pi. vous pouvez l’installer vous même. Vous le connectez sur une IA comme Antropic ou Chat GPT, et c’est parti. Le “Personal OS” : Reprendre le contrôle face aux géants du SaaS Openclaw incarne une vision où l’utilisateur redevient le maître de son infrastructure en transformant un simple mini PC en un système d’exploitation personnel dopé à l’IA. Cette approche “local-first” permet en partie de s’affranchir des grandes entreprises technologiques tout en garantissant un contrôle total sur les flux de données. En hébergeant l’agent sur sa propre machine, l’utilisateur dispose d’une puissance de calcul et d’une confidentialité que les solutions SaaS centralisées ne peuvent égaler. Attention tout de même. accédant ensuite aux outils GAFAM et devant utiliser les service d’une IA du marché, au final Openclaw vous met bien en contact avec eux. Cette transition vers une autonomie locale est perçue par la communauté comme une libération philosophique et technique majeure. Pour beaucoup de pionniers, faire tourner cet agent sur son propre matériel procure une sensation oubliée de maîtrise totale sur la “pile” technologique. C’est le passage symbolique de Windows à Linux d’il y a vingt ans, où l’utilisateur reprend enfin la souveraineté de son espace numérique personnel. Cela explique un partie du succès fulgurant du service. Le pacte faustien : La puissance brute au prix d’une sécurité fragile L’efficacité redoutable de Openclaw repose sur une architecture qui ignore délibérément certaines barrières de sécurité conventionnelles pour favoriser une action sans entrave. Les clés API et les journaux de session sont stockés en texte clair. Cette vulnérabilité n’est pas théorique : plus de 1 600 instances ont déjà été détectées sur Shodan via le port 18789, exposées sans défense sur le web. Beaucoup d’utilisateurs ont installé Openclaw sur leur propre PC sans le sécuriser d’avantage. Un attaquant ne se contente pas de

Jan 31, 202611 min

Plus de bonheur et moins de swipes avec BPM

Plus de bonheur et moins de swipes avec BPM sports. BPM sports est une application de dating par le sport pour les sportifs. J’ai pu rencontrer le créateur de BPM sports, Gabriel ZEITOUN pour une interview sur la nouvelle application BPM sports qui combine, sport, dating et rencontre. Nous avons discuté de son applications mais aussi de son business modèle et de ses ambitions. Voici les 4 leçons contre-intuitives du fondateur de l’application de rencontre BPM sports Illustration BPM Briser la glace (et la routine) des premiers rendez-vous Ce premier café aux allures d’entretien d’embauche, ces silences que l’on meuble en fixant sa tasse… Le premier rendez-vous est souvent une épreuve plus qu’une promesse. Il y a un an et demi, Gabriel était célibataire, passionné de sport, et frustré par les applications de rencontre classiques. Sur Hinge, il peinait à trouver des profils partageant son style de vie actif. En parallèle, il observait un phénomène : les run clubs devenaient les nouveaux lieux de rencontre, au point que certains ne participaient que pour espérer une rencontre. Un date en trois étapes De ce double constat est née BPM sports, son application de rencontre pour sportifs. Le nom, « Battements Par Minute », évoque l’effort cardiaque et le rythme du cœur qui s’emballe. Son pari : si le sport peut rapprocher les gens dans la vie réelle, pourquoi pas sur une app ? Le parcours de Gabriel, qui avoue avec humour qu’il n’est «plus célibataire aujourd’hui », révèle des leçons surprenantes sur l’entrepreneuriat, le marketing et la nature des relations humaines à l’ère du digital. La meilleure rencontre commence par une session de sport, pas par un verre Le principe fondamental de BPM sports est simple mais radical : remplacer le traditionnel rendez-vous au bar par un jogging, une partie de tennis ou une randonnée. L’approche est plus naturelle, moins formelle, et crée un lien instantané autour d’une passion commune. Plutôt que de se jauger autour d’une table, les utilisateurs partagent une expérience active qui en dit long sur leur personnalité. Les profils Mais une idée de génie ne suffit pas à construire une entreprise. Gabriel l’a appris à ses dépens en affrontant le premier obstacle de tout entrepreneur : l’humain. Le plus grand défi n’est pas l’idée, mais de trouver le bon associé On imagine que le plus dur est le code ou le financement. Pour Gabriel, l’épreuve la plus complexe fut de trouver le bon cofondateur. Il souligne, a juste titre, qu’un nombre incalculable de startups échouent à cause de conflits entre associés, une expérience qu’il a lui-même vécue avant de s’allier avec son partenaire technique actuel. Cette leçon rappelle que même dans la tech, le succès repose d’abord sur des relations humaines solides et une vision partagée. La partie humainement la plus compliquée. Quand on lance une boîte, c’est vraiment l’association. Une fois l’équipe soudée, un autre défi, tout aussi humain, se présente : attirer la foule. Faire venir des utilisateurs pour démontrer le concept et ajuster le modèle. Pour une nouvelle application, le marketing est plus important que le produit Voici une vérité qui bouscule le mantra du « produit avant tout ». Gabriel est catégorique : pour une application grand public, le marketing et la distribution sont la clé absolue. La logique est implacable : une application de rencontre est inutile sans une masse critique d’utilisateurs. Son objectif est d’atteindre 10 000 utilisateurs en France pour garantir une bonne expérience partout. Le défi principal n’est donc pas de peaufiner le code, mais de convaincre les gens de télécharger l’application. Pour déclencher la viralité autour de l’application, Gabriel compte principalement sur les réseaux sociaux en référencement gratuit et payant. Ses buyer personae (cibles) sont sur tic tok, instagram et il faut aller les chercher sur ces réseaux. J’ai envie de dire même tout le reste passe au second plan Ce qui compte vraiment c’est de faire en sorte que les gens téléchargent ton application. Atteindre au plus vite une masse critique de 10 000 users et ensuite revenir sur le produit pour proposer une modèle économique, des fonctionnalités et chercher des investisseurs. Le paradoxe ultime : le succès, c’est quand vos clients vous quittent Toutes les applications de rencontre sont construites sur un paradoxe, et BPM sports ne fait pas exception. Si l’application remplit sa mission et qu’un utilisateur trouve l’amour, il la supprime. Chaque succès représente donc une perte de revenu potentiel, que l’utilisateur ait payé un abonnement ou non. Loin de fuir cette réalité, Gabriel l’assume pleinement. Le but final est que les utilisateurs partent parce qu’ils ont trouvé quelqu’un. Le véritable succès

Jan 24, 202622 min

L'intelligence artificielle pour faire baisser le chômage

L’intelligence artificielle pour faire baisser le chômage, cette affirmation peut vous faire bondir. On va étudier comment France travail est plus efficient en multipliant les usages concrets. L’utilisation de l’intelligence artificielle (IA) par France Travail s’inscrit dans une volonté de transformation profonde de l’opérateur, avec des objectifs structurés autour de l’amélioration du service et de l’optimisation des ressources internes. Le projet est plus fait pour améliorer leur indicateurs que pour aider les chômeurs à connaitre leurs droits. Principaux objectifs stratégiques L’amélioration du service rendu aux usagers : L’objectif constant est de renforcer l’accompagnement des demandeurs d’emploi et des entreprises. Cela inclut une personnalisation accrue des services et une meilleure efficacité de l’appariement entre l’offre et la demande d’emploi. Avec le programme Data IA lancé en 2024, l’opérateur ambitionne d’utiliser l’IA générative pour « bousculer » les méthodes de travail quotidiennes des conseillers. L’IA est vue comme un levier pour revisiter les actes métiers et soutenir la transformation globale de l’organisme. En automatisant les tâches à faible valeur ajoutée, l’IA doit permettre aux conseillers de se recentrer sur des activités plus qualitatives et sur le contact humain. L’un des indicateurs d’impact est d’augmenter de 20 % le soutien aux usagers qui en ont le plus besoin. L’IA doit aider France Travail à absorber les charges supplémentaires liées à la loi pour le plein emploi de 2023, notamment l’inscription généralisée de tous les chercheurs d’emploi et la création de services communs pour le « Réseau pour l’emploi ». Gains d’efficience attendus France travail a décidé de recourir massivement à l’intelligence artificielle, se traduisant par des économies financières et des gains de temps de travail : L’intelligence artificielle vise à supprimer les tâches fastidieuses comme la saisie manuelle de données (grâce à l’analyse automatique de CV) ou le tri de documents. Par exemple, l’outil ChatFT est estimé réduire de 30 % le temps passé sur la production écrite (courriels, synthèses). #image_title Économies financières : Entre 2017 et 2025, les économies induites par l’IA sont estimées à environ 120 millions d’euros, dépassant légèrement le budget de 108 millions d’euros consacré au développement de ces outils sur la même période. L’intelligence artificielle transforme (déjà) votre recherche d’emploi Le changement de nom de Pôle emploi à France Travail en janvier 2024 n’a pas été qu’un simple changement d’enseigne. C’est aussi l’aboutissement d’une mue technologique amorcée dès 2015. Derrière les conseillers, l’algorithme a pris ses quartiers. Aujourd’hui, en ce début d’année 2026, l’intelligence artificielle n’est plus une promesse de science-fiction, mais le moteur discret du service public de l’emploi français Pourtant, une question fondamentale subsiste : dans cette course à l’efficience, l’algorithme est-il en train de supplanter l’humain ou de l’augmenter ? ChatFT, véritable majordome numérique des conseillers redéfinit les règles du jeu pour des millions de Français. L’IA est déjà partout : 27 outils à grande échelle Contrairement aux idées reçues, l’IA chez France Travail ne se résume pas à un simple chatbot de bienvenue. En avril 2025, l’opérateur comptait déjà 27 cas d’usage déployés et exploités à grande échelle. Cette infrastructure agit comme un filtre invisible, essentiel à la fluidité d’un marché du travail saturé. L’analyse automatisée des CV : Un gain de temps spectaculaire. Là où un usager passait 45 minutes à remplir son profil de compétences, l’IA extrait désormais l’essentiel en seulement 15 minutes. La traque de l’illégalité via “Lego” : Contrairement aux outils d’analyse de CV, l’outil “Lego” est spécifiquement dédié à l’identification des offres d’emploi illégales ou frauduleuses avant leur publication. Un rempart crucial pour la sécurité des demandeurs d’emploi. L’orientation prédictive : Des solutions comme “La bonne boîte” utilisent le machine learning pour débusquer le “marché caché”, identifiant les entreprises à fort potentiel d’embauche avant même qu’elles n’émettent une offre. #image_title L’opérateur France Travail recourt à l’intelligence artificielle (IA) depuis 2015 pour améliorer le service rendu aux usagers et renforcer son efficience en permettant aux conseillers de se consacrer à des tâches plus qualitatives. #image_title Le paradoxe du bénéficiaire : Les agents d’abord, les usagers ensuit

Jan 17, 202612 min

Y-a-t-il un pilote qui contrôle le budget de l'Etat

Y-a-t-il un pilote qui contrôle le budget de l’Etat; c’est la question que l’on peut se poser quand on voit la situation des finances. On exprime souvent les dépenses en pourcentage du PIB, mais jamais en rapport avec les recettes. C’est pourtant le ratio le plus simple. Les chiffres du budget sont ceux du ministère du budget. En 2025 montant des recettes de l’Etat : 370 577 000 000 € soit 370 milliard. En 2025 montant des dépenses de l’Etat : 817 356 000 000€ soit 817 milliard. Pour faire simple quand l’Etat reçoit 1 € il dépense 2.2 €. Quand on dépense plus de deux fois les revenus on est pas du tout bien géré. Y-a-t-il un pilote qui contrôle le budget de l’Etat Chaque citoyen attend, à juste titre, que l’État gère l’argent public avec la même rigueur qu’une entreprise performante. Pour répondre à cette exigence, un concept a été importé du secteur privé au début des années 2000 : le “contrôle de gestion”. L’objectif était de transplanter dans l’administration une culture du résultat pour enfin passer d’une “logique de moyens” à une “logique de performance”. Mais, comme pour une greffe d’organe, l’opération n’a de sens que si le corps receveur ne la rejette pas. Un rapport récent de la Cour des comptes dresse le tableau d’une “ambition perdue de vue”, révélant que le problème n’est pas technique, mais bien culturel et politique. Nous allons voir en quatre chapitres comment une idée juste s’est heurtée à la culture administrative, la transformant en un exercice de style déconnecté de sa finalité. Un “contrôle de gestion” qui oublie de contrôler les coûts Dans le secteur privé, la définition du contrôle de gestion est simple : c’est un outil essentiel pour maîtriser les coûts et optimiser la performance financière. Or, le constat de la Cour des comptes sur son application dans les services de l’État est sans appel : sa mise en œuvre est apparue “très largement déconnectée de la recherche d’économies budgétaires”. Ce paradoxe est au cœur de l’échec. L’outil même qui devait rationaliser la dépense a été déployé en oubliant sa fonction première. Le rapport ne se contente pas de ce constat, il en livre la cause culturelle : “une forme de désintérêt pour les questions budgétaires perçues, à tort, comme des questions d’intendance”. Autrement dit, l’outil s’est heurté à une culture administrative qui sépare le “noble” travail de conception des politiques publiques de la gestion “subalterne” des finances. En somme, l’État s’est doté d’un compteur de vitesse sans jamais regarder le niveau de carburant, alors même que, comme le rappelle la Cour, “la situation générale des finances publiques fait peser une exigence renouvelée sur la maîtrise de la dépense”. La superposition de systèmes de performance concurrents Plutôt que de clarifier le pilotage, l’État a réussi à créer deux systèmes de mesure de la performance qui se superposent et servent des maîtres différents. Le premier, issu de la loi organique relative aux lois de finances (LOLF) de 2001, s’incarne dans les projets annuels de performances (Pap) et les rapports annuels de performances (Rap). Pensé comme un outil de redevabilité envers le Parlement, son bilan est jugé “globalement décevant” après vingt ans d’existence. Pour y remédier, un second dispositif a été lancé en 2022 : les “Politiques Prioritaires du Gouvernement” (PPG). Mais au lieu de remplacer l’ancien système, le rapport souligne que ce nouveau dispositif “s’y est plutôt superposé”, créant “une forme de confusion” et existant “sans synergies évidentes”. Le conflit est fonctionnel : les Pap/Rap sont un appareil de reddition des comptes parlementaire, tandis que les PPG sont un outil de pilotage pour l’exécutif, axé sur la “satisfaction des besoins concrets des usagers” et l’alignement territorial via les primes des préfets. Servants deux maîtres aux objectifs distincts, ces deux systèmes coexistent sans s’articuler, illustrant une tendance lourde à empiler les dispositifs plutôt qu’à réformer en profondeur. Quand la gestion sert surtout à sauver les apparences Le rapport va plus loin qu’une critique technique en soulignant que cette appropriation des outils de gestion modernes pourrait n’être qu’une façade. Cette “appropriation symbolique” s’expliquerait par les “différences fondamentales entre secteur public et secteur marchand” : fragmentation des responsabilités, absence de conséquences financières directes pour les décideurs. Dans ce contexte, adopter le langage du management devient une fin en soi. La métaphore est puissante : l’État c

Jan 10, 202613 min

Stratégie sécuritaire des USA sous l'administration TRUMP

Stratégie sécuritaire des USA sous l’administration TRUMP, Les USA ont publié une synthèse de leur stratégie mondiale en matière de sécurité. La publication d’un nouveau document de Stratégie de Sécurité Nationale (NSS) est généralement un événement attendu dans les cercles de politique étrangère, mais rarement une source de bouleversements majeurs. La plupart du temps, il s’agit d’ajustements, de réorientations subtiles. Mais le document de 2025, qui vient d’être dévoilé par l’administration Trump, est d’une tout autre nature. Ce n’est pas une mise à jour ; c’est une démolition en règle de décennies de consensus américain en matière de politique étrangère, une répudiation directe du consensus mondialiste de l’après-guerre froide adopté par les élites républicaines comme démocrates. C’est pourquoi je vous fait une synthèse dans cet article. La lecture de ce document permet de comprendre pourquoi l’administration TRUMP est cohérente avec elle-même et non au regard des actions du passé. Oubliez les platitudes sur le leadership mondial et l’ordre international libéral. Cette nouvelle doctrine “America First” est un manifeste pragmatique, qui redéfinit les intérêts, les priorités et les alliances des États-Unis. Le retour musclé de la doctrine Monroe : Le “Trump Corollary” La première révélation est une réaffirmation spectaculaire de la prééminence américaine dans son propre voisinage. Le document ne se contente pas de dépoussiérer la doctrine Monroe, un principe de la politique étrangère américaine datant du 19ème siècle mais tombé en relative désuétude ; il lui ajoute ce qu’il nomme le “Trump Corollary“. Il ne s’agit pas d’un simple “corollaire” au sens d’une conséquence logique, mais d’une extension délibérée et assertive de la doctrine, affirmant sans équivoque que l’hémisphère occidental est, et restera, la sphère d’influence exclusive des États-Unis. Les objectifs sont clairs : Restaurer la prééminence américaine dans la région après des années de ce qui est décrit comme une “négligence”. C’est bien illustré par les prises de position du Président TRUMP sur les politiques européenne en matières de réglementation, d’immigration. Protéger la patrie contre les menaces transfrontalières comme le trafic de drogue et la migration de masse. C’est déjà bien mis ne oeuvre avec les arrestations de masse faits par L’ICE Refuser aux concurrents non-hémisphériques la capacité de positionner des forces militaires, de contrôler des infrastructures critiques ou de posséder des actifs stratégiques. On parle ici de ce qui se passe pour le Panama ou le Venezuela pour illustrer avec les sujets les plus abordés. Pour y parvenir, la stratégie annonce des moyens concrets et musclés : un redéploiement de la présence militaire mondiale vers les Amériques, l’autorisation de l’usage de la force létale contre les cartels de la drogue, et une politique agressive pour sécuriser les chaînes d’approvisionnement critiques dans la région, au profit des entreprises américaines. Fin du “free-riding” : La révolution des alliances Si vous pensiez que le débat sur le partage du fardeau au sein de l’OTAN était vif, préparez-vous à une véritable révolution. Le document déclare que les États-Unis ne peuvent plus et ne veulent plus supporter le fardeau de la défense mondiale. L’ère du “free-riding” (le fait de profiter de la sécurité offerte par les États-Unis sans en payer le juste prix) est terminée. Pour matérialiser ce changement, la stratégie introduit deux concepts clés : Le “Hague Commitment“ : Il s’agit d’une nouvelle norme radicale exigeant que les pays de l’OTAN consacrent non pas 2 % de leur PIB à la défense – un objectif de longue date qui était déjà source de vives tensions et rarement atteint – mais 5 %. Ceci pour les USA baissent leur propre contribution. La réalité c’est que cela devait être le cas depuis longtemps. Surtout l’Europe va prendre en main sa sécurité, ce qui est à terme un bien et une chance de retrouver sa souveraineté. Le “Partage et transfert du fardeau” (Burden-Sharing and Burden-Shifting) : Le principe est simple. Les alliés doivent désormais assumer la responsabilité principale de la sécurité dans leurs propres régions. L’Amérique se positionne comme un “organisateur et supporter” plutôt que comme le premier répondant systématique. Avec la Guerre en Ukraine on voit bien le changement. L’Europe doit acheter les matériels aux USA pour les livrer à l’Ukraine. Ce ne sont plus des dons des USA. Ce changement de paradigme est résumé de manière percutante dans le document : “The days of the United States propping up the entire world order like Atlas

Jan 3, 202615 min

La suite numérique souveraine

La suite numérique souveraine, la France et l’Europe veulent se libérer des suites Microsoft et Google. La suite numérique souveraine Dans notre quotidien professionnel, les suites bureautiques américaines comme celles de Google ou Microsoft sont devenues omniprésentes, presque une évidence. C’est dans ce contexte que le projet du gouvernement français, la “Suite Numérique”, apparaît comme une initiative particulièrement importante pour affirmer la souveraineté de nos informations. Il faut bien avoir à l’esprit que ces éditeurs utilisent leurs solutions pour commercialiser des informations sur les usages, habitudes, utilisations et ont accès aux données directement depuis leurs cloud propriétaires. Il ne s’agit pas de créer quelques outils isolés, mais bien de bâtir une alternative complète, cohérente et souveraine pour les agents du service public. Lancée en mai 2024, cette suite se veut une réponse souveraine et open source aux géants du marché. Lors d’un premier bilan présenté le 27 novembre 2025, la Direction interministérielle du numérique (Dinum) a dévoilé des chiffres qui dessinent les contours d’un projet stratégique aux premiers résultats surprenants. La suite regroupe déjà six outils phares : Visio (visioconférence), Doc (édition collaborative), Fichiers (stockage), Tchap (messagerie), Grist (gestion de données) et l’Assistant (IA générative). la souveraineté avant tout Le projet de suite numérique n’est pas qu’une simple mise à jour technologique. Sa mission, est d’assurer la souveraineté numérique de l’État. L’objectif est de fournir aux millions d’agents publics un environnement de travail dont les données sont hébergées en France et dont le développement, souvent basé sur des fondations open source, est entièrement maîtrisé. Cette approche garantit la transparence, la sécurité et l’indépendance face aux fournisseurs étrangers. Cette vision stratégique est le véritable moteur du projet. L’ambition est grande : redonner aux agents publics des outils sur lesquels l’Etat a réellement la main, sans dépendance à des services étrangers et sans compromis sur les fonctionnalités. Au passage aussi assurer un cout de fonctionnement réaliste face à des hausse d prix annoncées de 30% sur 4 ans pour office 365. La messagerie Tchap devient obligatoire Pour s’assurer que sa suite ne reste pas une option parmi d’autres, l’État a pris une décision radicale. Depuis le 1er septembre 2025, l’utilisation de Tchap, la messagerie instantanée sécurisée, est devenue obligatoire pour les ministères. Cette adoption forcée est une décision stratégique pour surmonter l’inertie administrative et atteindre rapidement une masse critique d’utilisateurs, créant ainsi un effet de réseau indispensable à son succès. Tchap Basée sur le protocole open source Matrix, développée et hébergée en France, Tchap compte déjà plus de 375 000 utilisateurs actifs mensuels bien au-delà des seuls ministères, touchant les collectivités territoriales, les établissements scolaires ou les hôpitaux. Avec des appels de groupe désormais disponibles et une nouvelle version mobile en préparation, cette décision montre que le gouvernement est prêt à imposer ses outils pour garantir la cohérence et la sécurité de ses communications. Grist connaît une croissance spectaculaire Parmi les différents outils, l’un d’eux connaît un succès inattendu : Grist. Cet outil de gestion de données “no-code” permet aux agents, même sans compétences techniques, de créer des tableaux collaboratifs, de visualiser des données et de bâtir de petites applications internes pour suivre des projets ou centraliser des informations. Grist Sa croissance est qualifiée de “spectaculaire” : en seulement un an, Grist est passé de 1 000 à 15 000 utilisateurs actifs mensuels. Ce succès n’est pas anodin ; il s’inscrit dans la tendance de fond du “no-code” qui démocratise la création d’outils métier, un besoin actuel des utilisateurs qui veulent apporter de la valeur sans passer par du code. Il révèle un besoin profond d’agilité pour manipuler et structurer des données sans devoir passer par des développements informatiques complexes. Un partenariat stratégique avec Mistral AI Loin d’être en retard, la Suite Numérique intègre l’une des technologies les plus avancées du moment grâce à l’Assistant. Ce chatbot d’intelligence artificielle générative est le fruit d’un partenariat stratégique avec Mistral AI. Sujet dejà évoqué dans cet article. Mistral ai Actuellement en test auprès de 10 000 agents avant un déploiement général début 2026, l’Assistant est déjà capable de reformuler du texte dans l’outil Doc, la solution de prise de notes collaboratives de la suite, ou de générer les transcriptions des réunions dans Visio. Plus

Dec 14, 202511 min

La France légifère contre les ingérences

La France légifère contre les ingérences étrangères face aux cyberattaques et aux campagnes de désinformation, cette nouvelle « guerre froide ». Ces menaces proviennent principalement de la Russie, de la Chine. C On a souvent entendu des critiques à l”encontre de pays qui obligent les ONG à s’enregistrer. Cette inscription permet ensuite aux pays concernés de mener des actions contre les personnes engagées dans ces ONG. Obliger une personne à déclarer son activité est à la base un démarche totalitaire. soit l’activité est licite , soit elle le l’est pas et la loi est déjà la pour agir. Le texte de loi n° 2024-850 du 25 juillet 2024, visant à prévenir les ingérences étrangères, constitue une réponse majeure à ce défi. Ce texte entre en application en Octobre 2025. C’est la HAPV qui se voit charger de sa mise en oeuvre. Le rôle de la HAPV contre l’ingérence étrangère La Haute Autorité pour la transparence de la vie publique (HATVP) est une agence de l’Etat. Elle exerce un contrôle étendu et spécifique sur les personnes physiques ou morales tenues de déclarer leurs activités d’influence pour le compte d’un mandant étranger, afin d’assurer la transparence et de prévenir les ingérences. Le nom est un peu trompeur. la HAPV n’est pas là pour garantir aux citoyens une transparence politique et économique. Elle est là pour protéger l’Etat. Le contrôle exercé par la HATVP se déploie à travers plusieurs outils et procédures coercitives dpécifiques. La mission principale de la HATVP est de s’assurer du respect des obligations prévues par la loi. Ce contrôle porte sur : Le respect des obligations déclaratives, notamment la complétude et l’exactitude des informations communiquées. Le respect des règles déontologiques qui imposent, par exemple, de déclarer son identité et les intérêts représentés lors des communications, et de s’abstenir de proposer des avantages d’une valeur significative aux responsables publics. Procédures d’Enquête et de Vérification La Haute Autorité dispose de plusieurs pouvoirs pour vérifier l’information et obtenir la conformité : La HATVP peut agir à son initiative ou à la suite d’un signalement. S’il existe des raisons sérieuses de penser qu’une personne est soumise à l’obligation de déclaration, la Haute Autorité peut la mettre en demeure de lui communiquer, dans un délai d’un mois, toute information ou tout document nécessaire à l’exercice de sa mission. La HATVP peut également demander aux responsables publics contactés (membres du Gouvernement, parlementaires, élus locaux, etc.) de lui communiquer la liste des personnes tenues de déclarer qui sont entrées en communication avec eux. Perquisition Administrative La HATVP dispose d’un pouvoir de vérification sur place dans les locaux professionnels des déclarants. Cette vérification nécessite l’autorisation du juge des libertés et de la détention (JLD) du tribunal judiciaire de Paris. Les vérifications sont menées en présence d’un officier de police judiciaire. Les agents de la HATVP peuvent exiger la communication et obtenir ou prendre copie de tous documents professionnels de toute nature. Avis Consultatif La HATVP peut être saisie par les responsables publics pour obtenir un avis sur la qualification d’une activité, afin de savoir si une personne physique ou morale est soumise à l’obligation de déclaration. Sanctions en Cas de Manquement Si la HATVP constate un manquement aux obligations déclaratives ou déontologiques, elle applique une gradation des mesures : Mise en Demeure (Formal Notice) Elle adresse au déclarant, après l’avoir invité à présenter ses observations, une mise en demeure de respecter ses obligations. Cette mise en demeure peut être rendue publique. Sanctions Pénales Le non-respect de l’obligation de communication des informations à la HATVP (de sa propre initiative ou à sa demande) est puni par des sanctions pénales spécifiques : Pour les personnes physiques : trois ans d’emprisonnement et 45 000 euros d’amende. Pour les personnes morales : 225 000 euros d’amende, ainsi que d’autres peines comme l’interdiction d’émettre des chèques, la confiscation, l’affichage public de la peine, ou l’interdiction de recevoir toute aide publique pendant cinq ans ou plus. Ce dispositif de contrôle permet à la HATVP de jouer un rôle central, non seulement en gérant le répertoire numérique, mais aussi en assurant l’intégrité des informations et en appliquant des mesures coercitives pour garantir que les actions d’influence étrangère, considérées comme légitimes, soient menées dans la transparence requise par la loi. Cette autorité c’est une police politique avec un habillage déontologique. L’influence étrangère n’est pas (toujours) de l’ingérence Contrairement à une idée largement répandue, la loi n’a pas pour objectif d’interdire toute forme d’influence é

Nov 29, 20259 min

L'Etat français est-il toujours souverain ?

L’Etat français est-il toujours souverain, c’est la question que l’on peut se poser pour plusieurs raisons. Souveraineté numérique de la France L’intégration de la France dans l’ensemble européen impose de renoncer à des compétences régaliennes. Le niveau de dette rend la politique française dépendante de ses créanciers. Mais le destin numérique de la France est-il bien protégé. Un rapport récent de la cour des comptes nous éclaire sur ce sujet. L’Etat français est-il toujours souverain On imagine que l’État protège jalousement ses données les plus sensibles, les enfermant dans des forteresses numériques impénétrables. La souveraineté numérique est devenue un mot d’ordre politique, une promesse de contrôle et d’indépendance face aux géants technologiques étrangers. Ceux que l’on nomme les GAFAM. Le paradoxe standard du marché ou souveraineté Il faut garder en tête que les standard du marché sont américains et ensuite Chinois. L’Europe arrive ensuite en ordre dispersé. Sur le plan analytique, il existe une tension concernant la politique numérique française : d’un côté, l’ambition affichée de souveraineté ; de l’autre, le besoin des administrations de disposer d’outils performants, modernes et à un coût maîtrisé. J’ajoute aussi que les agents de l’Etat veulent utiliser des outils qu’ils connaissent car ils ont été formés dessus avec ou en disposent chez eux. Bien souvent, c’est le second impératif qui l’emporte. Le cas le plus notable est celui du nouveau système d’information de ressources humaines du ministère de l’Éducation nationale, Virtuo, pour lequel le ministère a choisi une solution cloud opérée par une entreprise américaine. Ce choix a été fait en passant outre les recommandations initiales de la doctrine “Cloud au centre”, car aucune offre souveraine ne répondait aux exigences de performance et de coût. Le ministère estime a posteriori que sa décision est conforme à la version finale de la loi SREN, qui a restreint le champ d’application de l’obligation de souveraineté en exigeant non seulement que les données soient sensibles, mais aussi que leur violation présente un risque direct pour l’ordre public. Quand la loi se met elle même une balle dans le pied et fait de la vertu un vice. Circulaire Cloud au centre Revenons sur ce texte important, la circulaire cloud au centre. La doctrine « Cloud au centre » est une orientation édictée par le Premier ministre pour que les administrations privilégient les infrastructures cloud (informatique en nuage) pour leurs nouveaux projets numériques. Le cloud est appelé à devenir l’environnement par défaut de tout nouveau projet informatique de l’État. Cette doctrine est la déclinaison opérationnelle de la Stratégie nationale pour le cloud lancée en mai 2021, qui vise à encourager l’utilisation du cloud tout en assurant l’autonomie de l’État, la maîtrise de ses données et le respect des règles européennes en matière de protection des données à caractère personnel. Version de juillet 2021 : La première version de la circulaire, diffusée en juillet 2021, stipulait que toute application manipulant des données d’une sensibilité particulière, notamment les données personnelles des citoyens français, devait être hébergée sur une infrastructure souveraine. Voir mon article sur ce sujet ici Version de mai 2023 : La doctrine a été mise à jour en mai 2023 (circulaire n° 6404/SG). Cette version a restreint l’obligation de recourir à une offre souveraine, ne l’exigeant que lorsque deux critères sont cumulativement observés : Les données doivent relever de secrets protégés par la loi. Leur violation doit être susceptible « d’engendrer une atteinte à l’ordre public, à la sécurité publique, à la santé et à la vie des personnes, ou à la protection de la propriété intellectuelle ». Voilà comment faire entrer le loup dans la bergerie. Loi SREN : Ces critères cumulatifs ont été élevés au niveau législatif par l’Article 31 de la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (dite loi SREN). La restriction du champ d’application de cette obligation visait notamment à consolider la doctrine sur le plan juridique en limitant les risques de recours par des opérateurs étrangers au regard des règles du marché intérieur européen et du principe de non-discrimination de l’OMC. Le Cloud de confiance et SecNumCloud Le concept de « cloud de confiance » remplace la notion initiale de « cloud souverain ». Il repose sur deux solutions jugées équivalentes en termes de sécurité pour les données sensibles : Les clouds internes de l’État (dits du 1er cercle), comme Nubo (opéré par la DGFiP) et Pi (opéré par le ministère de l’Intérieur). Les offres commerciales qualifiées SecNumCloud. La qualification SecNumCloud est un référentiel d’exigences techniques, opérationnelles et juri

Nov 22, 202512 min

La commission européenne créé le score de souveraineté

La commission européenne créé le score de souveraineté. Elle introduit un cadre pour un cloud de confiance qui inclut un système de score de souveraineté destiné principalement aux marchés publics. Sur la papier, c’est important de permettre aux acheteurs public de disposer d’une score de souveraineté pour qualifier leur démarche d’achat responsable et souverain. Pour bien l’utiliser, il faut comprendre comment il est calculé. Ce système évalue les offres de fournisseurs cloud sur huit critères, allant de l’ancrage juridique et financier à la protection des données et à la résilience opérationnelle, attribuant un niveau de service allant de 0 à 4 pour chaque pilier. L’initiative s’appuie sur plusieurs référentiels existants, notamment Gaia-X et les politiques nationales comme SecNumCloud en France. Cette méthodologie fait face à des critiques de l’association CISPE, qui la juge opaque et estime qu’elle pourrait involontairement favoriser les grands fournisseurs américains. Les discussions portent également sur la complexité du calcul du score final, qui repose sur une formule pondérée des différents critères. La bureaucratie va-t-elle protéger le marché européen ou avoir l’effet inverse ? Le « score de souveraineté » cloud de l’Union Européenne La souveraineté numérique est un enjeu stratégique majeur pour l’Europe. Faute de champions mondiaux dans tous les segment stratégiques, ll faut protéger les quelques entreprises européennes qui se battent face à des géants. Il faut également accepter d’acheter non souverains en connaissance de cause. Pour les organismes publics, choisir un service cloud qui garantit la protection des données et une indépendance vis-à-vis des puissances étrangères est un véritable casse-tête. Face à la domination des géants technologiques américains et chinois, comment s’assurer qu’une offre est véritablement “de confiance” et alignée avec les intérêts européens ? La circulaire Cloud au centre et la transposition de la directive NIS 2 obligent ces entités publiques à prendre des décisons souveraines en matière de Cloud. Etant obligé de composer avec les composants Cloud chinois et américains (Routeurs, OS, licences), à partir de quel niveau la souveraineté est en péri l? Pour répondre à cette question, la Commission européenne vient de dévoiler une initiative ambitieuse : un cadre de référence accompagné d’un “score de souveraineté” pour évaluer les fournisseurs de cloud. L’objectif est de fournir aux acheteurs publics un outil concret pour mesurer et comparer les offres. Cependant, loin de faire l’unanimité, cette solution a immédiatement déclenché une vive controverse. L’Europe veut quantifier la souveraineté C’est une approche cartésienne. On créé des critères et un indice pour aider le secteur public à prendre les bonnes décisions. C’est comme le nutri score pour les aliments. Pour les amateurs et connaisseurs, je vous ai fait la copie de la formule du score de souveraineté. #formule cloud souverain Si avec cela vous doutez encore… La Commission européenne a mis en place un cadre formel destiné aux autorités publiques pour mesurer la souveraineté des offres cloud. Cette démarche ne part pas de zéro ; elle s’appuie sur des initiatives reconnues comme Gaia-X et le référentiel du Cigref, sur des politiques nationales comme SecNumCloud en France et le standard C5 en Allemagne. Le tout dans un cadre européen de certification de cybersécurité (Enisa, NIS2, Dora). L’ambition est donc d’intégrer cette mesure dans l’arsenal réglementaire plus large de l’UE. Le cœur du système est un score basé sur huit “objectifs de souveraineté” (SOV). Pour chaque objectif, un niveau de service (SEAL) est attribué, allant de 0 à 4. Le niveau 0 signifie que le service, la technologie ou les opérations sont sous le contrôle exclusif d’entités non-européennes, Le niveau 4 garantit une technologie et des opérations sous contrôle total de l’UE, soumises uniquement au droit européen et sans dépendances critiques extérieures. La grille d’analyse se veut exhaustive, couvrant les aspects suivants : Le degré d’ancrage du fournisseur au sein de l’écosystème juridique, financier et industriel de l’UE. L’exposition juridique à des autorités étrangères. La protection et le contrôle des données et des services IA. La souveraineté opérationnelle (continuité, disponibilité des compétences, résilience). La résilience de la supply chain (chaîne d’approvisionnement). La dépendance technologique. La sécurité et la conformité. Les efforts en termes de développement durable. Critique de la méthode L’association CISPE, qui regroupe les fournisseurs de cloud européens, est la première à monter au créneau. Selon elle, le cadre proposé est opaque et, dans sa forme actuelle, il favoriserait les “

Nov 15, 202510 min

La souveraineté chinoise passe aussi par un BIOS

La souveraineté chinoise passe aussi par un BIOS Ce mois-ci la Chine a présenté son BIOS nommé UBIOS qui doit remplacer les BIOS actuels. Il sera présent dans les PC qui seront produits et utilisés en Chine. Cela fait partie de la guerre hybride que mènent les grandes puissances. Le ubios chinois Le BIOS (Basic Input/Output System) est un micrologiciel intégré à la carte mère d’un ordinateur qui joue un rôle fondamental lors du démarrage du système. Son principal objectif est d’assurer l’initialisation et le test des composants matériels essentiels, comme le processeur, la mémoire vive (RAM), les disques durs et les périphériques d’entrée/sortie.  Une fois ces vérifications terminées, le BIOS charge le système d’exploitation depuis un support de stockage (disque dur, clé USB, etc.). Stratégie de la Chine pour Bâtir son Autonomie Technologique Ubios La Fin de la domination américaine Pendant des décennies, le monde de la technologie a fonctionné sur un modèle d’interconnexion. Les géants américains comme Microsoft, Dell, IBM et Cisco étaient omniprésents en Chine, fournissant les infrastructures matérielles et logicielles qui ont alimenté une croissance industrielle fulgurante. Cette ère de collaboration, perçue comme une aubaine, masquait en réalité une dépendance stratégique que Pékin a jugé intolérable. Ceci d’autant plus que certains composants son soupçonnés de contenir des backdoor ou leur micologiciels de collecter des données. La Chine a déjà construit son propre réseau internet qui n’est pas celui que vous connaissez ici. Aujourd’hui, la Chine mène une campagne discrète mais massive pour démanteler cette dépendance. Loin de se limiter au remplacement de logiciels, cette stratégie s’attaque aux fondations mêmes de l’informatique. De la production jusqu’au cœur du matériel. Il ne s’agit plus de choisir une alternative locale, mais de bâtir un écosystème technologique entièrement souverain. Tout part du Document 79 : L’Ordre Secret pour Effacer l’Amérique Le point de départ de cette offensive est un ordre secret connu sous le nom de “Document 79”. Émise en septembre 2022 par la Commission de Supervision et d’Administration des Actifs de l’État, son objectif est radical : obliger les entreprises publiques des secteurs les plus critiques, comme la finance et l’énergie, à remplacer tous les logiciels étrangers. Ce document cible en particulier les américains. Tous ces composants doivent être remplacés par des alternatives locales d’ici 2027. La chine a décidé de cette stratégie suite à l’escalade des tensions technologiques et commerciales avec Washington. En particulier après l’intensification des restrictions à l’exportation de puces et des sanctions imposées par les États-Unis aux entreprises technologiques chinoise. Politique qui continue actuellement. Le niveau de confidentialité entourant cet ordre était extrême. Selon plusieurs sources, les hauts fonctionnaires et les dirigeants concernés n’étaient autorisés à consulter le document qu’en personne, sans jamais pouvoir en faire de copies. Dans certains cercles, cette directive a même été surnommée “Delete A” pour “Delete America”. Il s’agit d’un signal sans ambiguïté : la Chine ne négocie plus sa place dans l’écosystème existant, elle en bâtit un autre, à ses conditions. L’Impact Concret sur les Entreprises Américaines Cette politique n’est pas qu’un projet théorique ; ses conséquences sont déjà mesurables et impactantes pour les plus grands noms de la tech américaine. Les chiffres témoignent d’un changement de marché brutal et rapide. Hewlett Packard Enterprise (HPE) : Ses revenus en Chine, qui représentaient 14,1 % de son total chiffre d’affaires en 2018, ont chuté à seulement 4 % en 2023. Signe d’une retraite stratégique, HPE a annoncé en mai 2023 envisager la vente de sa participation de 49 % dans sa coentreprise chinoise. Dell : Sa part de marché des ordinateurs personnels en Chine a été presque divisée par deux au cours des cinq dernières années. Cisco : Dès 2019, l’entreprise signalait déjà perdre des contrats au profit de fournisseurs locaux, en raison d’une forte tendance à l’achat nationaliste. Microsoft : Les ventes du géant du logiciel en Chine ne représentent plus aujourd’hui que 1,5 % de ses ventes totales. Pour un marché de cette taille, ce chiffre est remarquablement bas et illustre l’érosion profonde de l’influence du géant du logiciel dans les ventes directes. IBM : Après avoir vu ses bénéfices diminuer de manière constante, la société a été contrainte de réduire ses opérations de recherche à Pékin en 2021. À cette liste s’ajoutent des entreprises de logiciels comme Adobe, Citrix et Salesforce, qui ont toutes réduit ou retiré leurs opérations

Nov 1, 202511 min

L'administration numérique est-elle vraiment plus accessible ?

L’administration numérique est-elle vraiment plus accessible. C’est la promesse de la digitalisation des démarches administratives. Pourtant les études démontrent que la population préfère toujours avoir un fonctionnaire pour l’assister. Mais dans le même temps, le débat budgétaire et le discours politique est en faveur d’une baisse du nombre de fonctionnaires. L’administration numérique est-elle vraiment plus accessible ? La galère administrative : le nouveau mal français ? 4 chiffres chocs qui montrent que c’est l’affaire de tous Qui n’a jamais soupiré face à un formulaire à remplir ou à une démarche administrative à accomplir ? Ce sentiment, souvent frustrant et solitaire, est devenu une expérience universelle. Mais au-delà de l’anecdote, une nouvelle enquête du Défenseur des droits vient mettre des chiffres précis sur ce ressenti collectif. Publiée en octobre 2025, cette étude agit comme une évaluation grandeur nature des vastes chantiers de modernisation des services publics, notamment la dématérialisation promise par des programmes comme « Action publique 2022 ». Les constats sont aussi surprenants qu’alarmants. Cet article décrypte les quatre points les plus marquants et contre-intuitifs de cette enquête qui nous concerne tous. La dématérialisation des procédures facile-t-elle la vie L’enquête menée par le Défenseur des droits montre que, bien que la dématérialisation puisse représenter un progrès pour certains, elle est loin de faciliter les démarches pour l’ensemble de la population. Ce que montre le sondage c’est que la dématérialisation est même liée à une augmentation notable des difficultés générales. Voici une analyse détaillée basée sur les résultats de l’enquête : La Dématérialisation comme Source de Difficultés L’enquête s’est spécifiquement penchée sur le rôle du numérique afin d’évaluer les effets de la dématérialisation sur l’accessibilité des services publics. Il en ressort que la dématérialisation, lorsqu’elle est mise en œuvre trop rapidement et insuffisamment accompagnée, vient confirmer les difficultés. Constant : Autonomie réduite en ligne : Une part non négligeable de la population n’arrive pas à effectuer ses démarches administratives en ligne seule. Moins d’une personne sur deux (49%) parvient à réaliser seule ses démarches administratives en ligne. 36% des répondants déclarent avoir besoin d’une aide ponctuelle. 8% n’y arrivent pas seuls et ont besoin d’être accompagnés. 7% évitent les démarches en ligne par choix personnel. (ceux qui veulent des humains) Difficultés pour tous les âges : Les difficultés liées aux démarches en ligne touchent autant les plus jeunes que les plus âgés. Par exemple, 51% des 18-34 ans et 53% des 55-79 ans déclarent rencontrer des difficultés. Surement pas pour les même raisons. Les premiers car ils ne comprennent pas la démarché, les seconds car ils ne sont pas familiers avec les formulaires en ligne. Augmentation des difficultés générales : La dématérialisation croissante des services publics est liée à un élargissement du nombre et des profils des usagers en difficulté pour réaliser leurs démarches administratives. En 2024, 61% des usagers rencontrent des difficultés (ponctuelles ou régulières) pour réaliser leurs démarches administratives, contre 39% en 2016. Cette hausse est significative y compris pour les populations considérées comme favorisées, telles que les cadres ou professions intermédiaires (+86 %) ou les diplômés de master et plus (+75 %). Il s’agit ici d’une hause par d’une part de cette population. Conséquences sur l’accès aux droits : La complexité des démarches est le motif principal de renoncement à un droit (dans 70% des cas). La conclusion est bien que la société est complexe. En ligne ou pas les démarches nécessitent du conseil et assistance. Soit on fait appels à un expert (avocat, expert comptable notaire…) avec un cout associé. soit on veut des fonctionnaires pour aider mais il faut accepter des impôts et des effectifs. Le fait que les démarches soient réalisables uniquement en ligne et le manque d’accès à un ordinateur ou à internet ont été la raison du renoncement pour 7% des personnes concernées. Les Ambivalences : Facilitation pour certains, Obstacle pour d’autres La dématérialisation peut avoir des effets contradictoires. Simplification potentielle pour les usagers aguerris : Pour les personnes à l’aise avec le numérique, la dématérialisation simplifie la résolution de problèmes avec les services publics (possibilité de réaliser les démarches à distance, de se renseigner plus rapidement en ligne, transmission de documents par voie numérique, etc.). D’ailleurs, l’enquête observe une baisse de la proportion de personnes déclarant avoir rencontré des problèmes dans la résolution d’un problème avec un service public (passant de 54% en 2016 à 42% en

Oct 25, 202511 min

Le bio-ordinateur fusionne neurones et silicium

Le bio-ordinateur fusionne neurones et silicium. Cet ordinateur existe et vous pouvez l’acheter en ligne. c’est la société Cortical Lab qui l’a créé. Le bio-ordinateur fusionne neurones et silicium On avait évoqué l’ordinateur quantique dans un précédent article. Le bio ordinateur c’est un autre domaine d’applications. Le bio-ordinateur Cortical Lab Cortical Labs est une start-up australienne fondée en 2019. Elle est basée à Melbourne. Son objectif est de révolutionner l’informatique en intégrant des neurones vivants dans des puces de silicium.  L’entreprise a lancé, en mars 2025, son premier ordinateur biologique commercial, le CL1, décrit comme la première « intelligence biologique synthétique » (Synthetic Biological Intelligence – SBI) au monde. Ce système hybride combine des neurones humains cultivés à partir de cellules souches pluripotentes induites (iPSCs) avec une infrastructure de silicium équipée d’électrodes pour permettre une communication bidirectionnelle. Le CL1, fonctionne grâce à un système d’exploitation biologique (biOS) qui transmet des signaux électriques aux neurones et convertit leur activité en actions dans un monde numérique simulé. Les neurones, qui se connectent entre eux sur la puce, sont maintenus en vie dans un environnement contrôlé comprenant des systèmes de filtration, de régulation de la température, de mélange de gaz et de distribution de nutriments. Ces cultures peuvent survivre six mois ou plus, avec des expériences ayant démontré une survie jusqu’à un an. Notez que l’ordinateur a une coque transparente qui permet de voir les neurones travailler. Enfin on voit pas grand chose en vrai. Au-delà de l’IA que nous connaissons L’intelligence artificielle est synonyme de processeurs en silicium, de centres de données et d’une consommation d’énergie colossale. Une alternative révolutionnaire émerge, fusionnant le vivant et la machine : des neurones humains, cultivés en laboratoire, intégrés directement à des puces électroniques. L’entreprise australienne Cortical Labs est à la pointe de ce domaine, baptisé Intelligence Biologique Synthétique (SBI), avec son nouveau dispositif, le CL1. Cette technologie promet une intelligence plus dynamique, fondamentalement plus évolutive et plus économe en énergie. Cette technologie rappelle le dessin animé Capitaine FLAM qui avait avec lui le cerveaux du Professeur Simon Wright. On n’est pas encore parvenu à ce résultat. Professeur Simon Wright dans Capitaine FLAM ——————————————————————————– Les neurones en boîte apprennent plus vite qu’une IA de pointe La découverte la plus contre-intuitive est sans doute l’efficacité d’apprentissage de ces systèmes biologiques. Dans une expérience fondatrice nommée “DishBrain”, une culture d’environ 800 000 neurones humains a été intégrée à une simulation du jeu d’arcade Pong. De manière stupéfiante, ce réseau neuronal biologique a appris à jouer au jeu en seulement 5 minutes. C’est une réalisation majeure de Cortical LAB. Pour quantifier cette performance, une étude comparative a opposé ces réseaux neuronaux biologiques (BNN) à trois algorithmes d’apprentissage par renforcement profond (RL) de pointe (Intelligence Artificielle traditionnelle). Lorsque le nombre de sessions d’entraînement était limité à environ 70 épisodes (l’équivalent d’une session de 20 minutes pour le système biologique), les BNN ont systématiquement surpassé les algorithmes d’IA. Ce résultat est remarquable : un système biologique , recevant une quantité d’informations très limitée, s’est montré plus efficace pour apprendre une tâche spécifique que des algorithmes complexes et gourmands en ressources. Il est crucial de noter que cette supériorité réside dans l’efficacité d’échantillonnage ; avec des milliers de sessions d’entraînement supplémentaires, les algorithmes d’IA finissent par apprendre la tâche. La véritable percée est donc la vitesse à laquelle l’intelligence biologique s’adapte avec un minimum de données, un exploit qui reste hors de portée des systèmes en silicium. Un “ordinateur” vivant sur une simple puce de verre et de métal Au cœur du CL1 se trouvent des neurones humains cultivés en laboratoire, dérivés de cellules souches, qui sont ensuite placés sur une puce en silicium dotée d’un réseau de micro-électrodes. Le développement de ce matériel a nécessité de surmonter des obstacles importants. Les anciennes puces de type CMOS, bien que permettant une lecture à haute densité, présentaient des limites majeures : elles étaient opaques, empêchant l’observation directe des connexions

Oct 18, 202512 min

La France veut être un leader de l'intelligence artificielle

La France veut être un leader de l’intelligence artificielle. En avons nous les moyens, quels sont les défis à relever. Voyons ensemble les différents enjeux et solutions pour parvenir à cet objectif. La France veut être un leader de l’intelligence artificielle Le débat sur l’intelligence artificielle est omniprésent, mais dans le flot continu d’annonces et de promesses, il devient de plus en plus difficile de distinguer le battage médiatique de la réalité économique. Comment savoir où se situent véritablement la France et l’Europe dans cette course technologique qui redessine le monde ? Le paradoxe français : champion des talents, mais poids plume de l’investissement La France excelle dans la création de talents et de start-ups en intelligence artificielle, mais peine dramatiquement à financer leur croissance. Le pays est un leader en Europe, avec 781 start-ups en Intelligence artificielle, dépassant l’Allemagne (687). Mieux encore, la France abrite Mistral AI, le seul champion européen développant des modèles de langage d’usage général à cette échelle, qui se trouve en “situation d’hégémonie sur le marché européen”. A la date de la rédaction de cet article Mistal a été acquis par ASML qui détient 11% du capital. Quelques chiffes concernant la France : 81 Nombre de laboratoires d’intelligence artificielle en France en 2021. C’est le plus grand nombre parmi les pays européens. 600 Nombre de startups spécialisées en IA en 2023, soit une hausse de 24 % depuis 2021 13 500 Nombre de personnes qui travaillent dans les startups de l’IA en 2021 (pour 70 000 emplois indirects générés). Source : Stratégie nationale IA, ministère de l’économie Cependant, ce succès entrepreneurial masque une faiblesse structurelle massive. Entre 2013 et 2023, le secteur privé américain a investi 335 milliards de dollars dans l’Intelligence artificielle. Pour la même période, la France n’a mobilisé que 8 milliards de dollars. Cet écart abyssal s’explique par un déficit de capital-risque, particulièrement visible pour les entreprises en phase de croissance (“late stage gap”). C’est aussi que comparer la France et les USA c’est un problème d’échelle. Il faut comparer l’Europe et les USA pour être cohérent. Source : Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025. Si on veut comparer, il faut passer à l’echelle de l’europe et des USA. Initiative InvestAI : la Commission européenne a annoncé l’initiative InvestAI visant à mobiliser 200 milliards d’euros pour le développement de l’Intelligence artificielle en Europe. Ce montant ambitieux provient en grande partie d’une initiative privée, l’« AI Champions Initiative », qui rassemble plus de 60 entreprises européennes s’engageant sur 150 milliards d’euros, complétée par une contribution de 50 milliards d’euros de la Commission. 200 contre 300 ont est pas encore au même montant, mais c’est plus cohérent. Pour mobiliser des capitaux, le France a ses handicaps. Une fragmentation des marchés de capitaux européens et la frilosité des investisseurs institutionnels, contraints par des règles prudentielles comme Solvabilité II. En conséquence, il freine l’émergence de géants technologiques et pousse de nombreuses pépites prometteuses à se financer, voire à se délocaliser, aux États-Unis. Pas de fond souverains ou de retraite qui peuvent mobiliser des montants en milliard d’Euro comme les USA en disposent. Une économie morcelée entre plus de 20 pays qui ne parlent pas le même langue et n’ont pas les mêmes règles sur l’investissement. La France possède le génie créatif et la capacité d’innovation, mais elle ne parvient pas à leur donner les moyens financiers de leurs ambitions mondiales. Mais si le capital est le nerf de la guerre, l’impact sur le capital humain est tout aussi fondamental. L’IA, un surprenant levier d’égalité ? L’une des craintes les plus répandues concernant l’Intelligence artificielle est qu’elle creuse les inégalités en remplaçant massivement les travailleurs les moins qualifiés. Or, le rapport parlementaire met en lumière des études dont les premières conclusions vont à l’encontre de cette idée reçue. Loin de se substituer à l’humain, l’IA agit pour l’instant davantage comme un “copilote”. Les données chiffrées sont particulièrement éloquentes. Dans le secteur du support client, l’intelligence artificielle augmente la productivité des employés les moins expérimentés de 34 %. Pour la même tâche, l’augmentation moyenne de la productivité pour l’ensemble des employés n’est que de 14 %. Autrement dit, l’IA bénéficie de manière disproportionnée aux novices. Cette découverte est fondamentale : pl

Oct 12, 202514 min

La guerre hybride qui menace notre souveraineté

La guerre hybride qui menace notre souveraineté se caractérise par des attaque contre notre base industrielle et technologique. L’assemble nationale a publié un rapport du député Christophe PLASSARD (parti Horizon), que vous pouvez lire sur ce lien. Je m’en suis inspire pour dresser un panorama de la menace. Même si on parle de guerre aucun coup de feu ne sera tiré dans cet article. C’est bien la nature silencieuse de cet affrontement qui le rend particulièrement dangereux. La guerre hybride qui menace notre souveraineté La guerre hybride qui menace notre souveraineté La France est confrontée à une intensification sans précédent de la guerre économique. Cette menace vise particulièrement la base industrielle et technologique de défense (BITD) et cherche à capter, contrôler et s’approprier des richesses pour accroître la puissance des compétiteurs stratégiques de la France. La menace est décrite comme étant à la fois élevée, croissante et multiformes. Quelles sont les formes de la menace ? Les attaques contre les intérêts économiques et stratégiques français prennent plusieurs formes qui peuvent se combiner : Atteintes humaines : Celles-ci représentent plus d’un tiers des menaces et sont en hausse. Elles incluent l’espionnage, les indiscrétions internes de salariés, le chantage, ou encore le recrutement ciblé de compétences. Atteintes physiques : Elles représentent près d’une attaque sur cinq et ont quasiment doublé en un an. Il s’agit d’intrusions, de sabotages, de cambriolages, de dégradations ou de survols de sites sensibles par des drones. Cyberattaques : Leur nombre “explose”. En 2024, l’ANSSI a traité 4 386 “événements de sécurité”, soit une augmentation de 15 % par rapport à 2023. Ces attaques peuvent paralyser l’activité d’une entreprise, voire entraîner sa disparition. Menaces capitalistiques : Représentant 15 à 30 % des menaces, elles visent les entreprises financièrement fragiles par des prises de contrôle hostiles ou des investissements étrangers indirects. Le risque est la délocalisation, le transfert de technologies et la perte de souveraineté. Sans aller chercher du coté de nos ennemis, on voit bien que les USA ciblent des industries stratégiques en France. Ces acquissions se font dans le domaine des logiciels, de l’intelligence artificielle, du quantique. Menaces juridiques (Lawfare) : Certains États instrumentalisent le droit, notamment via des normes à portée extraterritoriale, pour entraver le développement d’entreprises concurrentes ou capter des données stratégiques. La politique actuelle de TRUMP le fait très officiellement. Menaces informationnelles et réputationnelles : Elles sont en augmentation et prennent la forme de campagnes de désinformation, de dénigrement ou de boycott pour déstabiliser les entreprises, souvent au moment où elles sont sur le point de remporter un marché à l’export. Lisez mon article sur TIKTOK, service chinois qui utilise son succès Qui sont les cibles principales ? La cible principale est la base industrielle et technologique de défense (BITD) française, qui compte 4 000 entreprises. Au sein de la BITD, les menaces se concentrent sur : Les PME (Petites et Moyennes Entreprises) : 80 % des atteintes visent les PME, qui sont considérées comme le “maillon le plus faible” de la chaîne de valeur car elles sont moins bien dotées que les grands groupes pour se défendre. Mais surtout détiennent des savoir faire utilisés dans les grands groupes. Les organismes de recherche : Les universités, écoles et laboratoires sont également des cibles de convoitise pour leur excellence et leur savoir-faire, et sont particulièrement vulnérables aux tentatives d’espionnage et d’ingérence. Du fait de leur ouverture et de leur mode de fonctionnement, elles sont moins prudentes. Les secteurs stratégiques : Les domaines où la France possède une expertise reconnue, comme l’aéronautique et le spatial (un tiers des attaques), les logiciels de gestion, sont particulièrement visés. D’où vient la menace ? Les menaces proviennent de tous les compétiteurs stratégiques de la France. Ceci concerne aussi bien les alliées comme les USA que des adversaires comme la Russie ou la chine. La Russie et la Chine sont identifiées comme les principales sources d’ingérences graves. La Russie reste très active en matière de cyberattaques et de désinformation, tandis que la Chine mène une stratégie de “pillage technologique”. Des alliés stratégiques : La menace peut aussi émaner de pays alliés. Les États-Unis sont explicitement cités comme menant une “véritable guerre économique contre l’Europe” en utilisant des outils juridiques comme la réglementation “Itar” ou le Cloud Act pour favoriser leurs propres entreprises. D’autres concurrents : Tous les États dotés d’une industrie de défense concurrente (Iran

Oct 5, 202513 min

TIKTOK l'application qui drogue la jeunesse

Plusieurs rapports de commissions d’enquête parlementaire françaises, l’une du Sénat et l’autre de l’Assemblée Nationale, ont formulé de nombreuses préconisations visant à réguler l’utilisation de TikTok et d’autres réseaux sociaux. En particulier pour protéger les mineurs. Ces recommandations s’articulent autour de plusieurs axes majeurs, allant de la sécurité nationale à la santé publique, en passant par la régulation des contenus et la transparence des plateformes. TIKTOK l’application qui drogue la jeunesse TIKTOK et la Chine Concernant se réseau social, c’est une société contrôlée par la Chine. Même si l’entreprise présente un visage international. Au bout du bout c’est un contrôle politique. Structure de l’entreprise et contrôle chinois Malgré les efforts de l’entreprise ByteDance pour présenter une séparation totale avec la Chine, les enquêtes parlementaires établissent que des liens étroits persistent à plusieurs niveaux. TikTok appartient à ByteDance Ltd, une société enregistrée aux îles Caïmans pour des raisons d’opacité. Bien que le PDG de TikTok, Shou Zi Chew, ait affirmé devant le Congrès américain que ByteDance est une entreprise internationale détenue par des investisseurs américains, la commission d’enquête française souligne que son fondateur chinois, Zhang Yiming, détient 20 % du capital et exercerait en réalité le contrôle. Ceci serait possible grâce à une structure de type “variable interest entities” (VIE), courante pour les entreprises chinoises, qui permet à un actionnaire minoritaire de contrôler la société. Zhang Yiming est lui-même soumis à un contrôle renforcé des autorités chinoises. Les représentants de TikTok nient systématiquement tout lien avec la Chine, en présentant ByteDance comme une entreprise internationale et en affirmant une “séparation totale” entre TikTok et la branche chinoise de ByteDance (nommée Douyin). Cependant, les commissions d’enquête françaises jugent que ces “deux axes de défense ne tiennent pas”. Compte tenu de la nature du régime chinois, il est évident que ces déclarations sont trompeuses. Dépendance technologique et opérationnelle Les sources indiquent une forte dépendance de TikTok envers les ressources et les technologies basées en Chine. Le rapport de la commission d’enquête du Sénat montre que TikTok dépend des technologies, des brevets et des ingénieurs de sa branche à Pékin. Cette branche chinoise est décrite comme le “véritable cœur de la société ByteDance” et est soumise au contrôle direct des autorités chinoises via une “golden share” (une action spécifique qui donne des droits de vote importants à son détenteur, ici l’État chinois). Lorsque les autorités américaines ont envisagé de forcer ByteDance à vendre TikTok à un concurrent, le gouvernement chinois a vivement réagi, arguant que des “technologies nationales essentielles sont en jeu”. Le rôle du Parti Communiste Chinois et les stratégies d’influence Les entreprises numériques chinoises, y compris TikTok, sont considérées comme des acteurs clés dans les stratégies d’influence menées par la Chine. C’est le soft power à la chinoise. Plus fin que les USA, il présentent des entreprises internationales comme indépendance du pouvoir dans un pays qui ne fait pas de différence entre le politique et l’économique. Le PCC exerce un “contrôle étroit” sur ces entreprises via divers moyens, comme la création de cellules du parti au sein des sociétés ou l’acquisition de “golden shares”. Le développement de ces entreprises ne peut se faire sans un “soutien affirmé des autorités chinoises”. La Chine a développé une stratégie de “guerre cognitive”, et le succès mondial de TikTok (plus d’un milliard d’utilisateurs) la rend particulièrement vulnérable aux pressions de Pékin pour relayer sa propagande ou censurer des contenus. L’algorithme de TikTok pourrait être paramétré pour défendre un agenda politique, en mettant en avant des contenus radicaux ou en censurant des sujets sensibles pour la Chine. Tiktok fait la promotion de contenus équivoques et polémiques selon les pays. Principalement à destination de la jeunesse. Collecte, transfert et utilisation des données La gestion des données des utilisateurs européens constitue une préoccupation majeure, notamment en ce qui concerne leur transfert vers la Chine. Les enquêtes ont mis en évidence des “transferts de données d’utilisateurs de TikTok vers la Chine et vers des ingénieurs basés en Chine”. Ces partages de données avec des entités du groupe situées en Chine sont justifiés de manière opaque pour “assurer certaines fonctions”. Pour rassurer les utilisateurs européens, TikTok a annoncé le projet “Clover”, visant à stocker leurs données en Europe. Cepe

Sep 20, 202515 min

Les USA veulent garder leur leadership en intelligence artificielle

Les USA veulent garder leur leadership en intelligence artificielle Les USA veulent garder leur leadership en intelligence artificielle. On a la chance qu’ils publient un document sur le sujet. On peut l’analyser ensemble. Vous allez voir que tous les coups sont permis. Le plan d’action pour l’IA des Etats unis, intitulé “Winning the Race: AMERICA’S AI ACTION PLAN” et publié en juillet 2025, a pour objectifs principaux de garantir la domination technologique mondiale des États-Unis dans le domaine de l’intelligence artificielle. Face à la Chine mais aussi à l’Europe, il est impératif pour les États-Unis et leurs alliés de gagner cette course à l’IA. Celui qui possédera le plus grand écosystème d’IA établira les normes mondiales et en tirera d’importants avantages économiques et militaires. La victoire dans cette course devrait également inaugurer un “âge d’or” de prospérité humaine, de compétitivité économique et de sécurité nationale pour le peuple américain, déclenchant une révolution industrielle, une révolution de l’information et une renaissance simultanées. J’ai repris ici l’esprit de ce document, on voit bien la nature un peu messianique du texte. Le plan d’action repose sur trois piliers stratégiques Pilier I : Accélérer l’innovation en IA Ce pilier vise à faire en sorte que l’Amérique dispose des systèmes d’IA les plus puissants au monde et qu’elle soit le leader mondial dans l’application créative et transformative de ces systèmes. Pour ce faire, le gouvernement fédéral doit créer les conditions propices à l’épanouissement de l’innovation menée par le secteur privé. Il s’agit de soutenir l’IA open-source, de faciliter l’adoption de l’IA dans l’industrie et le gouvernement. Coté humain, il faut développer des compétences de main-d’œuvre américaine. Il faudra investir dans la fabrication de puces nouvelle génération et la science basée sur l’IA. Construire des data center scientifiques de classe mondiale, Enfin, lutter contre les médias synthétiques (deepfakes). En lisant cela, on voit mieux ce qui se passe actuellement avec la politique douanière et migratoire aux Etats unis. Finalement c’est cohérent. En résumé protéger l’industrie américaine de pointe et lui donner les moyens de dominer les autres. Rapatrier le savoir faire de conception et production aux Etats unis. Mettre les compétences humaines des américains sur ces sujets. Pilier II : Construire l’infrastructure américaine de l’IA Ce pilier met l’accent sur la nécessité de construire et de maintenir une vaste infrastructure d’IA ainsi que l’énergie nécessaire pour l’alimenter. Cela inclut la multiplication les centres de données, des installations de fabrication de semi-conducteurs et l’infrastructure énergétique. Il faut donc simplifier les procédures d’installation de de fonctionnement par les législations favorables. Cela ne va pas dans le sens de la sobriété numérique. Les enjeux environnementaux vont passer au second plan. Il est également essentiel de développer un réseau de production électrique capable de suivre le rythme de l’innovation en IA. La préoccupation des USA sur l’énergie s’explique par les besoins à venir en électricité. Pilier III : Mener la diplomatie et la sécurité internationales en matière d’IA Pour réussir la compétition mondiale en IA, les États-Unis doivent non seulement promouvoir l’IA au niveau national, mais aussi stimuler l’adoption des systèmes, du matériel informatique et des normes d’IA américains dans le monde entier. Ce pilier vise à exporter l’IA américaine vers les alliés et partenaires, à contrer l’influence chinoise dans les organismes de gouvernance internationale, à renforcer l’application du contrôle des exportations de calcul d’IA. C’est en cours de mise en place avec les taxes sur les ventes de NVIDIA à la chine. Cette taxe de 15% est complétement inédite. Les USA posent aussi des conditions de puissance aux puces vendues en Chine. Légiférer pour réduire les contraintes règlementaires à l’IA Le plan prévoit des mesures significatives concernant la réglementation de l’intelligence artificielle (IA), axées principalement sur la réduction des obstacles et l’accélération de l’innovation. Voici les points clés concernant la réglementation ou la non règlementation : Suppression de la bureaucratie et des réglementations contraignantes : Le plan vise à supprimer la bureaucratie et les réglementations pour permettre au secteur privé de maintenir le leadership mondial en matière d’IA. L’IA est jugée trop importante pour être étouffée par la bureaucratie Le président Trump a déjà pris des mesures en ce sens, notamment en annulant le décret exécutif 1411

Sep 13, 202511 min

Les ados et le numérique

Les ados et le numérique alimentent beaucoup de fantasmes. Les intervenants son nombreux. Les parents en premier lieu veulent le meilleur pour leurs enfants. L’éducation nationale doit les instruire en intégrant les innovations. Les publicitaires savent que ce sont des proies faciles et qu’ils peuvent les influencer pour toute leur vie. Il faut compter aussi avec les autres ado car on ne se fait pas de cadeau à cet Age. Les ados et le numérique Au milieu de tout cela on trouve les smartphones, les consoles et les PC. Les ado et le numérique Les usages numériques des adolescents, particulièrement ceux âgés de 11 à 15 ans, sont bien plus complexes et divers que les clichés habituels d’abêtissement et d’addiction ne le suggèrent. En particulier les jeunes sont bien plus actifs et conscients que victimes. Une étude française récente, intitulée “Numérique adolescent et vie privée“, menée par Mehdi Arfaoui et Jennifer Elbaz de la CNIL, a éclairé cette entrée dans le monde numérique, se basant sur une revue de littérature scientifique, 130 entretiens avec des collégiens et 600 questionnaires remplis par des parents. Une entrée progressive et diversifiée dans le numérique L’arrivée dans le monde numérique n’est pas brutale, comme souvent imaginé à l’entrée en 6ᵉ, mais se fait plutôt par étapes, souvent via la tablette ou l’ordinateur familial, ou le téléphone des parents, et toujours au sein du foyer. Les parents sont présents durant cette étape et en profitent pour instaurer les premières règles. Dès l’acquisition de leur premier terminal, souvent à l’entrée en 6ème, l’usage est avant tout pour rester en contact avec les copains. Coté parents, c’est pour pister et contacter le petit à tout moment Contrairement aux idées reçues, les enfants ne se précipitent pas sur des plateformes comme Instagram ou TikTok une fois équipés d’un appareil individuel. Ces réseaux sont perçus avec méfiance par les plus jeunes et leurs parents. De plus maintenant des limites d’âges existent pour ouvrir un compte. Autre usage majeur pour les jeunes en collège publique Pronote et environnements numériques de travail (ENT). Ce logiciel édité par DOCAPOSTE s’est imposé comme le doudou des enfants et des parents pour les rapport entre le collège et les familles. Les jeux vidéo en priorité Derrière les usages scolaires, les jeux vidéos sont très utilisés soit sur smartphone soit sur console. Les jeux ne sont pas les mêmes selon le sexe. En clair on reproduit les mêmes schémas que les jeux de la vraie vie (IRL). Les garçons et les filles n’ont pas les mêmes centres d’intérêts. Les jeux vidéo sont perçus par les adolescents et leurs parents comme un loisir moins risqué que les plateformes sociales. Les adolescents prêtent moins d’attention aux risques liés à l’exploitation commerciale de leurs données par les plateformes de jeux, car ils en ont rarement fait l’expérience concrète. Les jeux vidéo jouent un rôle primordial dans la vie sociale des adolescents. Ils agissent comme un « espace de vie sociale partagé avec les pairs », permettant de consolider les relations et de renouveler les expériences de sociabilité. Ils offrent également des opportunités techniques et culturelles pour l’invention et l’affirmation de soi à l’adolescence, une période d’expérimentation identitaire importante. L’orientation vers certains types de jeux vidéo est d’ailleurs fortement liée à des facteurs sociaux comme l’âge, le genre et la classe sociale. La musique en permanence Une caractéristique du numérique, c’est que l’écoute de la musique a été totalement modifiée. Avec le smartphone via le casque ou les écouteurs. Les ados sont connectés à leurs musiques en permanence. Les playlists sont celles de leur fournisseur de contenus (spotify, deezer, Amazon) ou des morceaux téléchargés. Les adolescents consomment de la musique en ligne principalement via le streaming. Environ 89 % des adolescents écoutent de la musique quotidiennement sur leurs smartphones. Le streaming musical est devenu un réflexe, particulièrement durant les déplacements. Les plateformes comme YouTube, Spotify et Deezer sont les plus fréquemment utilisées pour accéder à une grande variété de genres musicaux. Les jeunes consacrent en moyenne environ une heure et demie par jour, soit environ 8 heures par semaine, à l’écoute musicale. Une étude indique que 54 % des adolescents écoutent au moins deux heures de musique par jour, et 17,4 % écoutent jusqu’à cinq heures ou plus. La musique accompagne leurs activités quotidiennes, qu’il s’agisse de faire leurs devoirs, de se déplacer, ou même de s’endormir, puisque 52,2 % des adolescents s’endorment en écoutant de la musique. Les goûts musicaux des adolescents sont dominés par le rap, suivi de près par la pop, le rock et la musique électronique. Ils

Sep 6, 202511 min

Le processeur haute performance européen est annoncé

Le processeur haute performance européen est annoncé en phase de production. Il est conçu en partie en France. Le projet Rhea1 est le nom donné au processeur hautes performances de première génération développé par la société française SiPearl. Il est conçu spécifiquement pour le calcul haute performance (HPC) et vise à équiper les supercalculateurs européens (dit exascale en anglais). Quelques mots sur SiPearl le concepteur du Rhea1 SiPearl est une entreprise basée en France. elle a été créée en juin 2019 par Philippe Notton pour donner vie au projet du consortium European Processor Initiative (EPI) dont l’objectif est de favoriser le déploiement en Europe de technologies microprocesseur haute performance et basse consommation. La société a été recapitalisée après une procédure de conciliation avec les créanciers. Elle vient de passer un cap difficile. Société à capitaux privés, SiPearl bénéficie du soutien de l’Europe et d’institutionnels que l’on retrouve dans sont conseil d’administration. Sont présents des représentants de EVIDEN (ATOS), la Banque Publique d’Investissement (BPI,) de ARM, le concepteur de processeurs (sur laquelle est basée la technologie), et la Banque Européenne d’Investissement (BEI) SiPearl développe les microprocesseurs européens qui accompagneront les supercalculateurs d’Europe pour atteindre la puissance exascale. Elle travaille en étroite collaboration avec ses 30 partenaires du consortium EPI  – communauté scientifique, centres de supercalcul, grands noms de l’informatique, l’électronique et l’automobile – qui sont ses parties prenantes, futurs clients et utilisateurs finaux. Le Conseil d’administration de SiPearl a été récemment réorganisé après une levée de fonds de 90 M€, et il est présidé par Ian Jenks.  Point clés du processeur RHEA1 Spécifications Techniques du processeur : Le processeur est développé sur une base ARM. Technologie RISc à faible consommation énergétique. Identique à ce que vous trouvez dans les smartphones et les PC Apple. Notez que cette technologie est plus performance que le technologie CISC Intel qui équipe les PC Windows. L’objectif principal de Rhea1 est de garantir la souveraineté européenne en matière de calcul intensif, réduisant ainsi la dépendance aux technologies étrangères pour des applications critiques, y compris la dissuasion nucléaire C’est pas moins de 80 cœurs ARM Neoverse qui sont associés pour constituer ce processeur. Il intègre 80 milliards de transistors. La puce est gravée et assemblée par le Taïwanais TSMC en utilisant le procédé N6 (6 nm). La souveraineté est surtout là pour la conception. Pour la fabrication et les technologies de base, l’Europe doit faire appels aux compétences de ARM (UK) et TSMC (Taiwan). Il n’existe pas de fondeur capable de le produire en Europe. La souveraineté est également là pour les applications militaires, et nucléaires. Logiciels et Programmation : Le CPU Rhea1 sera supporté par un large éventail de compilateurs, bibliothèques et outils, incluant des langages de programmation traditionnels comme C/C++, Go et Rust, ainsi que des frameworks d’intelligence artificielle modernes comme TensorFlow ou PyTorch. Calendrier de Disponibilité : Les premiers échantillons de Rhea1 sont désormais attendus pour 2025. Cela représente un retard par rapport aux prévisions antérieures qui tablaient sur une commercialisation début ou courant 2024. Le supercalculateur JUPITER, qui doit intégrer Rhea1, devait être accessible fin 2024, ce qui implique que son calendrier pourrait également être affecté par ce retard. Le premier client majeur de SiPearl sera le supercalculateur européen exascale JUPITER. Il sera construit en Allemagne par Eviden et exploité par le Forschungszentrum Jülich. JUPITER utilisera les processeurs Rhea1 pour son module Cluster à usage général, tandis que sa puissance principale proviendra de GPU Nvidia. Un partenariat a été mis en place avec Nvidia. C’est sur ce point que la souveraineté est un peu mise à mal. L’intégration des composants hardware repose sur une technologie NVIDIA autant que européenne. La version finale sera équipée de 24000 puces NVIDIA GH200. Tout cet équipement peut expliquer le prix de chaque unité de Jupiter à 500 million d’euros. On n’est clairement pas dans des budgets grand public. Un supercalculateur exaflopique ou exascale Ce sont des serveurs massivement parallèles dont la puissance de calcul est supérieure à 10 exposant 18 flops (Un intel core I7 à une puissance de 10 exposant 9 flops). Pour fonctionner ils sollicitent plusieurs processeurs en parallèles qui découpent les taches en sous taches et les exécutent simultanément. Les principales applications sont les calculs haute performance et l’analyse de données complexes. Les domaines d’applications se retrouvent dans la simulation pour l’automobile, la physique, le nucléaire, les prototypes vir

Aug 30, 202513 min

Stratégie cyber-sécurité de la France

Stratégie cyber-sécurité de la France est bien définie. La France a élaboré et fait évoluer sa stratégie nationale en matière de cyber-sécurité face à l’amplification et à la sophistication des cyber-menaces, ainsi qu’en réponse au cadre réglementaire européen. Stratégie cyber-sécurité de la France Origine et Évolution La lutte contre les cyber-menaces a été organisée en France dès 2004, puis renforcée après l’attaque informatique subie par l’Estonie en 2007. La Nouvelle Stratégie Nationale de Cyber-sécurité (2024) La nouvelle stratégie nationale de cyber-sécurité a été définie fin 2024 et validée en novembre 2024 par le conseil de défense et de sécurité nationale. Elle s’inscrit dans un nouveau cadre défini par l’évolution de la menace et la réglementation européenne, notamment les directives NIS 2, REC et DORA. Son objectif est de définir une politique publique globale qui vise à développer l’expertise, à utiliser des technologies avancées, et à renforcer le pilotage pour répondre aux agressions et consolider la protection des systèmes d’information de l’État et des entités importantes. Elle vise également à construire une “société de confiance” cyber. La stratégie confirme le maintien d’un comité directeur cyber, présidé par le Premier ministre, qui abordera les trois volets de la sécurité numérique pour définir les grandes orientations de l’État en cybersécurité. Elle instaure un comité de pilotage des politiques publiques cyber (C3PC), de nature interministérielle, sous la responsabilité du SGDSN. Ce comité est chargé d’établir la planification interministérielle pluriannuelle des ressources de l’État, sa déclinaison annuelle, et le suivi des moyens dédiés dans les ministères. Mise en Œuvre et Recommandations Bien que finalisée, cette nouvelle stratégie n’a pas encore fait l’objet d’une publication officielle ni d’une déclinaison publique sous forme de plan d’action et de financements dédiés. C’est bien là un point faible du sujet. Pour garantir son effectivité, elle doit être adossée à un échéancier précis des actions à mener et à une programmation pluriannuelle des ressources à mettre en œuvre dans la sphère des services de l’État. Elle nécessite de préciser les missions de l’ANSSI et d’accompagner la construction de l’écosystème de cyber-sécurité ainsi que la diffusion de la culture de la sécurité numérique dans l’ensemble de la société, en rationalisant son financement et les dispositifs de soutien. Le rôle central de l’ANSSI L’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) joue un rôle central et déterminant dans la cyber-sécurité civile en France. Créée par décret n° 2009-834 du 7 juillet 2009, l’ANSSI est un service à compétence nationale rattaché au Secrétariat Général de la Défense et de la Sécurité Nationale (SGDSN), placé auprès du Premier ministre. Ce positionnement stratégique souligne le haut niveau de prise en compte de la menace et la nécessité d’un traitement multisectoriel et interministériel. Voici les principales missions et fonctions de l’ANSSI, ainsi que son rôle dans la stratégie cyber-sécurité : Autorité nationale de sécurité et de défense des systèmes d’information (SSI): Elle est l’expert français de cybersécurité dans les relations internationales. Elle contribue à la sécurisation des systèmes d’information des organisations internationales dont la France est partie, notamment pour la protection des informations classifiées. Elle soutient les travaux relatifs à l’élaboration de la stratégie nationale de cybersécurité. Elle est chargée de la transposition de la directive européenne NIS 2 en droit français. Conseil et soutien: Elle assure une mission de conseil et de soutien technique aux administrations, aux Opérateurs d’Importance Vitale (OIV), aux Opérateurs de Services Essentiels (OSE), et aux Fournisseurs de Services Numériques (FSN) pour la conception et la mise en œuvre de leurs systèmes d’information les plus critiques. L’assistance technique est majoritairement dédiée aux services de l’État, mais aussi aux OIV/OSE et à des organismes internationaux. Centre de Réponse aux Incidents de Sécurité (CERT-FR): Elle est le centre de réponse aux incidents de sécurité gouvernemental et national français. Le CERT-FR répond aux demandes d’assistance suite à des incidents de sécurité, traite les alertes, détecte les attaques ciblant les systèmes d’information gouvernementaux, et identifie les vulnérabilités. Elle assure le suivi des incidents cyber et leur remédiation. La complexité des opérations d’endiguement et de gestion de crise est croissante. Elle a accompagné l’émergence et la structuration des CSIRT (Computer Security Incident Response Team) ministériels et territoriaux, et coordonne les répons

Jul 5, 20258 min

L'intelligence artificielle redéfini l'entreprise

L’intelligence artificielle redéfini l’entreprise et les méthodes de travail. On a eu l’occasion de traiter du sujet avec la dernière étude de Microsoft sur le travail infini. Nous allons maintenant constater les impacts sur l’entreprise elle-même. L’intelligence artificielle (IA) est un facteur de transformation majeur qui redéfinit en profondeur l’organisation et la productivité des entreprises, marquant l’émergence d’une nouvelle ère professionnelle. Actuellement on commence à lire des articles sur les Entreprises frontières qui définissent la nouvelle organisation du travail. Ce sont des entreprises qui intègrent massivement l’intelligence artificielle pour leurs opérations courantes. Impacts sur l’Organisation des Entreprises Émergence des “Frontier Firms” et d’une Nouvelle Organisation Hybride : Elles représentent un nouveau type d’entreprises structurées autour de l’intelligence à la demande, fonctionnant avec des équipes “hybrides” composées d’humains et d’agents IA. Ces entreprises peuvent s’adapter et créer de la valeur plus rapidement. Des sociétés comme Accenture, Wells Fargo, Estée Lauder et Bayer sont pionnières dans ce modèle. Une Évolution en Trois Phases : La transition vers la “Frontier Firm” se fera sur plusieurs décennies, progressant par étapes. Phase 1 : L’IA agit comme un assistant, aidant les humains à accomplir des tâches plus rapidement et mieux. Phase 2 : Les agents IA rejoignent les équipes en tant que “collègues numériques”, prenant en charge des tâches spécifiques sous la direction humaine. Phase 3 : Les humains dirigent, tandis que les IA opèrent des processus et des flux de travail entiers. Transformation des Organigrammes en “Work Charts” Humain-IA : Les organigrammes traditionnels, basés sur l’expertise et les fonctions, sont remplacés par des “Work Charts” dynamiques et évolutifs. Ces nouveaux modèles d’organisation sont axés sur les objectifs plutôt que sur les fonctions, rappelant l’industrie cinématographique où des équipes se forment et se dissolvent selon les projets. Le ratio humain-IA deviendra une donnée stratégique clé pour optimiser la performance des équipes. Création de Nouveaux Départements : “Intelligent Resources” : Microsoft anticipe l’émergence de départements dédiés à l’hybridation des ressources humaines et artificielles. Ces divisions d'”Intelligent Resources” seront essentielles pour gérer l’interaction entre les humains et les agents IA, devenant une source d’avantage concurrentiel. Changement de Mentalité des Employés et Rôle de l'”Agent Boss” : Le “mindset” de l’employé est crucial : 46% des professionnels voient déjà l’IA comme un partenaire de pensée (“Thought Partner”). Pour travailler efficacement avec l’IA, les employés devront adopter cette mentalité, apprenant à itérer, déléguer et affiner les résultats de l’IA. L’ère de l'”Agent Boss” débute, où chaque employé devient celui qui construit, délègue à, et gère des agents pour amplifier son impact. Nouvelles Fonctions et Compétences : De nouveaux rôles spécifiques à l’IA émergent, tels que formateurs en IA, spécialistes des données IA, spécialistes de la sécurité IA, et stratèges IA dans divers domaines. L’alphabétisation en IA est la compétence la plus recherchée en 2025. Les compétences humaines comme la médiation des conflits, l’adaptabilité et la pensée innovante sont également en hausse, soulignant l’importance d’associer les capacités de l’IA avec les compétences humaines irremplaçables. Impacts sur la Productivité des Entreprises Atténuation du “Gap de Productivité” / “Capacité de Travail” : L’IA est perçue comme une solution clé pour augmenter la productivité. Les professionnels en entreprise atteignent un point de saturation, étant interrompus près de 275 fois par jour et confrontés à une augmentation de 16% des réunions après 20h en un an. 82% des leaders considèrent l’IA comme la solution pour augmenter la capacité de travail sans surcharger les équipes. L’IA offre une intelligence à la demande, abondante et abordable, permettant aux entreprises d’augmenter leur capacité selon les besoins. Libération des Humains pour des Tâches à Forte Valeur Ajoutée : L’IA contribue à séparer les travailleurs du savoir du travail du savoir, libérant les humains pour des tâches nécessitant créativité, jugement et construction de liens. Il est plus efficace de faire travailler l’IA et les humains en tandem, compte tenu de la connaissance des préférences humaines et de la capacité de jugement moral des humains. Les employés se tournent vers l’IA pour sa disponibilité 24h/24 et 7j/7 (42%), sa

Jun 28, 202510 min

Le concept de la journée de travail infinie

Nous allons découvrir ensemble le concept de la journée de travail infinie, un phénomène où les frontières entre le travail et la vie personnelle s’estompent en raison d’une surcharge de communication numérique et d’un manque de temps de concentration. Ce concept est développé par Microsoft sur la base des données télémétriques de Microsoft 365 et une enquête Work Trend Index. Il révèle comment les employés sont constamment interrompus par les e-mails, les messages et les réunions, même en dehors des heures de travail traditionnelles et le week-end. Microsoft propose des solutions par une refonte des méthodes de travail. Regardons cela en détail. Le concept de la journée de travail infinie Microsoft a mené une étude en analysant les usages de Office 365. Le travail infinie est un épuisement des salariés qui sont connectés en permanence et prennent des habitudes de travail nocives pour eux et les autres. Début de journée précoce et surcharge d’informations: La journée de travail commence souvent avant même que les gens ne soient levés. Les notifications commencent sur le smartphone. Comme il sert de réveil, il est a coté du lit. Dès 6h du matin, 40% des utilisateurs de Microsoft 365 consultent déjà leurs courriels. C’est la première activité de la journée. Le phénomène de stress commence. Stress des sujets à traiter dès la matin et quantité d’informations à prendre en compte au réveil. Un employé reçoit en moyenne 117 courriels par jour, la plupart étant survolés en moins de 60 secondes. Mais surtout les plupart de ces mails ne sont pas clair sur leurs intentions. Les mails de masse (avec plus de 20 destinataires) ont augmenté de 7% en un an (2024), tandis que les échanges individuels ont diminué de 5%. Quand on part à la cantonade, personne n’intervient. tout le monde pense qu’un autre va le faire. A partir de 8h du matin, Microsoft Teams devient le canal de communication dominant. soit par chat soit par call. Un employé moyen reçoit 153 messages Teams par jour. Le volume de messages par personne a augmenté de 6% à l’échelle mondiale. Entre Outlook et Teams on est à 270 messages par jour juste pour le travail. Ces notifications créent un rythme frénétique pour la journée. entre les bip de la messagerie, de Teams et du Whatsapp de l’école. La perturbations sont constantes. Temps de concentration fragmenté La conséquence de cet afflux de messages c’est une fractionnent des temps de concentration. Quelle est le planning type d’un employé en journée de travail infinie. Les heures les plus productives de la journée (entre 9h et 11h, et entre 13h et 15h) sont accaparées par les réunions, laissant peu de place au travail en profondeur. Le mardi est le jour avec la plus forte charge de réunions (23%). J’aurais parié pour le lundi. Mais avec la télétravail le lundi et le vendredi. Le mardi devient le jour ou le plus sont présents au bureau À 11h, l’activité de messagerie atteint son pic, faisant de cette heure la plus surchargée en raison de la convergence des messages en temps réel, des réunions et du changement constant d’applications, rendant la concentration presque impossible. Les employés sont interrompus en moyenne toutes les 2 minutes par une réunion, un courriel ou une notification, ce qui n’apparaît pas sur les calendriers mais est fortement ressenti. Près de la moitié des employés (48%) et plus de la moitié des dirigeants (52%) affirment que leur travail est chaotique et fragmenté. Le problème n’est pas seulement le volume, mais aussi l’étalement (“sprawl”), la complexité croissante de la coordination et la charge mentale plus lourde. Même si l’employé est organisé et gère sont temps. Il a se sentiment de désorganisation et de stress Désorganisation et stress Le numérique affranchi des règles de politesse. On peut déranger tout le monde quand on veut. La prise de rendez-vous est une option. Les chiffres font peur 57% des réunions sont des appels ad hoc, non planifiés, sans invitation calendrier. Une réunion planifiée sur dix est réservée à la dernière minute. Les grandes réunions (65 participants ou plus) sont le type de réunion qui connaît la plus forte croissance, entraînant une dilution des responsabilités, un flou décisionnel et une fatigue liée à l’écoute passive. Près d’un tiers des réunions s’étendent sur plusieurs fuseaux horaires, une augmentation de 35% depuis 2021. Autre tendance, finir au dernier moment. Les modifications de dernière minute dans PowerPoint augmentent de 122% dans les 10 minutes précédant une réunion, le signe d’un stress organisationnel permanent et d’un fonctionnement réactif plutôt que proactif. Érosion des frontières entre travail et vie personnelle Microsoft défini le phénomène du “triple pic” (matin, après-midi, soir), introduit pendant la pandémie, s’est normalisé. Le travail de nuit et le week end p

Jun 21, 202511 min

L'intelligence artificielle n'est pas une technologie

L’intelligence artificielle n’est pas une technologie. C’est un service. Je lis tous les jours des rapports ou des articles sur l’IA et comment il faudra s’en servir. Il existe des gourous qui vous initient. Ils présentent l’IA comme une technologie qu’il faut maitriser et dompter pour avoir les meilleurs résultats. Parler le langage de l’IA comme on apprend une langue étrangère. Ce qu’il faut intégrer avec l’IA, c’est que le mode commande ou les prompts, vont disparaitre. Comme pour les langages de programmation aujourd’hui. Il ne faut pas savoir programmer pour utiliser l’informatique. Comme il ne faut pas connaitre le langage Morse pour les télécommunications. Apple à d’ailleurs fait une bonne publicité pour le Mac en comparant ceux qui apprenaient le morse avec ceux qui utilisent le MAC. Avec le Mac depuis le début pas de mode commande. On ne fait pas d’informatique quand on a un MAC. Alors que dans les années 90 avec un PC, il fallait connaitre les commande MS/DOS. Actuellement qui taperait DIR pour avoir le contenu d’un dossier ? J’insiste sur ce point car actuellement une bonne partie des usage IA, c’est des prompts ou des questions en texte. Pour gérer cette compétence, on a des prompt alchimistes qui donnent des formations. C’est la partie archaïque de l’IA. L’IA moderne va se fondre dans les applications et les services. Elle va devenir invisible. Comme les bits ne se voient pas dans l’informatique moderne. Cette introduction pour poser le sujet et ne pas se tromper sur les enjeux de l’IA. L’IA va disparaitre tout en étant totalement intégrée à tous les services en ligne. Elle va se rendre invisible pour l’utilisateur mais indispensable pour ses usages. Elle va passer d’une technologie, à un service, avec la maturité. L’IA devenant partie prenante de tous les services, et une partie des logiciels qui le pilotent, il faut prendre conscience de son impact. Impact de l’Intelligence Artificielle sur la démocratie L’intelligence artificielle est un levier de remodelage profond des sociétés européennes. Le manque remise en cause des réponses apportées par le IA aura un impact sur le savoir, la démocratie, le libre arbitre et la critique. 1. Remodelage des Sociétés et Données Personnelles L’IA démultiplie les capacités d’analyse et de traitement des données, facilitant l’aide à la décision et l’automatisation de tâches complexes. Cependant, elle a permis un processus massif d’extraction de données personnelles, formant des profils ultra-détaillés sur les utilisateurs, y compris leurs comportements, préférences, et même des données sensibles comme l’orientation sexuelle, les convictions politiques, avec une grande précision. Ce “surplus comportemental” est utilisé pour le microciblage publicitaire et politique. Les entreprises sont passées de modèles “productivistes” à “extractivistes”, visant à collecter le plus de données possible. Cette capacité à tracker les personnes et leur donner une note sociale est particulièrement risqué. Cette politique est en place en Chine. 2. Menaces sur les Libertés Fondamentales et la Démocratie L’IA pose de nouveaux défis aux libertés fondamentales et aux régimes politiques. On peut voir les aspects négatifs ou positifs avec le même recul. Vie privée et manipulation : L’analyse des données permet de “deviner” les pensées et convictions des individus. Des expériences sont menées pour capter les émotions et réactions physiologiques directement du cerveau. Des applications peuvent avoir des causes justes. Information et manipulations politiques : Les technologies d’IA, associées aux réseaux sociaux, remettent en cause l’information nécessaire à l’exercice du libre arbitre des citoyens. Elles facilitent la création de “deepfakes”, la coordination de mouvements d’opinion artificiels (“astroturfing”), et l’envoi de messages ciblés. L’IA générative permet de créer et personnaliser des messages à moindre coût pour des millions d’utilisateurs, rendant la désinformation accessible même à des acteurs privés ou isolés. Elle abaisse aussi le cout de production de contenus et les rendent accessibles au plus grand nombre. Vulnérabilités démocratiques : L’IA peut saper les fondements de la démocratie, inutile de donner son avis si l’IA a tout compris. La tendance à l’autocratie ou faire confiance au algorithmes est établie avec les outils mis à disposition du public. L’IA peut également induire une “fatigue de soi” qui inciterait les sociétés à se reposer entièrement sur ces “nouveaux oracles” pour l’organisation des débats démocratiques et les processus électoraux. L’implication de chacun dans la vie pub

Jun 14, 20258 min

La cryptologie post quantique

La cryptologie post quantique est un ensemble de techniques de cryptologie bien plus puissantes que les techniques actuelles basées sur l’informatique classique. A terme ces techniques pourraient décrypter tous les messages actuels ce qui mets en risque les échanges. La cryptologie post quantique définitions Le terme cryptologie post quantique est une abréviation pour “Post-Quantum Cryptography”. Son objectif principal est de remplacer les équipements ou logiciels des systèmes cryptographiques actuels pour protéger vos données ou informations contre une attaque quantique éventuelle. Les algorithmes PQC reposent sur des équations mathématiques (telles que la cryptographie basée sur un réseau ou multivariée) considérées comme trop difficiles à résoudre pour les ordinateurs quantiques. Elle protège les données contre les tentatives de déchiffrement effectuées via des ordinateurs classiques et quantiques. La PQC entend sécuriser les données tant face aux futurs ordinateurs quantiques qu’aux protocoles et systèmes réseau actuels. Elle repose sur des équations mathématiques très complexes, exploitant les avantages des propriétés quantiques pour créer des équations si difficiles à résoudre que même les ordinateurs quantiques ne peuvent “sauter” des étapes pour aboutir directement à la solution correcte. Sa structure de base étant la même que celle du chiffrement classique, la PQC peut être déployée à l’aide de méthodes similaires et elle peut protéger les systèmes actuels. La transition post-quantique concerne en premier lieu la cryptographie asymétrique, notamment pour les usages en confidentialité et échanges de clé pour se prémunir contre des attaques rétroactives. Cela inclut également les signatures numériques. Ce sont des méthodes pour se protéger maintenant des futures systèmes quantiques tout en utilisant des technologies accessibles. Définir des normes de cryptage L’enjeu de la normalisation dans le domaine de la cryptographie post-quantique (PQC) est multifacette et crucial pour anticiper et contrer la menace posée par les futurs ordinateurs quantiques capables de briser les algorithmes cryptographiques actuels. Garantir la sécurité future des communications et des données sensibles : Les algorithmes de chiffrement actuels, comme RSA et ECC, reposent sur des problèmes mathématiques difficiles à résoudre pour les ordinateurs classiques, mais qui deviendront vulnérables face aux ordinateurs quantiques dotés d’algorithmes comme celui de Shor. La normalisation vise à sélectionner et valider de nouveaux algorithmes PQC basés sur des problèmes mathématiques réputés insolubles, même pour les ordinateurs quantiques. Ces normes sont essentielles pour protéger l’ensemble des communications numériques sécurisées, des transactions bancaires aux échanges gouvernementaux. Lutter contre la menace “récolter maintenant, déchiffrer plus tard” (Harvest Now, Decrypt Later – HNDL) : Des acteurs malveillants stockent déjà des données chiffrées aujourd’hui, dans l’espoir de pouvoir les déchiffrer plus tard lorsque des ordinateurs quantiques puissants seront disponibles. La normalisation de la PQC fournit les outils nécessaires pour commencer à protéger les données dès maintenant contre cette menace future. Faciliter une transition coordonnée et harmonisée : Le passage à la PQC est un processus complexe qui prendra plusieurs années et nécessite la mise à jour non seulement des algorithmes, mais aussi des protocoles et des appareils. Une approche harmonisée et coordonnée, encouragée notamment par la Commission européenne pour les États membres de l’UE, est nécessaire pour assurer l’interopérabilité entre les pays, les secteurs et les systèmes. La normalisation, comme celle menée par le NIST, fournit un ensemble commun d’algorithmes sur lesquels la communauté peut s’appuyer. Guider les organisations dans leur préparation et leur migration : De nombreuses organisations, y compris les bénéficiaires de l’ANSSI, manquent de compréhension des enjeux, de moyens et de planification pour la transition. La normalisation apporte des recommandations claires et un cadre technique pour l’élaboration de feuilles de route de préparation, l’inventaire des actifs cryptographiques, l’identification des cas d’usage prioritaires et la migration. Stimuler l’émergence et le déploiement de solutions PQC : L’absence d’offre de services et de solutions d’accompagnement à la transition est un frein majeur. En définissant des standards validés, les organismes de normalisation soutiennent l’émergence de produits et solutions permettant de faciliter la transition. Cela encourage les fournisseurs à développer des offres et les acheteurs (organisations) à considérer le sujet comme d’actualité. Fournir une base pour d’éventuelles obligations réglementaires : L’absence d’ob

Jun 9, 20256 min

Les transports publics cible des cyber criminels

Les transports publics cibles des cyber criminels. C’est un aspect souvent peu évoqué du risque cyber. De plus en plus de technologies informatiques sont intégrées dans les solutions de mobilité. L’agence nationale de la Sécurité des Systèmes d’information (ANSSI) alerte sur plusieurs types de menaces informatiques qui pèsent sur les transports urbains français et mondiaux. Le secteur est considéré comme sensible en raison de sa criticité, transportant des millions d’usagers par jour. La complexité de ses vastes réseaux interconnectés avec de nombreuses entités externes augmente la surface d’attaque. Les transports publics cible des cyber criminels L’ANSSI a traité 123 événements de sécurité d’origine cyber dans le secteur des transports urbains (ferroviaire, routier, guidé, fluvial) entre janvier 2020 et décembre 2024, dont 32 incidents confirmés. Les trois principales manifestations de ces attaques sont les attaques par déni de service distribué (DDoS), les fuites de données et les usurpations d’identité, représentant plus de la moitié des signalements et incidents rapportés à l’ANSSI. Cependant, l’ANSSI n’a pas identifié de conséquences significatives sur le fonctionnement des entités françaises concernées suite à ces activités, les attaques DDoS ayant notamment été contenues. Les motivations des attaquants sont principalement de trois ordres : la finalité lucrative, la finalité de déstabilisation et la finalité d’espionnage. Menace à finalité lucrative : Rançongiciels et extorsions : Ces attaques visent à chiffrer les systèmes d’information (SI) des entreprises de transport pour leur extorquer des fonds. En raison de la taille importante des entreprises et de la criticité des services (qui supportent mal les interruptions), elles constituent des cibles d’intérêt pour la cybercriminalité. Bien qu’elles puissent potentiellement toucher un grand nombre d’usagers et affecter les services internes, les cas connus en France entre 2020 et 2024 n’ont pas causé de perturbation significative du fonctionnement des entités attaquées. Les entreprises de VTC et de taxis sont aussi des cibles régulières. Le principal vecteur de compromission identifié est l’hameçonnage, mais l’exploitation de vulnérabilités ou une approche opportuniste sont également courantes. Attaques contre les bases de données à des fins d’exploitation, d’exfiltration et de revente : Les entités de transport urbain gèrent d’importantes quantités de données personnelles (usagers, employés) et stratégiques (comptables, savoir-faire) qui ont une valeur à la revente. Un grand nombre d’incidents rapportés à l’ANSSI impliquent l’exfiltration de données personnelles. Ces fuites proviennent souvent de la compromission de prestataires externes, soulignant le risque lié aux interconnexions. L’incident d’Île-de-France Mobilités en octobre 2023, où 4 000 adresses email et mots de passe ont été exfiltrés, est un exemple. Les gestionnaires de flottes comme les taxis/VTC sont aussi des cibles, avec des données (trajets, finances, santé) qui peuvent être divulguées. Des expositions de données peuvent aussi survenir à cause de failles de sécurité dans des applications ou solutions logicielles utilisées par le secteur. Attaques contre les usagers à des fins d’extorsion : Les usagers sont souvent ciblés par des attaques frauduleuses, notamment par l’usurpation de l’identité des entreprises de transport pour compromettre les comptes personnels des usagers (phishing, spoofing/typosquatting). Menace à finalité de déstabilisation : Attaques à des fins de destruction : Généralement inscrites dans des contextes de tensions internationales, ces attaques sont menées par des acteurs réputés liés à des États pour saboter les SI supportant les services de transport et immobiliser les réseaux. L’attaque BadRabbit contre le métro de Kiev en 2017, attribuée au renseignement militaire russe, est un exemple, bien que le service de métro ait continué à fonctionner. Attaques revendiquées par des groupes hacktivistes : Ces groupes cherchent à faire valoir leurs positions, souvent dans des contextes géopolitiques, en ciblant les ressources en ligne des entités de transport pour nuire à leur image. Les Jeux Olympiques et Paralympiques de Paris 2024 ont servi de “caisse de résonance” pour ces revendications. Ces attaques sont majoritairement des dénis de service distribué (DDoS) ou des défigurations de sites web. Des groupes pro-russes comme NoName057(16) et Narodnaya CyberArmiya ont revendiqué des attaques contre des sites français comme ceux de la RATP et Transilien en 2023, ou l’entreprise de taxis Aramis en 2024. Ces attaques DDoS ont généralement des effets limités et sont rapidement remédiées. Un exemple notable de perturbation par hacktivistes est l’attaque de l’applic

May 24, 20258 min

Le cryptage des données remis en cause par les ordinateurs quantiques

Le cryptage des données remis en cause par les ordinateurs quantiques. La révolution quantique va rebattre la donne de la sécurité des communications Le cryptage des données remis en cause par les ordinateurs quantiques Les technologies quantiques, autrefois reléguées au domaine de la physique théorique, sont désormais au cœur de nombreuses applications pratiques, notamment dans le domaine crucial de la sécurité des communications. Les publications actuelles en font un sujet qui va devenir aussi important que les crypto monnaies, l’intelligence artificielle. L’avènement potentiel d’ordinateurs quantiques puissants est proche. Cette innovation représente une menace significative pour les méthodes de cryptographie classiques. Ces méthodes actuelles fondées sur les nombres premiers et des clés publiques privées peuvent être cassées très rapidement avec un algorithme basé sur la technologie quantique. En réponse à cette menace, la recherche et le développement dans le domaine des communications quantiques et de la cryptographie quantique s’intensifient, avec des investissements importants de la part de l’Europe et d’autres grandes puissances mondiales. Selon les sources, les investissements dans les technologies quantiques, en particulier pour la sécurité des communications et le développement de l’internet quantique, sont significatifs au niveau européen et national. Les montants investis en Europe sont importants. Le Programme Quantum Flagship de la Commission Européenne est doté de 1 milliard d’euros sur 10 ans . Le programme Initiative EuroQCI (Quantum Communication Infrastructure) : Lancé par plusieurs pays européens, dont la France. Cette initiative a pour ambition de doter l’Europe d’une infrastructure de communications quantiques paneuropéenne sécurisées d’ici 10 ans, combinant segments terrestres et spatiaux. L’Europe investit à un niveau comparable à celui des États-Unis ou de la Chine. Ces grandes puissances mondiales ont pleinement conscience de l’importance stratégique de ces activités et investissent également massivement. La Chine, a investi de longue date dans les réseaux quantiques et a réalisé des avancées notables. Les États-Unis ont également publié un plan pour un internet quantique. En outre, la mise en œuvre à grande échelle des solutions de Distribution Quantique de Clés (QKD), qui est une étape vers l’internet quantique, demande encore des efforts importants en recherche et développement. Les solutions commerciales QKD disponibles sont actuellement très chères, et un objectif des projets comme CiViQ est de réduire considérablement leur coût à long terme. La construction d’infrastructures, notamment pour la téléportation quantique et les liaisons satellitaires, représente également d’énormes défis techniques et des coûts importants. La France de son coté va investir 1.8 milliard d’euros sur la recherche en informatique quantique. La volonté est de ne pas rater cette révolution du numérique. La répartition sera la suivante. Les montants investis dans le quantique 800 millions seront consacrés à l’ordinateur quantique. 325 millions seront dédiés aux communications utilisant les technologies quantiques. Cela concerne les sujets d’intrication des photons. 150 millions dans la cryptologie post quantique. de nouvelles technologies de cryptage résistants aux attaques. Ces technologies étudient de nouveaux types de clés résistantes aux calculs quantiques. 300 millions pour les technologies habilitantes. Ce sont des technologies périphériques qui permettent aux ordinateurs quantiques de fonctionner. Par exemple la capaciter à refroidir la matière proche du zéro absolu. Les principales applications de l’informatique quantique Le cryptage des données est remis en cause par les ordinateurs quantiques. La Menace des Ordinateurs Quantiques pour la Cryptographie Classique est due à l’augmentation exponentielle de la puissance de calcul des super-ordinateurs. Ces capacités posent un risque majeur pour les algorithmes de cryptographie actuellement utilisés pour sécuriser les données sensibles. Pour sécuriser les échange il faut passer à la Cryptographie Quantique (QKD). La Distribution Quantique de Clés (QKD) est une technique basée sur les principes de la physique quantique pour générer et distribuer des clés de chiffrement de manière ultra-sécurisée. Quels sont les principes nouveaux apportés par la QKD. La QKD utilise les propriétés des particules quantiques (photons) pour détecter toute tentative d’interception des clés, assurant ainsi la confidentialité et l’intégrité des données. Si quelqu’un tente d’intercepter une communication basée sur cette technologie, le manque d’un seul photo sera détecté. Ceci grâce à la propriété d’intrication des photons. L‘intrication quantique est une propriété clé de l’internet quantique : Lorsque

May 3, 202510 min

Bilan de l'action de l'ANSSI en 2024

Bilan de l’action de l’ANSSI en 2024. Le rapport d’activité de l’ANSSI est sorti en avril 2025. Les agences de l’Etat apportent maintenant un importance particulière à leurs rapports d’activité pour justifier de l’utilisation des moyens et de leur budget. Avec la tendances à dénoncer les dépenses de des agences, il est utile de démontrer que le travail justifie les moyensengagés. Bilan de l’action de l’ANSSI en 2024 en chiffres En 2024, l’ANSSI a enregistré plusieurs chiffres clés concernant ses activités et la cybersécurité en France. Voici un aperçu de ces données, tirées des sources fournies : Effectifs et Budget de l’ANSSI : 656 agents travaillaient au quotidien au sein de l’ANSSI. L’ANSSI peut être qualifiée d’agence importante en termes d’effectifs. On va voir quel est leur profils. L’âge moyen des agents de l’ANSSI était de 36 ans. C’est assez jeune, la moyenne de toute la fonction publique est de 43 ans (source, servicepublic.fr) Le budget de l’ANSSI (hors masse salariale) s’élevait à 29,6 millions d’euros, soit une augmentation de 15 % par rapport à l’année 2023. L’agence va certainement bénéficier de nouveaux moyens en 2025 et ensuite pour faire face à l’élargissement de ses missions tels que défini dans la feuille de route stratégique Activité de l’ANSSI L’ANSSI a traité 4 386 événements de sécurité, soit une augmentation de 15 % par rapport à 2023. Parmi ces événements, 1 361 incidents ont impliqué un acteur malveillant, représentant une hausse de 18 % par rapport à 2023. Concernant les Jeux olympiques et paralympiques de Paris 2024 (entre le 8 mai et le 8 septembre 2024), l’ANSSI a recensé 548 événements de cybersécurité. Les 12 CSIRT territoriaux ont porté à la connaissance de l’ANSSI près de 700 événements de sécurité numérique, dont 400 incidents, entre le 1er janvier et le 18 décembre 2024. Ces chiffres sont malheureusement en hausse chaque année. Formation, information et Sensibilisation du public : 68 formations étaient labellisées SecNumedu. 35 formations étaient labellisées SecNumedu-FC, soit une augmentation de 56 % par rapport à l’année 2023. 1 696 personnes ont été formées au Centre de formation à la sécurité des systèmes d’information (CFSSI), soit une hausse de 21 % par rapport à 2023. 117 856 attestations SecNumacadémie ont été décernées. 1 501 diagnostics ont été réalisés. 1 487 aidants cyber étaient référencés sur MonAideCyber. 81 986 vulnérabilités ont été corrigées grâce à MonServiceSécurisé. 3 403 services étaient sécurisés grâce à MonServiceSécurisé. Publications et Reconnaissances : L’ANSSI a publié 11 rapports menace et incidents. 12 logiciels ont été publiés en open source. C’est un point important de la souveraineté 22 articles scientifiques ont été publiés. L’ANSSI a délivré 196 qualifications et 94 certifications. 280 visas de sécurité ont été accordés. 3 études de marché ont été réalisées. 1 avis technique a été publié. Dispositifs Réglementaires et Alertes : L’ANSSI a reçu 236 signalements de vulnérabilités au titre de l’article L.2321-4 du code de la défense. Neuf campagnes de signalement de vulnérabilités représentant 15 900 adresses IP ont été menées auprès des abonnés des opérateurs, dont 8 731 ont pu être identifiées. 68 demandes d’identification pour un total de 978 adresses IP ont été effectuées par l’ANSSI auprès de 34 opérateurs de communications électroniques. L’ANSSI a rendu 1 610 décisions concernant la sécurité des réseaux 5G, dont 52 décisions de refus. Cela comprenait notamment 586 décisions pour les exploitations, 587 pour les commercialisations, 355 pour les renouvellements, et 82 autres décisions. Un cadre réglementaire qui se renforce L’année 2024 a été marquée par une évolution significative du cadre réglementaire en matière de cybersécurité, tant au niveau européen qu’en France, avec une implication forte de l’ANSSI. Plusieurs initiatives importantes ont progressé ou sont entrées en vigueur, visant à élever le niveau global de cybersécurité. Le texte dont nous avons le plus entendu parlé est NIS2. Il concerne les entreprise et les collectivités. Il n’est pas encore transposé en droit français mais des travaux intenses sont en cours au parlement. Transposition de la directive NIS 2 : L’ANSSI a poursuivi activement ses travaux de transposition de la directive NIS 2 (Network and Information Security) en droit français. Cette directive européenne vise à renforcer le niveau de cybersécurité des tissus économique et administratif des pays membres de l’UE en élargissant le champ des entités concernées (administrations de l’État, collectivités territoriales, moyennes et grandes entreprises de 18 secteurs d’activité) et en introduisant des exigences plus adaptées. Le document de loi,

Apr 21, 20259 min

Les risques en utilisant vos propres matériels et logiciels

https://youtu.be/_nIj6yQeKOM Les risques en utilisant vos propres matériels et logiciels en entreprise. Le Bring You Own Device ou BYOD est une pratique répandue d’utiliser son propre PC et ses propres logiciels en entreprise pour réaliser ses missions. Pour certains le BYOD c’est le Bring Your Own Disaster tant les risques importés sont importants. Les pratiques du BYOD (Bring Your Own Device) font référence à la manière dont les organisations mettent en œuvre et gèrent l’utilisation des appareils personnels des employés à des fins professionnelles. Cette approche permet aux employés d’utiliser leurs propres ordinateurs portables, tablettes ou téléphones personnels pour le travail. L’essor du travail hybride a encouragé de nombreuses entreprises à adopter une politique de BYOD. Quelles pratiques regroupe le BYOD Le BYOD est souvent subit par les organisations. Il faut constater que parfois les matériels et logiciels à disposition du grand public sont plus performants que ceux de leur organisation. Deux raison à cette situation. Sur les matériels les particulier ont accès aux même technologies que les entreprises plus vite car ils n’ont pas l’effet de flotte à gérer. Ils peuvent acquérir le dernier matériels sans soucis d’intégration dans un écosystème. Au niveau logiciels, le mode de financement de services en ligne permet aux particuliers de disposer de meilleures offres. En effet à partir du moment ou le produit est l’utilisateur, on lui permet d’utiliser le service gratuitement en échange de ses données. Le sujet est quand tout cela est utilisé dans une entreprise ou le secteur public. Types de politiques mises en oeuvre: Les entreprises peuvent adopter une politique BYOD de base ou complète. Une mise en œuvre globale peut quadrupler les économies réalisées par rapport à une approche de base. Outre le BYOD, il existe d’autres politiques relatives aux appareils mobiles telles que CYOD (Choose Your Own Device), COPE (Corporate Owned/Personally Enabled) et COBO (Corporate Owned/Business Only), qui varient en termes de flexibilité et de contrôle par l’entreprise. Le BYOD est l’option la moins rigide. Avantages pour l’entreprise : Les avantages incluent des économies sur le matériel, la maintenance et les coûts de télécommunication, une potentielle augmentation de la productivité des employés car ils sont plus à l’aise avec leurs propres appareils, une pratique plus durable en réduisant la surconsommation d’appareils, et la suppression des coûts et du temps liés à la formation des employés sur de nouveaux appareils fournis par l’entreprise. Risques et inconvénients : Les principaux inconvénients comprennent l’augmentation des risques de cybersécurité (jailbreaking, réseaux non sécurisés, fuites de données, etc.), des problèmes éthiques liés au respect de la vie privée des employés et à l’inégalité d’accès à la technologie, et des problèmes de compatibilité entre différents matériels et logiciels. L’utilisation d’appareils personnels peut également exposer l’entreprise à des risques juridiques et de sécurité, notamment en ce qui concerne la protection des données personnelles (RGPD). Tenter de mieux gérer le BYOD Il existe de meilleures pratiques pour atténuer les risques : Pour bénéficier des avantages du BYOD tout en minimisant les inconvénients, les entreprises devraient : Prévoir un budget pour la formation régulière des employés à la cybersécurité et aux meilleures pratiques d’utilisation de leurs appareils à des fins professionnelles. Créer un plan d’action clair pour le départ des employés afin de gérer les données de l’entreprise présentes sur leurs appareils personnels. Utiliser un logiciel de gestion des appareils mobiles (MDM) pour surveiller, gérer et sécuriser les données sur les appareils personnels. Élaborer la politique BYOD de l’entreprise de manière collaborative avec les différents départements, en définissant clairement les attentes et les règles d’utilisation. Il est important de formaliser cette politique par un document écrit et signé par les employés. Adapter la sécurité informatique de l’entreprise aux vulnérabilités potentielles des appareils personnels. Cela peut inclure le déploiement d’outils de cloisonnement des environnements de travail personnels et professionnels. Sensibiliser le personnel aux bonnes pratiques d’hygiène numérique et aux enjeux de sécurité spécifiques à leur secteur d’activité. Il est recommandé de limiter l’utilisation des appareils personnels aux usages les moins sensibles. Encadrer étroitement les changements de fonction et les départs des employés pour s’assurer qu’ils ne conservent pas d’accès ou de données professionnelles sur leurs appareils personnels. Le phénomène est en place, comment les DSI peuvent réduire ce risque Pour atténuer les inconvéni

Apr 6, 202511 min

La cyber insécurité en chiffres

La cyber insécurité en chiffres c’est traduire en données l’ensemble des risques avérés en 2024 La tendance sur plusieurs années est que le sentiment de menace augmente (+33%) par rapport à l’an dernier. ce sentiment provient de l’expérience d’attaques (50% des entreprises ont subit une attaque) et de la hausse consécutive des budgets consacrés à la protection cyber. Le secteur public semble réagir avec un meilleur suivi des prescription ANSSI et des budgets enfin en hausse. Qui sont les principales victimes Une analyse par secteur permet de déterminer que les entreprises en lien avec des finances sont les plus visées Les banques et les assurances sont en première ligne le public juste derrière. Étonnant le troisième place des entreprises de restauration et hébergement. Le sentiment d’exposition à la menace est en hausse avec parfois un écart avec la réalité des attaques subies. Les acteurs de la distribution d’eau et électricité se sentent très menacés mais dans la réalité ne sont pas ceux qui subissent le plus d’attaques. Egalement plus l’entreprise en grosse plus elle se sent sous la menace cyber, ce qui n’est pas le cas non plus. Les budgets cyber en hausse Si l’on ramène le montant des dépenses en cyber sécurité par salarié on se situe à moins de 15€ C’est assez peu compte tenu des couts des dispositifs de protection. Cependant 59% des entreprises ont un budget cyber en hausse. Le sentiment est que les entreprise font assez d’effort. Pourtant les attaques augmentent. C’est assez ambivalent de voir que la mesure dit à la fois que les décideurs se sentent menacés. Que le budget consacré à la cyber menace m’est pas très important et que au final ils pensent que c’est suffisant. Les budgets sont principalement consacrés à la protection des données C’est la principale peur des décideurs. En effet perdre ses données, c’est souvent provoquer une réaction en chaine qui abouti à la fermeture de l’activité. C’est de plus le ventre mou du système d’informations car beaucoup d’accès sont nécessaires en permanence. Les principales mesure de protection concernent des mesures physiques d’accès, la mise en place de pare feux et la sécurisation des postes de travail. Quand on les interroge sur leur ressenti par rapport à ces mesures prises, 33% n’ont pas confiance en ces mesures. Pourtant ils les financent. Pour se protéger les entreprises font appels à des ESN externes spécialisés. Sur ce type de solution elles préfèrent les solutions packagées. La prise de conscience de la menace cyber est bien présente. Les entreprises augmentent leurs exigences de sécurité mais ne savent pas toujours dans quelle direction mettre le budget. La fonction est externalisée à des ESN spécialisées. La notion de souveraineté comment à poindre tout comme la prise en compte des référentiels ANSSI. Le travail de fond d’évangélisation doit continuer Source Baromètre 2024 de la cyber sécurité The post La cyber insécurité en chiffres first appeared on XY Magazine.

Mar 29, 20257 min

La cyber criminalité toujours plus forte

La cyber criminalité toujours plus forte La cyber criminalité toujours plus forte. De part sa nature la cyber menace reste le principal risque. Le monde digitalisé et l’affranchissement des frontières place les systèmes numériques face à une menace toujours plus forte. Tendances de la cyber criminalité en 2024 L’année 2024 a été marquée par une pression “omniprésente et persistante” des acteurs cybercriminels d’une part, et des acteurs “réputés liés à la Russie et à la Chine” d’autre part. Clairement l’ANSSI désigne la menace par pays. Le nombre de signalement a augmenté de de 15% des signalements traités par rapport à 2023 (4386 signalements en 2024). Les attaquants liés à l’écosystème cybercriminel, à la Chine et à la Russie constituent les trois principales menaces pour les systèmes d’information critiques et l’écosystème national. C’est ici l’illustration de la guerre hybride que mènent ces pays contre les démocraties. Avec peu de moyens et à distance, ils mènent une guerre de désinformation, de perturbation. 2. Exploitation des Vulnérabilités sur les Équipements de première ligne: Les attaquants ont largement profité des “nombreuses vulnérabilités non corrigées sur des équipements en bordure des systèmes d’information pour s’y introduire”, compromettant souvent “des centaines voire des milliers d’équipements dans un temps très bref”. Les concepteurs de structures de réseaux et de logiciels associés sont encore trop peu préoccupés de sureté. Le CERT-FR a traité 40 dossiers de coordination de vulnérabilités en 2024, un chiffre en augmentation constante. Plusieurs évolutions réglementaires, notamment l’adoption du Cyber Resilience Act (CRA) par l’UE en octobre 2024, visent à améliorer la sécurité des produits et la prise en compte des vulnérabilités, avec une obligation de signalement. Ce ne sont pas les textes qui vont dissuader les cyber attaquants. Il faut avant tout disposer de mesures et contre mesures. Etre le plus souverain possible sur la maitrise des codes sources et des dispositifs. 3. Ciblage de la Chaîne d’Approvisionnement (Supply Chain) : Les attaques visant la chaîne d’approvisionnement “pour atteindre des cibles finales d’intérêt” se poursuivent et sont en “constante expansion depuis la fin des années 2010”. Ces attaques peuvent cibler des logiciels (compromission d’éditeurs, ajout de code malveillant dans des projets open source comme l’attaque contre XZ Utils en 2024) ou des prestataires de services informatiques. Dans ce domaines les collectivités et services publics sont visés en priorité. Les groupes cybercriminels exploitent également le “manque de maturité de certains prestataires de services dans leurs pratiques de sécurité”. 4. Évolution de l’Outillage et des Infrastructures d’Attaque : Réseaux et infrastructures d’anonymisation : Leur utilisation se poursuit, notamment par des acteurs “réputés liés à la Chine” et, dans une moindre mesure, à la Russie. Ces réseaux complexifient l’attribution des attaques. Utilisation des mêmes ressources par différents acteurs : “Des codes et des services malveillants d’origine cybercriminelle sont également utilisés par des hackers réputés étatiques.” On constate bien des échanges d’informations entre la Chine et la Russie et des groupes criminels qui agissent comme des corsaires. Mercenariat et prestataires de service : Le secteur continue sa croissance, avec un écosystème diversifié incluant des entreprises privées, des mercenaires et des prestataires travaillant pour des états. La fuite de données de l’entreprise chinoise I-SOON a révélé ses liens avec plusieurs hackers réputés chinois et illustre un modèle où le ciblage peut se faire en vue d’un contrat ultérieur avec des entités gouvernementales. Ciblage des appareils mobiles : Les logiciels espions fournis par des entreprises étrangères constituent une menace majeure pour l’acquisition de renseignement. Des cas d’espionnage de personnalités politiques ont été rapportés. 5. Finalités des Attaques : Attaques à but lucratif : Elles restent importantes, principalement via le rançongiciel et le vol de données. L’activité des groupes de rançongiciel s’est maintenue à un niveau élevé en 2024. Les attaquants ciblent de plus en plus les serveurs de stockage Cloud et les hyperviseurs. L’ANSSI a suivi 144 compromissions par rançongiciel en 2024, avec LockBit 3.0, Ransomhub et Akira comme souches les plus représentées. Désorganisation de l’écosystème cybercriminel : L’année 2024 a été marquée par le démantèlement partiel de groupes majeurs comme LockBit et l’exit scam de BlackCat, entraînant une réorganisation de l’écosystème avec l’émergence de nouveaux groupes moins sophistiqués utilisant

Mar 15, 202511 min

L'ANSSI renforce ses compétences pour notre souveraineté

L’ANSSI renforce ses compétences pour notre souveraineté et défendre notre modèle de société. L’ANSSI renforce ses compétences pour notre souveraineté Changement de paradigme pour les institution sécuritaires en Europe L’ANSSI (Agence nationale de la sécurité des systèmes d’information) a publié ce mois ci un document sur l’évolution de sa doctrine. Selon le plan stratégique de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) pour 2025-2027, plusieurs évolutions de la doctrine sont à noter : Élargissement du champ d’action de l’agence : L’action de l’ANSSI, initialement axée sur la sécurité numérique des infrastructures critiques et les administrations de l’État, évolue pour englober tous les pans de l’économie et de la société face à la diversification des attaquants et à la présence croissante du numérique. Cette évolution reconnaît que la menace cyber affecte désormais les collectivités territoriales, les TPE et PME, et même les équipements informatiques des citoyens. Accent sur la résilience cyber collective : La nouvelle stratégie nationale de cybersécurité pour la France, dans laquelle s’inscrit le plan de l’ANSSI, fixe un nouveau cap en termes de développement d’une résilience cyber collective. Cela implique un effort coordonné et partagé entre les acteurs publics et privés, notamment par le biais d’investissements technologiques et du renforcement de la cyberdéfense de la Nation. Adaptation à une menace massifiée et diversifiée : Face à la massification de la menace cyber et à l’évolution constante des modes opératoires des attaquants (ciblage de téléphones portables, compromission massive d’équipements de sécurité), l’ANSSI se donne pour priorité d’amplifier et de faciliter l’accès aux capacités de prévention et de réponse. Cela nécessite également de développer des méthodes plus automatisées pour faire face aux menaces de masse. Intégration du nouveau cadre de régulation cyber européen : L’ANSSI doit préparer et accompagner le changement d’échelle induit par l’évolution du cadre réglementaire européen (NIS 2, CRA, RIA, eIDAS, CSA). Cela inclut la mise en œuvre progressive de ces directives et règlements, ainsi que la simplification des règles de cybersécurité nationales pour en favoriser l’adoption. L’ANSSI se voit également confier de nouvelles missions de contrôle et de supervision. Renforcement de la gouvernance et de la coordination : L’action publique cyber requiert une évolution dans la gouvernance et la coordination des acteurs. L’ANSSI entend refonder ses modes d’interaction avec ses parties prenantes dans une logique de co-construction et permettre au collectif national des acteurs de la cybersécurité d’amplifier leurs actions. Elle pilotera la politique de résilience cyber de la France en coordination avec d’autres administrations. Développement et partage d’expertises de pointe : Il est indispensable de maintenir un haut niveau d’expertise et une maîtrise autonome des savoirs scientifiques et technologiques en matière de cybersécurité. L’ANSSI aura pour priorité de développer des expertises de pointe en lien avec l’évolution des technologies (IA, cloud, cryptographie post-quantique) et de partager le plus largement possible ses connaissances. Promotion d’une action cyber européenne et internationale efficace : L’ANSSI, en tant que cheffe de file cyber pour la France, portera l’ambition de consolider les piliers de la cybersécurité européenne et de développer les capacités de l’Union européenne. Elle s’impliquera dans la mise en œuvre harmonisée des réglementations, soutiendra le développement d’un marché unique de solutions de confiance, et promouvra la coopération internationale. Prise en compte des enjeux sociétaux : Le plan stratégique intègre une nouvelle dimension en renforçant la prise en compte des enjeux sociétaux tels que l’impact environnemental du numérique, la diversité et l’inclusion, la transparence de l’action de l’ANSSI, et l’adaptation du fonctionnement de l’Agence à l’évolution des usages et des organisations de travail. La cyber sécurité se place au centre des enjeux numériques. toute la société est concernée maintenant par ce risque. Il ne s’agit pas seulement de ce défendre mais de mettre en place un politique de combat de la cyber sécurité. Nouvelle priorités stratégiques de l’ANSSI Axe 1 : Amplifier et coordonner la réponse cyber face à la massification de la menace Face à la menace cyber qui touche désormais tous les pans de la société, l’ANSSI se donne pour priorité d’amplifier et de faciliter l’accès aux capacités de prévention et de réponse. Axe 2 : Développer les expertises indispensables pour contrer les menaces cyber Ma

Mar 9, 202511 min

L'Agence du Numérique des Forces de Sécurité Intérieure

L’Agence du Numérique des Forces de Sécurité Intérieure (ANFSI) a été créée en septembre 2023 pour moderniser les systèmes d’information et de communication de la police et de la gendarmerie nationales. Partons à la découverte de cette nouvelle agence de sécurité. L’Agence du Numérique des Forces de Sécurité Intérieure L’agence est responsable du développement, de la mise en œuvre et de la sécurité des systèmes, en mettant l’accent sur l’amélioration des outils numériques pour les forces de l’ordre et le public. À sa tête est nommé le général de corps d’armée Frédéric Aubanel. J’aurais voulu vous en dire plus sur le Général Aubanel, mais il n’est pas sur linkedin. Missions de l’ANFSI L’Agence du Numérique des Forces de Sécurité Intérieure (ANFSI) a pour mission le développement, la mise en œuvre et la sécurité des systèmes d’information, des équipements numériques et des applications au profit des forces de sécurité intérieure. L’ANFSI est compétente en matière de construction et de pilotage des infrastructures, des terminaux et des équipements périphériques à destination des services et des unités, des personnels de la gendarmerie nationale et des agents de la police nationale. Les missions de l’ANFSI comprennent: La conception et la conduite de projets concernant les systèmes d’information, de communication et de commandement, ainsi que les technologies connexes, en collaboration avec les directions et services opérationnels. L’assurance de la maîtrise d’œuvre des systèmes opérationnels de la gendarmerie nationale et de la police nationale, sans préjudice des projets mutualisés ou interministériels. L’ANFSI peut également jouer un rôle de maîtrise d’ouvrage en fonction des projets. L’organisation de la convergence des systèmes d’information et de communication, ainsi que des outils numériques des deux forces, lorsque cela est pertinent, en s’appuyant sur les solutions mutualisées ministérielles et interministérielles. L’animation de la politique d’innovation technologique du ministère de l’Intérieur et des Outre-mer pour les missions de sécurité intérieure. L’ANFSI poursuit un triple objectif: Intensifier la capacité de production. Intégrer les enjeux technologiques d’avenir. Renforcer les couches techniques socles indispensables au bon fonctionnement des systèmes d’information, en mettant l’accent notamment sur la cybersécurité. L’ANFSI est organisée en six directions spécialisées: Communications tactiques et maîtrise de l’environnement électromagnétique. Architecture et sécurité du système d’information. Appui à l’investigation. Applications d’appui au commandement. Proximité numérique et appui à l’innovation. Supports opérationnels. L’ANFSI est une fonction de support technologies des forces de sécurité dans le domaine de la police. Quels sont les projets en cours Plusieurs projets sont menés par la Direction de la Sécurité et de l’Architecture (DSA) de l’ANFSI. En particulier, l’ANFSI doit assurer une transition fluide pour garantir la disponibilité des applications pour les gendarmes et policiers, sans interrompre les projets en cours. Pour mener cette mission l’ANFSI compte déjà 378 agents mais doit en recruter 175 de plus. C’est un vrai défi car les postes sont très spécialisés. sur le Site ANFSI l’annonce est très bien placée : Officiers, sous-officiers, personnels civils, gendarmes ou policiers, vous disposez de compétences techniques dans le domaine des nouvelles technologies et des systèmes d’information ? Devenez acteur de la transformation numérique du ministère de l’Intérieur et des Outre-mer en prenant part à la grande aventure numérique au sein de l’ANFSI.Rendez-vous sur notre plateforme dédiée pour y découvrir les nombreux postes à pourvoir : https://choisirleservicepublic.gouv.fr/nos-offres/filtres/mot-cles/anfsi/ Parmi les projets en cours, on trouve: L’ANFSI pilote actuellement 5 projets majeurs au service des forces de l’ordre. Travailler en mobilité, assurer une sécurité des messages, se repérer, identifier. Ce sont des missions de bases. Les moyens digitaux actuels permettent de faciliter le travail des agents. NÉO 2: Terminaux mobiles (smartphones, tablettes) dotés d’un écosystème sécurisé unique. UBIQUITY: Poste de travail nomade offrant la puissance de consultation et de traitement du poste de travail fixe du gendarme en mobilité. SOCLE GEOLOC: Plateforme centralisant et optimisant la géolocalisation des moyens matériels des forces de sécurité intérieure. SOCLE CARTOGRAPHIQUE: Base de données géographiques unifiée pour renforcer la coordination et l’efficacité des forces de sécurité en opération. CHEOPS/PROXYMA: Systèmes d’authentification optimisés pour les agents des forces de sécurité intérieure. Sources : Création ANFSIThe post L’Agence du Numérique des Forces de Sécurité Intér

Mar 2, 20259 min

Menace sur le Cloud

Menace sur le Cloud. Les cyber attaques restent à un haut niveau de risque. C’est le risque principal pour toutes vos applications personnelles et professionnelles. Vous utilisez tous le cloud h24 donc la menace est permanente sur vos données. Des exemples ? Facebook,netflix, spotify, gmail ; tous cela c’est du Cloud. Source ATALASSIAN Etat des menaces En 2025, le cloud computing est confronté à des risques et menaces variés, ciblant à la fois les fournisseurs et les clients de services cloud. Les attaquants, motivés par des gains financiers, l’espionnage ou la déstabilisation, intègrent de plus en plus le cloud dans leurs opérations. Beaucoup d’offres Cloud ne disposent pas du niveau de sécurité suffisant et les utilisateurs ne sont pas assez prudents considérant le Cloud comme sécurisé par design. Voici les principaux risques et menaces: Dans le domaine des attaques et des motifs, on retrouve les mêmes que pour le domaine de la cyber menace. La différence est que le Cloud est un empilement de trois couches, infra, réseau, service. Menaces ciblant les fournisseurs et opérateurs d’infrastructures cloud : Attaques à des fins lucratives: Rançongiciels: Les opérateurs de rançongiciels constituent une menace majeure pour les fournisseurs de services cloud, compromettant la confidentialité et l’intégrité de leurs données. Vol de données d’authentification et compromission de la chaîne d’approvisionnement: Les attaquants ciblent les fournisseurs de services cloud pour accéder aux secrets d’authentification, permettant la latéralisation vers les systèmes d’information en aval et augmentant les risques d’attaques sur la chaîne d’approvisionnement. Attaques à des fins d’espionnage: Des opérateurs de MOA sophistiqués ciblent les fournisseurs de services cloud à des fins d’espionnage. Exploitation de vulnérabilités: L’exploitation de vulnérabilités, y compris les vulnérabilités jour-0 (zero day), est un levier couramment utilisé pour compromettre les services cloud. Attaques à des fins de déstabilisation par déni de service: De nombreux opérateurs cloud sont confrontés à des attaques par déni de service (DoS/DDoS) de plus en plus importantes. Menaces ciblant les clients de services cloud: Attaques à des fins lucratives: Attaques menées au moyen de secrets d’authentification volés: Le vol de données sur le cloud expose les entreprises à des risques majeurs, qu’il s’agisse de données sensibles ou de secrets d’authentification. Latéralisation des environnements on-premise vers le cloud: L’émergence d’infrastructures hybrides augmente le nombre de vecteurs d’entrées et de latéralisation potentiels. Extorsion aux données volées: Les attaques à des fins d’extorsion sur le cloud n’impliquent pas nécessairement le chiffrement de données. Détournement de ressources et nouvelles tendances: Les applications de virtualisation sont régulièrement ciblées dans l’objectif d’y déposer des cryptomineurs. Attaques à des fins d’espionnage: Les technologies cloud sont également ciblées par des attaquants à la recherche de renseignements d’intérêt. Attaques à des fins de déstabilisation: Des interfaces cloud clientes peuvent également être ciblées à des fins de déstabilisation. Menaces internes: Les menaces internes, opérées par des employés mécontents ou motivés par des objectifs lucratifs, sont également susceptibles de cibler les infrastructures cloud de leurs organisations. Menaces ciblant les applications de virtualisation et composants de gestion matérielle: Les technologies de virtualisation sont des cibles de choix en raison de la cohabitation des activités, des données et des clients. Attaques à des fins lucratives: Les technologies de virtualisation et d’hypervision sont ciblées par des opérateurs de rançongiciels. Attaques à des fins d’espionnage: D’autres campagnes d’attaques témoignent du ciblage de ces technologies à des fins d’espionnage. Il est important de noter qu’une des tendances identifiées par l’ANSSI est l’utilisation des services cloud comme infrastructures d’attaques, ce qui complexifie la détection des activités malveillantes. De plus, l’application de lois extraterritoriales peut poser des problèmes de protection des données, en particulier si le prestataire de services cloud est non européen. Risques de loi extraterritoriales Le recours à un service de cloud opéré par un prestataire non européen présente des risques spécifiques liés à l’application de lois à portée extraterritoriales. Ces lois peuvent obliger les hébergeurs à transmettre les données de leurs clients aux autorités sans recours ni information de ces derniers, ce qui pose un risque pour la confidentialité des données hébergées dans le cloud. Le chiffrement des données n’offre pas toujours une protection adéquate, surtout si les clés de chiffrement sont également stockées dans le cloud. Certains hébergeurs s

Feb 22, 202510 min

L'intelligence artificielle à la place de votre médecin

L’intelligence artificielle à la place de votre médecin, comme tous les domaines la médecine fait face à l’intelligence artificielle. Les domaines d’intervention de l’Ia dans la santé sont divers. Remplacer le médecin par une IA , un défit éthique Le remplacement des médecins par l’intelligence artificielle (IA) soulève d’importantes questions éthiques, bien que l’objectif actuel soit plutôt de les assister et de les améliorer dans leurs pratiques. L’IA est perçue comme un outil pour améliorer la qualité des soins, optimiser les processus et redonner du temps aux soignants. Cadre éthique et réglementaire: Le développement et l’utilisation de l’IA en santé doivent se faire dans un cadre éthique clair et rigoureux. La cellule Éthique du numérique en santé du ministère de la Santé travaille activement sur ces enjeux, avec la publication de recommandations de bonnes pratiques pour la mise en œuvre de l’éthique “by design”. Ces recommandations visent à intégrer des valeurs éthiques dès la conception des systèmes d’IA, et à valider les solutions proposées pour éviter les aléas. Un référentiel de l’éthique de l’IA en santé, attendu pour 2025, définira des critères dans plusieurs catégories : bienfaisance, non-malfaisance, autonomie, justice-équité, sobriété numérique et développement durable. Formation et accompagnement des professionnels de santé: Il est crucial de former les professionnels de santé à l’utilisation de l’IA, en mettant l’accent sur ses opportunités et ses limites. La formation à l’IA est une priorité stratégique pour développer la confiance et accompagner la transformation numérique du système de santé. Un plan ambitieux vise à former 140 000 professionnels par an dans les filières médicales, paramédicales et sociales. Gouvernance et qualité des données: La qualité des données de santé est essentielle pour le développement et la validation des systèmes d’IA. La Plateforme des Données de Santé (Health Data Hub) joue un rôle clé dans la mise à disposition de données de qualité pour la recherche et l’innovation. Une stratégie nationale pour l’utilisation secondaire des données de santé est en cours d’élaboration pour assurer une déclinaison efficace du règlement européen sur l’espace européen des données de santé (EEDS). Évaluation et validation des systèmes d’IA: L’évaluation technologique est un levier important pour développer la confiance des utilisateurs et mettre en évidence l’intérêt des technologies. La HAS travaille sur de nouveaux cadres d’évaluation des dispositifs médicaux numériques (DMN) avec IA, impliquant l’écosystème. Une expérimentation pilote sera lancée en 2025 pour évaluer l’impact médico-économique de l’aide au diagnostic et à la lecture des ECG avec de l’IA, afin d’accompagner les médecins généralistes dans leur pratique clinique. L’idée du ministère de la santé, n’est donc pas de remplacer les médecins, mais de créer une collaboration fructueuse où l’IA assiste les professionnels de santé, améliorant ainsi la qualité des soins et l’accès à ceux-ci. Selon document du ministère, pour le moment, le médecin reste en maitrise des décisions. Il n’est pas question de laisser l’IA donner un diagnostic à une personne non médecin pour appliquer. D’autres spécialités sont concernées par l’IA. tout ce qui concerne les diagnostics par imagerie sont très impactés par l’intelligence artificielle qui peut détecter mieux qu’un humain une maladie. L’intelligence artificielle peut faciliter l’accès aux soins L’intelligence artificielle (IA) offre des perspectives considérables pour améliorer l’accès aux soins, réduire les inégalités et optimiser les parcours des patients. Plusieurs initiatives et stratégies sont en cours pour exploiter ce potentiel en France. En intégrant des outils d’IA dans les parcours de soins, il devient possible de réduire les délais d’attente et de fluidifier l’accès aux soins. Des exemples d’initiatives régionales incluent : L’IA peut optimiser les parcours de soins en automatisant certaines tâches administratives, en facilitant l’aide au diagnostic et en rendant les processus de soins plus fluides. Cela permet de libérer du temps médical et d’améliorer la coordination entre les différents acteurs du système de santé. L’IA peut devenir un allié stratégique pour permettre aux soignants de se recentrer sur les malades. Dans ce cas le médecin intervient-il car comment gagner du temps si il doit toujours tout maitriser? La Haute Autorité de Santé (HAS) a publié un guide généraliste d’aide au choix des dispositifs médicaux numériques (DMN) utilisés par les professionnels de santé, incluant ceux embarquant de l’IA. Ce guide a pour obje

Feb 15, 202513 min

L'Europe régule l'intelligence artificielle

L’Europe régule l’intelligence artificielle. Ce texte classifie des solutions IA et impose des obligations selon les niveaux. Le Règlement Européen sur l’Intelligence Artificielle ( RIA) établit des structures de gouvernance aux niveaux européen et national, avec des autorités compétentes chargées de la surveillance du marché et de l’application des règles. L’objectif principal est d’encadrer l’IA de manière éthique et responsable, tout en favorisant l’innovation et la compétitivité de l’UE. L’entrée en vigueur du RIA se fera de manière échelonnée à partir de février 2025. L’Europe régule l’intelligence artificielle Trois niveaux de risques sont définis. Inacceptable : Exemples : la notation sociale, l’exploitation de la vulnérabilité des personnes, le recours à des techniques subliminales, l’utilisation par les services répressifs de l’identification biométrique à distance en temps réel dans des espaces accessibles au public, la police prédictive ciblant les individus, reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement.. Ces IA sont interdites (sauf… et on verra les sauf.) Haut risque : Les plus réglementés. Exemples : systèmes biométriques, des systèmes utilisés dans le recrutement, ou pour des usages répressifs. Risque limité : Obligation d’information et de transparence, (chatbots, deepfake), Risque minimal : non règlementé, (jeux vidéo, filtres anti spam) L’Europe régule l’intelligence artificielle Après cette introduction, on peut se demander pourquoi ce texte alors que les USA et la Chine qui sont bien plus en avancé n’ont pas de régulation et surtout mettent en œuvre des niveaux IA qui sont inacceptables en Europe. L’Europe régule l’intelligence artificielle (IA) principalement pour encadrer son développement, sa mise sur le marché et son utilisation, afin de minimiser les risques qu’elle peut poser pour la santé, la sécurité et les droits fondamentaux. L’objectif est de promouvoir une IA digne de confiance tout en renforçant la compétitivité de l’UE dans ce domaine. Il y a également un risque pour la sécurité en particulier dans les transports ou la santé si l’IA n’est pas contrôlée pour minimiser les risques d’accidents et de défaillances. Coté manipulation de l’information, on sait déjà que l’IA est très utile. En période électorales des IA peuvent massivement manipuler les opinions en diffusant des information plausibles mais fausses. Encadrement des systèmes à haut risque : Certains systèmes d’IA présentent un risque plus élevé en raison de leur utilisation ou de leur impact potentiel. Le RIA établit une classification des risques et impose des obligations spécifiques aux systèmes d’IA considérés comme à haut risque. Cela inclut des domaines comme la biométrie, l’emploi, l’éducation, l’accès aux services essentiels, l’application de la loi, la gestion des migrations et l’administration de la justice. Maîtrise des modèles d’IA à usage général (GPAI) : Les modèles d’IA à usage général, comme les grands modèles de langage (LLM), ont la capacité de réaliser de nombreuses tâches, ce qui les rend potentiellement plus puissants mais aussi plus risqués. Le RIA encadre ces modèles avec des exigences de transparence, de documentation et d’évaluation des risques systémiques. Les fournisseurs de ces modèles doivent notamment fournir un résumé détaillé des jeux de données d’entraînement, respecter les droits d’auteur et assurer une cybersécurité adéquate. Harmonisation du marché européen : La réglementation vise à créer un cadre juridique commun pour l’IA dans l’ensemble de l’Union européenne. Cela permet d’éviter une fragmentation du marché et d’encourager l’innovation tout en assurant un niveau de protection élevé pour les citoyens. Les systèmes d’IA autorisés obtiendront le “marquage CE”. Soutien à l’innovation et compétitivité : Bien qu’il s’agisse d’une réglementation, l’AI Act a aussi pour objectif de favoriser l’innovation en définissant un cadre clair et en encourageant les développeurs à intégrer l’IA de manière responsable. Les Testing and Experimentation Facilities for AI (TEF) sont là pour soutenir les PME et les industries dans l’évaluation de leurs systèmes d’IA. Pourquoi les grandes entreprises critiquent ce règlement Voici les principales implications de l’IA Act pour les entreprises européennes, d’après les sources : Principalement en raison des contraintes que cela fait peser sur le développement de solutions d’intelligence artificielles. Les pays concurrents que sont les USA et la Chine et l’Inde ne sont pas soumis à ces règles sur leurs territoires. Il faut avo

Feb 8, 202511 min

Comment les réseaux sociaux donnent accès à vos données personnelles

Comment les réseaux sociaux donnent accès à vos données personnelles. Le Laboratoire d’innovation numérique de la CNIL (LINC) a testé pour vous les principaux réseau sociaux. C’est bien le rôle de la CNIL de veiller à ce que les citoyens puissent accéder à ces données. Nous allons aller aux résultats. Déjà quels sont vos droits en matière de données personnelles avec les réseaux sociaux. Comment les réseaux sociaux donnent accès à vos données personnelles Tous les réseaux ont intégrés un formulaire de demande et d’accès. Selon leur modèle économique c’est plus ou moins important. Si on prend discord, son modèle est de vendre des abonnements, pas de s données. Si on prend Google c’est plutôt la vente de données. Droit sur les données personnelles Ce droit vous est donné par le RGPD. Règlement Général de Protection des données. C’est un règlement européen qui vous permet de disposer d’un certains nombre de droit en matière de données personnelles. Le droit d’accès est un droit prévu par le règlement général sur la protection des données ou RGPD. Il permet de savoir si vos données personnelles sont traitées par le réseau social et d’en obtenir la communication dans un format compréhensible. Éventuellement de les faire rectifier. Il permet également de contrôler l’exactitude des données et, au besoin, de les faire rectifier ou effacer. C’est un droit fondamental de nos jours. Quels sont les réseaux sociaux testés Le LINC a sélectionné 10 réseaux sociaux parmi les plus utilisés en Europe et en France : Discord, Facebook, Instagram, LinkedIn, Meta, Pinterest, Snapchat, TikTok, Twitch, X (ex-Twitter), YouTube. On peut déjà constater que aucun n’est Français, ni européen. C’est un bon moyen de se rendre compte de notre dépendance. L’objectif est de constater si le parcours pour l’utilisateur est simple et réalisable. Les résultats montrent des disparités entre les plateformes, avec des scores variant de 44% à 76,5% de bonnes pratiques appliquées. On va regarder tout cela. Méthode de comparaison entre les réseaux sociaux L’analyse des parcours utilisateurs, réalisée par le LINC, était divisée en trois grandes étapes: Informations préalables : Cette étape examine comment les personnes sont informées de l’existence du droit d’accès et de ses modalités avant de commencer la démarche. Cela comprend l’évaluation de la présence d’informations dans la politique de confidentialité et de la facilité avec laquelle les utilisateurs peuvent trouver ces informations. L’analyse évalue également si le réseau social propose un moteur de recherche interne pour trouver l’information liée au droit d’accès. Exercice de la demande d’accès: Cette étape se concentre sur le processus de demande de copie des données personnelles. Elle évalue si la procédure est simple, claire et accessible, notamment grâce à un formulaire dédié. La disponibilité d’un espace de consultation des données en direct, la possibilité de faire une demande même sans compte, la fluidité du parcours, et la disponibilité de la procédure sur tous les supports sont également examinés. De plus, l’analyse vérifie si la différence avec le droit à la portabilité est bien expliquée et si une notification de la prise en compte de la demande est envoyée. Réception et consultation des données : Cette dernière étape analyse la manière dont les données sont transmises à l’utilisateur, les formats disponibles et la clarté des informations fournies. Elle évalue notamment la présence de notifications de disponibilité des données, les modalités d’envoi des données, les formats de données proposés, et la présence d’une aide à la lecture des données. L’analyse porte également sur la structure des données et la clarté de leur formulation. Pour chacune de ces étapes, des critères spécifiques étaient définis. Les critères étaient répartis selon trois angles d’analyse : En plus de ces 27 critères, une question supplémentaire était posée à la fin de chaque étape pour évaluer si les informations étaient adaptées aux mineurs. Ces questions s’appuient sur les lignes directrices du CEPD sur la transparence, notamment sur la section “Fournir des informations aux enfants et aux autres personnes vulnérables”. L’analyse a été faite en comparant les informations mises à disposition pour un compte adulte et un compte mineur. Quels sont les résultats L’efficacité globale des processus d’accès aux données personnelles sur les réseaux sociaux étudiés varie considérablement, avec une moyenne de 44% à 76,5% des bonnes pratiques recensées dans la grille d’analyse qui sont mises en œuvre. Voici les principaux constats : Globalement, les réseaux sociaux mettent en place des parcours d’accès automatisés. En moyenne, il faut 4 clics pour accéder au formulaire de demande depuis la page d’accueil d’un réseau

Feb 1, 20259 min

La surveillance algorithmique va se généraliser

La surveillance algorithmique va se généraliser. Avec les jeux olympiques, on en a beaucoup entendu parler en France. Vous savez que vous êtes déjà filmé en permanence dans l’espace public. Comment sont exploitées ces captations ? Qui les visionne ? C’est des personnes qui regardent, c’est un algorithme ? Qui a le droit d’en disposer et pourquoi ? Différence entre la vidéo surveillance et la vidéo surveillance algorithmique La vidéosurveillance et la vidéosurveillance algorithmique sont deux concepts liés, mais distincts. Vidéosurveillance : Il s’agit de la mise en place de caméras de surveillance pour capturer des images et des vidéos dans des lieux publics ou privés. L’objectif principal est de prévenir et de détecter les infractions, ainsi que de garantir la sécurité des personnes et des biens. Il faut un humain pour exploiter les images. Vidéosurveillance algorithmique (VSA) : La VSA est une évolution de la vidéosurveillance traditionnelle. Elle utilise des algorithmes pour analyser les images et les vidéos capturées par les caméras, afin de détecter des événements spécifiques, tels que des mouvements suspects, des incendies, ou des personnes non autorisées. La VSA peut également être utilisée pour reconnaitre des objets, des personnes ou des véhicules, et pour suivre leur trajectoire. Analyse des données : La VSA utilise des algorithmes pour analyser les données capturées, tandis que la vidéosurveillance traditionnelle se contente de capturer les images et les vidéos. Détection d’événements : La VSA est capable de détecter des événements spécifiques, tels que des mouvements suspects, tandis que la vidéosurveillance traditionnelle ne peut que capturer les images et les vidéos. Intelligence artificielle : La VSA utilise des algorithmes d’intelligence artificielle pour analyser les données et prendre des décisions, tandis que la vidéosurveillance traditionnelle ne nécessite pas d’intelligence artificielle. C’est l’ordinateur et son logiciel qui déterminent les faits. C’est sur ce point que réside le débat. L’enjeu sociétale de la surveillance algorithmique La généralisation de la vidéosurveillance algorithmique (VSA) soulève plusieurs enjeux éthiques et sociétaux importants, notamment en termes de libertés individuelles, de risques de dérives et d’efficacité du dispositif. Voici quelques points clés à considérer : Rassurer et sécuriser les citoyens en leur assurant qu’à tout moment toute infraction sera constatée et l’auteur identifié Risque d’une surveillance généralisée : La VSA, couplée à la reconnaissance faciale, pourrait conduire à une surveillance permanente et exhaustive de l’espace public. Même sans reconnaissance faciale, les algorithmes permettent déjà de suivre des individus. Dérives et utilisations détournées : Il existe un risque de détournement des finalités légales de la VSA, et d’une accoutumance à l’utilisation de cette technologie à des fins de surveillance. Les autorités pourraient être tentées d’étendre les cas d’usage de la VSA, et à terme, de légaliser la reconnaissance faciale en temps réel dans l’espace public. Efficacité discutable et faux positifs : L’expérimentation de la VSA lors des JO de Paris a montré des résultats inégaux. Les algorithmes ont eu du mal à identifier les objets suspects, confondant des poubelles ou des SDF avec des colis abandonnés. Des vitrines éclairées ou des phares de voiture ont été pris pour des incendies. La VSA s’est avérée moins efficace dans les zones peu éclairées ou dans les espaces ouverts. Les alertes émises par les logiciels de VSA ont entraîné un nombre limité d’interventions. Seule la détection d’intrusion en zone interdite a semblé donner des résultats satisfaisants. Manque de transparence : Des inquiétudes existent quant au manque de transparence entourant le développement et le déploiement de la VSA. Le rapport d’évaluation a été remis au ministère de l’Intérieur, mais il a été consulté par des journalistes. On dispose donc de quelques informations. Le coût de la surveillance algorithmique n’est pas une information publique. Acceptation sociale et normalisation de la surveillance : La généralisation de la VSA pourrait banaliser la surveillance de masse et conduire à une acceptation accrue de cette technologie. Certains craignent que l’argument de la sécurité soit utilisé pour justifier le déploiement de systèmes de surveillance toujours plus intrusifs. Il y a un risque que l’usage de la VSA soit perçu comme normal et donc accepté par la population. Impact sur les libertés individuelles et la vie privée : L’utilisation de la VSA implique la collecte et l’analyse de données personnelles, ce qui peut porter atteinte à la vie privée des individus. Il est important de s’assurer que ces données soient traitées de manière resp

Jan 25, 202511 min