Quel écosystème numérique de confiance demain ? par Sylvain Delaitre

, par  communistes , popularité : 2%

Un excellent article de la revue progressiste, illustratif du défi que doivent relever les communistes pour être porteur d’une reconquête industrielle progressiste. C’est une question au coeur de la reconquête du monde du travail, et notamment de la classe ouvrière dans sa diversité, y compris des secteurs des technologies numériques. Sans doute faudrait-il le compléter par un état des lieux des coopérations possibles, hors GAFAM, ce qui pose évidemment la question de nos relations avec la Chine et la Russie.

pam

PNG

En écho à l’article de Serge Abiteboul [1] sur le rôle d’un Palantir dans notre écosystème, l’auteur [2] insiste sur l’absolue nécessité de reconstruire une filière industrielle maîtrisée et contrôlée – indépendante des intérêts marchands et protégée des prédateurs – en partant des composants de base, idéalement au niveau plurinational, pour rétablir la confiance dans notre modèle numérique.

Défaillances informatiques

Ce sont les virus informatiques, issus des logiciels de type Le jeu de la vie (1980), qui ont constitué les premiers perturbateurs de notre confiance numérique. Mais ça se limitait alors à l’utilisation de copies frelatées de disquettes informatiques, puis à la visite de sites internet peu recommandables. Cependant, cette vision de la cyber-menace, construite essentiellement autour des virus et autres vers et chevaux de Troie (dont Stuxnet, Frame, WannaCry…) et d’une mauvaise "hygiène" informatique (les comportements humains tels que le fait de répondre à un courriel de source inconnue, cliquer sur une pièce jointe d’un inconnu, télécharger sur des sites non sécurisés…) n’est que la partie émergée de l’iceberg, une vision "superficielle" des risques informatiques.

En effet, depuis les années 2010, avec les rapports du Gouvermment Accountability Office des États-Unis (sorte de Cour de comptes) qui pointaient le fort taux de contrefaçons et de défaillances, y compris dans les composants utilisés dans les industries de défense et de sécurité, et le rapport parlementaire français sous l’autorité d’Olivier Darrason concernant la confiance dans le numérique, il est apparu que le problème cyber n’était pas que « logiciel » mais qu’il s’enracinait aussi dans le matériel. Edward Snowden a confirmé les failles béantes de ce système (portes dérobées, fonctions cachées, mouchards, rapports vers des tiers, etc.). Le scandale Wikileaks a relancé, à juste titre, la polémique. Et aujourd’hui les révélations sur Netflix ou sur Cambridge Analytica entretiennent doutes et interrogations. Il y a une certaine prise de conscience de nos dirigeants, comme l’atteste le début du rapport Villani sur l’intelligence artificielle (mars 2018) qui donne un constat très cru de nos échecs et renoncements dans le domaine de l’écosystème de confiance, et de l’approche industrielle sous-jacente.

Le constat est sévère : abandon de la filière Bull (fin du plan calcul, vers 1976, et d’une filière microprocesseurs [1990-2010]) ; chute et disparition des télécoms en Europe (Alcatel, Lucent, puis Nokia) ; abandon du système d’exploitation souverain ; abandon du cloud souverain (abandonné en France en 2012) ; absence de plate-forme européenne significative…

Est-il trop tard ?

Le débat n’est pas encore tranché, mais la volonté de quelques politiques pour reprendre la main sur une filière industrielle sécurisée des composants informatiques se heurte à l’énormité des investissements à mobiliser pour relancer l’initiative dans ce secteur et à la pression à très court terme des marchés. Financer une filière d’excellence française sur la cybersécurité et la cyberdéfense est bien plus médiatique, et plus économe en capital à investir, mais ce ne sera que château fort construit sur du sable si on ne s’appuie pas sur un écosystème industriel de composants sécurisés et de confiance.

Aujourd’hui, l’équation est simple. Soit on finance quelques chaires académiques spécialisées sur cyber (budget globalement inférieur à n’importe quel budget de com’ d’un grand groupe industriel), et l’on forme à terme 1.000 à 2.000 experts spécialisés du domaine ; mais là on ne traite qu’une partie de la problématique cyber, pas la base du problème : ce n’est pas qu’un problème de longueur de la clé de cryptographie ni de poliorcétique [3]. Soit on mobilise des milliards d’investissements, et ce sur vingt ans, afin de renforcer ce qu’il reste de points d’excellence en Europe sur les composants et les fondeurs (Soitec, STMicroélectronics, UMS, le CEALETI…) – il y a urgence, car ST-Microelectronics, 12ème groupe mondial pour les puces, a jeté l’éponge pour ce qui est des processeurs et se recentre essentiellement sur des composants pour l’Internet des objets. Mais cet effort est de nature politique.

Les États-Unis financent depuis les années 1960 l’écosystème de la Silicon Valley, via la Defense Advanced Research Agency (DARPA) et les autres agences gouvernementales. Les GAMAFI ne se sont pas créés "au fond d’un garage", ils sont subventionnés depuis des décennies. La Chine, depuis quinze ans, a également subventionné son propre écosystème, et aujourd’hui les BATX émergent. L’Europe, elle, n’a jamais eu de plan Calcul. Elle a certes partiellement réussi dans le spatial (le modèle est à bout de souffle) et partiellement en aéronautique (mais les États-Unis font énormément pression sur Airbus). Elle a échoué sur la stratégie de Lisbonne, l’Europe de la connaissance : l’objectif des 3% de PIB qui devaient lui être alloués n’a jamais été tenu. L’industrie européenne n’a toujours pas mené à terme le projet Galileo (un "GPS" indépendant) pourtant lancé en 1998. Si le CERN était en pointe il y a trente ans sur le "réseau des réseaux", Internet voit aujourd’hui sa gouvernance et sa neutralité menacées par les intérêts commerciaux et hégémoniques des États-Unis et de la Chine.

Les tentatives sympathiques d’architectures ou d’outils alternatifs, tels les logiciels libres, sont menacées par les politiques d’acquisitions de nos administrations [4], et les recherches de nouveaux outils de confiance, décentralisés comme les blockchains, se révèlent insuffisantes, et partiellement utilisables (problématiques en termes déploiement d’architecture et de consommation énergétique associée).

Et demain ?

Sous la pression des GAFAM, le modèle marchand est en train de migrer du monde des solutions propriétaires (les OEM – industriel manufacturiers – qui verrouillent encore leurs marchés historiques, les constructeurs d’avions qui structurent, encore, le monde du transport aérien) vers le monde des plate-formistes (mettre en relation des intermédiaires, en cassant la relation captive traditionnelle) et l’écosystème centré sur la donnée (nouveau modèle, où le fabricant du système qui produit la donnée n’est pas propriétaire de cette donnée !).

Les nouveaux maîtres du jeu seront les fournisseurs d’analyses de données (mise en évidence de corrélations), d’outils de visualisation des métadonnées (données complexes, non homogènes, massives, de volume exponentiel, dont la véracité doit être vérifiée), d’outils de prédiction de comportement ou de potentiel de vie, et de modèles numériques associés. Les nouvelles technologies à maîtriser sont :
– les big data analysis, la production d’analyses à base des métadonnées ;
– les architectures connectées (parmi lesquelles l’Internet des objets) et agiles (partiellement ou totalement décentralisées) ;
– la cybersécurité (garantir l’intégrité et la véracité des données, rétablir la confiance) ;
– l’intelligence artificielle (IA ; nous préférons le terme informatique avancée), en fait principalement les outils d’apprentissage informatique profond.

La notion de « propriété de la donnée » étant difficile à définir (tous les composants, sous-systèmes et systèmes en produisent) et dépendant des liens contractuels, c’est donc plutôt la notion d’« accès à la donnée » qui va structurer empiriquement les relations commerciales sur les sujets de « valorisation des données » ; bref, la façon dont on monétise la donnée. (Cette relation est actuellement caricaturale, car pour bénéficier d’une application "gratuite", il faut impérativement « accepter les conditions générales d’utilisation ».)
Les plates-formes de type Palantir se positionnent en force sur le créneau du big data analysis. Elles présentent deux types de risques :
- 1. La captation en premier de la valeur ajoutée (position commerciale dominante) et l’accès en direct à tout type de données. Il serait alors préférable de ne leur fournir que des méta – données, déjà formatées, triées et pré-analysées ou prétraitées.
- 2. Leur porosité vis-à-vis de leurs mandants ou parties prenantes (tiers de non-confiance). Une des alternatives serait d’appliquer en amont des algorithmes d’anonymisation sur les bases de données fournies.
En tant qu’européens, nous sommes dans une position très asymétrique par rapport à ces nouveaux fournisseurs de services numériques, car tous les acteurs sont états-uniens… Le choix revient juste à définir la longueur de la cuiller que l’on va utiliser pour dîner avec le Diable. Mais, sur toutes ces briques techniques de pointe, la question du composant et du matériel associé est incontournable. Les logiciels grand public (systèmes d’exploitation, firmwares, applications bureautiques…) et les algorithmes spécifiques (plus sensibles dans la chaîne de valeur) ne sont jamais hors sol : ils se transforment en séries de macro-instructions qui s’implémentent dans les puces. Tout calcul informatique consiste finalement à commuter des électrons, et à les transférer dans des mémoires (qu’il faut régulièrement alimenter et rafraîchir).
C’est très contraignant pour l’efficacité énergétique de nos algorithmes. Il serait illusoire de progresser sur les sujets IA si on ne s’attache pas à réaliser des composants dédiés optimisés, sinon la consommation de ces circuits intégrés associés va rapidement rencontrer un mur thermique et énergétique. Le CNRS, notamment, développe déjà des composants neuromorphiques, où les réseaux de neurones sont prégravés dans le silicium. De nouvelles architectures à base de systèmes à memistors sont également testées.

Alors, que faire ?

- > 1. Voir loin et se donner une stratégie. Il faut mobiliser massivement les investissements, sur le long terme ; il faut une nouvelle politique fiscale par rapport aux investissements des entreprises (mise sous contrôle et sous exigence de résultats des subventions PCRD, CICE et CIR). Plus généralement, il faut construire une vision globale, qui parte des industriels du composant (microprocesseurs, microcalculateurs, capteurs, senseurs, routeurs, mémoires…), en passant par les créateurs de logiciels et les gestionnaires de plates-formes(pour les services numériques, dont le big data analysis), mais qui s’affranchisse des prédateurs GAFAM et BATX. Enfin, il est nécessaire de reposer des projets industriels en coopération, en partenaires égaux, non affiliés, et définir le statut de l’accès aux données.

- > 2. Commencer par du concret. D’abord, nous avons besoin de démarrer par un plan d’urgence de sauvetage de nos dernières pépites européennes (STMicroelectronics, Soitec…), mais aussi de faire un inventaire de notre écosystème des start-up sur logiciel libre, plates-formes libres et outils (solutions) participatifs. Il faudrait également organiser un "Woodstock" des chercheurs, universitaires, entrepreneurs indépendants, salariés du secteur, citoyens, avec pour thème « comment construire une alternative citoyenne et participative de notre écosystème de l’informatique avancée ? ». Il faut utiliser notre position unique en France dans le domaine des données de santé pour résister à la pression marchande des GAFAM, et en profiter pour développer une filière spécifique sur les dispositifs de santé, garantissant la sécurité de nos données personnelles, autour d’une filière maîtrisée de composants de santé [5].

Voir en ligne : Article de la revue progressistes

[1« Les liaisons dangereuses du renseignement français », Progressistes, n°18.

[2Sylvain Delaitre est ingénieur-chercheur, membre du Conseil supérieur de la réserve militaire et de la CGT Métallurgie.

[3Art d’assiéger, ou de défendre, les places fortes.

[4Nos administrations n’hésitent pas à se fournir auprès de l’états-unien Cisco (routeurs télécoms) et de Microsoft (systèmes d’exploitation et applications bureautiques), obérant leurs marges de manœuvre. Forts de ces exemples, les grands groupes industriels, tel Airbus, passent directement des accords avec Palantir.

[5La CGT de Thales a proposé un projet industriel complet sur ce sujet au CNI et CSF Santé.

Sites favoris Tous les sites

1 site référencé dans ce secteur

Brèves Toutes les brèves

Navigation

Annonces

  • (2002) Lenin (requiem), texte de B. Brecht, musique de H. Eisler

    Un film
    Sur une musique de Hans Eisler, le requiem Lenin, écrit sur commande du PCUS pour le 20ème anniversaire de la mort de Illytch, mais jamais joué en URSS... avec un texte de Bertold Brecht, et des images d’hier et aujourd’hui de ces luttes de classes qui font l’histoire encore et toujours...

  • (2009) Déclaration de Malakoff

    Le 21 mars 2009, 155 militants, de 29 départements réunis à Malakoff signataires du texte alternatif du 34ème congrès « Faire vivre et renforcer le PCF, une exigence de notre temps ». lire la déclaration complète et les signataires

  • (2011) Communistes de cœur, de raison et de combat !

    La déclaration complète

    Les résultats de la consultation des 16, 17 et 18 juin sont maintenant connus. Les enjeux sont importants et il nous faut donc les examiner pour en tirer les enseignements qui nous seront utiles pour l’avenir.

    Un peu plus d’un tiers des adhérents a participé à cette consultation, soit une participation en hausse par rapport aux précédents votes, dans un contexte de baisse des cotisants.
    ... lire la suite

  • (2016) 37eme congrès du PCF

    Texte nr 3, Unir les communistes, le défi renouvelé du PCF et son résumé.

    Signé par 626 communistes de 66 départements, dont 15 départements avec plus de 10 signataires, présenté au 37eme congrès du PCF comme base de discussion. Il a obtenu 3.755 voix à la consultation interne pour le choix de la base commune (sur 24.376 exprimés).