Sélectionner une page

Les terres rares, dont elles n’ont de “rare” que le nom car plus abondantes que l’or ou l’argent à la surface de la Terre, à l’origine de la transition écologique et des équipements technologiques les plus performants, nécessitent des traitements beaucoup moins écologiques.

Les risques écologiques de la croissance de la production d’équipement

Certains pays en voie de développement économique prennent en charge ces traitements de purification au détriment de leurs propres populations et sols. La production des équipements les plus avancés technologiquement nécessite les métaux contenus dans ces terres rares. Les dernières éoliennes offshores ont besoin d’une tonne de terre rare pour la fabrication des pièces la composant. Dans de moindres proportions, la construction d’une voiture consomme, selon les chiffres du Dossier Enjeux des Géosciences — Les terres rares, du Bureau de recherches géologiques et minières, entre 0,5 et 3,5kg de terre rare et un ordinateur demande 4,5g pour un disque dur de 500g en moyenne.

Ainsi, on imagine difficilement les quantités nécessaires à la production mondiale d’ordinateurs, smartphones et autres serveurs en tout genre.

La production d’infrastructures a connu une croissance à deux chiffres pendant les dernières années, et même si la croissance relative ralentit cette année, les estimations promettent de repousser les limites. Les entreprises poursuivent leur transition numérique et donc continuent de s’équiper avec des matériels toujours plus performants. On arrive en 2019, selon l’étude empreinte environnementale du numérique mondial du groupe de réflexion Green IT, à un parc mondial de 34 milliards d’équipements qui représente 223 millions de tonnes de matériels.

Cette croissance est particulièrement tirée par les fournisseurs de services (cloud, managés ou de communication) qui investissent pour augmenter leur capacité et leur efficacité pour répondre aux demandes d’un monde toujours plus connecté.

Selon Félix Tréguer, cofondateur de l’association La Quadrature du Net, et Gaël Trouvé, cofondateur du groupe Scolopendre, « moins de 25 % de la masse d’un smartphone ou d’un ordinateur ultra-plat sont recyclables, et environ 5 % sont effectivement recyclés lorsque l’objet est orienté dans la bonne filière — ce qui est rarement le cas puisqu’entre 30 et 60 % de nos déchets électroniques sont exportés illégalement à l’étranger, principalement au Ghana, en Chine, en Inde et au Niger ».

L’obsolescence et la dégénérescence

Outre les croissances naturelles des équipements liées à la démocratisation des usages, l’obsolescence pousse à la consommation et donc soutient la croissance de la production d’équipements. Celle-ci peut s’analyser comme une dichotomie : l’obsolescence est « naturelle » et « objective », ou « artificielle » et « préméditée », qui donc s’apparente à de la dégénérescence programmée.

La part « objective » de l’obsolescence se comprend par l’évolution naturelle de la technologie. Les conjectures de Moore nous rappellent que les équipements technologiques voient leur puissance doublée tous les deux ans. Ainsi les nouveaux équipements rendent obsolètes les anciens. De plus, cette augmentation des capacités entraîne une augmentation des puissances requises pour le bon fonctionnement des nouveaux logiciels qui vont être utilisés sur ces terminaux. Un exemple qui nous touche tous, ou presque, est l’augmentation des cadences de processeurs dont a besoin Windows pour tourner, qui ont été multipliées par 15, et l’augmentation des besoins en mémoire vive, qui sont 42 fois supérieurs aux requis d’il y a 8 ans. Ainsi, si un équipement hardware, qui est normalement fiable et endurant, peut présenter des faiblesses comparé à un équipement plus récent, il peut se révéler complètement obsolète par les nouveaux logiciels qui ne peuvent plus y être installés.

La part « artificielle » de l’obsolescence vise les moyens utilisés par les constructeurs pour rendre inefficaces les équipements prématurément. Ces moyens portent sur des faiblesses préparées dans le hardware ou des failles dans le software. Nous pouvons aussi intégrer dans les faiblesses l’unicité d’un équipement matériel qui est apparue au cours de la deuxième moitié du XXe siècle. Une pièce cassée ou défectueuse ne peut plus être remplacée donc le remplacement intégral est nécessaire.

Nous pouvons ici parler de dégénérescence programmée, dans la mesure où le dépérissement est organisé par le constructeur ou l’éditeur dans le but que le client renouvelle ses équipements après une certaine période d’utilisation.

Croissance de la production électrique

Tous ces équipements et infrastructures cités, merveilles technologiques en tant que telles, ne restent que plastique et métal sans électrons circulants dans leurs circuits. Le Conseil français de l’Énergie (CFE) nous présente ses 10 messages-clés des scénarios énergétiques mondiaux dans son étude Les scénarios mondiaux de l’énergie à l’horizon 2050 :

  1. La complexité du système énergétique va s’accroître d’ici 2050.
  2. L’efficacité énergétique est cruciale pour résorber l’avance de la demande sur l’offre.
  3. Le bouquet énergétique de 2050 restera majoritairement fossile.
  4. Les priorités régionales diffèrent : il n’y a pas de solution « taille unique » au trilemme énergétique[1].
  5. Ce sera un vrai défi pour l’économie mondiale d’atteindre l’objectif de 450 ppm[2] sans prix du carbone inacceptable.
  6. Un futur « bas carbone » ne dépend pas que des énergies renouvelables : le captage, l’utilisation et le stockage du carbone et le comportement des consommateurs doivent contribuer au changement.
  7. Le captage et stockage du carbone, l’énergie solaire et le stockage de l’énergie sont les incertitudes majeures d’ici 2050.
  8. Répondre au trilemme énergétique implique des choix difficiles.
  9. Les marchés énergétiques exigent des investissements et une intégration régionale pour bénéficier à tous les consommateurs.
  10. La politique énergétique doit garantir le fonctionnement des marchés de l’énergie et du carbone.

Au cours de l’étude, le CFE nous prévient que la production totale d’électricité devrait croître entre 123 et 150% d’ici 2050, en fonction de scénarios promouvant plutôt une lutte internationale coordonnée contre les effets du dérèglement climatique ou plutôt la croissance optimale des économies nationales. Cependant, l’efficacité énergétique, qui mesure de l’utilisation de l’électricité par point de PIB, tend à s’améliorer et devrait baisser d’environ 50% d’ici 2050.

Enfin, le mix énergétique fossile, soit la part des énergies fossiles utilisées dans la production de l’énergie, pourrait baisser de 2 à 20%.

Donc, selon les scénarios étudiés, qui mettent chacun l’accent sur un des points du trilemme énergétique, la croissance de la demande en énergie sera tirée par la croissance mondiale. Cette croissance économique, pierre angulaire du capitalisme, dépend de la coopération internationale pour lutter contre les effets du dérèglement climatique et des comportements individuels, comme le rappelle le point 6 des messages clés ci-dessus. Or, l’évolution des comportements individuels passe avant tout par l’évolution de nos comportements de consommateurs de produits technologiques et de contenus numériques.

La spirale infernale : il nous faut des data pour économiser de la data

La croissance de la production électrique est nécessaire à cause de l’augmentation des équipements électroniques, pour leur production et leur consommation durant leur cycle de vie, mais aussi pour la production et la consommation des différents contenus pour lesquels les équipements sus-cités ont été construits.

En 2017, internet captait 7% de l’électricité mondiale et connaît une croissance de 12% par an.

Les recherches sur l’empreinte carbone de Google ont amené Alex Wissner-Gross, physicien à l’Université de Harvard, à évaluer que deux recherches sur ce moteur coûtent 14 grammes de CO2, ce qui est équivalent à l’ébullition d’un litre d’eau (15 g). Or, avec l’augmentation des contenus disponibles, les centres de calculs du moteur de recherche doivent tourner toujours plus vite pour allier exhaustivité, pertinence et vitesse d’affichage des résultats. Et selon Evan Mills, scientifique du Laboratoire national Lawrence Berkeley de Californie, « les centres de calcul sont parmi les infrastructures les plus coûteuses en énergie qu’on puisse imaginer ».

Au cœur de cette croissance de contenus, une guerre de production s’est déclenchée parmi les différents acteurs du multimédia. Cette concurrence effrénée se traduit par une baisse de la qualité des programmes, autant dans le fond que la forme. L’optimisation des codes est devenue un luxe qu’on ne se permet plus de prendre, et ce, aussi, pour différentes raisons. Les capacités de mémoire et les cadences de processeurs permettent de faire tourner des applications toujours plus complexes, volontairement ou involontairement. Les temps de développement sont aussi raccourcis par les pressions économiques et donc les développeurs ne prennent plus le temps de la relecture pour nettoyer les lignes superflues. Ces applications sont qualifiées d’obésitielles (terme inventé par Roberto Di Cosmo pour qualifier les logiciels obèses, non optimisés) car gourmandes en capacités techniques et en énergie. De plus, ces applications sont souvent conçues pour fonctionner en arrière-plan, pour permettre de recevoir et d’envoyer des données, et donc ne sont jamais complètement fermées.

Outre la croissance exponentielle des applications, les services de divertissement se livrent les mêmes batailles de production de contenus numériques. Fin 2018, Netflix consommait 15% de la bande passante mondiale, et jusqu’à 40% sur certaines heures. Non seulement cette capacité de diffusion nécessite d’énormes infrastructures, notamment des serveurs en tout genre, mais demande aussi la production de contenus à diffuser. La montée en puissance d’Amazon Prime et les arrivées progressives des plateformes Apple, lancée le 1er novembre 2019 en France, Disney+, le 12 novembre 2019 aux US, puis des diffuseurs télévisuels qui ne veulent pas rester sur le quai tels que HBO ou France Télévision, promettent une explosion de l’utilisation de la bande passante et donc des infrastructures et donc de la demande en énergie.

Malgré les efforts pour compresser les contenus pour leur diffusion, les diffuseurs s’appuient au maximum sur les capacités techniques des réseaux domestiques pour garantir une qualité et une vitesse optimales à leurs abonnés.

Sur ces dernières années, les croissances les plus spectaculaires ont été recensées sur les terminaux portables. YouTube représente 37% de la bande passante mondiale consommée sur mobile et prend la tête devant les géants des réseaux sociaux Facebook et Snapchat, les deux se situant au-delà de 8% chacun.

Tous les usages et consommations de ces équipements et contenus sont donc demandeurs en énergie. Mais la production de ceux-ci ne va pas s’arrêter pour la simple raison du risque de mettre en péril la durabilité de l’environnement terrestre. Non seulement les industries dégagent des profits grâce aux procédés expliqués et emploient de nombreuses personnes, mais la consommation génère en plus des données, ce graal moderne permettant l’étude des comportements et l’anticipation des attentes des consommateurs.

La place des données dans cette équation : l’Alpha et l’Oméga

La donnée a un rôle paradoxal dans cette équation écologique. Sa production, son traitement et sa conservation demandent une constante augmentation des équipements, ce qui aggrave l’impact environnemental, mais l’exploitation de ces données et le traitement croisé augmentent les chances de trouver des solutions. Faudra-t-il se résigner à couper le courant ou faut-il persévérer dans cette thèse d’une technologie salvatrice ?

Cette exploitation à grande échelle des données, qu’on appelle « Big Data », est elle-même paradoxale. Sa définition par les trois V — Volume, Vitesse et Variété — montre qu’il s’agit concrètement d’une course vers l’infini qui s’inscrit dans les contraintes d’un monde fini.

Comme pour de nombreux autres domaines, cette pratique se divise entre recherche et exploitation. L’étude citée précédemment du CFE s’appuie sur l’analyse de données pour réaliser ses projections. Outre la prédiction de la demande en énergie liée à la croissance économique, la recherche s’appuyant sur l’analyse à grande échelle de données se répand et s’intensifie. Que ce soit dans des domaines aussi variés que la santé, l’astronomie ou le sport, la collecte de données diversifiées et leur traitement croisé permettent d’accélérer la compréhension de phénomènes ou la démonstration de théories jusqu’ici injustifiées.

Mais le poids économique du Big Data est toujours plus important et son industrialisation est victime du même phénomène que les autres branches industrielles : la recherche de la rentabilité par la contraction des coûts de production. Les entreprises qui se sont lancées dans le Big Data analysent mécaniquement des données comme un carreleur pose des carreaux. Dans un sens, cette réflexion n’est pas dénuée d’intérêt. La donnée est devenue une matière première produite en abondance, dont la qualité et la précision déterminent le coût. Le produit des traitements est lui-même une donnée qui peut être étudiée au travers d’autres prismes. Et ainsi de suite à l’infini. Car l’avantage de la donnée est que son cycle de vie n’est pas fini. Une donnée ne meurt pas. Elle est créée, étudiée, partagée, mais à moins d’une intervention extérieure pour la supprimer, elle ne se décomposera pas toute seule. Il faudrait cependant que les faibles coûts d’exploitation ne signifient pas oublier la recherche de l’efficience.

Ainsi, le Big Data commence déjà à faire partie de la solution des problèmes environnementaux, entre la recherche prédictive et des applications concrètes : prédiction de la demande électrique, connaissance des réseaux améliorée (gestion et opérations de maintenance, de réparation ou d’anticipation), pilotage industriel, etc.

Toutefois se pose la question du but de ces traitements tous azimuts, de leur finalité et des méthodes employées lors de leur réalisation.

Vers de nouvelles pratiques

De nombreux mouvements et organisations réfléchissent aux méthodes de convergence des transitions écologique et numérique. Les réflexions traitent du cycle de vie de la donnée (création, stockage, traitement et analyse, sauvegarde, diffusion, réutilisation) dans le sens où une donnée ne meurt pas, son partage ne la divise pas, mais la multiplie. La mutualisation des sources est donc une des clés pour réduire l’impact environnemental de cette multiplication, qu’il faut stocker, et favoriser l’intelligence collective, créatrice de valeur. Ainsi se développent le « crowdsourcing » et « l’open data ». Restent les problèmes de qualité des données mises à disposition, lorsque les acteurs concernés jouent le jeu, et leurs compatibilités entre elles.

De nouveaux concepts fleurissent dans la mesure de la qualité d’un équipement ou d’une donnée. L’instauration d’un label « donnée verte » suite à l’analyse de son empreinte carbone, autant lors de sa production que son stockage, ou encore concernant le développement du concept « ecology by design ». Ces évaluations de la qualité environnementale visent à sensibiliser le consommateur, à le rendre citoyen responsable dans sa consommation d’équipements et de contenus numériques.

Le développement des « smart cities » est également une occasion à saisir pour se poser les questions de la place de la donnée dans l’équation écologique. Pour Odile Ambry, présidente du groupe de travail « Données » à La Fabrique écologique, il faut ramener la donnée au service de la transition écologique et impliquer le citoyen dans cette dynamique en lui permettant de mettre à disposition les données qu’il a lui-même captées. La ville de Gand expérimente la prise de décision concertée s’appuyant sur les citoyens et l’intelligence collective : « il n’y a pas de ville intelligente, il n’y a que des citoyens intelligents ».

En parallèle, les utilisateurs les plus gourmands en énergie, pour simplifier, les GAFAM, cherchent des moyens de réduire leur empreinte écologique, autant pour leur image de marque que pour réduire les frais monstrueux de leurs consommations. Ils se tournent vers les énergies renouvelables pour alimenter leurs data centers et les localisent dans des endroits frais naturellement, tels que les pays nordiques, pour éviter la surconsommation. Des initiatives de récupération de la chaleur émise par ces centres apparaissent et des études, telle que L’impact spatial et énergétique des data centers sur les territoires de l’ADEME, documentent les succès et les axes d’amélioration de ces pratiques. Il en résulte qu’il existe encore des freins au déploiement à grande échelle de cette technique de récupération de chaleur fatale . Ces freins se partagent entre réticences économiques et difficultés techniques. La première est induite par les divergences de temporalité des objectifs de rentabilité des promoteurs de data centers, qui étudient leur rentabilité sur 3 à 5 ans, et des installateurs de récupération de chaleur fatale, qui envisagent leur retour sur investissement entre 25 et 30 ans. La partie technique concerne elle, d’abord, le nécessaire arrêt des serveurs lors des travaux de transformation, ce qui a aussi un impact économique, à moins d’avoir intégré ce système de récupération de chaleur fatale dans la conception du bâtiment, puis la mise à disposition de la chaleur captée au réseau urbain dépendant des distances et des normes en vigueur. La volonté politique est donc primordiale dans ce cas et l’exemple du développement du programme proposé en 2016 par Stockholm, le « data center parks », qui vise à allier efficacité énergétique, numérique et foncière, reste isolé.

Ainsi, au regard de ces différents éléments, nous pouvons constater une transformation en cours de notre mode de vie et de notre environnement. La donnée impacte la société et l’économie, comme une troisième révolution industrielle, après le charbon et le pétrole. Nous percevons déjà ses effets sur la société avec la mise en place de règlements et de régulateurs, signes actant des transformations profondes perçues (même !) par les pouvoirs publics. Les initiatives citoyennes se développent également à divers niveaux, principalement au niveau local, signe que cette révolution touche la vie et les usages des consommateurs qui veulent reprendre la main sur ce qui leur appartient. Car ces données ne sortent pas de n’importe où : elles nous décrivent, voire nous dissèquent, bien plus que ce que l’on pense. Au citoyen d’exprimer sa volonté sur quel avenir donner à la donnée pour que le consommateur ne devienne pas esclave.

 

[1] Trilemme énergétique : la sécurité énergétique, le respect environnemental et l’équité énergétique

[2] Ppm : partie par million, unité de mesure pour évaluer la pollution de l’air et de l’environnement

Vincent Lemoine

Vincent Lemoine

Consultant en Système d'Information