Pour contenir la consommation d’énergie d’internet faudra-t-il limiter sa vitesse ?
Internet est-il trop centralisé ? Sommes-nous au bord de la congestion du réseau des réseaux ?… Ces alarmes reviennent régulièrement. En mai dernier, Martin Untersinger pour Le Monde revenait sur la crise de capacité ( capacity crunch ) mise en avant par la Royal Society britannique, l’équivalent de notre Académie des sciences. Pour Andrew Ellis , de l’université de Birmingham, les innovations n’arriveront pas à repousser indéfiniment les limites du réseau, en terme de capacité de stockage ou de vitesse de transmission. Reste que, comme le soulignait l’article, ce n’est pas la première fois qu’on annonce la mort prochaine du réseau des réseaux. Pour plusieurs spécialistes interrogés dans l’article, on est plus là dans l’alarmisme et ce d’autant que l’internet des objets à venir ne va pas entrainer un déluge de nouvelles données extrêmement consommatrices en bande passante.
Plus inquiétante peut-être est la perspective d’une crise énergétique du Net. « Le réseau consomme aujourd’hui 2% de l’électricité produite dans le monde et ce chiffre devrait continuer à doubler tous les 4 ans » , rapporte Thibaut Schepman pour Rue89 , en se basant là encore sur les propos alarmistes d’Andrew Ellis. Pour le consortium Greentouch , qui travaille sur la consommation énergétique du réseau, « nos travaux montrent qu’il est possible de diminuer par un facteur 1 000 la consommation électrique d’Internet tout en garantissant la qualité du service. Autrement dit, on pourrait avoir en 2020 un réseau qui consomme 90 % de moins qu’en 2010, même avec l’explosion du trafic », explique Laurent Lefevre de l’Inria. Pour cela, le consortium a mis en place une série de mesures techniques pour améliorer l’efficacité technique des réseaux mobiles et fixes d’ici 2020. Tout va bien. Les techniciens sont aux commandes. Nous allons pouvoir dormir tranquilles.
Mais l’optimisation énergétique du réseau des réseaux, nécessaire, résout-elle pour autant le problème auquel nous allons être confrontés ?
L’effet rebond et le paradoxe de Jevons nous rappellent qu’à mesure qu’on améliore l’efficacité énergétique d’une technique on encourage sa consommation par le plus grand nombre. C’est ce qui inquiète le toujours stimulant Kris de Decker sur Low Tech Magazine ( @lowtechmagazine ). Pour lui, le meilleur moyen pour limiter la consommation énergétique du numérique consiste à limiter la demande, explique-t-il dans un article intitulé « Pourquoi devons-nous limiter la vitesse de l’internet » .
Combien d’énergie consomme l’internet ?
Il est difficile d’apprécier la consommation énergétique d’internet, estime de Decker, en raison de sa complexité et de son évolution rapide. Les estimations varient du simple au double, notamment parce que nombre d’études s’intéressent principalement à la consommation des serveurs et centres de données qui stockent et distribuent l’information, oubliant trop souvent celle générée par les utilisateurs finaux, l’infrastructure et le processus de production des appareils avec lesquels on se connecte (et ses impacts sur l’extraction de ressources rares, les déchets, la pollution…). Pour lui, le rapport le plus sérieux sur le sujet (dont les données datent de 2012) estime que notre niveau de consommation électrique lié au numérique serait de 8% de la production d’électricité total de cette même année. Si nous devions l’alimenter avec des générateurs à pédale s’amuse-t-il à calculer, il nous faudrait 8,2 milliards de personnes se relayant en 3/8, 365 jours pas an ! Ces chercheurs estiment que la consommation d’énergie liée à l’internet devrait doubler en 5 ans (et ils prennent en compte l’amélioration de l’efficience énergétique… sinon le doublement aurait lieu en 2 ans seulement).
Ce développement de la consommation d’énergie lié à l’internet n’est pas tant du à l’augmentation du nombre d’utilisateurs du réseau, mais est surtout causée par une consommation croissante d’énergie par chacun. Le trafic des données augmente bien plus rapidement que le nombre d’utilisateurs (45% contre 6 à 7% par an, estime l’IUT (.pdf) ). Cette évolution est principalement due au développement des dispositifs mobiles et à la croissance de la consommation de contenus vidéos.
Certes, l’adoption des dispositifs mobiles consomme beaucoup moins que les ordinateurs de bureau, mais ils développent la consommation de données distantes, augmentant l’utilisation de la consommation énergétique globale. « Le trafic sans fil via la 3G utilise 15 fois plus d’énergie que la Wi-Fi, et la 4G consomme 23 fois plus » , signale-t-il, étude (.pdf) à l’appui. La combinaison des dispositifs portables et de l’accès sans fil augmente enfin le temps que nous passons en ligne, comme le pointait une étude de Cisco .
Le second facteur clef, estime de Decker, repose sur les débits croissants, car l’utilisation de l’énergie augmente avec le volume de données auquel nous nous connectons. Or le trafic vidéo, le plus gourmand en données et donc en énergie, est en fort développement. En 2012, 57% du trafic internet (hors vidéo échangées sur les réseaux P2P !) était de la vidéo, et il devrait passer à 69% en 2017. Et si l’accès sans fil et la consommation vidéo sont ce qu’il y a de pire en matière de consommation énergétique, la conjonction des deux dans laquelle nous entrons s’avère inquiétante. Sans compter qu’à mesure que se développent des services temps réel (vidéoconférence, streaming…), le réseau a besoin d’être plus performant et donc de consommer plus d’énergie encore.
De Decker explique encore qu’il est difficile de mesurer la substitution des services en ligne par rapport aux services hors ligne. Combien de déplacements les réunions visiophoniques permettent-elles de remplacer ? Est-il plus économe énergétiquement de lire un journal papier ou son équivalent numérique ?… Autant de questions auxquelles nous n’avons pas vraiment la réponse, tant il faudrait prendre en compte de multiples paramètres. Pour le dire simplement, il vaut mieux lire le Monde papier que de lire tous les articles en ligne, mais il vaut certainement mieux le lire en ligne si on n’en lit que quelques articles. La même question se pose lorsqu’on regarde la substitution dans les modalités de transport par exemple : à partir de quand un car est-il plus économe énergétiquement que des voitures (cela dépend de nombreux facteurs comme le nombre de voitures qu’il peut remplacer, du nombre de passagers, de la distance parcourue…). Sur ces questions, certains chercheurs parlent même d’effets rebond systémiques …
Certes, l’infrastructure d’internet est de plus en plus économe en énergie et les activités en ligne deviennent toujours plus économes en énergie par rapport aux activités hors ligne, mais l’amélioration du réseau va développer la consommation des contenus les plus gourmands en énergie. Selon plusieurs études citées par de Decker, les débits numériques augmentent plus rapidement que l’efficacité énergétique.
Le seul remède au développement de la consommation énergétique du réseau ? Imposer des limites !
Pour de Decker, cette tendance à consommer toujours plus d’énergie ne s’arrêtera pas d’elle-même. La consommation de films HD sera remplacée par celle de films Blu-ray, puis 3D puis de films holographiques dont la taille ne cessera d’augmenter. Tout comme le passage de la 3G à la 4G puis à la 5G demain sera toujours plus gourmande et ce alors que seulement 40% de la population mondiale a pour l’instant l’accès à l’internet… « Il n’y a pas de limites à la croissance de l’internet, hormis les limites de la fourniture d’énergie elle-même ».
De Decker prend l’exemple des voitures où l’effet rebond a permis de se rendre toujours plus loin pour une consommation énergétique équivalente. Or, rappelle-t-il, pour le limiter, on a par exemple imposé des limites de vitesse aux voitures.
L’internet a pour l’instant une très faible suffisance énergétique. Si les batteries limitent la consommation d’énergie des dispositifs mobiles, rien ne limite celle de tous les autres composants du réseau. Par conséquent, la consommation énergétique de l’internet ne connaît pas de limite, à moins que nous lui imposions nous-mêmes des limites. « Cela peut sembler étrange, mais c’est cette même stratégie que nous appliquons pour le chauffage ou le transport », en invitant les gens à baisser le chauffage, à mieux s’habiller ou en limitant la vitesse des automobiles.
Pour de Decker, nous pourrions imaginer limiter la vitesse de connexion de l’internet sans fil, interdire ou limiter l’utilisation de la vidéo et promouvoir un internet de textes et d’images… Ou augmenter le prix de l’énergie pour rendre les alternatives hors ligne plus compétitives. Limiter le débit. Limiter la vitesse ou les volumes. Revenir à un internet textuel. Rien de très séduisant, je sais.
Pour de Decker, fixer une limite ne signifie pas arrêter le progrès technologique : les progrès dans l’efficacité énergétique continueront à donner une place aux nouveaux appareils et aux nouvelles applications, mais contiendrait leur développement. Plus facile à dire qu’à faire…
A quoi ressemblerait un internet énergétiquement soutenable ?
Peut-être faut-il alors imaginer développer l’internet autrement. Dans un autre article , il revient sur le rôle du développement des réseaux communautaires Wi-Fi ouverts comme alternative à la connexion mobile, notamment en ville. Des réseaux qui permettraient déjà de rendre l’internet omniprésent. Mais, si ces réseaux ont connu leur heure de gloire, force est de constater qu’ils ne se sont pas vraiment développés, faute de nécessité pour une entreprise commerciale à organiser un tel service. Dans un dernier billet intitulé Comment bâtir un internet low tech , il regarde comment la connectivité est assurée dans les pays les plus pauvres, via des réseaux bien plus asynchrones que les nôtres. En observant comment se fait la connectivité là où elle n’est pas continue, peut-on apprendre à mettre en place une infrastructure de communication plus résiliente ?
Pour lui, les réseaux de basse technologie ont fait leurs preuves, mais n’ont pas reçu beaucoup d’attention, contrairement aux projets de Facebook ou Google visant à connecter le monde entier (voir « En quoi l’internet est-il un progrès ? » ). La raison tient notamment du fait qu’ils sont mis en place par de petites organisations voir par les utilisateurs eux-mêmes. « Cela garantit un réseau ouvert qui profite à tous plutôt qu’à une poignée de sociétés ». Leur autre avantage est qu’ils sont très économes en énergie, notamment parce qu’ils sont le plus souvent basés sur le Wi-Fi, dont la portée est relativement courte. Mais il est possible de faire des connexions longues distances si les relais sont en ligne de mire ou via des réseaux maillés . De Decker rappelle que les premiers réseaux Wi-Fi ont été mis en place il y a 10 à 15 ans, à l’image du réseau Akshaya et AirJaldi en Inde, celui de la province de Loreto au Pérou… mais on en trouve aussi au Malawi ou au Ghana. De Decker rappelle aussi l’existence de réseaux communautaires dans les pays développés comme le réseau Guifi.net en Espagne (lancé en 2004, il compterait quelques 30 000 noeuds, et a un débit moyen de 2 Mbps), le réseau métropolitain d’Athènes en Grèce, le Funkfeuer en Autriche et le Freifunk en Allemagne (voir également la liste recensée sur Wikipedia ).
Certes, concède de Decker, ces réseaux ne sont pas toujours très performants, souvent intermittents, mais leur tolérance aux retards est aussi une force qui diminue les coûts en consommation d’énergie et les rend adaptés aux énergies alternatives intermittentes comme les panneaux solaires ou les éoliennes. On trouve même parfois des « mules de données », c’est-à-dire des relais de transmission qui passent par des motos ou des voitures, comme c’est le cas des réseaux DakNet et KioskNet qui utilisent des réseaux de bus et de motos itinérants comme noeud de connexions, dans des régions très reculées (voir « Accès collectifs en milieu rural : le « far net » indien ). On pourrait d’ailleurs évoquer le projet d’ internet interplanétaire porté par Vinton Cerf, qui reposait sur des principes de communication assez proches (intermittence, résilience, asynchronicité, etc.), même s’il n’était pas vraiment le produit d’une pensée post-croissance.
Certes, les réseaux tolérants aux retards sont surtout adapté pour l’e-mail. Mais il existe d’autres applications dédiées pour ce type de réseaux. A l’image de moteurs de recherches qui désynchronisent le processus de recherche d’informations pour économiser la bande passante en proposant des résultats de requêtes similaires qui ont déjà été demandés. Des navigateurs tolérants aux retards permettent de télécharger des pages demandées, mais également des pages liées. D’autres sont optimisés pour retourner des résultats comprimés ou minimaux, à l’image de Loband , qui exclut les images, les vidéos, les publicités et les boutons de médias sociaux. Sans compter le développement de caches locaux stockant des pages déjà téléchargées…
Bien évidemment, les applications temps réels (téléphonie internet, streaming, messageries instantanées, vidéoconférences…) sont impossibles dans ce type de réseaux. Mais limiter ces usages consommateurs de ressource est justement l’effet recherché. Les données volumineuses pourraient être transmises via un sneakernet , c’est-à-dire directement via un support de stockage comme une clé USB ou un disque dur, à l’image des usages d’échange de musique en Afrique de l’Ouest qu’évoquait Christopher Kirkley à Lift 2013 .
Notre infrastructure technologique est le reflet de notre modèle de développement économique
« L’internet que nous connaissons dans le monde industrialisé est le produit d’une offre abondante d’énergie, d’une infrastructure électrique robuste et d’une croissance économique soutenue » , conclut de Decker. Nous avons construit un internet high-tech vulnérable aux changements de conditions de l’une de ses trois caractéristiques. « Les réseaux de basse technologie, eux, en raison de leur réseau de résilience, peuvent demeurer fonctionnels lorsque l’offre de combustible fossile est interrompue, lorsque l’infrastructure énergétique se détériore, lorsque l’économie est paralysée ou même en cas de calamité. » Des systèmes de ce type pourraient résister même aux pires scénarios d’avenir .
Cet internet-là que décrit Kris de Decker ne repose non pas tant sur une autre infrastructure technique, que sur un autre modèle de développement économique et politique. Sur un autre rapport au monde que celui que propose l’internet high-tech que l’on connait et qui nécessite pour se développer de donner des moyens à des entreprises non commerciales, à des nouvelles formes de services publics, aux biens communs… A un autre projet de société que celui que nous propose la Silicon Valley, enfant du capitalisme débridé. Il me semble rejoindre par là même les propos que tient Naomi Klein ( @NaomiAKlein ) dans son dernier livre, Tout peut changer ( site ), nous expliquant combien le problème écologique et notre surconsommation des ressources sont liés à notre modèle économique. « Si nous n’avons pas fait ce qu’il fallait pour réduire les émissions, c’est parce que cela allait contre le capitalisme déréglementé, qui est l’idéologie dominante depuis 1980 » , explique la journaliste et essayiste. Le capitalisme ne construira pas un nouvel internet, plus sobre énergétiquement et en ressource. Ceux qui construisent l’internet sans fil communautaire sont déjà là , pour ceux qui n’ont pas jeté l’éponge. Reste que le problème est toujours le même : comment les soutenir, les aider à se développer, sans qu’ils deviennent des acteurs privés renonçant à leurs idéaux ?
Or, les réseaux sans fil communautaires ont déjà eu une histoire dont il nous faut peut-être tirer les enseignements pour comprendre pourquoi cette offre n’est pas advenue. Au début des années 2000, on a vu le déploiement de réseaux sans fil communautaires un peu partout dans le monde. Des collectifs amateurs s’étaient alors mobilisés pour créer des réseaux sans fil urbains, à l’image de Paris sans fil. Rattrapés par des offres commerciales cherchant à organiser le marché (comme Ozone ou Fon) et par des offres municipales (d’acteurs publics comme la RATP ou la ville de Paris, cherchant alors à développer leurs propres réseaux d’accès), c’est au final le déploiement des offres commerciales des opérateurs de téléphonie mobile qui ont eu raison de bien des initiatives. Elles sont le plus souvent restées marginales, à mesure que la couverture en Wi-Fi montrait aussi ses limites. Les coûts de déploiement, les limites techniques (notamment la portée limitée) et le manque d’engagement ont eu raison de bien des expériences lancées à cette époque. Mêmes les réseaux municipaux, portés par les acteurs publics, ont fini pour beaucoup par renoncer à apporter des offres d’accès structurées. « L’ubérisation de l’accès n’a pas eu lieu » , ironise Thomas Papiernik, qui fut le président de Paris sans fil.
Image : le Wi-Fi à Paris via Wigle.net . La différence de couleur indique la densité des noeuds et points d’accès Wi-Fi (en vert, la qualité est forte, en rouge, beaucoup moins). Les points bleus désignent l’emplacement des tours relais de téléphonie mobile.
Quand on lui demande, près de 10 ans après la fin du réseau communautaire parisien, les raisons de cet échec, Papiernik en évoque plusieurs. Faire un réseau ne pouvait se résumer à mettre des antennes un peu partout sur Paris. Paris était trop étendu avec un relief trop difficile et les militants de Paris sans fil ne pouvaient compter que sur leurs propres moyens. « On a manqué de méthode et de vision sur ce que nous devions faire », plus occupé à faire de la pédagogie sur le fonctionnement du Wi-Fi qu’à développer un vrai réseau fonctionnel, même modeste géographiquement. Paris sans fil a surtout servi de démonstrateur pour des services commerciaux naissants, qui ont proposé une offre plus simple que la nôtre. « L’idée de partage, d’être acteur du réseau, n’a pas vraiment réussi à s’imposer » . Il est plus simple d’être consommateur, de souscrire à une offre plug & play, constate-t-il sans amertume.
Qu’aurait-il fallu pour que Paris sans fil se développe et perdure ? « Peut-être aurait-il fallu à mobiliser plus de monde, mais la technologie à l’époque était encore compliquée pour qui n’était pas un peu geek » , reconnaît Thomas Papiernik. « L’évangélisation nous a certainement trop mobilisés également » .
Assurément, comprendre l’échec de Paris sans fil permet de mettre le doigt sur la difficulté à soutenir des projets alternatifs et comment ceux-ci sont souvent dépassés par les projets commerciaux ou publics qui s’en inspirent. Mais ces deux formes ont aussi eu leurs limites. La commercialisation de services Wi-Fi n’a pas vraiment donné naissance à des services pérennes. L’offre commerciale comme l’offre publique ont échoué à développer de la réappropriation et du lien social.
Ce que montre l’échec de Paris sans fil, me semble-t-il, c’est la difficulté à soutenir des fonctionnements communautaires, que l’on préfère privatiser ou municipaliser. Comme les communautés ont des difficultés à se structurer, à s’organiser, à se financer…, on peine à les aider à s’autonomiser et on leur préfère souvent des réponses commerciales ou publiques qui semblent toujours plus fonctionnelles ou efficaces. Au final, comme le montre l’état de l’internet sans fil actuel, ce n’est pas vraiment le cas. Ces réponses privées ou publiques surtout ont coupé court au développement de modèles plus partagés et plus responsables. Un peu comme si nous faisions toujours tout pour empêcher les gens de se prendre en main par eux-mêmes, incapables de sortir du dualisme de notre modèle économique et politique.
Hubert Guillaud (Le Monde)