Professeur émérite en électronique, Université de Lille
Alain Cappy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.


Université de Lille et Université Lille Nord-Europe (ULNE) fournissent des financements en tant que membres adhérents de The Conversation FR.
Voir les partenaires de The Conversation France
Les débats autour de l’attribution des fréquences de la cinquième génération de téléphonie mobile (5G) inondent les pages de nos journaux, mais les conséquences de son introduction sur la consommation d’énergie ne sont pratiquement pas discutées. Les nouveaux usages permis par la 5G, comme les communications de masse entre machines, par exemple la « maison intelligente » ou la « ville intelligente », vont de facto augmenter les flux de données transmis.
L’analyse de la consommation énergétique ne doit donc pas être restreinte à celle de la 5G elle-même qui ne concerne que la partie transmission des informations : elle doit prendre en compte le traitement des données qui sont transmises.
La 5G est un standard de communication qui permet la transmission d’informations entre un émetteur et un récepteur, qui peuvent être mobiles, grâce à des ondes électromagnétiques radiofréquences. Un standard définit à la fois les aspects matériels (antennes, terminaux) et logiciels (modulation, mode d’accès au réseau) qui permettent ce transfert. À ce standard sont associés un certain nombre de critères de performances, comme le débit des informations qu’il est possible d’échanger, ou la vitesse à laquelle un terminal se connecte au réseau. Ces critères sont sensiblement améliorés lorsque l’on passe de la technologie 4G à la 5G avec, par exemple, des débits attendus d’information de plusieurs gigabits par seconde.
Mais la transmission des données est toujours associée, dans l’appareil émetteur et dans l’appareil récepteur, à leur traitement. Quand nous prenons une photo ou une vidéo avec un téléphone, les images sont codées et transmises par le téléphone, via différents modes de communication (radio, fibre optique…), vers un récepteur. Le récepteur, par exemple le serveur d’un réseau social, va lui-même traiter les images pour les insérer dans une page web, ou les mémoriser, ou encore les renvoyer vers d’autres utilisateurs. L’augmentation des débits possibles permis par de nouveaux canaux de communication va donc inévitablement s’accompagner d’une augmentation du nombre des données qui devront être traitées.
Alors que la question de la consommation d’énergie des terminaux fixes (ordinateurs, serveurs…) ou mobiles (téléphones, tablettes) qui effectuent ce traitement n’est que peu abordée, elle représente bien plus de 50 % de la consommation d’énergie.
Quel que soit l’appareil utilisé, c’est un (micro)processeur qui effectue la fonction de traitement. Tous ont la même architecture et tous fonctionnent selon le même principe, proposé par le génial mathématicien Alan Turing en 1936 (c’est-à-dire bien avant l’invention des ordinateurs) et adapté aux dispositifs électroniques par John Von Neumann en 1945.
Les premiers processeurs sont apparus au début des années 70, et pendant près de 40 ans, la progression de leurs performances a été extraordinaire, avec un doublement tous les 18 mois environ. Cette progression exponentielle, quelquefois appelée loi de Moore, a permis l’« électronisation » de la société et l’avènement de l’internet. Cependant, pour des raisons physiques assez fondamentales, cette progression est aujourd’hui terminée et la fin de la « loi de Moore » est aujourd’hui bien admise. Les performances des processeurs ont donc atteint leurs limites et nous ne pouvons pas nous attendre à une amélioration sensible dans les années futures de la rapidité de calcul ou de la consommation d’énergie. Cette limitation des performances s’applique à tous les processeurs, que ce soient ceux de nos ordinateurs, de nos téléphones portables ou des serveurs des géants de l’internet.
Le problème est que l’efficacité énergétique actuelle de nos processeurs est très mauvaise, et ceci pour deux raisons fondamentales.
La première est que les bits, c’est-à-dire les 0 et les 1 qui codent les informations, sont représentés dans le processeur par des charges électriques. Or ces charges se déplacent sans cesse pour produire des courants électriques entre les différentes parties du circuit. Or ce mouvement ne peut se faire sans dissipation de chaleur : c’est la fameuse loi de Joule.
La seconde résulte d’une caractéristique des machines de Turing, et donc de nos ordinateurs, qui est le traitement en « série » des informations. Comme le processeur ne traite qu’une opération à la fois, la vitesse du traitement doit être très rapide. Or, les dispositifs électroniques constituant le processeur ne peuvent à la fois travailler vite et consommer peu. Ce dilemme rapidité-puissance est similaire à la vidange d’un réservoir : pour le vider très vite, il faut un grand débit. C’est la même chose dans un circuit électronique : il faut un courant important et la chaleur générée par effet Joule augmente. Les processeurs consomment donc une puissance électrique variant de quelques dizaines à plus d’une centaine de watts. Cette puissance se transforme essentiellement en chaleur : un processeur est avant tout un radiateur électrique.
Pour illustrer la mauvaise efficacité énergétique de nos processeurs, prenons deux exemples emblématiques.
En 2016, le programme AlphaGo a battu le champion du monde du jeu de Go, Lee Sedol. De façon assez remarquable, AlphaGo ne contient au départ aucune connaissance spécifique sur le Go, son algorithme repose sur des réseaux de neurones et ses coups résultent essentiellement d’un apprentissage. Cette victoire impressionnante d’AlphaGo repose sur une formidable puissance de calcul constituée de près de 1400 processeurs, nécessitant une puissance électrique de plusieurs centaines de kilowatts. À l’inverse, Lee Sedol n’a utilisé qu’environ 20 ou 30 watts pour réfléchir et jouer, soit 10 000 moins qu’AlphaGo. D’un point de vue énergétique, la compétition était donc assez, injuste, un peu comme celle d’une course de vitesse entre un humain et une voiture de Formule 1.
À lire aussi : Go : une belle victoire… des informaticiens !
Un autre exemple est celui du véhicule autonome, technologie qui, selon certains, serait « boostée » par la 5G. Rendre autonome un véhicule nécessite une puissance de calcul considérable, constituée de plusieurs dizaines de processeurs qui nécessitent pour leur fonctionnement, une puissance électrique de plusieurs kilowatts (de 3 à 5 kilowatts). Ainsi, un véhicule électrique autonome utilise une part significative de l’énergie de ses batteries pour traiter de l’information alors que ce traitement est « gratuit » lorsque le véhicule est conduit par un humain. Par exemple, pour faire avancer une voiture sur 100 km, il faut environ 12-15kWh. Si le véhicule parcourt cette distance en deux heures, la puissance nécessaire au calcul sera de 6 à 10 kWh. Plus la vitesse de la voiture est basse, plus la puissance de calcul prend de l’importance, proportionnellement. C’est assez paradoxal !
Favoriser une technologie énergivore comme celle des véhicules autonomes à grande échelle constitue donc un non-sens écologique et va à l’encontre des engagements de sobriété énergétique et d’émission de CO2 prévus dans l’accord de Paris.
Nous voyons donc bien que toutes les applications gourmandes en calculs et en particulier toutes celles se réclamant « intelligentes » (intelligence artificielle, ville intelligente, capteurs intelligents, etc.) sont en fait des gouffres énergétiques, car le caractère « intelligent » de ces applications ne résulte en fait que d’une grande puissance de calcul. Il y a aujourd’hui une profonde confusion entre « intelligence » et « puissance de calcul » comme l’ont montré Jeff Hawkins et Sandra Blakeslee dans « Intelligence : comment une compréhension nouvelle du cerveau conduira à la création de machines véritablement intelligentes ». La communauté scientifique commence d’ailleurs à s’intéresser à la question de la consommation énergétique de l’intelligence artificielle, en particulier dans le cas des nombreuses applications utilisant l’apprentissage profond ou deep learning.
Ainsi, la multiplication des usages et des données à traiter, permise avec une nouvelle technologie de communication comme la 5G, ne peut donc qu’augmenter la consommation électrique globale de la chaîne « transmission + traitement » en raison de l’inefficacité énergétique de la partie traitement.
Que faire ? Face à la mauvaise efficacité énergétique actuelle de nos systèmes de traitement, nous pouvons agir dans deux directions : à court terme, encourager l’innovation frugale ou parcimonieuse, c’est-à-dire ajouter la contrainte d’une utilisation limitée de ressources matérielle et énergétique lors de tout processus d’innovation, ce qui de facto limite les applications qui génèrent le traitement de grandes quantités de données, et, à plus long terme proposer de nouveaux paradigmes du traitement de l’information, plus efficaces en énergie, par exemple ceux s’inspirant du fonctionnement du cerveau.
Écrivez un article et rejoignez une communauté de plus de 157 100 universitaires et chercheurs de 4 525 institutions.
Enregistrez-vous maintenant
Droits d’auteur © 2010–2022, The Conversation France (assoc. 1901)

source

Catégorisé: