Le métavers, quelle que soit la forme qu’il prendra, doit être durable
07 mars 2022Cet article a été publié une première fois dans le numéro 051 du magazine Tech-i.
Dans un article publié récemment sur son site Web, le Financial Times indiquait qu’un soir de début décembre, au Royaume-Uni, le trafic sur Internet avait atteint un pic de 25,5 téraoctets de données par seconde. Amazon Prime avait en effet diffusé simultanément six matches de football, ce qui a poussé l’infrastructure nationale au bord de ses capacités. Certes, les réseaux ont bien résisté, mais pour l’auteur de l’article, cet épisode constitue un jalon dans le contexte de l’engouement grandissant qui entoure le métavers.
« Un monde virtuel à plein régime, ou même simplement une expérience immersive en haute définition, en temps réel, va nécessiter une capacité bien supérieure pour transmettre les données entre consommateur et réseau, bien plus importante que celle dont disposent les foyers actuellement dans le monde. »
On peut dès lors se demander de quoi a besoin le métavers pour se concrétiser et, surtout, qui va financer cette infrastructure. Offrir une expérience en réalité virtuelle véritablement immersive nécessite des images d’une résolution allant de 8 à l’équivalent de 24 K, ce qui correspond à une bande passante garantie de l’ordre de 1 Gbps chez l’utilisateur final, avec une connexion en fibre unicast, et un réseau d’accès correspondant poussé à 25-50 Gbps (lien).
Il est surprenant de constater à quel point la question des moyens nécessaires pour mettre ces services et expériences à la disposition du grand public est négligée. Il y a quelques années, nous avons visité une installation de production en 3D dans les studios d’Intel, à Los Angeles. La société était à la fois très fière des expériences immersives qu’elle était capable de produire, et préoccupée par le fait qu’elle allait avoir besoin de giga-octets par seconde pour pouvoir établir la connexion avec chaque utilisateur individuellement. C’était impossible à déployer pour des dizaines voire des centaines de millions d’utilisateurs. J’ai immédiatement signalé qu’il fallait tenir compte des capacités qu’offre la distribution par radiodiffusion/multicast, pour autant qu’elle soit associée à une connectivité unicast à faible latence. Les gens d’Intel ont souri et acquiescé poliment, mais ils se demandaient sans doute pourquoi je parlais de radiodiffusion !
Il faut rappeler que les utilisateurs sont à la recherche d’une expérience à la fois personnalisée et partagée. Si le contenu doit être adapté à chacun d’eux, l’expérience partagée repose pour sa part sur l’utilisation simultanée de mêmes éléments de médias par de nombreux utilisateurs.
L’importance des paramètres de diffusion
Une expérience utilisateur optimale n’est possible que si les paramètres de diffusion sont pris en compte dès la conception des nouvelles applications, et si des stratégies de production capables de combiner et de synchroniser les données fournies sur différentes infrastructures IP sont mises en œuvre. Le fonctionnement du métavers repose sur la transmission de contenus contextuels par radiodiffusion/multicast, à laquelle s’ajoute l’utilisation de la connectivité unicast pour diffuser les contenus interactifs et personnalisés qu’exigent les actions de l’utilisateur individuel.
En réalité, il est tout à fait envisageable de combiner ces deux moyens de transmission, même s’ils sont basés sur différentes topologies et infrastructures de réseau. Autre élément clé, l’utilisation de l’intelligence artificielle (IA) sur la périphérie intelligente du réseau. En combinant, selon une conception rigoureuse, différents types de réseaux et d’éléments de réseau — unicast, radiodiffusion/unicast et périphéries locales intelligentes grâce aux fonctionnalités d’IA — pour constituer une infrastructure à plusieurs couches, on disposera d’un ensemble d’outils unique en son genre qui permettra d’améliorer considérablement la durabilité du métavers futur.
Tout cela est possible grâce aux infrastructures et aux technologies déjà disponibles, de la fibre aux réseaux cellulaires en passant par les réseaux de radiodiffusion terrestres et satellite. Les réseaux satellites, par exemple, sont actuellement capables d’envoyer en périphérie des contenus à une vitesse équivalant au Gbps, en format UDP natif, à des millions de personnes, en une seule transmission. Autant d’éléments qui se retrouvent dans notre projet 5G-EMERGE.
Pour revenir à la question de savoir qui devrait mettre la main à la poche, si le métavers finit par se concrétiser et quelle que soit la forme qu’il finira par adopter, il est essentiel d’élaborer une infrastructure dont le coût peut être partagé de façon viable entre les constructeurs, les entreprises de télécommunications et les utilisateurs finaux.
Bien entendu, le métavers soulève également des questions difficiles concernant la viabilité environnementale de mondes virtuels omniprésents. Le recours à une infrastructure à plusieurs couches, efficace par nature, peut constituer une partie de la réponse et nous préparer à faire face à un monde plus gourmand que jamais en données et à tout ce que cela implique.