L’histoire n’est qu’un éternel recommencement… On ne le répétera jamais assez, et le monde de l’informatique n’y échappe pas. Ce que nous montrent une équipe de chercheurs des universités américaines de Duke et de Washington, avec leur projet Kahawai, réalisé en coopération avec Microsoft.
Les plus anciens et ceux qui se sont un peu intéressés à l’histoire de l’informatique se souviennent sans doute que l’informatique a débuté sous le signe des mainframes. Les ordinateurs étaient gros et encombrant, imposant un modèle centralisé où les ressources d’un ordinateur était divisées, souvent temporellement, entre plusieurs utilisateurs.
Avec les progrès technologiques et la miniaturisation des composants, l’informatique est ensuite entrée dans l’ère des micro-ordinateurs. Des ordinateurs toujours plus petits et plus puissants ont remplacé une grande partie des mainframes, avec cette fois un ordinateur (voir plusieurs !) par utilisateur, les serveurs servant essentiellement au partage entre utilisateurs et aux tâches d’une complexité extrême, confiées à des supercalculateurs.
Puis arriva le cloud. Avec lui, c’est un peu le retour aux mainframes : les données et les logiciels sont à nouveaux hébergés sur une machine centrale, partagée entre tous les utilisateurs, et qui effectue le gros des traitements. Les utilisateurs s’y connectent avec un terminal distant, qui n’effectue qu’une part minimale des traitements. La boucle semblait bouclée.
Mais c’est repartie pour un tour, puisque le but du projet Kahawai est de faire du cloud… déporté sur les terminaux clients. Étrange, non ?
Ciblant le secteur du cloud gaming, Kahawai vise en effet à déporter sur les terminaux une bonne partie des traitements graphiques, pour limiter la bande passante nécessaire, puisqu’il n’y aurait plus besoin de transmettre l’image complète. Quand on se rappelle que la principale motivation du cloud gaming était initialement de soulager les terminaux peu puissants des lourds traitement graphique, il faut avouer que ce projet peut sembler surprenant au premier abord. En fait, les chercheurs sont sans doute parti du constat que depuis les débuts du cloud gaming, beaucoup d’eau à coulé sous les ponts : les GPU mobiles ont énormément progressé en performance, tandis que les réseaux mobiles sont de plus en plus saturés. Économiser la bande passante devient donc plus important qu’économiser la puissance calcul.
Mais avec ce système, c’est aussi la raison d’être du cloud gaming qui en prend un coup : à partir du moment où on fait tourner les traitements les plus lourds localement, pourquoi passer par un tel système, plutôt que d’installer le jeu localement ? Le principal intérêt restant serait la possibilité d’accéder sur abonnement à un large catalogue de jeux, plutôt que de se limiter à quelques titres achetés une bonne fois pour toute, mais le principe de l’abonnement serait sans doute aussi adaptable à des installations locales, via des licences à durée limitée, comme le font par exemple déjà Microsoft ou Adobe pour leurs produits.