Depuis quelques temps, nVidia parle beaucoup de son Hybrid SLI, qui se compose de deux technologies : le GeForce Boost, destiné aux cartes d'entrée de gamme et qui apporte un surcroit de puissance 3D en combinant le GPU et l'IGP, et l'Hybrid Power, destiné aux cartes haut de gamme, qui vise à réduire la consommation électrique en utilisant uniquement l'IPG en mode 2D, ce qui permet de complètement couper l'alimentation de la carte graphique.
On en savait toutefois relativement peu sur les résultats en pratique, et nos confrère de chez Matbe viennent de lever un peu le voile sur l'Hybrid Power, dont les résultats sont plutôt convaincants. En effet, lors de leur test, nos confrères ont bel et bien mesuré une baisse impressionnante de la consommation en idle, de l'ordre de 50W avec une 9800 GTX et de 170W avec un système à base de deux 9800 GX2. Dans ce dernier cas, le gain obtenu représente pas moins de 50% de la consommation de la machine ! Les solutions ATI étaient jusqu'à présent réputées pour leur faible consommation en idle, elles sont ici largement battues, la 9800 GTX gagnant désormais une petite vingtaine de W face à la 3870, tandis que la 3870X2 consomme 40W de plus que le SLI de 9800 GX2. Par rapport à une configuration sans carte graphique, le surcoût de consommation n'est plus que de l'ordre de 5W par GPU, ce qui est tout a fait raisonnable.
Revers de la médaille, l'Hybrid Power risque fort d'être handicapé à cause de son impact sur les performances. En effet, au lieu de sortir directement l'image calculée vers sa sortie DVI, la carte graphique doit désormais l'envoyer vers l'IGP via le bus PCI-Express, l'IGP se chargeant ensuite d'afficher l'image, ce qui ne se fait pas sans pertes de performances. D'après les mesures de nos confrères, cette perte serait en moyenne de 10% pour un GPU seul, 15% pour un GX2 et 20% pour un SLI de GX2, le tout avec de grandes disparités d'un jeu à l'autre, certains étant très peu impactés (ceux où le framerate initial est faible), d'autre beaucoup plus (quand le framerate est élevé).
Au vu de ces résultats, on est en droit de se demander si nVidia a fait les bons choix. En effet, si l'intention (réduire la consommation) est bonne, l'impact sur les performances risque de limiter grandement l'utilisation de cette technologie : ceux qui achètent une carte haut de gamme recherchent avant tout la performance, donc accepteront difficilement de tels ralentissements. Même si nVidia annonce que ces pertes seront réduites via des mises à jour des drivers, il semble difficilement possible d'obtenir un résultat réellement sans pertes. Peut-être aurait-il été préférable d'opter pour un système comme celui utilisé il y a dix ans par les cartes 3dfx : un câble DVI (VGA à l'époque) externe reliant les deux cartes et permettant donc à chacune d'envoyer directement son signal à l'écran, comme si elle était seule.