Depuis l'Asus PQ321,
premier moniteur 4k grand public que nous testions en octobre de
l'année 2013, de l'eau a coulé sous les ponts. Si les 3 500 € demandés à
l'époque réservaient ce pionnier aux early adopters fortunés, on
peut aujourd'hui dégoter des moniteurs Ultra HD « premier prix » autour
des 400 €. Mais attention, il y a quelques petites choses à savoir
avant de se laisser tenter.
Ceux qui s'apprêtent à changer de moniteur ont peut-être noté que les
écrans 4K ou Ultra HD sont désormais abordables. En excluant le Dell
P2815Q, qui fait figure d'exception à 335 € sur le Marketplace d'Amazon,
notre comparateur
indique que le ticket d'entrée se situe en général autour des 400 €. Le
choix devient plus conséquent vers les 500 €. Dans tous les cas, la 4K
se décline essentiellement dans des diagonales assez grandes, rarement
sous les 28 pouces. De quoi hésiter face à certains Full HD de 27 pouces
à peine moins chers ? Oui, mais pas forcément pour les raisons
suspectées, ni en la faveur de celui que l'on croit.
L'Ultra HD ça change quoi ?
Sans
trop s'étendre dans cette partie, nous allons simplement rappeler les
tenants et aboutissants de l'Ultra HD, aussi dite 4K. L'appellation
vient faire face à celle de Full HD, bien ancrée dans les esprits et les
foyers. Elle désigne tout simplement une définition, quatre fois
supérieure : 3 840 x 2 160 pixels contre 1 920 x 1 080 pixels. En
multipliant par deux le nombre de points dans la largeur et dans la
hauteur, on quadruple bien la définition.
L'écran 4K affiche ainsi 8,3 mégapixels quand le Full HD fait avec 2,07
mégapixels. Le résultat, c'est une finesse largement accrue,
suffisamment pour qu'une vue normale (10/10e) ne soit plus capable de
distinguer deux pixels contigus, une fois installé en face de son
moniteur de PC, à une distance moyenne d'une soixantaine de centimètres.
Sur un écran de 27 pouces en Full HD, en revanche, il faut plus d'un
mètre de recul pour dépasser les limites d'un œil normal.
Crédit photo apops (Fotolia) - infographie Clubic.com
En théorie, que vous promet un écran Ultra HD ?
Avec des résolutions d'appareil photo où le gros du panier se situe
entre 12 et 20 mégapixels, utiliser un écran 4K permet d'afficher une
portion plus grande de l'image à zoom équivalent. C'est très appréciable
quand on se met en taille réelle pour effectuer ses retouches ou
contrôler des détails. La finesse du point sert davantage le rendu
global, bref, c'est assurément mieux.
Avec une densité d'affichage quasi doublée (environ 157 dpi sur un 28''
en 4K contre 82 dpi sur un 27'' en Full HD) sur une surface physique
équivalente, on affiche beaucoup plus d'informations. Donc de fenêtres,
de tableaux Excel, de pages Web, etc. C'est du confort, que les habitués
du multi-écran connaissent, sauf qu'il faut ajuster l'affichage de ses
polices pour que les yeux ne forcent pas trop. Et comme nous le verrons
plus tard, ce n'est pas aussi simple que cela.
Regarder des vidéos en 4K sur un écran 4K, c'est beau ! Reste à trouver
ces vidéos 4K… Le contenu commence à se développer, sur YouTube, via des
services comme Netflix, ou par le biais des smartphones, qui filment de
plus en plus en Ultra HD ; mais ce n'est pas encore la panacée. Et l'
upscaling
de films en 1080p donne plus un rendu Full HD que 4K. En même temps,
quand on regarde un film, on prend souvent du recul :
au-delà d'un petit
mètre, on ne fait plus la différence entre du 4K ou du Full HD en 24
pouces. On a fait le test avec deux écrans côte à côte.
C'est le domaine où la 4K fait le plus parler d'elle. Quand on joue, on
reste près de son écran : le bénéfice d'une définition accrue est réel.
Un moniteur 4K garantit une immersion plus réaliste et des détails plus
précis et fins, ce qui dans certains jeux de précision (FPS et
simulateurs notamment) peut apporter un avantage non négligeable. Mais
nous verrons aussi que jouer en 4K n'est pas à la portée de toutes les
configurations, et donc de toutes les bourses.
Ces promesses peuvent être tenues si les conditions nécessaires sont
bien remplies, mais, malgré tout, quelques bémols persistent, comme nous
allons le voir.
Les conditions requises avant de franchir le cap de la 4K
Passer sur un moniteur 4K ne fait malheureusement pas basculer, à coup
sûr, dans le monde merveilleux de l'ultra haute définition. On doit
d'abord s'assurer qu'on rentre dans les clous de deux prérequis
techniques.
- Connectique :
pour sortir à 60 images par seconde en 3 840 x 2 160 pixels sur un
écran 60 Hz, il faut du DisplayPort 1.2 au minimum ou du HDMI 2.0. Cette
dernière connectivité, encore peu répandue, n'est compatible pour
l'heure qu'avec les GeForce GTX 970/980 (et bientôt sur la prochaine
génération du haut de gamme AMD) et guère implantée sur les moniteurs
4K. Le HDMI 1.4, celui qu'on trouve majoritairement encore aujourd'hui,
plafonne à 30 images par seconde en Ultra HD. Il vous faut donc une
carte graphique avec DisplayPort 1.2.
- Carte graphique :
la carte graphique doit assez puissante pour supporter les flux
conséquents (quatre fois plus de pixels). Ce n'est pas vraiment un
problème pour l'affichage statique, en revanche, pour le calcul des
rendus en jeu vidéo, ou dans des films… Déjà, il faut au bas mot une
Radeon HD 7700 ou une GeForce GTX 650 pour bénéficier du support de la
définition 4K sur la connectique DisplayPort 1.2 mentionnée plus haut.
D'autres cartes moins ambitieuses disposent de DisplayPort 1.2 mais ne
prennent en charge que 2 560 x 1 600 pixels au maximum. Si le
DisplayPort 1.2 est nécessaire à la transmission de la 4K, il n'en est
pas pour autant garant.
Par ailleurs, la prise en charge matérielle du codec HEVC, qui est
utilisé pour la 4K et devrait se démocratiser à l'avenir, constitue un
plus pour soulager le processeur de l'ordinateur. Sans quoi, ce dernier
devra être suffisamment puissant pour assurer l'encodage/décodage du
HEVC. Mais pour l'instant, seule la GTX 960 assure cette fonction chez
Nvidia ; et rien chez AMD. La firme au caméléon nous confie au cours
d'une discussion non officielle qu'il n'y a pas d'urgence non plus, le
contenu restant rare et le codec tout frais...
Les bémols que l'on observe dans la pratique
Votre machine est assez puissante pour digérer de la 4K, notamment en
jeu vidéo ? Tant mieux ! Mais attention, si vous optez pour un écran 4K,
et
a fortiori, d'entrée de gamme, voilà quelques désagréments auxquels vous allez vous exposer.
- Qui dit peu de contenu 4K dit upscaling :
il est primordial de corréler contenu et affichage pour obtenir les
meilleurs résultats. Quand l'écran dispose d'une définition supérieure à
celle du contenu qu'on veut lui faire afficher, il faut opérer entre
temps une mise à l'échelle ascendante (ou upscaling).
C'est-à-dire une transformation de la définition. Celle-ci, d'ordinaire
prise en charge par l'électronique de l'écran dans le monde des
téléviseurs, est gérée par la carte graphique quand il s'agit d'un
moniteur. Upscaler du contenu en 1080p sur un moniteur 4K fait
perdre l'intérêt de l'ultra haute définition. Au mieux, on se retrouve
avec un 1080p, en plus grand. Maintenant pour regarder un film — le cas
de figure où l'upscaling joue son rôle — si vous vous mettez à 2 m de votre moniteur 28 pouces, vous ne verrez aucune différence.
Test avec le film Super 8 en Full HD
- High DPI : Pour que le bureau et
l'environnement de Windows restent utilisables avec pareilles
définitions, Microsoft a mis en place le réglage High DPI. L'idée, c'est
de grossir les éléments d'interface, comme les icônes et polices
d'écriture, pour préserver l'expérience utilisateur. Le hic, c'est que
toutes les applications ne sont pas compatibles. Le client Origin par
exemple, ou la visionneuse Xnview. Et quand l'échelle n'est pas adaptée,
prévoyez la loupe ! Sur notre écran de 24 pouces, c'est assez
insoutenable. Aussi nous vous conseillons de ne pas descendre en-dessous
de 28 pouces en 4K, ce que les constructeurs s'évertuent à faire de
toute manière.
Après ajustement de la taille des éléments et de la police, on
constate que toutes les applications ne sont pas encore compatibles
- Techno en régression : alors que les
moniteurs Full HD ont largement migré vers des technologies de dalle
offrant une meilleure qualité d'affichage (IPS, VA), les écrans 4K
d'entrée de gamme redonnent, eux, du service aux matrices TN, connues
pour leurs angles de vision plus faibles. On se consolera en se disant
que la technologie TN a l'avantage d'être rapide, mais tout de même…
Il n'est donc pas certain que l'achat d'un moniteur 4K amène la
révolution attendue, l'acquisition pourrait même prendre des airs de
cadeau empoisonné.
Couper la poire en deux avec du WQHD ou de l'Adaptative Sync ?
L'offre la plus alléchante pour l'instant se situe plutôt du côté des
définitions intermédiaires, et notamment du WQHD, quatre fois la HD
standard (soit 2 560 x 1 440 pixels). Un juste milieu qui force moins
sur le matériel et accompagne bien l'accroissement de la diagonale à 27
pouces pour un utilisateur habitué au standard 23-24 pouces en Full HD.
Car il faut bien avoir à l'esprit qu'accroître la diagonale sans toucher
à la résolution condamne à augmenter le recul nécessaire pour percevoir
une qualité équivalente. C'est faisable sur une télé, plus délicat avec
un moniteur utilisé sur un bureau, à portée de clavier et de souris.
Pour ceux que la notion d'acuité visuelle intéresse,
le site du Dr Damien Gatinel, grand spécialiste en ophtalmologie et amateur de high-tech, est une mine d'informations passionnantes.
L'autre option si vous êtes de ceux qui voudraient absolument un
moniteur 4K mais seraient un peu court en termes de budget pour se payer
une configuration multi GPU, c'est de privilégier un moniteur G-Sync.
Là, la technologie de Nvidia fait tout à fait sens : la 4K contraignant à
des
frame rate en-dessous des 60 fps même avec une GTX 980, il
est impossible d'activer la synchronisation verticale sans d'atroces
saccades et retards d'affichages. La technologie G-Sync va alors adapter
le rafraîchissement de l'écran sur le débit du rendu d'image tenu par
le GPU : le déchirement disparaît, les saccades et retards sont réduits
au minimum. C'est rudement efficace sur l'écran Acer XB280HK que nous
avons utilisé. Et pour amateurs d'AMD, les moniteurs Adaptative-Sync
arrivent, voire sont déjà là !
Source.: