
Les prix indiqués sont en US$.
De nombreux audiophiles subjectifs détestent les tests d'écoute à l'aveugle. La critique habituelle qu'on leur adresse, c’est : « Ce n’est pas comme ça que j’écoute. » Pourtant, en réalité, les comparaisons à l’aveugle — libres de toute influence liée au prix, à la marque, à la technologie, à l’esthétique ou à d’autres biais personnels non sonores — représentent la forme la plus pure d’évaluation subjective. Alors, pourquoi les tests en aveugle ne sont-ils pas plus répandus chez les audiophiles ? La réponse est simple : organiser un test à l’aveugle bien conçu et réellement impartial est une sacrée galère. Je le sais d’expérience, car je viens d’en mener un avec l’aide des membres de la Colorado Audio Society.
Architecture du signal audio
Le test d’écoute que j’ai conçu pour eux comparait deux convertisseurs numérique-analogique. Les DAC font partie des composants les plus simples à configurer pour un test en aveugle, puisqu’il suffit d’un dispositif de commutation transparent pour être presque prêt. Mais un test impartial ne se limite pas à cela. Le facteur le plus crucial, c’est de garantir des conditions véritablement équitables. Les niveaux de volume des deux DAC doivent être appariés avec la plus grande précision possible. J’ai passé beaucoup de temps à m’assurer que les niveaux de sortie des deux appareils étaient parfaitement alignés. Après de nombreux ajustements, j’ai fait appel à une deuxième paire d’oreilles pour confirmer cette correspondance. Ensemble, nous avons déterminé qu’il fallait augmenter le niveau de l’un des DAC de 1 dB afin d’égaliser le volume entre les deux aussi précisément que possible.
Le logiciel qui permet de comparer deux DAC en A/B en temps réel — sans pause, interruption ni décalage de synchronisation — s’appelle Roon. Roon propose une fonctionnalité appelée « ganging », qui permet d’envoyer exactement le même fichier numérique à plusieurs DAC compatibles Roon en simultané. Ainsi, les deux DAC restent parfaitement synchronisés, ce qui permet de passer de l’un à l’autre sans interruption, clic, bruit parasite ni aucun indice sonore pouvant trahir l’appareil en cours de lecture.
La chaîne du signal était identique pour les deux DAC : chacun était relié par un câble CAT 6 dédié, directement depuis le commutateur réseau principal jusqu’à son interface Ethernet respective. Pour la commutation analogique, j’ai utilisé le Schiit Kara F. Comme son prédécesseur, le Freya S, le Kara F est totalement silencieux lors des basculements entre entrées symétriques. Avec le Kara, j’aurais pu reproduire un test que j’ai vu récemment sur YouTube, dans lequel une commutation silencieuse entre deux DAC servait à déterminer si les auditeurs pouvaient détecter à quelle fréquence le signal changeait d’un DAC à l’autre. J’ai trouvé cette approche biaisée : elle semblait conçue pour soutenir la conclusion selon laquelle « tous les DAC sonnent de la même manière ». Ce n’était pas mon objectif. Ce qui m’intéressait bien plus, c’était de voir quelles différences sonores, s’il y en avait, les auditeurs étaient capables de percevoir entre deux DAC.
Le câblage entre les deux DAC et le Kara F se composait de longueurs identiques de câbles symétriques, afin de garantir une parfaite cohérence. Les sorties symétriques du Kara étaient reliées aux entrées symétriques d’un amplificateur de puissance Pass 150.8, tandis que ses sorties asymétriques alimentaient une paire de caissons de basses JL Audio F112. Côté enceintes, j’ai utilisé mes Spatial Audio X-2 habituelles, qui me servent de référence.
Le test en tant que tel
Ma salle d’écoute a été conçue autour d’un unique point d’écoute optimal, car, après tout, je suis seul à écouter. Pour le test, les participants ont pris place tour à tour dans cette zone idéale et ont écouté deux morceaux : l’un choisi par moi (toujours joué en premier), l’autre par eux. Pour passer du DAC1 au DAC2, il leur suffisait de lever la main et de montrer un ou deux doigts pour indiquer le DAC qu’ils souhaitaient entendre. C’est moi qui me chargeais des commutations, afin d’éviter tout mouvement de l’auditeur susceptible de modifier la position de sa tête et de nuire à sa concentration.

Ce test n’aurait pas été possible sans la nouvelle télécommande Forkbeard de Schiit. La télécommande standard fournie avec le Kara ne permet de faire défiler les entrées que dans un seul sens (1, 2, 3, etc.), ce qui rend les comparaisons A/B peu pratiques. En revanche, l’application Forkbeard, qui permet de basculer directement d’une entrée à une autre, était parfaitement adaptée à ce type d’évaluation.
J’ai organisé trois sessions d’écoute, chacune regroupant jusqu’à cinq participants. À tour de rôle, chaque personne s’installait dans le point d’écoute optimal, tandis que les autres prenaient place sur les côtés ou à l’arrière. Les auditeurs placés au « sweet spot » disposaient d’environ dix minutes pour leur session. Je me suis chargé des réglages de volume, car je connais la plage approximative dans laquelle le système reste linéaire (à des niveaux plus faibles ou plus élevés, la courbe de Fletcher-Munson influence la perception de cette linéarité). J’ai donc sélectionné le niveau d’écoute adapté à la piste choisie par chaque participant.
Après chaque session d’écoute, les participants ont rempli un court questionnaire. Les questions étaient simples : Quelle musique avez-vous choisie ? Quel DAC avez-vous préféré ? Et enfin, une question ouverte : Quelles différences avez-vous perçues ?
Les résultats
Il existe deux types de tests en aveugle : le test en simple aveugle et le test en double aveugle. Dans un test en double aveugle, ni le testeur ni le participant ne connaissent l’identité des deux appareils. Dans un test en simple aveugle, seul le testeur est informé, ce qui introduit un risque de biais, car ce dernier peut, consciemment ou non, transmettre des indices verbaux ou non verbaux que le participant captera. J’ai réalisé un test en simple aveugle, mais avec une nuance : j’apprécie autant les deux DAC. J’ai également pris soin de donner les mêmes consignes à chaque participant afin de minimiser tout biais.
Pourquoi ai-je utilisé deux sélections pour le test ? Parce que je n’avais aucune idée de ce que les participants choisiraient comme morceau, et je tenais à ce que chacun entende ce que je considère comme un enregistrement de haute qualité d’instruments acoustiques joués en direct, sans traitement. Pour cela, j’ai utilisé l’un de mes propres enregistrements du groupe Mr. Sun, capté à la Salina Schoolhouse. Les participants, eux, ont sélectionné des titres parmi un large éventail d’enregistrements commerciaux disponibles via Qobuz, incluant du jazz big band, du rock et de la pop. Aucun n’a opté pour un morceau de musique classique.

Alors, quels ont été les résultats ? Cinq participants ont préféré le DAC1, cinq autres le DAC2, et trois n’ont exprimé aucune préférence.
Bien qu’il faille interpréter avec prudence les résultats issus d’un échantillon aussi restreint, j’en ai tout de même tiré quelques enseignements. D’abord, les deux DAC ne sonnent pas de manière identique — mais leurs signatures sonores sont extrêmement proches. Trois participants ont indiqué n’avoir aucune préférence, et plusieurs ont qualifié les différences de « minimes » ou « négligeables » dans leurs questionnaires. Un participant a déclaré ne pas avoir apprécié les deux DAC, et un autre a écrit qu’il préférait son propre système lisant le même morceau sur vinyle. De toute évidence, pour tirer des conclusions réellement significatives, il aurait fallu un panel bien plus large : ces résultats doivent donc être considérés comme anecdotiques, non comme définitifs.
Quels sont les DAC utilisés ?
Bon, c’est l’heure de la grande révélation. Les deux DAC utilisés pour le test étaient le Gustard A26 et le Fosi Audio ZD3 DAC. Le Gustard A26 était associé à l’horloge externe Gustard C16 OCXO 10 MHz, tandis que le ZD3 avait été modifié à plusieurs niveaux : amplis op Muses02 en remplacement des modèles d’origine, et ajout d’une banque de condensateurs placée entre le DAC et une alimentation linéaire FiiO/Jade 12 volts remplaçant celle d’origine. Le Gustard dispose d’un port Ethernet intégré, tandis que le Fosi faisait appel à un Raspberry Pi 4B sous DietPi pour sa connexion réseau. Le Gustard, avec l’horloge, coûte environ 2 150 $US, tandis que l’ensemble Fosi m’est revenu à environ 500 $US, Raspberry Pi compris. Sous bien des aspects — en dehors du prix — ces deux DAC sont fondamentalement différents. Le Gustard A26 utilise une puce AKM, tandis que le Fosi embarque une puce ESS. Le Gustard dispose d’une alimentation interne, alors que le Fosi est alimenté via un bloc secteur AC-DC externe. Le Gustard est un produit abouti et complet, tandis que le Fosi relève davantage d’un assemblage personnalisé de composants soigneusement choisis.
Compte tenu de la différence de prix, certains pourraient conclure que le Fosi est un « tueur de géants » ou que le Gustard est simplement « bof ». Ce serait une erreur. Le Gustard offre bien plus de flexibilité et de fonctions ajustables, notamment six filtres numériques différents, tandis que le Fosi ne propose qu’un seul filtre et se présente dans un boîtier bien plus compact et économique. Bien que les deux DAC soient remarquables sur le plan sonore, il est clair que le surcoût du Gustard vous donne accès à un appareil plus sophistiqué.
Ce que je retiens des tests
Ces tests d’écoute à l’aveugle ont-ils répondu à mes attentes ? Oui. Et le fait de ne rien avoir à prouver m’a permis d’éviter toute déception inutile. Les tests m’ont montré que, lorsqu’on compare deux DAC de qualité sonore relativement équivalente, la préférence d’un auditeur est souvent personnelle et subjective. Elle est façonnée par ses goûts et le choix musical, bien plus que par le prix, l’apparence ou les fonctionnalités du matériel.
Laisser un commentaire