Problèmes courants, interventions et résultats
1. Processus de production : mise à jour
Le mastering en électroacoustique est aujourd’hui une réalité, concrétisée entre autres par l’adhésion d’une des plus importantes étiquettes spécialisées dans le genre, empreintes DIGITALes. Il va de soi que cette adhésion n’aurait pu se faire sans le concours actif des compositeurs liés à cette étiquette, eux-mêmes influencés par la communauté des électroacousticiens dans son ensemble. Une autre manière de dire que la professionnalisation progressive des méthodes de production en électroacoustique, dont le mastering représente la première étape historique, répond bel et bien à un besoin. Tout au long de cette suite d’articles, il sera question, non seulement de rendre compte des détails pratiques de cette nouvelle façon de faire et des obstacles bien concrets qu’elle rencontre encore, mais aussi de réfléchir aux possibilités d’évolution aujourd’hui offertes.
Le processus qui a permis aux productions commerciales de supplanter l’électroacoustique au niveau de la qualité sonore des productions étant encore frais dans les mémoires, il suffira peut-être, afin de documenter le chemin qui reste à parcourir, de s’y référer, dans un premier temps tout au moins :
- exportabilité : le mastering « correctif » s’est d’abord imposé comme l’unique solution à court terme à ce problème, et ce dès la fin des années 1960;
- fatigue auditive : elle n’est devenue un problème, en petite production commerciale, qu’à partir de la fin des années 1980, avec l’apparition du studio maison en tant qu’outil de travail exclusif d’un compositeur, cumulant les fonctions d’arrangeur, ingénieur de son et réalisateur. Cette conjonction problématique d’un opérateur unique dans un lieu de production unique est néanmoins demeurée confinée aux studios démo et aux unités de production locale, et n’a donc jamais été vraiment en mesure de causer les ravages dont elle est responsable en électroacoustique, pour laquelle le studio maison est depuis cette époque considéré comme un lieu de production autosuffisant. Durant la même période, par contraste, la grande production commerciale voyait apparaître des studios et des ingénieurs de son spécialisés dans le mixage, ce qui la mettait encore plus à l’abri des problèmes de fatigue auditive.
Même si elle est incapable de disposer du niveau d’investissement nécessaire pour pouvoir accéder à de pareilles structures, on peut estimer que la production électroacoustique, lorsque masterisée en stems, (1) peut atteindre grosso modo, en 2007, ce stade intermédiaire de qualité, grâce notamment à l’utilisation d’outils de masterisation contemporains. La marche en avant ne s’arrête pourtant pas là :
- à partir du milieu des années 1990, et pour contrer les effets destructeurs du mastering correctif, les studios, de mixage d’abord puis d’enregistrement, entreprennent de se doter de systèmes de monitoring de référence; le mastering peut alors évoluer vers un type d’intervention plus fin, parfois appelé « sweetening », terme emprunté à l’audio pour l’écran;
- l’étape suivante dans le raffinement est le mastering en stems, évoqué plus haut. Les productions pop commencent à y recourir dès 2000; en EA, les albums à masteriser sont livrés de cette façon dans approximativement 40% des cas;
- plus récemment, des sessions de mixage sont intégralement exportées vers les studios de mastering commerciaux.
Avec la proposition du mixtering, il sera possible à l’électroacoustique de regagner une partie de son retard actuel en termes de qualité de production. Il peut paraître cynique de le mentionner, mais l’actuel recul dans les ventes de CD pop laisse présager une stagnation des investissements liés au développement et à l’acquisition de techniques de production de pointe en musique commerciale : un répit dans l’escalade dont l’EA pourrait profiter… pour faire le rattrapage ultime. Un dernier bond qui ne pourra se faire qu’avec une amélioration de la qualité des sources utilisées, et une professionnalisation des conditions d’écoutes dans les studios de production.
2. Monitoring et sources
Mis à part son coût d’acquisition, qui peut être considérable, la caractéristique la plus déconcertante d’un monitoring de référence est sa franchise, à laquelle il n’est pas nécessairement facile de s’habituer. Si les albums les mieux produits y auront une sonorité exceptionnelle, à la fois plus détaillée et plus agréable que dans des systèmes domestiques, même prétendus haut de gamme, en revanche les productions moyennes ou déficientes paraîtront instantanément imbuvables. Utiliser pareil système en tant qu’écoute de loisir implique donc une remise en question majeure de la composition de sa discothèque. En particulier, peu de parutions électroacoustiques y trouveront grâce, pour toutes les raisons évoquées un peu partout dans cette suite d’articles. Une partie de la méfiance du milieu des compositeurs à l’égard de ce genre de systèmes, outil de travail pourtant largement accepté dans d’autres milieux, trouve là une explication partielle, mais non suffisante, et qu’il faut donc encore développer.
En effet, même si on réussissait à restreindre l’usage d’un système de ce genre au seul travail de production, situation peu concevable dans la pratique, on se retrouverait encore dans un contexte très difficile à gérer, à cause d’une série de problèmes reliés à la qualité des sources. Ces problèmes peuvent se résumer à travers le dilemme suivant :
- les sources accessibles à la production électroacoustique sont souvent structurellement déficientes du point de vue de la qualité audio;
- entendues dans un monitoring non biaisé, ces sources se révèleront obligatoirement décevantes, voire inutilisables; l’effet de démotivation au niveau de l’inspiration compositionnelle est inévitable;
- on ne peut produire de meilleures sources qu’en ayant accès à des moyens techniques supérieurs;
- un monitoring de référence est un de ces moyens, aussi incontournable que les autres.
La solution facile à ce dilemme serait évidemment de se contenter de systèmes de monitoring biaisés et flatteurs, au prix pour l’EA de demeurer, définitivement cette fois, en rade du progrès audio. Nous préférons faire face aux problèmes, notamment en les détaillant en fonction des principales catégories de sources.
2.1 Les sources microphoniques
La captation microphonique est une technique en pleine évolution, et qui requiert, de nos jours, un savoir-faire de plus en plus pointu. Mais son succès dépend aussi largement du contrôle serré d’une quantité de paramètres physiques, contrôle qui exige des moyens matériels de plus en plus considérables. Quels sont ces paramètres?
- qualités acoustiques du local : les pièces suffisamment silencieuses et optimisées pour l’enregistrement sont chères à construire. L’expédient de la captation rapprochée limite sérieusement les avantages comparatifs — sensation d’espace, complexité organique, euphonie — des captations microphoniques. Limitation dont ne souffrent plus les productions commerciales, largement en mesure d’offrir le genre d’équilibre idéal entre silence, ambiance et impact qui est devenu la norme contemporaine en techniques d’enregistrement;
- qualités de l’objet enregistré : si la lutherie classique bénéficie de siècles de raffinement, et si la lutherie pop a fait des progrès considérables ces dernières années, ces avancées sont au prix d’une augmentation du coût d’acquisition des instruments haut de gamme, mais aussi d’une spécialisation stylistique qui rend ces instruments plus délicats à utiliser dans le contexte électroacoustique typique de détournement de fonction; l’alternative, qui est de recourir à des objets non musicaux, exige du capteur une maîtrise extraordinaire de l’enregistrement microphonique s’il veut être en mesure de concurrencer les résultats spectaculaires couramment obtenus par des combinaisons microphone / capteurs de contact / préamplificateurs de plus en plus liées à des instruments précis;
- qualité du couple microphone / préamplificateur : le fait que l’offre en équipements dédiés au studio maison ait éclaté ces dernières années ne doit pas faire oublier le fait qu’il s’agit d’abord et avant tout de versions bas de gamme d’une nouvelle génération d’équipements, beaucoup plus performants et situés, eux, dans une échelle de prix toute autre. La différence de résultat entre les deux classes est évidemment déterminante;
- fidélité du monitoring, qui demeure l’outil principal de décision et de contrôle pour des étapes aussi critiques que le placement du microphone, le choix des directivités, le niveau de préamplification, la direction des instrumentistes, le choix des prises à garder, etc.
2.2 Les sources synthétisées
D’emblée, il faut reconnaître qu’aucun logiciel de synthèse ne peut échapper au conflit actuel entre précision des ondes à calculer et économie des ressources en processeur de l’ordinateur hôte.
Un logiciel aussi largement utilisé que Max/MSP, par exemple, déjà notoirement vorace en ressources à l’état neutre, ne peut parvenir à une synthèse de haute qualité sans limiter sévèrement le nombre de « voix » à produire simultanément. Ceci contredit son usage, pourtant presque universel, comme instrument principal de synthèse, hautement interactif et temps réel.
Les instruments de synthèse destinés au pop souffrent des mêmes limitations fondamentales, à ceci près qu’ils embarquent de nombreux outils inamovibles de masquage de leur propre misère qualitative. De plus, le voudrait-on que leur configuration rigide ne permettrait pas de les utiliser en mode haute qualité / peu de voix. (« Massive » de Native Instruments, qui offre un mode « Ultra Quality », est récemment apparu sur le marché.)
Or, il ne faut pas minimiser les problèmes reliés aux compromis effectués sur le calcul des formes d’ondes : non seulement ces distorsions constituent en elles-mêmes des irritants pour l’oreille, mais leur potentiel d’agression est cumulatif, ce qui augmente la difficulté pour les compositeurs d’électroacoustique de construire des ambiances de complexité symphonique.
À cause du haut degré de contrôle qu’elle offre sur le matériau audio brut, la synthèse est encore plus sensible aux déficiences du monitoring que la captation microphonique. Une écoute biaisée est capable d’induire des erreurs fondamentales à presque tous les niveaux d’intervention offerts par la synthèse : contenu harmonique, paramétrage des enveloppes, dosages de tous ordres, etc.
2.3 Les sources par manipulation
Il s’agit au départ de sources microphoniques ou synthétisées, mais tellement transformées que l’essentiel de leurs caractéristiques audibles devient majoritairement tributaire des traitements utilisés pour ces manipulations :
- nous sommes, encore une fois, confrontés ici au même problème de puissance informatique que pour la synthèse sonore : pas de qualité réelle de traitement sans épuisement rapide des ressources en processeur;
- il faut ajouter ici le prix élevé de tous les traitements à même de préserver la qualité, traitements en général obligatoirement liés à des processeurs DSP externes offrant une puissance de traitement indépendante de l’ordinateur hôte.
- les problèmes, déjà cités, engendrés par les déficiences du monitoring sur la qualité de la captation microphonique et de la synthèse sont ici exacerbés : nous sommes en présence d’une deuxième génération d’intervention, et le potentiel d’erreur en est multiplié.
3. Traditions et mentalités
Les difficultés qu’on vient d’exposer ne sont que partiellement insurmontables : l’expérience a prouvé qu’un tri sévère des sources disponibles selon des critères qualitatifs éclairés pouvait mener à des productions électroacoustiques de haute qualité. Le terme clé est ici « éclairé », et il sera nécessaire, pour en comprendre toute la portée, de démonter dans un premier temps un certain nombre de préjugés de production encore tenaces aujourd’hui, avant de formuler, dans la section 4, des recommandations pratiques.
3.1 Déni et crispations esthétiques
En enseignant la priorité du signifiant abstrait sur l’efficacité esthétique, en accordant une équivalence esthétique rigoureuse à des éléments aux caractéristiques euphoniques inégales, les bastions post-modernistes définissent en réalité une signature sonore limitée, qui semble caricaturalement crispée, une fois pour toutes, autour des possibilités techniques auxquelles les années pionnières du genre électroacoustique avaient accès.
Il n’est pas question de discuter ici de la validité esthétique fondamentale de ces arguments, mais de se concentrer sur les faits et sur les résultats : la qualité audio n’est ni automatiquement donnée, ni universellement interchangeable. Ses conditions d’existence se bâtissent, depuis une cinquantaine d’années, grâce à un corpus, en constante accumulation, de savoirs et de techniques complexes qui obéissent à des règles et à des conditions de plus en plus précises. Le fait que ces règles et conditions ne soient pas toujours énoncées clairement — quand elles sont énoncées — ne les invalide pas pour autant. Cela nous donnerait plutôt une occasion de tenter de les formuler, d’en raffiner et d’en développer la portée tout en les adaptant au genre électroacoustique sans craindre — ou plus précisément dans le dessein d’éviter — une perte d’identité.
Pour une musique qui se dit d’avant-garde, il peut donc paraître étrange de finalement demeurer rivé, pour des raisons de fidélité à des concepts abstraits, à des conditions de production élémentaires, tout en sachant que cela revient à abandonner tout espoir de présenter les œuvres avec une qualité sonore de niveau contemporain! Il semble évident que la valeur d’une proposition musicale tient plus à des choix précis d’objets sonores qu’à des limites techniques affectant leur transparence : même des genres aussi « fixés » que le baroque ont su intégrer, sans que personne ne se plaigne de trahison, des avancées techniques à de nombreux niveaux, qui ont fait en sorte que le microsillon de 1973 présente une signature sonore radicalement différente de celle d’un SACD multicanal de 2006.
3.2 Techniques héritées du pop
Le fait que le pop ait eu à dépendre, des années durant, de médias de distribution aussi limitatifs que la bande AM, le 45 tours ou la cassette audio a eu des répercussions profondes sur les techniques d’enregistrement et de mixage de l’époque où ces médias étaient prédominants. Ces stratégies étaient brutales et généraient plus de laideur qu’autre chose, mais leur aspect sommaire, calqué sur une exigence qualitative réduite au strict minimum, les rendait faciles à comprendre et à enseigner.
Bien que les conditions de distribution de la musique en général ne soient plus, loin s’en faut, aussi catastrophiques, beaucoup d’œuvres électroacoustiques sonnent encore comme si leurs créateurs avaient suivi, sinon la lettre, du moins l’esprit de ces recettes surannées. Comment expliquer ce phénomène ? Les deux arguments habituellement invoqués pour justifier cette étrange survivance ne tiennent pas la route : la distribution par MP3 ne profite nullement de ces techniques, et la « guerre du volume » est rejetée avec raison par la plupart des compositeurs.
Pour comprendre, il faut, hélas, se souvenir encore une fois que la communauté électroacoustique s’est tenue depuis trop longtemps en marge de l’évolution des techniques de production, et qu’elle n’a eu d’autres recours que de s’en tenir au savoir-faire correspondant à son niveau d’équipement. Ces recettes, que l’apprenti est encore encouragé de combiner à loisir, sont toutes plus ou moins apparentées aux catégories suivantes :
- la compression tous azimuts ; appliquée piste par piste, en sous-groupe ou seulement au master, la compression massive a toujours pour effet que tout le matériel audio se trouve forcé de se partager les quelques décibels supérieurs dans lesquels l’opérateur a décidé de le confiner, que ce soit pour des raisons de volume subjectif ou, ce qui semble contradictoire, d’impact ou d’intelligibilité. Une sensation d’agression permanente et d’abrutissement est toujours à la clé de cette stratégie ;
- les opérations de nettoyage et d’épuration de pistes, couches sonores et autres éléments jugés inutiles ou redondants. L’idée est de sauvegarder l’intelligibilité et la clarté en s’en tenant « à l’essentiel ». Oublions donc ici les textures symphoniques : c’est le célèbre « less is more » qui tient lieu, encore une fois, de loi unique et d’explication universelle. Or, en électroacoustique, et dans la mesure où les sources souffriront de l’une ou l’autre des déficiences typiques détaillées plus haut, on est en effet maintenant assurés de les entendre « more », ces déficiences…
- le confinement spectral consiste à confiner, par voie d’égalisation, chaque élément sonore en présence à une portion limitée et différente du spectre : par exemple, on ne laisse à la couche A que les aiguës, la couche B devra n’exister qu’entre 900 Hz et 3 kHz, la couche C sera filtrée en passe-bas à 850 Hz, etc. La réalité audio et musicale étant un peu plus complexe que ce que cette technique semble impliquer, il y a toujours une limite au nombre d’éléments qu’il est possible de forcer avec crédibilité dans des régions spectrales voisines et complémentaires. Si bien que le respect absolu de cette stratégie entraînera les mêmes changements drastiques et la même simplification caricaturale de l’arrangement que pour la précédente, mais avec une sensation d’artificialité et d’absence de cohésion supplémentaire ;
- la concentration dans le haut médium, registre qui est censé contenir l’essentiel des informations « utiles musicalement ». Favoriser ce registre aux dépens des autres — les graves en particulier — permettrait, grâce à la sensibilité supérieure de l’oreille dans cette région, de maintenir une plus grande clarté dans un contexte de volume subjectif élevé. Pour obtenir ce résultat, il faut évidemment pratiquer des égalisations aussi sévères que systématiques sur presque toutes les pistes, ce qui provoque des problèmes de phase, de perte d’impact et de transparence, importants et généralisés, qui ne sont plus acceptables en musique commerciale depuis longtemps. Il est important de noter qu’il y a aussi bien des cas où la concentration dans le haut médium n’est même pas le fait d’une stratégie délibérée, mais bien d’une tentative d’obtenir un peu de clarté dans un monitoring confus, coloré, de faible puissance, etc.
Voir suite :
4. La réalité audio contemporaine
Social top