retour au sommaire

B.P.M.*

version à télécharger

 

 


sonagramme de chants d'une sauterelle (en haut) et du passage d'une voiture (en bas)

le son de ce sonagramme, puis le même son ralenti et baissé à 2 octaves

 

 
Jean POINSIGNON 2017

                                                                                      * = bruit, parole, musique

 

 

introduction

 

Quand on prononce l’acronyme "B.P.M." on pense tout de suite à battements par minute; bpm veut d'ailleurs dire la même chose en anglais, pour une fois. Mais ici on va surtout parler de Bruit, de Parole et de Musique; ce sont les trois types de sons qu'on trouve sur Terre.


BPM, ne se veut pas un cours de musique, mais un cours sur le son et la musique sous l’angle acoustique, esthétique et culturel avec un prolongement vers la musique de film. Ce n’est pas une encyclopédie, ni un dictionnaire, mais plutôt une somme de connaissances que j’ai acquises en étant confronté à des problèmes sur le terrain (en l’occurrence, le terrain, c’est souvent un studio), par des rencontres de professionnels ou d’artistes, en consultant des livres, en me posant des questions, grâce aussi à des échanges avec des étudiants de Music Academy à Nancy. J’ai une formation littéraire, mais la musique, avec laquelle je vis depuis toujours, je l’ai apprise essentiellement en autodidacte, de même que l’informatique musicale et le design sonore.

J’ai choisi 4 chapitres : 1- le Son, 2- le Son musical, 3- Son / musique et culture et enfin 4- le Son et la musique au cinéma. A l’intérieur, des titres tels que : - le silence, - l’effet de masque, - le juste et le faux, etc... plus une approche condensée de ce que nous apprennent les Sciences cognitives sur la perception de la musique. Ce n’est donc pas un cours de solfège, d’harmonie ou d’histoire de la musique, mais un ensemble de notions propres à l’univers du son et de la musique dans leurs implications quotidiennes et culturelles ; or un musicien ou un “sound designer“ doit forcément tenir compte des relations avec la vie quotidienne et la culture pour s’adresser à un public ou un auditeur qui n’a pas conscience de ces notions.

Ce cours, que je remanie et enrichit depuis des années, j’espère qu’il vous sera utile et ne vous assommera pas ...

 


I le SON

BRUIT / PAROLE / MUSIQUE

 

                On classe traditionnellement les sons en trois types : la parole, le bruit, la musique ; ce sont aussi les trois types de sons d’une bande sonore de film : les dialogues , commentaires, narration – les bruits et effets sonores – la musique. On peut ajouter un quatrième type : le chant, qui est parole ET musique.

- la parole, un bruit qui communique des informations


                La parole n’a pas de mélodie précise ou tonale, sa « mélodie » - ou prosodie - n’ est pas constituée de hauteurs précises ; pourtant, on peut parler de mélodie de la voix ou d’accent chantant. Contrairement au bruit et à la musique, la parole transmet une information dont la signification a un code précis et objectif (on peut prendre un dictionnaire pour en avoir le sens, alors qu’on ne peut pas le faire avec un son musical) ; pourtant, la parole comme la musique peut être transmise par écrit.
                Le cas de la parole véhiculée par une langue étrangère est différent : lorsqu’on ne comprend pas la langue de la voix qui parle, on est plus attiré par l'aspect musical de la voix (surtout si on est musicien); ce qu’on entend n’est alors plus « recouvert » par le sens ; en revanche on peut aussi percevoir comme du bruit une conversation de plusieurs personnes dans une langue inconnue: on sait que ça veut dire quelque chose mais on est exclu de la compréhension; toutefois, lorsqu’on connaît des rudiments de la langue, on va guetter les mots qu’on comprend, et tendre de nouveau vers la perception de ce que la parole signifie.
                 Le chinois est une langue très mélodique – en particulier pour nous – car les phonèmes sont prononcés avec une certaine hauteur ou une variation de hauteur, comme dans une mélodie musicale (vers le haut, vers le bas , droite, en bosse, en creux) et ceci est important pour la signification des mots. A l’opposé, l’anglais parlé par les nord-américains est souvent monocorde, tandis que les Anglais « mélodisent » plus leur langue.
                 On peut remarquer que les anglophones admettent difficilement de ne pas comprendre les paroles d’une chanson ou les dialogues d’un film lorsque ceux-ci sont dans une langue étrangère; ce qui pourrait passer pour une forme de protectionnisme de leur culture ; tandis que les Français aiment généralement les chansons anglaises ou américaines sans comprendre les paroles.
                 L’aspect rythmique d’une langue vient de l’accentuation de certaines syllabes (comme les temps forts d’une mesure musicale) ; de même la durée de chaque syllabe (longue ou brève) donne une certaine métrique, ce qu’on appelle la scansion, aspect essentiel de la poésie antique (hexamètres) et classique (alexandrins) et qui a été beaucoup utilisée en poésie et aide d’ailleurs à la mémorisation. En outre, on apprenait dans le temps les règles de multiplication en les « chantant », c’est-à-dire en leur appliquant une sorte de mélodie et surtout un rythme, un peu comme une contine. La musique (mélodie et rythme) est plus fortement mémorisée que la parole.
                 Dans l’audiovisuel – comme d’ailleurs dans notre environnement habituel – la parole est presque toujours privilégiée par rapport aux autres sons, non seulement dans le mixage, mais aussi dans notre perception : notre attention est la plupart du temps captée par les voix, donc les paroles : on n’a pas une écoute objective (excepté les professionnels du son qui ont l'entrainement pour focaliser leur écoute), on écoute plutôt aux portes !
                 On peut noter aussi que le texte (parole écrite), quand il y en a dans une image de film, "aimante" l'attention du spectateur - par exemple quand on refarde un film en français sous-titré en français.

 

Bruit et musique : des différences floues

Distinctions traditionnelles entre le bruit et la musique :

a) le bruit est désagréable, la musique est "harmonieuse",
b) le bruit est un son non périodique, le son musical est périodique,
c) le bruit a des harmoniques impairs : le crissement d'une craie sur un tableau, le son musical a des harmoniques pairs, …

              Ces affirmations, bienqu'elles disent chaque fois une partie de la vérité, ne sont pas justes car on trouve toujours beaucoup d'exceptions. On peut toutefois distinguer plus généralement (depuis Pierre Schaeffer) les sons toniques (dont la hauteur est repérable et qui ont la faculté d’émerger sur tous les autres sons) et les sons complexes (pas de hauteur précise ou repérable).
              Mais cette distinction n’est pas absolue, surtout avec l’apport de l’électronique : un « bruit » peut être utilisé comme un son musical (l’inverse est possible aussi). Le mouvement des Bruitistes – issu des Futuristes italiens - revendiquait déjà dans les années 1910 le statut de musique du futur aux bruits, en particulier aux bruits de machines.
              “L’appréciation du bruit comme bruit et de la musique comme musique est donc affaire de contexte culturel et individuel, elle ne tient pas à la nature des éléments, mais pour beaucoup à la reconnaissance de la source comme “officiellement musicale“, ainsi qu’à la perception d’un ordre ou d’un désordre particulier entre les sons. Les deux critères sont parfaitement indépendants, mais il semble que pour le « goût commun » il faille les deux.“(Michel CHION – “le son“).
              Le bruit est ce qui – à l’exception de la parole - n’est pas ressenti comme musical et inversement ; on peut parler de la musique du vent ou d’un ruisseau et on peut trouver que le voisin qui écoute de la musique « fait du bruit »
              En français, le mot bruit est parfois employé péjorativement ; il signifie tour à tour un son trop fort, une musique qu’on ne supporte pas, un défaut dans le son, (et même des défauts dans l'image vidéo), …
En anglais, le bruit se dit sound (bruits de pas, sound effects) et noise (bruit parasite, perturbation dans un signal)
              Le vocabulaire lié uniquement au bruit est assez limité : on parle de vrombissement, de bourdonnement, de crépitement, (mots spécifiquement de l'ordre du sonore… mais leur signification est peu précise et assez subjective.
Pour qualifier un son, on utilise fréqemment un vocabulaire de l'image (brillance, couleur, ...)
              La musique concrète « inventée » par Pierre Schaeffer est "constituée à partir d'éléments préexistants empruntés à n'importe quel matériau sonore, qu'il soit bruit ou musique habituelle, puis composée expérimentalement par une construction directe"

 

DIFFÉRENTES APPROCHES D’UN SON


sémiologie musicale

Acoustique :
L’aspect du son, sa description objective, non liée au contexte
> Les fréquences, l’enveloppe, la durée, l’intensité, le grain, l’évolution…
Psycho acoustique :
Domaine de la perception, comment le son est perçu
Effets psychologiques et physiologiques du son lié à son contexte
> Effet agréable, désagréable… le vent, la pluie, des cris d'enfants ...
Sémantique :
Ce que veut dire le son, sa signification éventuelle liée au contexte culturel
ex : sonnerie de réveil = l’heure de se lever
Esthétique :
Quelle est la valeur artistique du son, par rapport à un équilibre, à une approche esthétique et au contexte culturel ;
un son est jugé beau ou laid…
Ex. le son du violoncelle, le moteur d’une Harley-Davidson,…

           Ces différents critères sont liés et entrent souvent en interaction
Ex. le motif joué aux violons dans « Psychose » (musique de Bernard Herrmann) est effrayant d’un point de vue psycho acoustique, mais très intéressant d’un point de vue esthétique, tandis qu’il serait épouvantable pour une oreille du XVIII° siècle.
          Certains sons, proches acoustiquement l’un de l’autre, peuvent avoir des effets psychologiques, des significations et des valeurs esthétiques différentes ; ex. : une pluie forte et des applaudissements.
          Un même son peut être jugé esthétiquement de façon différente s’il est ou non situé dans son contexte habituel. Par ailleurs, certains sons ou ensemble de sons ou encore tel type de musique ont été jugés de manières très différentes selon les époques et selon les différentes cultures du monde. Par exemple, la musique en micro-intervalles (1/4 de ton par exemple) peut faire « grincer les dents » d’un auditeur occidental, alors qu’elle paraît naturelle pour un oriental.


L’OREILLE

          L’oreille externe : le pavillon et le conduit auditif
Chez l’homme, le son est conduit par le pavillon et le conduit auditif vers le tympan ; entre-temps, un processus de filtrage privilégie les fréquences proches de la voix humaine au détriment des fréquences qui pourraient gêner la compréhension.
L’oreille moyenne : le tympan et les osselets ;
le tympan est une membrane élastique, les osselets sont le marteau, l’enclume et l’étrier (ainsi nommés en raison de leur forme)
          Les vibrations aériennes sont transformées en vibrations « solidiennes » grâce au tympan et aux osselets.
En outre, des processus mécaniques complexes permettent de protéger le système auditif des intensités trop fortes. Il est à noter qu’un son ponctuel fort dans un environnement calme est plus dangereux pour l’oreille qu’une forte intensité qui se prolonge.
          L’oreille interne : c’est là où se trouve le siège de l’équilibre ;
En ce qui concerne l’audition, la cochlée contient un liquide dans lequel baignent des cellules ciliées qui sont mises en vibration, ces cellules au nombre de 3500 sont connectées à 30 000 neurones ; on pense que c’est là que se fait l’analyse spectrale des sons. Les vibrations solidiennes sont converties en informations de type électrique transmises au cerveau.

          L’oreille est un organe extrêmement sensible, capable, dans des conditions calmes, de percevoir des sons très ténus :   « des déplacements du tympan parfois inférieurs au diamètre d’une molécule d’hydrogène peuvent être détectés » (Michel Chion).
          On pourrait dire – à titre de comparaison - que l’œil a besoin de 24 ou 25 images par seconde pour avoir une sensation de mouvement fluide, alors que pour l’audition, on échantillonne 44100 fois par seconde (ou plus) pour reproduire correctement le son, c'est-à-dire de manière fluide – si un échantillon sur 44100 est erroné, on entend une sorte de clic.
          Il est à noter que certaines personnes, notamment après un accident acoustique, peuvent souffrir d’acouphènes : ce sont des bruits générés par l’oreille elle-même, constitués de fréquences aigües : sifflements ou graves : bourdonnements, ce qui occasionne une gêne considérable (les acouphènes masquent une partie du paysage sonore), ils sont surtout gênants le soir et la nuit lorsque l’environnement sonore est calme et qu'ils ne sont alors pas masqués.
          La presbyacousie est un peu l’équivalent de la presbytie pour les yeux, elle rend difficile la compréhension d’une conversation dans une ambiance sonore forte ; c'est un dysfonctionnement la plupart du temps lié à l'âge; au contraire, la faculté de pouvoir suivre une conversation particulière alors que beaucoup de gens parlent en même temps est appelée l’effet cocktail party.
          L’audiogramme (à ne pas confondre avec le sonagramme) est un examen médical que l’on subit pour connaître son champ objectif de perception auditive, en particulier la perte d’audition des fréquences aigües (vers 15 kHz) qui survient avec l’âge ou après un accident acoustique, ou la perte d’une bande de fréquences suite à une maladie professionnelle telle que la maladie des chaudronniers.
          Les dégâts causés au système auditif ne se réparent pas, ils sont irrémédiables.


SONS PÉRIODIQUES, NON PÉRIODIQUES, DISCRETS


          Les sons non périodiques sont – par définition – non continus ; en acoustique on parle de son discret (du latin = séparé - rien à voir avec la discrétion). C’est dans les sons non périodiques qu’on classe traditionnellement les bruits par opposition aux sons musicaux
          Les sons périodiques sont perçus dans une continuité ; on peut alors repérer une hauteur. Ce peut être un événement qui se répète sous forme de cycle. À partir d’une fréquence de 20 Hz, on perçoit la répétition d’un cycle comme un son continu : ainsi chaque explosion d’un moteur de voiture n’est plus perçue comme une succession d’un son d’explosion mais comme un son continu. Les sons musicaux sont traditionnellement classés dans les sons périodiques.



          Les transitoires font partie du son de l’instrument de musique - chaque instrument a ses transitoires – sans être la note elle-même , par exemple une note jouée à la guitare commence par le contact de l’ongle ou du médiator et de la corde; ces transitoires sont discontinues. Lorsqu’on coupe à l’échantillonneur l’attaque du son de l’instrument, en général on ne reconnaît plus l’instrument (cf l’expérience de Pierre Schaeffer qui avait coupé l'attaque d'un son de piano sur la bande magnétique : on ne reconnaissait plus le son du piano - c'est un des points de départ de sa notion d'objet sonore, donc de la musique concrète)
          Le glissando vient d’un changement progressif de fréquence d’un son continu ou de la partie continue d’un son.
          le vibrato et le pleurage consistent en une variation périodique de la fréquence, le vibrato est effectué par l'instrumentiste (qui fait “vibrer“ son doigt sur la corde), tandis que le pleurage est un défaut de machine (le lecteur de disque ou la bande magnétique "ne tournent pas rond")


PERCEPTION DES SONS : LA COURBE DE FLETCHER


          On perçoit théoriquement les sons dont les fréquences sont situées entre 20 Hz et 16 ou 20 kHz ; mais l’âge et l’exposition à des intensités élevées font perdre l’audition des hautes fréquences.
          L’oreille humaine ne perçoit pas les vibrations sonores de la même manière selon la fréquence : on entend mieux les mediums (aux alentours d’1 kHz : en gros les fréquences de la voix humaine) que les graves et les aigus ; c’est ce que représente la courbe de Fletcher.
          Il faut que la source sonore ait une énergie acoustique plus grande pour que les sons graves soient perçus, de même pour les sons aigus, tandis que les fréquences mediums sont perçues avec peu d’énergie.
          Sur certains appareils, une fonction (booster de basses) permet de mieux entendre les graves, en augmentant artificiellement leur intensité.
          Plus l’intensité globale est forte, plus la courbe de perception des fréquences est plate, c’est-à-dire qu’à volume très élevé, on entendra aussi bien toutes les fréquences ; c’est sans doute une recherche inconsciente de cet état qui pousse certains à écouter très fort.
          Il est à noter que la courbe de perception des fréquences n’est pas linéaire, elle est exponentielle : on ressent une différence beaucoup plus grande entre 50 et 100 Hz, qu’entre 10 050 Hz et 10 100 Hz.


DIFFÉRENCES DE COMPORTEMENT ET D’EFFET DES AIGUS ET DES GRAVES

 

° Les sons aigus sont plus directionnels que les graves : les aigus sont réfléchis alors que les graves sont diffractés
° Les aigus sont amortis plus facilement que les graves par les matériaux d'une pièce
° Les aigus ont un pouvoir masquant moindre, de même, ils sont moins masqués que les graves .
° Les sons aigus ont généralement une enveloppe plus courte et un temps de réverbération plus court que les graves
° On est généralement plus attentif aux sons aigus qu’aux sons graves ; c’est pourquoi les « BIP » sont aigus (distributeurs de billets, réveils, téléphones mobiles…)
° les sons graves ont tendance à nous immerger (on les perçoit dans tout le corps, en particulier par le ventre, partie molle de notre anatomie).
° Les sons aigus sont plus émergeants (on les perçoit avec l’oreille, mais aussi avec les parties dures du corps : le crâne)


PERCEPTIONS DE LA HAUTEUR, DE LA DURÉE, DE L’INTENSITÉ ET DU TIMBRE

 

- La perception de la hauteur – l’oreille absolue :

          La hauteur d'un son musical est référencée au diapason (la3 = 440 Hz), mais ce sont surtout les rapports de hauteur qu’on perçoit. Avoir l’oreille absolue c’est reconnaître la hauteur d’une note sans avoir besoin d'une référence, d’un contexte musical pour établir une relation avec cette note. On peut avoir l’oreille absolue pour son instrument : reconnaître les notes jouées au piano si on est pianiste et pas celles jouées sur un autre instrument. On peut ajouter que l’oreille absolue présente des inconvénients : celui, par exemple de trouver difficile de jouer avec un diapason différent - comme dans la musique baroque (la3 = 436 Hz). Tout le monde reconnaît un air par les relations qui s’établissent entre toutes les notes qui se succèdent, c'est l'oreille relative; cela nous donne en outre la possibilité de transposer l’air plus ou moins haut selon notre tessiture.
         Le pleurage est un défaut de reproduction consistant en une variation périodique de la hauteur (le disque « ne tourne pas rond »). C’est sans doute le défaut le plus gênant pour l’auditeur, surtout s’il est musicien (alors que le souffle, les craquements, le manque d’aigus ne nous empêchent pas d’entendre le discours musical parce que, mentalement, on peut faire abstraction de ces défauts.

- La perception de la durée :

          On ne parle généralement pas d’oreille absolue pour la durée, à part toutefois la durée correspondant à une seconde, une demi seconde, car on a la référence du tic-tac de l’horloge (mais les montres ne faisant plus de bruits, on peut perdre cette référence).
          La durée peut être notée grâce au métronome qui donne le tempo :
une noire = 60 veut dire qu’une noire dure 1 seconde. Auparavant, en musique classique, on avait des indications de mouvement : largo, andante, allegro, presto,…
          On perçoit très finement les variations de durée ou durée relative (c’est-à-dire quand « le jeu n’est pas en place »).
          On peut dire que la durée absolue est définie par le tempo alors que la durée relative, c’est « tenir le tempo ».
          La perception d’une durée est plus difficile lorsque le tempo est lent (un tempo de 40 à la noire est difficile à tenir).
          Une note reproduite à l’envers (l'enveloppe est alors inversée comme pour un crash de cymbale à l'envers) paraît plus longue que la même note jouée à l’endroit car l’attention est soutenue et ne décroche pas en cours de route comme avec un son qui s’éteint de façon naturelle.

- La perception de l’intensité :

          L’oreille absolue pour l’intensité est impossible parce que la courbe de perception varie en fonction de la fréquence (voir la courbe de Fletcher) et que le seuil d’audibilité varie en fonction du bruit de fond ambiant et de l’oreille de chacun. On peut avoir toutefois quelques repères : une pièce calme = 30 à 40 dB, bruit de circulation = 60 dB, concert fort = 110 à 130 dB…
          On peut noter que la mesure d’intensité qui tient le plus compte de notre perception est le décibel acoustique (dBA)
Les variations d’intensité donnent le contraste en musique (la dynamique) ; en musique classique, la dynamique est notée avec plus ou moins de précision (ppp ->fff - crescendo / decrescendo) ; tandis que sur un synthétiseur, la valeur de vélocité (agissant en général sur l'intensité) est comprise entre 1 et 127 (norme MIDI).
          Les variations temporelles d’intensité d’un son sont indiquées; sur un synthétiseur elles peuvent être modifiées par son enveloppe de volume (E.G.).

- La perception du timbre :

          Les différences de timbres sont infinies; le timbre est généré par l'étagement des harmoniques du son; le système auditif et le cerveau analysent ces harmoniques de manière très fine et reconnaît le timbre, donc l'instrument.
          En musique classique les timbres sont tout d’abord les instruments eux-mêmes ; on les classe par familles : les bois, les cuivres, les cordes, les percussions,… ;
          En musique instrumentale, on nomme les instruments : violon, flûte, piano… ; en musique électro-acoustique, les noms qu’on donne aux timbres ne correspondent pas à des instruments réels – on parle parfois de lutherie virtuelle.
          On qualifie en général les timbres avec des mots pris dans le vocabulaire de l’image (couleurs, brillance, textures,…)
          Sur un instrument capable de jouer des notes tenues, le timbre varie souvent pendant l’exécution d’une note (vibrato au violon, à la guitare - modulation MW sur le synthé) .


DIRECTIVITÉ DES SONS


          Les sons graves sont dits omnidirectionnels : on a l’impression qu’ils viennent de toutes les directions.
Plus les sons sont aigus, plus ils sont directionnels, on peut les localiser plus facilement. La raison vient du fait que les sons aigus sont réfléchis (effet de miroir), alors que les sons graves sont diffractés (ils changent de direction devant un obstacle, ils le contournent). C’est pour cela que la restitution des graves dans la sonorisation d’une pièce ne demande qu’un « caisson de basses », alors que les aigus sont restitués avec plus de précision et plus de hauts parleurs. C’est en partie pour cela qu’il est plus difficile d’isoler une pièce des fréquences graves que des fréquences aiguës, qui, elles, sont absorbées ou réfléchies.
          Certains animaux (les chats par exemple) peuvent orienter le pavillon de leurs oreilles pour mieux repérer les sons plus aigus donc plus directionnels de leurs proies (les souris qui émettent des sons aigus).
          On a mis au point un système de « projecteur de sons » qui utilise l’extrême directivité des ultra sons : sans être entendus, ils servent de porteuse à des sons audibles ; c’est ainsi qu’on entend, sans casque, un son « projeté » vers soi alors que le voisin ne l’entend pas. L'armée est, paraît-il, particulièrement intéressée par cette application.

exemple sonore : du grave à l'aigu on perçoit de plus en plus la stéréo (à écouter aux enceintes)


L’EFFET DE MASQUE

          Il y a effet de masque lorsque deux sons comportent des fréquences proches ; celui qui a une intensité plus grande va masquer l’autre.
          On peut comparer le son à l’odorat ou au goût : on parfume certaines stations de métro pour masquer les odeurs désagréables ; la moutarde peut masquer le goût de la viande.
          Notre attention est captée par les sons émergeants qui créent des événements. Les sons peuvent se masquer par la proximité de leurs fréquences, mais aussi par leur rémanence :
          Un son qui dure indéfiniment, un motif ou un rythme qui se répète imperturbablement finit par se faire oublier (devenir un non événement); pourtant, il peut resurgir à l’attention lorsqu’il s’arrête (on reprend conscience qu’on avait entendu ce son)


Importance et implications :

          Le bruit blanc (composé de toutes les fréquences - comme le blanc est un mélange de toutes les couleurs) lorsque son intensité est suffisamment élevée, peut couvrir tous les sons.
          Le bruit de fond masque quantité de sons ténus dont l'intensité est moindre.
          Les algorithmes de compression de données du minidisc ou du MP3 tiennent compte de l’effet de masque: on ne prend en compte que ce qui va être entendu.
          Avec l’augmentation du niveau de bruit ambiant dans les villes, les sirènes de véhicules de pompiers ou de police augmentent, elles aussi, pour être entendues : les premières sirènes au début du XX°siècle atteignaient 88 à 96 dBA, aujourd’hui elles atteignent 122 dBA (à 5 mètres de distance) (d’après Murray Schafer).
          Dans un concert au niveau sonore élevé, on est obligé de crier - ou, à défaut, faire des gestes - pour se faire comprendre de son voisin.
          Un son qui s’éteint, c’est comme un rideau qui est tiré et qui découvre un décor qui existait auparavant mais qui nous était caché.
          - La « musique d’ascenseur » peut être utilisée pour masquer des bruits qu'on n'a pas envie d'entendre : gargouillis, reniflement,...
          - Pendant la II° Guerre Mondiale, la radio de la Résistance était « brouillée » par les services allemands : un son intrus masquait en partie les informations.
          - On peut ajouter que le cerveau a la capacité, dans le tri des informations auditives qu’il reçoit, de sélectionner - focaliser - tel ou tel son pour des raisons de confort, d’habitudes d’écoute ou des raisons culturelles et « oublier » ou masquer tel autre son, c’est ce qu’on appelle l’oreille intelligente qui permet d’isoler tel détail ou au contraire l’ignorer - à rapprocher de l'effet cocktail party, (voir plus haut) - . Par exemple, on peut très bien écouter de la musique dans une voiture qui roule : le bruit du moteur qui devrait gêner l’écoute est rejeté ; il réapparaîtra à la fin de la musique ou s’il survient une irrégularité du bruit du moteur.
          - Autre exemple : en Afrique du Sud, il existe des langues à clic : un petit bruit de bouche qu’on émet en prononçant certains mots ; ce clic est important pour la compréhension et les gens qui parlent cette langue y portent attention, tandis que des Européens non avertis peuvent même ne pas l’entendre.
          - Dans une composition, il faut tenir compte de l’effet de masque, car deux instruments jouant des parties distinctes mais dans la même tesssiture peuvent se masquer mutuellement ; en évitant l’effet de masque on rend la composition plus claire et plus équilibrée. Le problème est d’autant plus présent dans le cas d’une musique qui doit être mixée avec une voix : la voix étant dans les médiums, mieux vaut ne pas composer une musique uniquement dans les médiums car le mixage favorisera toujours la voix au détriment de la musique.

exemple sonore : un marteau-piqueur masque un train qui masque une rivière qui masque des bruits de pas qui masquent des insectes : les insectes sont présents dès le début mais on ne les entend qu'à la fin


NOTION D’ACOUSTIQUE D’UN LIEU


          Le lieu de production d’un son ou d’une musique peut être très différent du lieu de diffusion, par le volume de la salle et les matériaux couvrant les murs, plafond et sol ; ce qui implique que la réverbération ne sera pas la même.
          Par exemple, dans un studio de production, le son est généralement « amorti », mais on peut ajouter de manière artificielle une réverb. ; alors que dans une cuisine couverte de carrelage, le son est réverbéré, cette réverbération va s’additionner à celle ajoutée en studio (même problème que l’excès de sel dans la confection d’un plat : on peut ajouter du sel, mais pas en retirer; il existe toutefois un plug-in de déréverbération).
          Dans un lieu donné, plus l’intensité du son est forte, plus il est réverbéré ; un son très faible ne sera quasiment pas réverbéré.
          Une même musique est entendue différemment selon l’endroit (l’acoustique du lieu). En écoutant par exemple sur un autoradio une musique qu’on croyait connaître parfaitement, on peut découvrir une partie de flûte par exemple, qu’on n’avait jamais perçue – ceci relève aussi des conditions psychologiques de l’auditeur au moment de l’écoute.


LA RÉVERBÉRATION

          Elle est produite par l’ensemble des réflexions du son
          Plus on est éloigné du sujet, plus on entend le son réfléchi
          Le temps de réverbération c’est le temps que met un son – une fois que son émission est terminée - à se fondre au bruit ambiant.
          Un son dépourvu de toute réverbération (un son sec) voudrait dire qu’il est émis dans une chambre sourde (où tous les sons sont amortis), ce qui n’est pas naturel ; c’est pour cela que les micros prennent généralement le son direct plus une partie des sons réfléchis (cardioïdes). Une réverbération judicieusement choisie donne au son une existence dans un lieu et le rend donc naturel.
          En anglais, on dit dry pour un son sec, wet pour un son réverbéré. En général, on mélange le son direct et la réverbération de ce son en dosant le rapport entre les deux.

          L’ÉCHO est la répétition du son réfléchi par une surface à une certaine distance ; on a alors la perception d’une nouvelle attaque (à peu près 200 ms après la première émission du son)

          D’un point de vue psycho acoustique, la réverbération éloigne psychologiquement la source de l’auditeur ; au cinéma, on peut l’utiliser artificiellement pour marquer l’éloignement d’un personnage : éloignement physique, temporel, mais aussi hiérarchique; exemples : un flash-back, la narration d’un rêve, la voix d’un fantôme ou celle de Dieu.
          La réverbération est parfois l’équivalent d’une contre-plongée du plan image, elle peut donner le sentiment que celui dont la voix est réverbérée a une position supérieure, ex. : au temps où la messe dominicale était dite en latin et revêtait un caractère quasi obligatoire, le sermon était donné en français (et sans micro) du haut de la chaire par le curé ; sa voix était très réverbérée du fait de l’architecture de l’église, ce qui impliquait qu’il devait parler lentement et de façon articulée pour que les mots ne s’enchevêtrent pas , ce qui lui donnait un surplus d’autorité et les fidèles écoutaient alors dans un état de soumission.
          On peut noter d’ailleurs que tous les bâtiments réclamant de l’obéissance ou de la soumission sont des lieux réverbérants (églises, écoles anciennes, hôpitaux, certains bâtiments administratifs…)
          Plus la musique est réverbérée – du fait de l’acoustique du lieu ou de l’effet qu’on a ajouté au mixage – moins elle permet des phrases rapides (risque de mélange, perte de clarté); la musique pour orgue d’église en est un exemple.


OPÉRATIONS SUR LE SON

Les différentes opérations qu’on peut effectuer sur le son :

- LA CAPTATION (l’enregistrement)
consiste à convertir la vibration acoustique en un signal électrique par l’intermédiaire d’un micro ; dans un système numérique, les modulations d’intensité de ce signal électrique sont converties à leur tour en code numérique binaire (1 ou 0) par le procédé de l’échantillonnage : on mesure un certain nombre de fois par seconde (fréquence d’échantillonnage – ex. 44,1, 48, 96 kHz) et avec une certaine précision (quantification = nombre de bits – ex. 16 bits) ; plus la fréquence d’échantillonnage et la quantification sont élevées, plus le son est précis et « timbré »

- LA TÉLÉPHONIE:
consiste à transmettre le son à distance comme pour le téléphone et la radio - ce qui n'existe pas dans la nature (l'intensité - l'énergie acoustique - décroît de 6dB chaque fois que la distance est doublée). La qualité de transmission est soumise à la bande passante autorisée par les appareils ; dans les transmissions numériques, la qualité est soumise à l’importance du flux de données. Dans le passé, le téléphone avait une bande passante très réduite qui privilégiait les médiums ce qui détimbrait les voix, mais permettait la compréhension de la parole.

- LA FIXATION:
consiste à fixer le son sur un support (bande magnétique, disque vynil, cd, disque dur…), ce qui permet de différer et répéter la diffusion du son. Il est à noter que cette possibilité technique a changé notre écoute et notre manière de produire (une musique destinée à être gravée sur disque peut être très différente de celle destinée à la scène : dynamique, effets...) ; en outre, elle nous permet d’analyser plus facilement le son par la possibilité de le répéter - ce qui n'existe pas non plus dans la nature : le son est un phénomène éphémère. Le son fixé devient un objet déconnecté de sa source acoustique (on ne voit pas les instruments ; on peut parler alors de « musique acousmatique »).

- LA SYNTHÈSE :
consiste à créer des sons qui n’ont pas une origine acoustique, mais électrique et électronique. Le synthétiseur avec ses générateurs et ses filtres permet de créer des sons inouïs, c’est-à-dire qu’on ne peut pas les entendre dans la nature ou grâce à un instrument de musique acoustique. On peut donc inventer un son sans avoir à fabriquer l’objet qui le génère, ce qui nous donne des instruments virtuels.

- LE REMODELAGE:
consiste à traiter, transformer le son initial par un ensemble de possibilités offertes par la technologie actuelle :
° l’amplification : le gain et le travail sur l’enveloppe d’amplitude (« eg »)
° l’égalisation par laquelle le spectre des fréquences est modifié en augmentant ou diminuant l’intensité de telle bande de fréquences
° la compression de la dynamique pour réduire l’écart entre les sons les moins forts et les sons les plus forts
° la compression – expansion temporelle pour modifier la durée sans changer la hauteur ou modifier la hauteur sans changer la durée
° le bouclage (looping) et la lecture inversée (reverse) : permet la répétition de la totalité ou d’une partie du son, ou la lecture à l’envers.
° la variation de hauteur (pitch) : on peut modifier la hauteur d’un son ou opérer une variation de hauteur sur l’évolution temporelle du son (enveloppe de pitch ou « pitch eg »)
Et bien-sûr tous les traitements possibles grâce aux fonctions des synthétiseurs et plug-ins actuels
On utilise de plus en plus l'image comme aide pour travailler sur le son, on peut ainsi représenter l'évolution de l'intensité ou de la hauteur d'un son (l'enveloppe), la forme de l'onde du son, le spectre harmonique, ...


le SONAGRAMME


          Le sonagramme (ne pas confondre avec audiogramme qui mesure les capacités auditives d'un individu) représente les fréquences en Y (fondamentales et harmoniques) par rapport au temps en X, ainsi que les intensités (trait plus ou moins foncé) - donc trois paramètres; il est plus utilisé par les bio acousticiens et les ornithologues que par les musiciens



Sonagramme du chant du pinson des arbres
en abscisse : le temps, en ordonnée : les fréquences
le chant correspondant à ce sonagramme

 

Analogique et numérique*

          Quand on capte un son, quand on l’enregistre, le microphone convertit les vibrations de l’air en un signal électrique qui varie en intensité ; cette variation est analogue à la variation des vibrations qui ont agité la membrane (la membrane du micro agit comme le tympan dans l’oreille) – c’est un processus analogique – on pourrait dire qu’il a un lien avec la « forme » du son ; de même la gravure d’un disque vinyle est analogue au son qu’il restitue .
          Convertir ce signal électrique en numérique consiste à mesurer un certain nombre de fois par seconde ce courant électrique – c’est la fréquence d’échantillonnage en hertz (Hz) et kilohertz (kHz), - 44100 fois par seconde = 44,1 kHz.
Plus la fréquence est élevée, plus la mesure est fine.
          Cette mesure est effectuée avec une certaine précision : la quantification : on la donne en nombre de bits.
Un bit a deux valeurs : 1 ou 0 (c’est une valeur binaire) ;
2 bits donnent 4 valeurs : 00, 01, 10, 11
3 bits donnent 8 valeurs : 000, 001, 010, 011, 100, 101, 110, 111
4 bits donnent 16 valeurs, etc… la progression est dite logarithmique
Plus le nombre de bits est élevé, plus la précision de mesure sera grande.
          En convertissant en numérique, on opère un codage de ces mesures en nombres constitués de 1 et de 0 ; les nombres sont «lus» sous forme de courant électrique qui n’a plus alors une forme analogique : lorsqu’il y a un 1, le courant passe, lorsqu’il y a un 0, le courant ne passe pas.
          Une suite de 8 bits est appelée un octet ou byte en anglais (ne pas confondre avec « bit ») – 1 Méga octets = 1 000 000 octets ou 8 000 000 bits (environ)
          Pour avoir un son numérique fidèle à son modèle naturel ou acoustique, on a donc intérêt à avoir une fréquence d’échantillonnage et une quantification élevées : la norme du cd est de 44,1 kHz / 16 bits; plus ces bandes sont serrées (fréquence élevée), moins il y a « d’escalier » (qui donne du bruit), plus la courbe obtenue ressemble à la courbe analogique initiale (lissage), plus le son obtenu est fidèle à l’original


          A l’autre bout de la chaîne, un autre convertisseur traduit le signal électrique de forme numérique en un courant électrique analogique qui va mettre en mouvement la membrane du haut-parleur, ce qui va agiter les particules d’air et redonner des vibrations analogues au son tel qu’il était au moment de l’enregistrement.
          Entre les deux convertisseurs (A/N et N/A), on peut traiter le son : gain, stretching, réverb., égalisation, mixage, …           Beaucoup d’appareils numériques suréchantillonnent en 96kHz ou 192 kHz pour effectuer les opérations de manière plus précises encore.

* digital est le terme anglais équivalent de numérique  en français

Avantages du numérique :

          Outre les facilités de stockage (fichiers, cd, etc. au lieu de bandes magnétiques, disques vinyle fragiles), le numérique permet des traitements du son plus faciles sans détérioration du signal : mixage, effets, égalisation …, car ces traitements sont effectués par des calculs nombreux et simples sur des nombres – le son codé en binaire - (addition, soustraction, multiplication, division) que l’ordinateur accomplit sans problème. Par ailleurs, la dynamique (rapport entre le son le plus faible et le son le plus fort) est augmentée de manière sensible ; les « bruits de surface » dus aux frottements mécaniques des têtes de lecture de bandes sont absents dans l’audionumérique.

L’ÉCHANTILLONNAGE


          L’échantillonnage – ou sampling – a deux sens : d’une part, c’est la conversion analogique / numérique d’un signal ; d’autre part, c’est un procédé utilisé en musique électronique pour reproduire un son comme s’il était produit par un synthétiseur.

1) Échantillonner signifie donc mesurer l’intensité électrique du signal un certain nombre de fois par seconde (la fréquence exprimée en Hz) avec une certaine précision ( la quantification exprimée en bits).
On conseille d’échantillonner à une fréquence double de la plus haute fréquence du son à échantillonner; comme l’oreille ne perçoit pas les fréquences supérieures à 20 kHz, on échantillonne à un peu plus de 2 x 20 kHz, ce qui explique cette norme de 44,1 kHz que l’on trouve sur les cd. Plus la fréquence et la quantification de l’échantillonnage sont élevées, plus le son est de qualité.

2) Par l’échantillonnage on peut reproduire électroniquement un son généré acoustiquement à l’origine ; c’est donc l’équivalent d’un enregistrement : une note isolée de piano échantillonnée reproduit donc a priori ce qu’on peut entendre quand est à côté du piano.

          La situation change dès qu’on veut reproduire plusieurs notes différentes consécutives avec une note samplée. Le même enregistrement est alors lu à des vitesses différentes donnant des hauteurs différentes ; deux problèmes alors se posent : d’une part, plus l’échantillon est lu à une hauteur éloignée de sa hauteur d’origine, plus le son est déformé – c’est le phénomène de l’aliasing ou repli du spectre; d’autre part, dans le jeu acoustique, les phénomènes d’interaction vibratoires (sympathiques) entre les notes sont complexes et la machine ne peut pas les prendre en compte.

          La solution au problème de l’aliasing est de multi échantillonner l’instrument : on échantillonne un do2, un do#2, un ré2, un ré#2, etc… ; ce qui demande beaucoup de mémoire à l’appareil : un instrument de musique comme le piano ou le violon nécessite un ensemble d’une quarantaine d’échantillons indépendants assemblés en un « patch » pour être suffisamment réaliste.

          Une autre solution consiste à stretcher (étirer) le son c’est-à-dire utiliser la compression – expansion temporelle, mais ce procédé qui demande à l’appareil d’opérer des calculs d’extrapolation (par des algorithmes) a des limites du point de vue de la qualité ; pour l’expansion, on étire le son et on extrapole les échantillons manquants (comme si on reprisait les trous d’une chaussette) . Certains programmes calculent de manière indépendante le tempo, la hauteur et ce qu’on appelle le formant, ce qui évite une détérioration du son quand on s’éloigne de la hauteur d’origine.
          Un échantillonneur ne peut pas résoudre le deuxième problème (restitution des interactions), car même dans le cas d’un instrument multi échantillonné, il ne peut pas retrouver les interactions entre des notes d’un accord ou d’une mélodie, les samples n’ayant pas été enregistrés dans ce contexte harmonique et mélodique.
          Les progrès technologiques ainsi que les mémoires de plus en plus « confortables » des appareils ont permis aux synthétiseurs échantillonneurs de reproduire des sons d’instruments de plus en plus réalistes (ex. le procédé de modélisation des instruments).


SON « NATUREL » - SON ENREGISTRÉ - SON « SAMPLÉ »


          Un concert entendu dans une salle et le même concert reproduit sur cd ne donnent pas le même résultat: sur cd on peut habituellement entendre des sons comme certains transitoires qu’on n’entend pas en salle ; la balance peut être différente, la dynamique plus importante sur cd…Le travail du sonorisateur et celui du preneur de son – mixeur n’ont pas la même finalité. La différence est au moins aussi importante entre le son live en studio et le son reporté sur cd, car à la prise de son et au mixage, l’ingénieur du son applique une esthétique qui lui est propre en égalisant les fréquences, en ajoutant telle réverbération,… De plus, beaucoup de musiciens ont un son et même un arrangement différents pour l’enregistrement, ne serait-ce qu’en tenant compte de la grande dynamique possible sur cd : en concert en effet, plus il y a de public, moins il y a de dynamique.
          En ce qui concerne l’échantillonnage proprement dit, on peut aussi sampler d’autres sons que des instruments de musique : un grincement de porte, une goutte d’eau, un riff de cuivres, un mot prononcé … et les reproduire, tels quels ou traités. Dans ce cas, ces sons, sortis de leur contexte, et remis dans un contexte nouveau ont un statut différent : on peut dire avec Pierre Schaeffer qu’ils sont des objets sonores . On pourrait trouver une comparaison dans l’architecture : des planches, des poutres, des lambris, assemblés pour construire une maison n’ont plus rien à voir avec la forme de l’arbre dont ils sont issus ; tout en gardant la texture de la matière – arbre, ils sont devenus des matériaux de construction. De même, les sons samplés deviennent des objets sonores qui deviennent musicaux dans le cadre d’une composition musicale. On peut dire aussi que le grincement, la goutte, le riff, le mot deviennent de nouveaux instruments (attention toutefois aux droits d’auteur !).
          On peut ajouter que l’écoute normale d’un paysage sonore, où notre acuité est la plupart du temps mise en veilleuse, est très différente de l’écoute de ce même paysage sonore enregistré : tout d’un coup, on entend tout ! par exemple, vous vous promenez dans la rue, vous n’entendez que les sons qui vous sont utiles, alors que si vous enregistrez l’ambiance sonore de la rue, vous allez découvrir des claquements, des frottements, des cris,… : les sons changent alors de statut, et prennent celui de pièce sonore à écouter; autre exemple : écouter une musique dans une voiture qui roule et écouter, chez soi, l'enregistrement de cette musique diffusée dans la même voiture est très différent : le bruit du moteur est alors gênant.
Les procédés actuels de traitement et de filtrage des sons (en particulier grâce aux nombreux plug-ins disponibles) permettent d’obtenir des sons très éloignés de leur modèle d’origine ; on peut ainsi faire une sorte de chimie sonore où les « molécules » sonores sont éclatées et recomposées. Dans ce cas, les déformations, les détériorations qui étaient gênantes pour la reproduction d’instruments acquièrent alors une valeur esthétique ; ici, on ne cherche plus le réalisme ou la fidélité, mais un son nouveau qui est complètement déconnecté de son origine.


LA COMPRESSION DE DONNÉES

          Un MO (méga octets) représentent 11 "4 de son stéréo échantillonnés à 44,1kHz ; ce qui est beaucoup moins « lourd » que l’image, mais demande tout de même de la place mémoire. On a donc inventé des systèmes de compression de données : le son est analysé, il est traité par des DSP (=digital signal processor) qui réduisent le nombre de données en tenant compte de l’effet de masque ; ce principe est, en gros, à la base du MP3.


LA PRÉSENCE

          - L’éloignement du sujet donne un son atténué et réverbéré
          - L’intimité implique la proximité et donne un son direct (pas de réverbération)
          - Avec le téléphone ainsi qu’avec la radio, on peut avoir l’intimité en étant éloigné du sujet et avoir un son direct
          - Au mixage, on peut jouer sur les différents paramètres de la présence d’un son
          - Un son ou une musique sont « présents » ; ils se distinguent, se remarquent, donc on les écoute
          - Ou bien le son n’est pas « présent », on l’entend sans l’écouter
          - Certains sons doivent être présents : bip, sonnette, klaxon,…
          - Les musiques à la forte présence comportent des événements, des accidents, des instruments solistes
          - D’autres sons ou musiques doivent s’effacer ou ont un rôle de remplissage (par exemple la musique d’ascenseur qui, à force de ne vouloir choquer personne devient une non-musique, …), elles se caractérisent par de la régularité, des répétitions, une harmonie simple, pas d'accident, etc…

 

II le son musical

 

 

Les processus musicaux


du point de vue des neuro-sciences : le parcours du son


          La musique et le son en général ont besoin de l’air pour transmettre les vibrations (les ondes sonores)
Sur la Lune, il n’y a pas de son car il n’y a pas d’air capable de le transporter; seules des araignées pourraient entendre le bruit d’une météorite tombant sur le sol lunaire, car le sol transmet des vibrations de l’impact et les araignées « entendent » avec leurs pattes (vibrations solidiennes); mais il n’y a pas d’araignées non plus sur la Lune.
          Question insolite et paradoxale : sur Terre, en imaginant que dans une forêt où il n’y a absolument personne, un arbre tombe, est-ce qu’il fait du bruit ? la réponse est non ; il n’y a pas de bruit car il n’y a personne – pas de système auditif – pour l’entendre ; il n’y a qu’un déplacement ondulatoire de l’air, mais pas encore un bruit; ces vibrations, pour devenir du son, doivent être analysées, reconstruites et interprétées par un cerveau et reconnues à l'aide de la mémoire.
          La musique et le son en général ont donc besoin d’être entendus pour être véritablement de la musique et du son ; la musique, en particulier, passe par de nombreuses zones du cerveau : les hauteurs et les intervalles sont reconnus, les consonances et dissonances, l’espace, le rythme, le pouvoir d’émotion aussi ; c’est dans le cerveau de l’auditeur que la musique créée par le musicien redevient musique : elle y est reconstruite; entre les deux (le musicien et l’auditeur) il y a des ondes (phénomène vibratoire) dans lesquelles bruit, parole et musique sont indifférenciés. On pourrait comparer ce phénomène au parcours du son dans un système de prise de son / diffusion : les variations de pression acoustique sont converties par le microphone en signal électrique (analogique), puis en signal numérique et, à la fin du parcours, reconverties en signal analogique, puis en pression acoustique par le haut-parleur.


Pierre Schaeffer dans son studio de l’Atelier de Recherche de la RTF vers 1948


Le rôle du cerveau


          On a souvent dit que le cerveau est un super ordinateur, c’est vrai ; en plus il est évolutif grâce à sa plasticité (il peut apprendre ; il peut aussi se reconstruire); il est aussi doté de ce qu’on appelle la logique floue (il ne fait pas obligatoirement des choix binaires).
          La zone qui s’occupe de la parole se trouve dans l’hémisphère gauche un peu au dessus de la tempe. Ce sont une dizaine de zones, dans les deux hémisphères, qui traitent les informations musicales : cervelet, cortex, hippocampe, amygdales cérébelleuses … C’est pourquoi les personnes qui ont perdu l’usage de la parole ou du vocabulaire restent généralement touchées par la musique. Chaque zone est spécialisée (le cervelet, par exemple, s’occupe du rythme, de la répétition) reconnaissance des hauteurs de notes, du rythme, du genre musical … jusqu’à l’émotion musicale.

hémisphère gauche du cerveau
vue en coupe


             Par sa plasticité* et par ses ressources en mémoires, le cerveau « apprend » à écouter la musique ; plus il traite d’informations musicales (c’est-à-dire plus on écoute de musiques, en particulier des musiques variées et complexes), plus « il en redemande » : plus on écoute de musique, plus on est à l’aise, plus on est excité par la surprise, la dissonance, la complexité des structures.
             Le cerveau analyse et compare les signaux provenant de chaque oreille (le petit retard de l’oreille gauche sur l’oreille droite ou inversement si la source du son est latérale), il est ensuite capable de déterminer la position exacte du son produit dans l’espace ; il analyse aussi la réverbération du son pour déterminer l’éloignement et la localisation de la source sonore (milieu ouvert, hall de gare, chambre à coucher …)
             le philosophe Leibniz disait que jouer ou écouter de la musique, c’est faire des mathématiques sans s’en rendre compte. Le fait est que le cerveau est aussi actif à écouter qu'à jouer de la musique.
             Le processus musical est donc attaché à un travail inconscient : différenciation entre musique, parole et bruit, reconnaissance de la musique (de son style ou de son genre) par la mémoire. Certaines musiques peuvent provoquer chez nous des émotions fortes car, inconsciemment, nous faisons des liens avec des situations vécues.
             Tout cela induit le pouvoir extraordinaire de la musique : ses effets psychologiques opèrent au niveau de l’inconscient, sans que nous puissions les maîtriser, sans même souvent que nous nous en rendions compte.
La musicothérapie utilise cette capacité de la musique à restaurer certaines fonctions cérébrales : les malades atteints d'Alzheimer retrouvent (pour un temps) une partie de leur mémoire, ceux qui souffrent de Parkinson retrouvent la fluidité de leurs gestes, les autistes sortent de leur enfermement...
             La musique dans un film utilise largement ce phénomène, en abuse parfois (?). Souvent, une séquence de cinéma privée de musique paraît neutre; c’est la musique qui va imprégner les images de sentiments (nostalgie, angoisse, espoir, joie, dégoût,…) et leur donner un sens.
             Par exemple, dans « Psychose » d’Hitchcock, la séquence de la fuite en voiture de l’héroïne est dramatique grâce à la musique de Bernard Herrmann – sans musique, on peut penser qu’elle va faire ses courses.

* plasticité = capacité du cerveau à se régénérer, à réorganiser ses réseaux et ses connexions de neurones


LE SILENCE

Le silence, d’un point de vue acoustique est une absence de son, de signal
ou bien l’absence de musique (dans un film par exemple)
ou encore le bruit ambiant ("bruit de fond") seul, dont le niveau est un seuil d’audibilité pour les sons ponctuels : si votre appartement a un bruit de fond de 30dB, vous ne pourrez pas entendre les sons inférieurs à 30dB
             D’un point de vue psycho acoustique, on pourrait dire que le silence est une absence d’événements sonores, c’est pourtant souvent un événement en lui-même.
             On se rend compte du silence quand certains bruits ténus sont entendus : la nuit, le silence permet d’entendre les craquements de parquet, et ces mêmes craquements nous font prendre conscience du silence.
             Le silence absolu est impossible, car on peut toujours entendre un bruit de fond (frigo, ventilateur, rumeur de ville…), si le bruit de fond est anormalement bas, le corps prend alors le relais et on entend son cœur, des acouphènes (sons générés par l’oreille elle-même). Enfin, dans une chambre anéchoïde ou chambre sourde, l'effet est saisissant - on ne peut pas se passer de son très longtemps !
             Le silence est aussi la marque du recueillement, de la méditation, du respect et de l'attention (Silence! dit le prof.)
"Lorsqu'on vient d'entendre un morceau de Mozart, le silence qui lui succède est encore de lui" (Sacha Guitry)
Le silence peut être pesant :
Par exemple dans un supermarché sans musique « de fond »,
dans un film, une séquence qui devrait par convention être mise en musique et qui n’a qu’une ambiance sonore ou pas de son : c’est alors un choix qui crée un signal (un événement va arriver, le calme avant la tempête) et peut même donner un sentiment d’angoisse.
             En société, lorsque les conversations s’arrêtent, on dit qu’un « ange passe » pour casser le malaise qui s’installe vite : dans le silence, on entend mieux tous les bruits aussi bien extérieurs que ceux que produit le corps – dans « les Temps Modernes », une séquence montre la femme du pasteur en visite dans la prison où se trouve Charlot ; après avoir bu une tasse de thé, son ventre gargouille, un bruit qu’il essaie de masquer, car c’est un bruit gênant ; dans ce film, les bruits qu’on entend sont importants puisqu’ils sont rares.
Le bruit du tic-tac d’une horloge comtoise dans une pièce vide et silencieuse ;
Le bruit d’une mouche qui vole, s’arrête, puis repart (si on l’entend, c’est qu’il y a le silence). Ces bruits mettent en valeur la pesanteur du silence.


LA DYNAMIQUE

Écart entre le son le plus faible et le son le plus fort – c’est aussi la variation d’intensité au cours de l’exécution d’un son ou d’une musique.
             Certaines musiques ont très peu de dynamique : musique ancienne, musique tzigane, des Andes,…Les musiques classique, romantique, contemporaine occidentales jouent beaucoup sur la dynamique.
             Le pianoforte, l’ancêtre du piano, est un instrument qui permettait d’avoir de la dynamique dans son jeu : de jouer tour à tour piano et forte.
             Dans un enregistrement on peut diminuer la dynamique en compressant le son et éventuellement en augmentant le gain, c’est-à-dire qu’on réduit l’écart entre les sons les plus faibles et les sons les plus forts , puis on augmente le niveau de l’ensemble.
             Sur scène, la musique d’un groupe de rock a généralement beaucoup moins de dynamique que sur un cd; plus il y a de public, moins il y a de dynamique.
             À la télévision ou à la radio, les publicités paraissent d’un niveau plus élevé que les autres émissions, car le son est compressé donc la moyenne d’intensité est plus élevée . Certaines radios comme les radios privées FM ont un son toujours compressé, alors que d’autres comme France Culture sont très peu compressées : il y a alors une grande plage dynamique.
            Sur un synthétiseur le réglage de la vélocité permet de jouer sur la dynamique.


LA SPATIALISATION – LA STÉRÉO

            Notre système auditif en stéréo nous permet de repérer les différentes directions (gauche, centre, droite) et les différents plans (avant, arrière) des sons que nous percevons. En forêt, au printemps, on peut entendre une multitude de plans sonores, en plus d’une qualité de réverbération naturelle.
           Du fait de la plus grande directivité des fréquences aiguës, la stéréo est plus précise dans les aigus que dans les graves.
           Notre cerveau est capable de localiser une source dans l’espace en « calculant » le retard d’un son direct dans une oreille par rapport à l’autre oreille (un son venant de droite arrive plus tôt à l’oreille droite qu’à l’oreille gauche) ; les chauve souris, se dirigent ainsi : grâce à la réflexion des ultra sons qu’elles émettent ; elles analysent avec une extrême précision la position des obstacles qui réfléchissent ces ultra sons.
           Quant à nous, nos oreilles localisent les sources sonores de façon beaucoup moins précise (au mieux avec un angle de 7°) que les yeux : on a certainement plus de mal à traverser les rues quand on est aveugle que quand on est sourd !
Le son holophonique, ou binaural, inventé par Hugo Zuccarelli, est enregistré par des micros installés sur une tête de mannequin et reproduit la source avec une précision spatiale étonnante – à écouter au casque obligatoirement – voir l’article wikipedia sur l’holophonie, en particulier la séance chez le coiffeur : « haircut ».
           Lorsque l’image d’un objet et le son que cet objet génère sont physiquement séparés dans l’espace, il se produit un effet d’aimantation : notre cerveau replace le son sur l’image ; au cinéma, le haut-parleur peut ne pas être derrière l’écran, on entend toujours le personnage parler comme si le son sortait de sa bouche.
           Les films récents ont généralement une bande son spatialisée avec beaucoup de précision.
           L’acousmonium – ou orchestre de hauts parleurs – mis au point par les musiciens électro acoustiques permet de diffuser la musique depuis de multiples points avec la possibilité de déplacer les sons grâce à une console de diffusion particulière; les hauts parleurs – chacun étant spécialisé dans la restitution de telle ou telle fréquence - sont disposés de manière à entourer, englober le public.


CONSONANCES ET DISSONANCES


           La notion de consonance / dissonance est tout d’abord d’ordre culturel : ce qui paraissait dissonant à un auditeur du XVIII° siècle ne choque plus aujourd’hui (le « diabolus in musica », le triton ou intervalle de trois tons entiers était interdit en musique).
           Cependant, on admet toujours que les intervalles consonants sont l’octave, la quinte, la sixte et la tierce. Les intervalles dissonants sont la seconde, la septième majeure et les intervalles augmentés et diminués. On peut remarquer que les intervalles consonants sont constitués par les rapports de fréquences les plus simples et découverts il y a longtemps (Pythagore) – voir le § musique et mathématiques
           Dans une mélodie les dissonances forment des sortes de nœuds (tension) qui seront dénoués par des consonances (détente)


LE JUSTE ET LE FAUX

du point de vue des fréquences, des hauteurs :
En musique, une note fausse peut être physiquement très proche de la note juste , elle peut pourtant « écorcher les oreilles » (instruments pas très bien accordés ou instruments non tempérés comme le violon. Cette exigence vient des extraordinaires performances du cerveau qui perçoit des différences de fréquences très ténues.
On peut noter toutefois que certaines personnes ont du mal à discerner les hauteurs précises (ceux qui « chantent faux » ou qui n’arrivent pas à accorder leur instrument) ; il serait sans doute plus juste de dire que ces personnes perçoivent le faux, mais sont incapables de reproduire le juste. Il semble pourtant possible d’éduquer ou rééduquer l’oreille (voir la méthode de Tomatis)
Quand on chante dans sa tête, on chante toujours juste !
du point de vue musical :
une fausse note vient du non respect de la partition ou de l'harmonie du morceau; pourtant dans une improvisation il n'y a pas de fausse note, puisque toutes les notes qu'on joue sont voulues et peuvent se justifier dans le contexte.
dissonances et micro-intervalles : un auditeur du XVIII°siècle supportait mal certaines dissonances et en avait une impression de faux ; on est certainement plus tolérant aujourd’hui vis-à-vis des dissonances, parce que plus accoutumés.
Certaines musiques – en particulier orientales ou indiennes – utilisant des micro-intervalles (le ton divisé en plus que 2) peuvent paraître fausses et même provoquer un certain malaise ; le 1/3 de ton – même s’il est exact – paraît plus faux que le 1/4 de ton, car avec le 1/4 de ton on peut retrouver notre 1/2 ton tempéré (division par 2).

LA FIDÉLITÉ

Dans une salle de concert, quelle est la meilleure place pour avoir « le meilleur son » ? Quel est le meilleur endroit pour mettre ses enceintes dans son salon ? Quelle est la meilleure place par rapport à ces mêmes enceintes pour écouter un cd ? Ces questions se posent apparemment dans un souci de fidélité : on cherche ainsi à avoir le moins d’intermédiaires possibles avec la musique ; dans les salles de type « théâtre à l’italienne », on a toujours ce qu’on appelait la place du prince (aujourd’hui, c’est la place réservée à Mr le Maire qui – bien sûr – s’est fait excuser) : les qualités acoustiques de la salle convergent vers un endroit relativement précis. De même, chez soi, on cherche à établir un triangle équilatéral imaginaire entre l’auditeur et les deux enceintes de la stéréo. Ce sont des problèmes liés à la sonorisation. Pour la prise de son et sa reproduction, on évacue ce problème de « place du prince », mais on a un « point de vue ».
La fidélité - la Haute Fidélité - sont en fait une vue de l’esprit ou un argument publicitaire ; car en enregistrant un son, une ambiance ou une musique, on fait les choix de privilégier certains aspects du son ; on peut même dire que la plupart du temps, les appareils, eux-mêmes, font les choix pour nous, parce qu’ils ne sont jamais « transparents » : on n’entend pas la même chose lorsqu’on écoute un concert de piano dans une salle et lorsqu’on l’écoute chez soi sur disque.
De même, on ne peut pas vraiment dire que l’interprétation actuelle de la musique baroque soit plus fidèle que l’interprétation d’il y a cinquante ans, elle correspond à notre manière d’écouter d’aujourd’hui. C’est en quelque sorte une question de mode.
La déconnexion du son d’avec sa réalité acoustique peut être un choix esthétique.
dans le film « In the Mood for Love », une chanson chinoise des années cinquante est diffusée avec un défaut de pleurage (un défaut caractéristique de platines pour disques vinyle), car ce défaut fait partie d'un contexte où se situe le film.

LA PURETÉ


- le son pur
           un son pur est une sinusoïde qui n’a qu’une composante : une fondamentale sans harmonique ; c’est un son «clinique», en quelque sorte « anti musical ».

- le son musical pur
           on recherche la « pureté » du son dans la lutherie occidentale; le violon en est un exemple et, depuis le début du XVIII° siècle, c'est un instrument qui n'a pas évolué, car on considère qu'il a atteint un degré de perfection; ce qu’on appelle les transitoires (bruits de mécaniques, etc. …) sont peu mises en avant.
          Alors que dans d’autres cultures notamment en Afrique, on cherche à enrichir les sons par des artifices comme les timbres : le kalimba a des petits anneaux qui grésillent autour des languettes métalliques et "enrichissent" le son ; là, les transitoires sont une composante importante de la qualité recherchée du son.
          Les premiers instruments électroniques - les Ondes Martenot par exemple - génèrent des sons pratiquement purs, car ils sont simples.

- Musique pure / musique à programme
         a) Une musique pure est une musique abstraite, qui ne raconte rien, ce qui ne veut pas dire qu’elle ne dise rien ou ne provoque pas de sentiments - un quatuor de Beethoven ou un chorus de John Coltrane peuvent nous bouleverser –
J.S.Bach est sans doute le modèle du genre : sa musique est avant tout une construction mentale; l’Art de la Fugue n’a pas été écrit pour un instrument précis, la lecture de la partition peut procurer une émotion.
          b) Une musique à programme est une musique qui raconte une histoire et provoque des sentiments en personnifiant les instruments– exemple : « Pierre et le Loup » de Serge Prokofiev ou « l’Apprenti Sorcier » de Paul Dukas. On peut dire qu'en général la musique de film est une musique à programme.


BOUCLES ET RÉPÉTITIONS

          Boucle et répétition sont deux procédés différents : une musique répétitive est une musique dont certains éléments ou motifs se répètent, tandis que, dans le même temps, d’autres éléments évoluent. Des compositeurs comme Steve Reich ou Philip Glass font partie du mouvement de musique répétitive américaine ; souvent des séquences de longueurs différentes se superposent, ce qui crée des cycles de longueurs variées et éloigne la sensation de répétition pure au profit d’une évolution minime mais continuelle.
          Certains compositeurs ont écrit des musiques fondées sur la boucle : Erik Satie, par exemple, dans « Vexations» où une séquence de quelques mesures écrites pour piano doit se répéter 840 fois !(la création de l’œuvre eut lieu en 1963 à l'initiative de John Cage, près de 40 ans après la mort de Satie)
          En dehors du procédé de composition, la boucle est utilisée dans deux domaines :
          Une boucle permet de disposer d'une durée très grande pour un minimum de données : les musiques d’attente de téléphone sont en fait des boucles de 30 " ou 1' mais peuvent durer des heures ; on essaie simplement de faire coïncider harmoniquement, mélodiquement et rythmiquement la fin de la boucle avec son début pour être « raccord ». Une bonne musique d’attente sera celle qui provoque la lassitude le plus tard possible ; en effet, une boucle d’1' de la plus belle musique possible deviendra pénible si on l’entend pendant 15' (on en sait quelque chose lorsqu’on téléphone à certains services administratifs).
          Le bouclage (looping) est aussi une fonction essentielle de l’échantillonneur qui consiste en une façon de lire l’échantillon : à un certain point de la lecture, l’appareil relit l’échantillon à partir d’un autre point. La détermination de ces points est très précise et parfois délicate : il s’agit de faire coïncider la fin de la boucle avec son début sans avoir de « clic ». Selon les modèles et les programmes, on trouve différentes boucles possibles : forward > à la fin de la boucle, on revient au début ; alternate > à la fin de la boucle, on relit l’échantillon à l’envers jusqu’au point de début où une nouvelle lecture à l’endroit commence, etc.
          Le bouclage permet de jouer des notes tenues de manière illimitée dans le temps avec un échantillon dont la durée est forcément limitée. La partie bouclée de l’échantillon doit être strictement stable en hauteur, ce qui est rarement le cas pour les instruments acoustiques ; toutefois, on peut profiter parfois d’une légère modulation de hauteur dans le son pour imiter le vibrato naturel : dans ce cas, on utilise en général le bouclage alternate.
          En ce qui concerne le bouclage de sons non périodiques, on peut dire que plus la boucle est courte, plus elle se fait sentir : dans l’évolution temporel d’un son, il y a toujours de petits événements qui sont d’autant plus perçus qu’ils reviennent souvent ; ex. un bruit de pluie qui doit couvrir une minute à partir d’un échantillon de 5 “ fera entendre 12 fois un « plic » un tout petit peu plus fort que l’ensemble.
          Pour remédier à ce problème, on peut d’une part allonger l’échantillon, on peut aussi jouer plusieurs « notes », ce qui donnera des cycles de longueurs différentes et gommera en partie l’effet de répétition.
          Lorsqu’un son « discret » - c’est-à-dire formé d’éléments discontinus – est répété par bouclage pendant un certain temps et que cette boucle est courte, il se produit assez rapidement un phénomène d’illusion acoustique : on n’entend plus le son, ou le fragment de son d’origine, mais autre chose : la perception se focalise sur un élément et cela donne un motif rythmique qui est déconnecté du son de départ. C'est un procédé utilisé par Steve Reich dans sa pièce "City Life"

exemple sonore : la toux d'un (vrai) fumeur bouclé à un moment donné - le son change de statut, on entend autre chose


SYNCOPE , RUBATO ET QUANTISATION

          Le rythme et la mesure forment un élément essentiel de la musique et, dans une certaine mesure, du monde sonore en général – surtout depuis l’avènement des machines. On détecte une anomalie dans le fonctionnement d’un moteur par une irrégularité ou un accident dans le bruit qu’il génère. En musique la référence de régularité est donnée par la mesure : le cycle des temps (forts et faibles) et des contretemps.
          Une syncope est une sorte d’accident dans le déroulement du rythme : elle consiste à prolonger sur un temps faible une note commencée sur un temps fort (on peut dire aussi qu’elle anticipe sur un temps faible la note qui devrait être jouée sur le temps fort); en 4/4, les temps forts sont le 1° et le 3° temps, les 2° et 4° sont des temps faibles ; une syncope sera donc par exemple noire – blanche – noire. On peut remarquer que certaines musiques utilisent très souvent la syncope comme le jazz, ce qui lui donne ce balancement caractéristique; d'autres musiques l'utilisent moins (classique ou électronique).
          Le phrasé instrumental de certaines musiques utilisent de mini syncopes, on dit alors qu’on “ joue en avant de la note“; c’est le cas par exemple de la bossa nova (qui utilise aussi la syncope et le phrasé rubato).
Le jeu rubato est une manière de jouer autour des temps : parfois avant, parfois après ; on se dégage alors de la mesure et la mélodie semble flotter ; c’est le cas de certaines chansons françaises, ou de certains solistes de jazz dans leur chorus. Le triolet, lorsqu’il intervient au milieu d’une succession de croches est une cellule rubato qui contraste avec la régularité de la mélodie.
          La quantisation est une fonction proposée par les programmes de M.A.O. et qui permet de remettre exactement à leur place des notes qui ont été jouées involontairement rubato ; on doit préciser alors l’échelle de quantisation : si c’est à la noire, toutes les notes seront jouées sur un temps et jamais sur un contretemps, si c’est à la croche, toutes les notes seront jouées soit sur le temps, soit sur le contretemps. On peut remarquer que plus le tempo est lent, plus la quantisation se fait sentir (avec un tempo de 180, une note jouée sur un temps est très proche d’une note jouée sur la double croche suivante). La musique électronique nous a habitués à ce que la musique soit quantisée, mais dans certains cas, la quantisation rend la musique trop automatique et froide ; ce n’est pas humain de jouer avec une précision que seules les machines sont capables d’avoir. Les programmes de M.A.O. proposent même de régler votre quantisation personnelle qui revient à une manière de jouer - le groove.


Questions de tempo :
          Dans le temps - c’est-à-dire avant l’apparition des ordinateurs – le tempo choisi et indiqué par le compositeur était beaucoup moins précis : on qualifiait le tempo par des mots italiens comme allegro, andante , largo,… ce qui donnait une approximation de tempo : allegro = autour de 120 ; andante = autour de 60 ; largo = autour de 54, etc…. Maintenant, on indique le tempo numériquement, et l’ordinateur peut avoir une précision du 1000° de battement à la minute.
          Lorsqu’on compose sur instrument électronique, on a tendance à choisir un tempo assez élevé pour qu’elle « sonne »; quand cette même musique est ensuite interprétée par des instruments acoustiques, le tempo est généralement ralenti : du fait de leur expressivité plus grande que les synthés joués par séquenceurs, les instruments acoustiques maintiennent la tonicité de la musique sans avoir à garder un tempo aussi rapide ; ajoutons que le séquenceur peut « jouer » ce qui, techniquement est impossible pour un instrumentiste (dépassement de la tessiture, accord de 7 notes à la guitare, arpèges accélérés,…) - écouter les études pour piano mécanique de Conlon Nancarrow (1912 / 1997).


DIATONISME – CHROMATISME

          Dans un système tonal, par l’armure ou armature (les altérations à la clef), on définit l’ensemble des notes qui seront considérées comme « normales » : en do majeur, toutes les notes seront normalement naturelles ; les notes sortant de ce cadre établi sont considérées comme accidentelles - ex. en do majeur, un fa# est accidentel, mais ne l’est pas en Sol majeur.
          Un instrument diatonique ne peut jouer que dans une tonalité – il peut être accordé en do majeur (toutes les notes naturelles – les touches blanches du piano) ou en Fa (notes naturelles sauf le si bémol) etc. ; parmi les instruments diatoniques, on trouve certains accordéons, certaines flûtes, etc.
Un instrument chromatique, lui, peut jouer dans toutes tonalités, car il peut jouer toutes les notes, qu’elles soient altérées ou non ; c’est le cas de la plupart des instruments.
          Certaines musiques respectent totalement l’échelle choisie : elles sont diatoniques et ont une harmonie simple. D’autres musiques sont chromatiques - ou plutôt présentent des passages chromatiques ; ce qui veut dire qu’on trouve des notes accidentelles plus souvent; leur harmonie est plus complexe.
          Le dodécaphonisme (dodeca veut dire 12 en grec) développé par Arnold Schoenberg et « l’Ecole de Vienne » consiste à considérer les 12 demis tons de l’octave comme représentant 12 degrés d’égale importance ; ce qui fait que, statistiquement, on a autant de chance d’avoir un Fa# qu’un Fa naturel ; il n’y a donc plus d’accident. L’harmonie est alors encore plus complexe.

 


Erik Satie (1866 – 1925)
John Cage (1912 – 1992)

 

 

        * phénomène vient du grec et signifie à l'origine "ce qui apparaît"

        Quand on parle de musique, sait-on toujours de quoi on parle ?

        Ce qui est musique pour les uns ne l’est pas forcément pour d’autres (voir au début le chapitre sur les différences entre bruit parole et musique) ; les émotions et les effets physiques générés par telle musique sur telle personne seront différents sur telle autre personne ; autrement dit, la musique n’agit pas de la même façon sur tous les individus.

        propagande politique : on utilise alors une forme d'effet Koulechov lorsque la musique fait "lire" les images de façon biaisée et         même torture : par un volume sonore trop élevé et une insistance et une durée monstrueuse; même les chansons les plus         anodines peuvent être insupportables et faire craquer un détenu dans un interrogatoire

        voir le film de Chris Marker : "Lettre de Sibérie" (la propagande politique dans le commentaire et la musique)

        voir le film documentaire : "la Musique comme instrument de torture" de Tristan Chytroschek

       TRAITEMENT ACOUSTIQUE EN ARCHITECTURE

                 L’isolation phonique des bâtiments est de plus en plus prise en compte par les architectes ; un bâtiment en béton générera        beaucoup de réflexion des sons, donc de réverbération, ce qui est gênant pour l’intimité. Pour « amortir » les sons, on dispose        des sortes de pièges à sons – de petites cavités où le son se perd -, qui vont empêcher la réflexion ; les matériaux textiles (tissus,        moquettes) « piègent » assez facilement les fréquences aiguës ; les fréquences graves sont plus difficiles à éliminer : votre voisin        écoute trop fort à votre goût, c’est surtout les basses que vous entendez.
                  On essaie aussi d’éviter les « ponts phoniques » en empêchant que les vibrations solidiennes se propagent à travers tous        les matériaux d’un même bâtiment.

le téléharmonium (dynamophone?)
de Thaddeus Cahill en 1897

 

                 Dans "la Nouvelle Atlantide", une oeuvre de 1622 du philosophe et homme d'état anglais Francis Bacon (1561 - 1626), on peut lire :
« Dans d’autres édifices, nous faisons toutes les expériences relatives aux sons et à leur génération. Nous avons plusieurs genres d’harmonies et de mélodies qui vous sont inconnus. Par exemple, nous en avons qui marchent par quart de ton et par intervalles plus petits ; ainsi que différentes sortes d’instruments de musique que vous n’avez pas non plus et qui rendent les sons beaucoup plus doux que les vôtres ; enfin des cloches, des sonnettes et des timbres dont les sons flattent extrêmement l’oreille. Nous produisons à volonté des sons aigus et faibles, ou graves et volumineux. En un mot, nous les atténuons ou nous les grossissons à notre gré. Nous savons modifier des sons naturellement purs et coulants de manière qu’ils paraissent comme tremblotants. Nous produisons à volonté des sons articulés et toutes les lettres de l’alphabet, soit les consonnes, soit les voyelles, que nous imitons, ainsi que les différentes espèces de voix et de chants des animaux terrestres et des oiseaux.
« Nous avons aussi des instruments pour suppléer à la faiblesse de l’ouïe et pour en étendre la portée ; instruments à l’aide desquels on peut entendre les sons les plus faibles venant des objets voisins et ceux qui sont affaiblis par le trop grand éloignement du corps sonore. Nous avons de plus des échos artificiels et très curieux ; les uns, produits par des obstacles, qui semblent s’envoyer et se renvoyer la voix comme une balle, font entendre le même son un grand nombre de fois ; les uns le renforçant, et d’autres l’affaiblissant ; d’autres encore le rendent plus clair et plus perçant ; d’autres enfin le rendent plus sourd ou plus creux, plus profond. Nous savons aussi porter les sons les plus faibles à de très grandes distances à l’aide de tuyaux ou de concavités qui les renforcent, instruments et cavités qui sont de différentes formes, et les uns en ligne droite, les autres en ligne brisée ; d’autres encore composés de sinuosités » Francis BACON : « la Nouvelle Atlantide »
(cité par Murray Schafer)
               Dans le domaine de la musique électronique, certaines inventions ont marqué le XX° siècle, parmi elles :
Les Ondes Martenot, un instrument à oscillateurs pourvu d’un clavier et d’un ruban, inventé par Maurice Martenot en 1918 qui pouvait exprimer « la voix des anges », il a intéressé certains compositeurs comme Olivier Messiaen et André Jolivet qui ont écrit pour cet instrument. Les sons qu’il produit sont proches d’une sinusoïde, proches aussi de la scie musicale.
Le Theremine est un instrument sans clavier qui a des points communs avec les Ondes Martenot. Il a été inventé par Léon Theremin, ingénieur soviétique, en 1919. Il a la particularité d’être joué par une gestuelle autour de deux antennes, l’une dédiée à la hauteur des notes, l’autre à l’intensité. Cet instrument a intrigué beaucoup de monde et a intéressé des groupes de rock progressif qui l’utilisent parfois. Il est toujours commercialisé.
                les progrès technologiques réels, grâce en particulier à l’essor de l’informatique, nous offrent aujourd’hui des instruments de plus en plus transparents, c’est-à-dire qu’ils font de moins en moins obstacle entre la pensée musicale et l’œuvre. Ceci dit, il y a encore beaucoup de chemin à faire !…
                Lorsqu’on travaille avec un sampler, un échantillonneur, on a la possibilité de créer une infinité d’instruments virtuels (bruits de porte, chants d’oiseaux, gouttes d’eau, …) et d’en jouer comme si c’était un piano.
Parmi les synthétiseurs qui ont fait date, on peut citer le Synclavier (1975), le Fairlight (1979), le DX7 Yamaha (1982), les synthétiseurs Korg, Roland, etc., et, en France, les recherches et développements en informatique musicale de l'INA-GRM et de l'IRCAM.
               Ajoutons le piano préparé (une idée géniale de John Cage vers 1948) : un piano acoustique dans lequel on insère entre les cordes des objets tels que pinces à linge, balles de ping-pong, gommes,… ce qui transforme totalement le son du piano.
Une visite au Musée des Instruments à la Cité de la Musique à Paris est passionnant !


IV musique et son du film

"La musique de film ? c'est du papier peint" a dit Igor Stravinsky, jugement sans doute un peu vexant pour des compositeurs comme Serguei Prokofiev et pour tous les compositeurs de film; mais il y a du juste : la musique sert de décor au film sans que son exigence de créativité et d'expressivité soit moindre.

MISE EN MUSIQUE


              La musique et le bruitage font partie de la post-production.
              La mise en musique d'un film peut donner lieu à la composition d'une musique originale ou à l'utilisation de musiques préexistantes (voir les films de Stanley Kubrick : 2001 Odyssée de l'Espace par exemple); à la télévision ou dans les films institutionnels, on parle alors d'illustration sonore; souvent, des disques particuliers sont utilisés : les disques de stock (Koka Media par exemple), on ne les trouve pas dans le commerce, ils sont envoyés gratuitement aux professionnels - on les appelle aussi de façon péjorative "musiques au mètre"; le choix de ces musiques sur disques est fait par un illustrateur sonore.
              Au cinéma, la tendance fait qu’on utilise beaucoup de chansons existantes, en particulier sur les génériques, ce qui ponctionne le budget alloué à la composition originale, car les droits des musiques existantes peuvent être très élevés. A la télévision, les droits venant des disques de stock sont, quant à eux, moins élevés (DRM et DEP)
Au théâtre et dans le domaine de la chorégraphie, la bande sonore ou musicale provient aussi d’une commande de musique originale ou d’utilisation de musiques préexistantes, elle est généralement diffusée en stéréo, mais on peut avoir aussi des dispositifs ponctuels qui diffusent un son d’un endroit particulier et il arrive souvent que des musiciens jouent sur scène la musique de la pièce.

types de films et formats


- les types de films sont nombreux :
fictions, documentaires, films d'animation, films institutionnels, pédagogiques, scientifiques, films d'artiste, reportages, habillage, ...
° les films d'animation peuvent être des dessins animés (cellulo, infographie, 3D), pâte à modeler (clay art), peinture sur verre, en volume, pixillation, ... et doivent être bruités et mis en musique.
° les films institutionnels ne sont pas broadcast (pas prévus pour une diffusion cinéma ou télévision) ils sont commandés par des institutions et organismes.
° l'habillage concerne ce qui est récurrent à la télévision, (chaque chaîne a une charte graphique et sonore, l'image et le son sont normés) : génériques, billboards, bandes-annonces, interludes, spots, ...
- les formats au cinéma :
longs-métrages : 1h30 à 3h environ;
courts métrages : 5' à 20';
moyens métrages (assez rares) : 20' à 60'
- à la télévision :
traditionnellement 13', 26', 52', 90' : les formats 13, 26 et 52 sont dus à la publicité : 8' par heure; (60' - 8' = 52'; 30' - 4' = 26'; 15' - 2' = 13') et bien-sûr les très courts 1' à 3' (short)

budgets


on parle habituellement de 1% à 1,5% du budget global consacré à la musique pour une composition originale. Par souci d'économie, les musiques symphoniques sont souvent enregistrées par des musiciens et dans des studios de pays de l'Est (une bande originale enregistrée avec un orchestre de l'Est a un budget de 50 000 à
130 000 €; avec un orchestre français : 104 000 à 211 000 €).
Bien-sûr, les budgets et cachets varient énormément selon l'importance du film, la notoriété du compositeur, la santé de la production ...
En France, le compositeur est propriétaire de sa musique et cède les droits d'utilisation, il touche un cachet de commande et des droits d'auteurs lors de la diffusion. La SACEM rétribue les auteurs en fonction du type de musique (symphonique, vivante,...), du type de produit (film, pub,...), du coefficient qu'elle applique (chaîne, horaire de diffusion) et éventuellement d'un tarif dégressif lorsqu'il y a de nombreuses rediffusions.

proportion de musique

Le cinéma américain a toujours mis beaucoup de musique dans ses films, (1/3 de la durée totale du film) souvent au détriment du bruitage, contrairement au cinéma européen, en particulier français, où la musique couvre souvent une durée minime et les ambiances sonores sont très présentes


conscient et inconscient


On ne va pas au cinéma pour écouter le film, car le son et la musique s’adressent directement à l’inconscient et le « message » sonore et musical passe sans qu’on s’en aperçoive la plupart du temps; ce qui confère à la musique de film un pouvoir énorme : on peut manipuler facilement le spectateur par la bande sonore en "colorant" une séquence avec des sentiments induits par la musique. La musique est d'ailleurs un outil efficace dans les films de propagande.
La musique dans un film utilise largement son pouvoir sur l’inconscient, en abuse parfois (?). Une séquence de cinéma privée de musique peut paraître neutre; c’est la musique qui va imprégner les images de sentiments (nostalgie, angoisse, espoir, joie, dégoût …) et leur donner un sens. Par exemple, dans « Psychose » d’Hitchcock, la séquence de la fuite en voiture de l’héroïne est dramatisée grâce à la musique de Bernard Herrmann – sans musique, on peut penser qu’elle va faire ses courses.

efficacité

l’efficacité de la musique dans un film passe par sa fusion dans le film. Le compositeur ne doit pas se mettre en avant au risque de créer une distance entre le film et le spectateur; il doit servir le film. Les partitions les plus complexes – en particulier harmoniquement - sont loin d’être les plus efficaces : quelques notes peuvent créer un climat suggestif – les exemples de musiques « économes » sont nombreux.
Il faut, par ailleurs, bien connaître les conventions qui se sont établies au fil de l’histoire du cinéma ; avoir une grande culture musicale (époques, genres, …), jouer avec les connotations qui se font toutes seules dans l’inconscient des spectateurs.
La cerise sur le gâteau et qui fait la différence c’est le style et la personnalité du compositeur, sa créativité, parfois ses innovations, les risques qu’il prend (réécouter Ennio Morricone dans « Enquête sur un Citoyen au-dessus de tout Soupçon » par exemple)


LE CHOIX DES SÉQUENCES MISES EN MUSIQUE

Ce choix se fait habituellement en concertation avec le réalisateur.
Dans la production d'un film cinéma, la musique est montée par un monteur musique, le son par un monteur son, toujours sous la directive du réalisateur.
Dans de nombreuses petites productions, le compositeur travaille sur le film monté, mais le résultat est bien meilleur quand il compose ses thèmes avant le montage et qu'il les adapte à la fin du montage.

- Généralement, on met en musique le générique début et le générique fin ;
- lorsqu’il y a un changement de lieu ou de temps dans la narration ;
1° exemple : deux personnage se quittent > musique > on retrouve l’un des personnages dans un autre lieu.
2° exemple : lors d’un flashback : un personnage revit son passé …
- dans le cinéma américain, les dialogues sont souvent mis en musique, pas dans le cinéma français.
- lorsque la caméra s’éloigne et passe par un travelling arrière d’un personnage à la foule dans laquelle il se trouve
- pour installer une atmosphère (joie, angoisse, sérénité,…)
- pour marquer un changement de rythme (attente, puis poursuite…)
- pour appuyer un effet visuel ou un mouvement (risque de redondance)
- la musique peut servir de « bouche-trou », comme rustine pour un défaut de son, ou pour des films créés en animation (la musique pallie alors l’absence de sons).
La composition d’un élément très court (une pub par exemple) est souvent compliquée, car elle demande plus de concision dans l’exposition du thème et plus de précision dans sa structure. – pour un élément de 15”, on compte souvent en nombre d’images : 15” x 25 i./seconde = 375 images

THÈME, VARIATIONS ET DÉCLINAISONS


En général, on a un thème principal - le thème du film - et des variations de ce thème en fonction des différentes séquences ; le thème est développé en particulier dans les génériques de début et de fin. On peut rapprocher la musique de générique de l’Ouverture d’un opéra où on entend les différents thèmes qui seront utilisés par la suite ; ces thèmes ne prennent du sens que lorsque les situations seront montrées (écouter par exemple « la Force du Destin » de Giuseppe Verdi).
Les variations, qui évoquent sous des formes variées le thème principal, peuvent être des orchestrations différentes : réductions du thème pour un seul instrument, pour un quatuor, etc… Ces variations utilisent parfois des climats, rythmes, tempo, modalités, tonalités différentes (le thème orchestré pour une poursuite par exemple). Parfois les variations nous font changer d’époque (romantisme / baroque …) ou de lieu (Californie / Bengale …) ; pour cela, le compositeur doit bien connaître les traits marquants de ces époques et de ces cultures.
Les variations peuvent aussi ne comporter que des traces du thème, en une évocation lointaine (dans « Microcosmos » le thème principal de Bruno Coulais est chanté par une petite fille ; ce thème revient souvent dans le film sous des formes minimales : les premières notes de la mélodie a-tempo …)
Les déclinaisons consistent à réaliser des éléments de durées différentes : le thème en 1’30, 30”, 10”, etc… ; c’est un travail fréquent pour un habillage de télévision.

DIÉGÈSE


En audiovisuel, on dit qu’un son, une musique sont diégétiques lorsque ce son, cette musique font partie du cadre ou, au moins, de la narration. Une musique de film (génériques de début et de fin par exemple) est non-diégétique, alors qu’une musique « sortant » d’un poste de radio visible, au moins par moment, dans le cadre est diégétique.
Diégétique ne veut pas dire réaliste : les bruits – gags dans les films de Jacques Tati sont diégétiques, même s’ils sont inventés : ils sont censés venir de telle machine ou tel objet (voir Play Time ou les Vacances de Mr Hulot).
Diégétique ne veut pas dire non plus que le son ou la musique ont été enregistré lors du tournage : le compositeur peut très bien composer un élément qui sera censé être joué par un personnage.
On peut trouver aussi le thème du film (non diégétique) dont le compositeur aura écrit une variation ou une réduction pour piano, par exemple, jouée par un personnage.
Au mixage du film, on peut placer le son de manière à ce qu'il semble venir de tel endroit du cadre.
Certains réalisateurs refusent de mettre dans leur film des musiques qui ne soient pas diégétiques, c'est le cas des cinéastes adeptes du Dogme comme Lars von Trier dans ses premiers films; voir aussi "Caché", un film de Michael Haneke.

LE SYNCHRONISME

             Un son est synchrone à une image quand il n’y a pas de décalage temporel entre les deux (position et durée).
La synchro est un système qui consiste à « verrouiller » (locker) la lecture des images et la lecture des sons grâce à une interface (SMPTE).
             Dans un film, chaque plan tourné comporte au début un clap qui permettra ensuite au monteur de faire correspondre le plan sonore (grâce au bruit du clap) au plan image (grâce à l’image du clap qui se referme)
Synchroniser une musique à un plan consiste à installer une musique de telle sorte qu’elle accompagne parfaitement les mouvements et les événements.
             Les sons synchrones sont les sons pris en synchro lors du tournage.
Les sons seuls sont captés par l’ingénieur du son en dehors du tournage, ils seront utilisés ensuite pour enrichir l’ambiance sonore (ambiance campagne, ville,…)
             Le point de synchro est un trou qu’on fait dans la pellicule (repère) 3’’ avant la première image du film.
             Dans le domaine du bruitage, le synchronisme permet de faire fonctionner une action visuelle et un bruit - ce bruit peut provenir d'un objet tout autre que ce qu'on voit à l'image; le dessin animé en donne des exemples typiques : grâce au synchronisme, on peut bruiter les pas d’un personnage avec n’importe quoi (grincement, choc, …), on peut être très éloigné du bruit authentique sans désolidariser le son de l’image. Le dessin animé permet beaucoup de délires, d’invraisemblances, mais exige le respect du synchronisme.
             « …Nous sommes avides de synchronisation, guettant les moindres points de synchronisation, fussent-ils absurdes, et les fabriquant sous tous les prétextes. Elle met en évidence le besoin d’une scansion et d’une ponctuation dans une séquence audio-visuelle, et la tendance du spectateur à trouver du sens dans toute concomitance intentionnelle ou fortuite.» (Michel Chion)
             On peut dire que le son nourrit l’image tandis que l’image précise le son.
Il y a aimantation du son par l’image et, dans une bande son, l’attention se focalise sur la voix ; pourtant, le réalisateur peut la détourner. Jacques Tati, par exemple, rend parfois les dialogues inintelligibles ; c’est un effet pour nous faire comprendre que ce qui est dit a peu d’importance, ce qui est important c’est qu’on voie que quelqu’un parle – ou marmonne.
             Au cinéma, la voix, les mots (la voix écrite, ex. les cartons de films muets, les sous-titres) monopolisent l’attention consciente, alors que les autres sons sont perçus inconsciemment ; ce n’est que lorsqu’on enlève ces derniers qu’on en ressent l’absence.
             L'effet fantôme : lorsque dans une séquence on voit un personnage parler sans l'entendre, ou inversement lorsqu’on entend un personnage parler sans le voir alors qu'il est logiquement dans le cadre, on a un effet fantastique de l'ordre du fantôme.
             Par ailleurs, si, par souci de réalisme, on colle un son sur chaque objet de l’image, on risque de surcharger la bande sonore mais aussi l’image qui va devenir confuse ; il faut choisir ce que l’on donne à entendre dans un film – ex. : arrivée dans un restaurant : bruits de vaisselle+discussions ; la caméra s’approche d’un couple : on entend la discussion du couple et quasiment plus l’ambiance générale du restaurant (dans Vertigo de Hitchcock, la séquence au restaurant est bruitée : ambiance sonore avec bruits d'assiettes de couverts et conversations, puis la caméra s'approche en même temps que l'ambiance sonore disparaît tandis que commence le thème musical)

TENSION ET DÉTENTE

             On peut dire que tous les paramètres musicaux qui se réfèrent à l’homme, son anatomie et son système d’audition, bref qui sont à sa mesure, vont provoquer une écoute plus aisée, donc la détente, la sérénité , l’équilibre; en revanche, lorsque la musique sort du cadre de ces références, elle risque de provoquer un malaise, une tension, une angoisse (le connu / l'inconnu). Ceci ne veut pas dire qu'il faille se plier à ces règles : on parle ici de comportements habituels et, ces règles, il faut les connaître, les respecter mais aussi les transgresser.

Nos références humaines :

- l’intensité : la voix humaine, du murmure au cri (20 à 80 db environ) ;
trop fort ce peut être désagréable, pas assez fort on risque de ne pas être entendu - dans les deux cas, on est gêné.
Un son - musical ou non - dont l’intensité croît (crescendo) génère plus d’angoisse que lorsqu’elle décroît (decrescendo), car, en devenant de plus en plus fort, il devient menaçant et risque de nous submerger; d'ailleurs l'attention de l'auditeur est plus soutenue lorsqu'il y a un long crescendo. (l'enveloppe d'un son naturel décroît dans le temps et non l'inverse)
- la hauteur : la tessiture de la voix humaine: 80 Hz à 1200 Hz - 2 à 3 octaves (même si certains chanteurs exceptionnels atteignent 6 ou 7 octaves)
les fréquences extrêmes sont plus difficiles à entendre (voir la courbe de Fletcher) ; les tessitures des instruments acoustiques se trouvent toutes en gros dans une gamme de fréquences autour de la voix humaine comme le violoncelle ou les saxophones ténor et alto
- la durée : la respiration;
une note trop longue risque de finir par se faire « oublier »
- le tempo : le tempo du cœur (au repos : 60 à 80 battements par minute) ;
un tempo trop lent est plus difficilement perçu (plus difficile à tenir aussi), un tempo trop rapide peut gommer les autres aspects de la musique (mélodie, harmonie)
- le rythme : le rythme du cœur
° ni trop régulier : le métronome, dont le seul rôle est de donner une régularité au tempo, est mécanique, donc pas humain ; le bip des appareils de contrôle dans un hôpital est un son inquiétant
° ni trop irrégulier (irrégularité du rythme cardiaque = tachycardie, extrasystole)
- les intervalles : facilement repérables et chantables.
° dans la mélodie : les notes se succédant avec des intervalles trop grands (au delà de l’octave) ou trop petits (lorsqu'il y a "frottement", seconde mineure ou micro-intervalles) sont très difficiles à percevoir, donc à mémoriser ou simplement à fredonner;
° dans l’harmonie (les accords), les intervalles offrant des rapports de fréquences complexes donnent une sensation de dissonance donc de tension (ex. la seconde, la septième majeure) alors que la tierce donne une sensation de détente
les contines d’enfants sont un bon exemple d'intervalles "faciles" (jamais plus de la quinte)
- la dynamique : une dynamique confortable pour nos oreilles
ni trop faible, ni trop grande; des changements d’intensité trop grands et trop soudains sont perturbants, une dynamique trop faible est fatigante.
ex.: des fréquences médium, un tempo entre 80 et 120, un rythme pas trop métronomique, une harmonie consonante, des intervalles pas trop importants, etc... tout cela donnera un sentiment d’apaisement; tandis que ce qui se trouve aux extrêmes donnera un sentiment d’inconnu, d’étranger, de peur, etc... ex. notes suraiguës ou très graves, tempo trop lent ou trop rapide, intervalles trop petit ou trop grands, etc. ...
              On peut remarquer que la musique contemporaine qui joue beaucoup sur la tension sort souvent de ces cadres "humains", elle n'attire pas le "grand public".
              A l'opposé, la Muzak ou musique d'ascenseur élimine toute tension, ne veut choquer ni surprendre personne, elle en est insipide.
              Pour réussir une narration ou une musique, il faut essayer d’alterner les moments de tension et les moments de détente: stress / calme, dissonance / consonance, ... et suivre la « Voie du Milieu ».

Alfred Hitchcock et Bernard Herrmann



LE BRUITAGE


              la bande sonore d'un film est constituée des voix (in et off), des bruits et effets et des musiques.
Au cinéma, les ambiances sonores (ambiance de campagne, de cantine,…) sont généralement réalisées par le monteur ou le monteur son ; le bruitage ponctuel par un bruiteur qui reproduit en synchronisme tous les bruits induits par l'image: entre autres, bruits de pas, présences (bruits de vêtements,...), claquements de portes, coups,... d'une part, pour que ces bruits aient un niveau suffisant pour le mixage; d'autre part pour la réalisation de la version internationale.
              la version internationale, ou V.I. est une version du film qui doit servir à mixer la version doublée dans la langue du pays qui achète le film; on enlève donc les voix et par conséquent certains bruits enregistrés au tournage, ceux-ci doivent alors être refaits en studio; la V.I. est donc un mixage du film sans les dialogues, ni les voix off.
              Pour la télévision, le dessin animé et la vidéo institutionnelle, les bruits peuvent être réalisés sur échantillonneur (pluie, portes, rires de sitcom, etc...) parfois par le compositeur s'il travaille en home studio.

Bruits réalistes – bruits non réalistes :

              Les bruits réalistes correspondent normalement à l’objet ou au personnage qui sont censés les produire ; ceci dit, un bruiteur ne va pas forcément utiliser des fourchettes, des cuillers et des assiettes pour bruiter une séquence de repas, car les objets qu’on voit à l’image ne produisent pas toujours un son crédible; de même les bagarres sont bruitées avec des objets hétéroclites (gants de boxe, etc.)
              Dans les dessins animés, les bruits sont rarement réalistes, ils sont souvent créés par association d’idées, c’est souvent de la fantaisie pure et pourtant, ça fonctionne grâce au synchronisme.
              Un son non réaliste a généralement une fonction narrative dans un film.
              Certains bruits présentés comme réalistes peuvent être exagérés ou excessivement présents comme le sifflement d’une épée (effet de coup de fouet), la chute d’un corps ou des coups de poings dans un film de boxe, pourtant ils sont acceptés par le spectateur et l’exagération semble même nécessaire.
              Normalement, l’intensité, la réverbération d’un son doivent être cohérentes avec le cadre, c'est-à-dire la proximité ou l’éloignement visuels des sources, mais c’est loin d’être toujours le cas, ex. : dialogue de deux personnages, au milieu d'une foule, filmés en plan large avec un son direct donc proche et peu d’ambiance.

les bruiteurs chez Walt Disney


 


BIBLIOGRAPHIE

 

> le Son - Michel Chion (Nathan)
> le Son au Cinéma - Michel Chion (Ed. de l’Etoile)
> les Sons au cinéma et à la télévision - Laurent Jullier (A. Colin)
> Expliquer l’harmonie - Jacques Chailley (les Introuvables)
> l’Esthétique Musicale - Ferrucio Busoni (Minerve)
> le Larousse de la Musique (Larousse)
> Traité des objets musicaux - Pierre Schaeffer (Seuil)
> le Promeneur Écoutant - Michel Chion (Ed.Plume)
> Silences (conférences et écrits) - John Cage (Ed.Héros-Limite)
> Musicophilia (neurosciences) - Oliver Sachs (Seuil)
> de la Note au Cerveau - Daniel Levitin (Ed.Héloïse d'Ormesson)
> le Paysage Sonore - Murray Schaffer (J.Cl.Lattès)
> le Grand Orchestre Animal – Bernie Krause (édition Flammarion)
> le Cerveau mélomane (neurosciences) - hors série revue "l'Essentiel Cerveau et Psycho" (nov.2010 - janv.2011)

> Pourquoi la Musique ? - Francis Wolff (Fayard 2014)

 


Table des matières :


I le Son
Bruit-paroles-musique
Différentes approches d’un son
L’oreille
Sons périodiques / non périodiques, discrets
Perception des sons : la courbe de Fletcher
Différences de comportement des graves et des aigus
Perception de la hauteur, de la durée, de l’intensité et du timbre
Direction des sons
Effet de masque
Notion d’acoustique d’un lieu
La réverbération
Opérations sur le son
le sonagramme
Analogique et numérique
L’échantillonnage
Son naturel, son enregistré, son samplé
La compression de données
La présence

II le Son musical
les processus musicaux
le parcours du son
le rôle du cerveau
Le silence
La dynamique
La spatialisation - la stéréo
Consonances et dissonances
Le juste et le faux
La fidélité
La pureté
Boucles et répétitions
Syncopes – rubato et quantisation
Questions de tempo
Diatonisme et chromatisme

III Son, Musique et Culture
le Phénomène musical
Symbolique des sons
Phonographie
Musique et Mathématiques
Evolution de l’environnement sonore
Nuisances sonores
Traitement acoustique en architecture
Invention de nouveaux instruments

IV Musique et son du film
Mise en musique
Types et formats
budgets
proportions de musique
conscient et inconscient
efficacité
Le choix des séquences mises en musique
Thème, variations et déclinaisons
La diégèse
Le synchronisme
Tension et détente
Le Bruitage

Bibliographie