Se connecter
Se connecter

ou
Créer un compte

ou

Sujet [Bien débuter] Qu'est-ce que la phase en audio ?

  • 90 réponses
  • 25 participants
  • 5 068 vues
  • 34 followers
1 [Bien débuter] Qu'est-ce que la phase en audio ?
qu-est-ce-que-la-phase-en-audio-3147.jpg
En phase, hors phase, en opposition de phase : Los Teignos a deux minutes pour vous expliquer ce qu'est la phase en audio. Top chrono !


Lire l'article




Ce thread a été créé automatiquement suite à la publication d'un article. N'hésitez pas à poster vos commentaires ici !

__________________________________________________________________________________
Le GIEC chiffre à 3,3 milliards le nombre de victimes du réchauffement climatique. On en parle ?

 

Afficher le premier post
21
Rappelons que sauf erreur de ma part, il faut bien un déphasage entre les signaux pour assurer la stéréo. Deux signaux en phrase parfaite donneraient un son mono.
22
Non cher Will, la stéréo n'est pas seulement le fait d'une différence de phase, et même surtout pas le fait d'une différence de phase (attendez la fin avant de me vouer au gémonies, svp). La stéréo est le fait de reproduire le relief sonore qu'on est capable de capter avec nos deux oreilles. Cette captation du relief est réalisé grâce à la différence d'intensité entre les deux oreilles (surtout dans la partie haute du spectre audio) et la différence de temps (surtout dans la partie basse du spectre).

Déjà, la partie différence d'intensité n'a rien à voir avec la phase. Et c'est pourtant ce que font tous les mixeurs lorsqu'ils manipulent un pan-pot.

Mais en ce qui concerne la différence de temps : un son qui arrive de la gauche est perçu normalement un peu plus fort et plus tôt par l'oreille gauche. Le fait qu'il soit perçu plus tôt est sensible dans la partie basse du spectre audio, ce qui semble confirmer l'hypothèse que l'oreille n'est pas tellement sensible à la phase. Car les longueurs d'onde dans le grave ne permettent pas de doute sur la relation de phase entre la droite et la gauche (elles sont plus grandes que la distance inter oreille), ce qui n'est pas le cas dans l'aigu.
Dans l'aigu, lorsque la longueur d'onde est inférieure à la distance entre les deux oreilles, on ne peut pas savoir quel est vraiment le retard, à cause du "modulo 2π". A 10kHz, la longueur d'onde est 340/10000 = 3,4cm. Soit quatre à cinq fois moins que la distance entre les deux tympans.
Pourtant, tout être humain qui entend une cloche sait d'où provient le son. Si la phase était cette source de connaissance, nous hésiterions entre plusieurs directions. C'est ce qui me fait penser (et pas que moi, sinon ça n'aurait pas d'intérêt) que c'est bien le retard qui est pris en compte, et pas la phase. La différence de phase est une conséquence du retard, et seulement une conséquence.

Au niveau de ce qu'on doit savoir lorsqu'on mixe en stéréo bi-canal sur deux enceintes, c'est suffisant. Mais en fait, la restitution du relief met en cause des notions plus étendues que ces seuls deux critères.

Alan Parson a dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."

[ Dernière édition du message le 26/10/2020 à 22:13:27 ]

23
A part ça, je rejoins Phil29 pour dire que cet article laisse le doute entre la phase et le retard, ce qui est dommage car c'est justement l'origine de la grande confusion que font beaucoup de gens sur ce sujet il est vrai pas très simple.
Mais bon, c'est tout de même moins compliqué que la loi de Shannon/Nyquist qui fait couler beaucoup d'encre :mrg:

Deux micros captant une même source à deux distances différentes, cela provoque en théorie un décalage de phase sur la partie son direct. Mais cette partie peut être assez minoritaire sur le micro éloigné dans une acoustique qui n'est pas très absorbante, et ceci sans même parler des courbes de phase de la chaîne de captation incluant les deux micros et leurs préamplificateurs. Cela se juge à l'écoute. L'expérience permet de ne pas faire de bêtise dans ce domaine.

Alan Parson a dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."

[ Dernière édition du message le 26/10/2020 à 22:23:26 ]

24
Non , les deux signaux ne se chevauchent pas , c'est 1 + 1 , ou 2 X mono . en " technique " .
que tu perçois mono , soit .

Si tu veut les percevoir en stéréo , la oui il faudra un déphasage .

Zoom sur un wav de BD par exemple , les 2 canaux sont parfaitement en phase ( et perçus mono ). mais chacun ont des uns et des zéros ( des hauts et bas ) qui se suivent , si on zoome à l’échantillon prés ou presque .

Je parle pour un son grave et court . plus compliqué comme l'as expliqué jan mk2 pour les différences de fréquences et d'harmoniques.

Et pour moi ; une phase est une simple polarité ... :idee2:

(-;  Sois Funk  ;-)

25
BBmiX, je crois qu'il manque des trucs dans ta compréhension du phénomène.
Non la stéréo n'est pas que le fait d'un déphasage, c'est beaucoup plus compliqué que ça, ou plus simple lorsqu'on se contente de faire de la mono orientée sur deux enceintes.
La phase n'est pas une simple polarité. Un différence de phase ne peut être réduite à un retard que dans le cas d'un signal périodique, ce que la musique n'est pas.

Alan Parson a dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."

26
Citation :
Deux micros captant une même source à deux distances différentes, cela provoque en théorie un décalage de phase sur la partie son direct.

N'est-il pas plus juste de parler de décalage temporel ?

Et d'ailleurs, si la différence de distance vaut D, ça vaudra D / 340 (m/s).


Citation :
Déjà, la partie différence d'intensité n'a rien à voir avec la phase. Et c'est pourtant ce que font tous les mixeurs lorsqu'ils manipulent un pan-pot.

Oui. Un pan-pot (potentiomètre panoramique) d'une table de mixage c'est 2 gains différents, liés l'un à l'autre. Du coup, c'est une stéréo assez artificielle et simpliste. Ça fonctionne pas trop mal. Mais quand on écoute un vrai enregistrement acoustique avec par exemple une paire de micros omnis, et bien dans ce cas on se rend compte que la spatialisation du son est bien plus réaliste.
27
Citation :
Un différence de phase ne peut être réduite à un retard que dans le cas d'un signal périodique, ce que la musique n'est pas.


Même pour de la musique en boucle ?
28
Il manque un concept clé dans le débat là, c’est celui de la corrélation.

Imaginons deux fichiers WAV mono. En gros la corrélation c’est à quel points ces deux sources audio ont quelque chose en commun du point de vue du traitement du signal. Si on prend un fichier audio et qu’on en fait une copie, les deux fichiers obtenus auront une corrélation parfaite. Si on en décale un des deux dans le temps par rapport a l’autre, cette corrélation sera toujours là mais amoindrie avec la longueur du décalage. Si on enregistre deux fois la même partie de guitare dans deux fichiers audio, ces deux résultats ne sont pas corrélés du tout. Si on repique un instrument avec deux micros a partir de la mëme interprétation, on obtient deux signaux un peu corrélés aussi.

Pourquoi je parle de ca ? Et bien le truc c’est que quand on mixe deux signaux corrélés, ca créé un résultat dans lequel on entend ces fameux problèmes de phase. De même, si vous avec un enregistrement stéréo, dans lequel la piste gauche et la piste droite ont un peu de corrélation, le mix mono va présenter aussi ces problèmes.

Du coup dans le contexte du mix on essaie de faire en sorte d’éviter au max la corrélation entre les pistes (par exemple en jouant deux fois la même partie plutot qu’en copiant une prise partout a l’identique). Sinon on cherche à la compenser, en alignant les sons pour réduire le nombre d’annulations, en écoutant avec ou sans inversion de phase ce qui a l’air d’être le moins pire, en utilisant des outils de rotation de phase, ou en utilisant des filtres a phase linéaire pour compenser exactement avec la compensation automatique de latence le bordel que le filtre peut mettre dans la phase...

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape

29
x
Hors sujet :
Citation :
Gloire à la phase ! Non à l'antiphase !
30
Citation :
Un différence de phase ne peut être réduite à un retard que dans le cas d'un signal périodique, ce que la musique n'est pas.
Tout à fait. selon que l'on parle de musique( analogique et/ou numérique ) d'électricité , de prise de son , les termes changent et il est difficile de l'expliquer , de se faire comprendre ...
Comme tu dis la musique n'est pas un signal périodique constant , on ne compose pas du bruit blanc ou rose , ça deviendrait monotone :mrg:

Je sens qu'on a pas finis de discuter la dessus !!! je n'est pas la science infuse ,je doute aussi :clin:

Je parlais de sémantique ( l'emploi des mots ) et du contexte ou ils sont employés .

On devrait parler DES phases , car une phase seule , elle , elle s'en fiche , elle est en phase avec elle même :mdr:.
( corrélation ; co = 2 )

Donc dés qu'on amène une autre phase avec celle ci , que ce soit la même ( décalée en temps ou en intensité ) une autre (c'est à dire la même avec effet, eq ou filtre par exemple ) , là on à un phénomène qui change le son .
( et là je parle d'une seule ( mono ) , ça tord encore plus le cerveau si on parle de stéréo , et encore plus en prise de son ( vitesse do son IRL ) :eek2: :?!: ...

Au delà de tes arguments très juste , jan , je pense qu'il faut retenir également:

Citation :
Au niveau de ce qu'on doit savoir lorsqu'on mixe en stéréo bi-canal sur deux enceintes, c'est suffisant. Mais en fait, la restitution du relief met en cause des notions plus étendues que ces seuls deux critères


Citation :
Je pense que c'est très important de comprendre et de noter que le problème de phase ne vient pas juste du fait que les deux signaux soient ou parfaitement en phase ou complètement hors phase avec une inversion de polarité. Il y a aussi les états intermédiaires qui vont créer des atténuations du signal, et ce sur la totalité des fréquences ou seulement à certaines, à différents degrés, ce qui va créer tout un bordel potentiel divers et variés :mrg:


Citation :
Du coup dans le contexte du mix on essaie de faire en sorte d’éviter au max la corrélation entre les pistes (par exemple en jouant deux fois la même partie plutot qu’en copiant une prise partout a l’identique). Sinon on cherche à la compenser, en alignant les sons pour réduire le nombre d’annulations, en écoutant avec ou sans inversion de phase ce qui a l’air d’être le moins pire, en utilisant des outils de rotation de phase, ou en utilisant des filtres a phase linéaire pour compenser exactement avec la compensation automatique de latence le bordel que le filtre peut mettre dans la phase


Citation :
Justement : parfaitement en phase, ou déphasé, ce sont des cas particuliers, indépendants de la fréquence. C’est plutôt dans les autres cas que le mot « phase » prend tout son sens.
D’une manière générale, la phase est un truc pas toujours intuitif.


Plus la vidéo Evidemment .








(-;  Sois Funk  ;-)