close
subdirectory_arrow_left subdirectory_arrow_left Prise de Son & Mixage
Matériel Prise de Son & Mixage Rechercher une marquekeyboard_arrow_down
  • settings_backup_restore

[Bien débuter] Quel format d’enregistrement ? - forum Prise de Son & Mixage

Citation de fivesstringer :

Je veux dire: Imaginons que nous sommes en 1930 et que au dessus de 8 à 10 kHz les transducteurs dont on dispose causent d'horribles distortions qui perturbent le son jusque vers 2, 3 ou 5 kHz. Serait il souhaitable de bosser à améliorer les transducteurs ou bien dirions nous: Ben ya qu'à fitrer à 10 kHz avec une pente hyper raide et puis c'est réglé !!!

La différence, c'est que des transducteurs qui réussissent à reproduire les ultrasons, ça existe déjà. Celui qui a envie de faire une expérience avec une chaîne qui reproduit les ultrasons d'un bout à l'autre, c'est possible. Mais bon, autant les vendeurs d'interfaces (et de fichiers audios !) nous abreuvent de 96 et de 192kHz, autant les vendeurs d'amplis et d'enceintes sont discrets sur la question (alors qu'ils sauraient le faire, s'ils voulaient et si ça avait un intérêt).
Sinon, dans l'absolu, filtrer les fréquences que l'étage suivant ne sait pas reproduire, bah oui, c'est la base.
y'a 20 ans il me semble avoir entendu des vinylles enregistrés sur du DAC 48 Khz... (4 pistes)

;)
Citation :
Est il préférable de dire aux constructeurs de transducteurs d'élever leur niveau d'exigence en construisant des tweeter immunisés contre les ultrasons (ce qui largement à leur portée) ou bien devons nous utiliser votre argument des transducteurs imparfaits pour promouvoir l'arrêt de tout progrès à ce niveau en les déchargeant du problème par un filtrage adéquat ?
Ni l'un ni l'autre pour l'instant.

Si un transducteur n'est pas conçu pour délivrer certaines fréquences on les filtres. C'est la recommandation de n'importe quel fabricant (sérieux). Ça ne veut pas dire qu'il faut abaisser ses perfos.

Les problèmes de distorsion des transducteurs classiques dans les hautes fréquences sont bien connus (il y a une littérature importance sur le sujet) et c'est pour cela qu'il est pour le moins étonnant de trouver des expérimentations où l'on cherche à caractériser le bénéfice du HD à travers de tel appareils.


Avant de parler de fabrication à la chaîne et d'offre grand public, ou de décider de leurs orientations, la première chose à faire est de maquetter des expériences qui permettent d'éliminer toutes les sources d'artefacts déjà connus.
Tu évoques la politique moi je dis que c'est de la rigueur scientifique.

Un autre point que je ne m'explique pas est l'absence de moyen de contrôle de l'onde acoustique qui arrivent réellement à l'auditeur. En clair, la faiblesse des transducteurs à l'émission induit un manque de maitrise de l'onde acoustique produite puis reçu par l'auditeur : pourquoi n'est-il pas mis en place une captation qui permette de contrôler et valider (en parti) ce qui a été émis ?


Ce sont deux points qui me semblent élémentaires ; pour toi mes remarques semblent traduire de la subjectivité et de l'arrogance... En réalité je n'arrive même pas à imaginer que des scientifiques qui se déclarent experts de l'audio et de la psycho-acoustique puissent négliger de tels aspects dans leurs protocoles de tests ; ce sont tout de même des failles incroyables lorsque l'on connait ce domaine.


Alors que faire ? Et bien que ces scientifiques fassent des expériences qui tiennent la route en investissant dans les transducteurs et les moyens d'analyses existants mieux adaptés pour commencer.

Tu me demandais qu'elle était ma contribution. Je travaille sur un moyen de faire une poursuite automatique des paramètres d'un modèle des phénomènes transitoires dans les systèmes non-linéaires.
Ça pourra servir, par exemple, à tracer l'évolution de certaines grandeurs caractéristiques d'un HP lorsqu'il est soumis à un transitoire en dehors du domaine de validité du modèle linéaire.
Citation de alex.d. :

La différence, c'est que des transducteurs qui réussissent à reproduire les ultrasons, ça existe déjà. Celui qui a envie de faire une expérience avec une chaîne qui reproduit les ultrasons d'un bout à l'autre, c'est possible. Mais bon, autant les vendeurs d'interfaces (et de fichiers audios !) nous abreuvent de 96 et de 192kHz, autant les vendeurs d'amplis et d'enceintes sont discrets sur la question (alors qu'ils sauraient le faire, s'ils voulaient et si ça avait un intérêt).
Sinon, dans l'absolu, filtrer les fréquences que l'étage suivant ne sait pas reproduire, bah oui, c'est la base.


Je ne trouve pas que les tous les vendeurs d'amplis soient hyper discrets sur la chose, les meilleurs spécifient souvent des bandes passantes plus que suffisantes, genre 40 ou 50 kHz et avec un temps de montée à l'avenant . Le problème quand ça se produit c'est qu'ils se font souvent traiter d'escrocs pour idiophiles, du coup.
Pour les fabricants d'enceintes, ben on peut effectivement avoir mieux que 20 kHz en réponse, j'ai souvenir du super tweeter de Tannoy, mais je ne sais pas quel est le niveau de performance associé, distortion, etc.. y compris pour ce qui nous interesse, dans l'audio "classique".
L'interet que ça a est aussi l'interet qu'on veut bien y accorder, c'est certain que considérer au départ tout ce qui dépasse 20 kHz comme de l'idiophilie ne va pas aider les constructeurs de transducteurs pros à chercher la performance ni la distinction à ce niveau. Ou plutôt ils ne chercheront surement pas à en faire un cheval de bataille en communiquant là dessus. Par contre, ceux qui auront fait l'effort de soigner aussi cet aspect seront peut être récompensé à l'écoute sans qu'on sache d'où ça vient sur le papier.

Bref: Méfions nous des specs. C'est indicatif tout au plus mais ça ne contient pas les petits "secrets de fabrication", ni le résultat final !!!
Par exemple si je te dis "20 Hz à 20 kHz à dans +/-3 dB" tu ne sais pas si à 40kHz mon enceinte est à la rue ou à -6 dB. Faut tester pour le savoir.

Citation :
Si un transducteur n'est pas conçu pour délivrer certaines fréquences on les filtres. C'est la recommandation de n'importe quel fabricant (sérieux). Ça ne veut pas dire qu'il faut abaisser ses perfos.


Pour le coup je suis d'accord avec aucun de vous deux:
Citez moi un seul exemple d'enceinte qui intègre un filtre passe bas avant le tweeter chargé de l'extrëme aigu, pour eviter que celui ci ne reçoive et traite des fréquences (trop hautes) pour lesquelles il n'est pas conçu ?

Citez moi un seul exemple de fabricant de tweeter qui recommande de procéder comme ça ?

Citez moi un seul exemple de chaine audio dans laquelle le filtrage mis en oeuvre au dessus de 20 ou 22 kHz ne l'est pas pour des raisons mathématique (Niquist..) liées à l'echantillonnage ??

Faudrait pas confondre.

Citation de EraTom :

En réalité je n'arrive même pas à imaginer que des scientifiques qui se déclarent experts de l'audio et de la psycho-acoustique puissent négliger de tels aspects dans leurs protocoles de tests ; ce sont tout de même des failles incroyables lorsque l'on connait ce domaine.


Ben en réalité ils ne les négligent pas puisqu'ils en parlent dans les conclusions. Ils sont donc conscients et avisés.
Pour ma part le mieux est l'ennemi du bien. C'est vrai qu'on peut se poser toutes tes questions, elles sont légitimes.
Mais alors il faudrait aussi invalider par exemple tous les tests d'écoute dans lesquels le système audio servant au test n'a pas été décortiqué jusqu'à la moelle et caractérisé à 100%, puis vérifié dans le temps tout au long du test pour s'assurer d'aucune dérive. Donc on en garde combien de tests d'écoute publiés ?

La rigueur c'est un argument sans fin mais aussi sans avenir.
Il en faut un minimum mais c'est tout. Ou placer le curseur à rigueur pour que ce soit acceptable ?
Es tu d'accord pour confirmer qu'aucun test d'écoute n'est totalement rigoureux ni totalement dénué d'effets pervers dans l'absolu ?
Quelles hypothèses fait on pour s'en sortir ?

Je pense que ces scientifiques ont fait du mieux qu'ils ont pu pour mettre en évidence le phénomène qu'ils ont mis en évidence, avec des réserves honnêtement mentionnées, et je pense aussi que s'ils avaient en plus caractérisé leur système audio et mesuré ce qui entre dans l'oreille des cobayes comme tu l'exiges, tu aurais de toute façon pu exiger le taux d'erreur et de distortion du matériel de mesure ayant permis de caractériser leur système audio, en le mettant en doute le cas échéant...Ainsi que le protocole de mesure tout entier.
Il ya bien un moment où il faut un étalon. Ces gens se sont servi de leur système audio comme étalon, donc sans s'en préoccuper plus que ça tout en étant conscients des limites du truc.

Citation de EraTom :
Alors que faire ? Et bien que ces scientifiques fassent des expériences qui tiennent la route en investissant dans les transducteurs et les moyens d'analyses existants mieux adaptés pour commencer.

La science poursuit son cours.
Mais je crois que les moyens d'analyse parfait n'existent pas, ils seront mieux adaptés, mais pas parfait pour autant, ainsi que les expériences qui en découlent. Tu pourras donc continuer d'objecter inlassablement sur cet argument si tu le désires, ou bien t'en laver les mains quand tu auras décidé que cela suffit, que tu es convaincu, que ces braves scientifiques ont tous suffisemment travaillé pour ne plus mériter ta poubelle...

Alors que faire ?
En rester là , assurément. ;)
Citation de fivesstringer :

Citez moi un seul exemple d'enceinte qui intègre un filtre passe bas avant le tweeter chargé de l'extrëme aigu, pour eviter que celui ci ne reçoive et traite des fréquences (trop hautes) pour lesquelles il n'est pas conçu ?


Il me semblait que les caractéristiques physiques du tweeter comme, entre autres, son inertie se chargeaient déjà de cela...
Peut-être que je me trompe mais ça ne me paraît pas totalement fou de penser ça.

Peace
Glob
Le vrai souci dans les hautes fréquences c'est surtout le fractionnement de la membrane.

Dans les moyennes / basses fréquences la membrane d'un HP est assez efficacement représentée par un piston. Ça a l'air simpliste mais c'est de cette hypothèse que découle tous les modèles avec Qts, etc. parce que l'on obtient un modèle du rayonnement (de l'énergie) acoustique qui se résume mécaniquement à un effet inertiel (comme si l'on augmentait la masse de la membrane) et une force de frottement fluide (le HP disperse bien de l'énergie).

Pour les fréquences plus hautes on ne peut plus raisonner comme ça. Il faut considérer la membrane comme une plaque vibrante.
On montre alors que pour certains modes de vibration les interférences entre les parties en "opposition de phase" sur la même membrane empêche les émissions en champs lointain...


Le problème d'utiliser un tweeter "hors spec" n'est pas simplement un problème d'atténuation : C'est son rayonnement qui est erratique.
Ajoutez les déformations non linéaire du matériau et l'on a de belles distortions / intermodulations.

Citation :
Je ne trouve pas que les tous les vendeurs d'amplis soient hyper discrets sur la chose, les meilleurs spécifient souvent des bandes passantes plus que suffisantes, genre 40 ou 50 kHz et avec un temps de montée à l'avenant . Le problème quand ça se produit c'est qu'ils se font souvent traiter d'escrocs pour idiophiles, du coup.
Ce que j'ai vu le plus souvent, sur le guide Qobuz par exemple pour n'en citer qu'un, ce sont des ampli avec DAC qui proposent de Fe de 96kHz et des bandes passantes analogique caractérisée sur 20 ou 30 kHz.
Il n'est pas rare non plus de trouver des pseudo-mesures de temps de monté complètement farfelue (sans non plus fournir les overshoot).

Dans ces cas là, oui, c'est de l'idiophilie.

Ceci étant dit, ce n'est pas rare de trouver des bons vieux ampli à triode classe A avec des bandes passantes de 100kHz.

Citation :
ne l'est pas pour des raisons mathématique (Niquist..) liées à l'echantillonnage ??
Le théorème de Nyquist-Shannon ce n'est pas simplement des math : Les répercussions physiques sont bien réelles.

Pour le reste, je ne vais pas me lancer dans un état de l'art exhaustif ici parce que ça me fatigue.
Comme déjà évoqué, le problème ne se résume pas à l'atténuation.

Citation :
Ben en réalité ils ne les négligent pas puisqu'ils en parlent dans les conclusions. Ils sont donc conscients et avisés.
C'est faux : C'est la conclusion de la meta-analyse qui pointe justement sur les 18 références données que ces aspects ont été négligés.

Citation :
Mais alors il faudrait aussi invalider par exemple tous les tests d'écoute dans lesquels le système audio servant au test n'a pas été décortiqué jusqu'à la moelle et caractérisé à 100%, puis vérifié dans le temps tout au long du test pour s'assurer d'aucune dérive. Donc on en garde combien de tests d'écoute publiés ?
Aucune ! C'est ce que tu voudrais me faire dire ?

Citation :
La rigueur c'est un argument sans fin mais aussi sans avenir.
Il en faut un minimum mais c'est tout. Ou placer le curseur à rigueur pour que ce soit acceptable ?
Es tu d'accord pour confirmer qu'aucun test d'écoute n'est totalement rigoureux ni totalement dénué d'effets pervers dans l'absolu ?
Quelles hypothèses fait on pour s'en sortir ?
Pardon, mais tu as tout de même un sacré problème d'approche.

La rigueur scientifique n'est pas ce que tu décris et la qualifier de "sans avenir" est assez incongru aujourd'hui : Tu n'as pas l'impression que l'on a un poil avancé depuis Galilée !?

La dérive ou l'erreur d'une expérimentation ne peut pas être nulle et c'est bien pour cette raison qu elle doit être bornée et maitrisée.
Aucune expérience n'est parfaite, c'est une évidence, et tout le travail du scientifique qui met en place une expérience est justement d'élaborer un protocole qui permet de les maîtriser suffisamment pour que le résultat soit pertinent et exploitable.

Et oui, c'est un vrai travail.

D'autre part, une expérience dont les conditions ne sont pas assez maîtrisées pour être répétables est scientifiquement disqualifiée.
Ça fait combien de fois qu'on te le dis ? C'est juste LE pré-requis à toute démarche scientifique et technique : Il faut que l'expérience ou l'hypothèse puisse être soumise à la réfutation.
https://fr.wikipedia…A9futabilit%C3%A9

C'est laborieux mais pour l'instant on n'a pas trouvé mieux pour s'assurer que chaque pas est bien un pas en avant.

Citation :
Je pense que ces scientifiques ont fait du mieux qu'ils ont pu pour mettre en évidence le phénomène qu'ils ont mis en évidence, avec des réserves honnêtement mentionnées, et je pense aussi que s'ils avaient en plus caractérisé leur système audio et mesuré ce qui entre dans l'oreille des cobayes comme tu l'exiges
Je n'exige rien ; c'est comme ça.

Et puisque tu as lu la meta-analyse jusqu'au bout, tu dois également reconnaître l'une des propositions qui a été faite.

Quant aux réserves "honnêtement mentionnées"... Je tiens à te rappeler que les résultats des expériences échantillon par échantillon ne sont pas communiqués.
Il est tout à fait classique de mettre à disposition une base de données des résultats pour permettre leur vérification ; ça n'a pas été fait.

Citation :
Il ya bien un moment où il faut un étalon. Ces gens se sont servi de leur système audio comme étalon, donc sans s'en préoccuper plus que ça tout en étant conscients des limites du truc.
Limite du truc, sans s'en préoccuper plus que ça...

Ça y est nous avons notre point d'accord.

Enfin, du coup, comme "étalon" c'est léger, non ?

Rappelle toi de tes TP de physiques où il fallait systématiquement étalonner les appareils avant chaque mesure et combien c'était chiant. Et rappelle-toi que tu avais une bulle si tu donnais des mesures avec un appareil non-étalonné parce que tes mesures étaient... fausses.

Ah mais c'est vrai, à l'école on n'apprend rien.
Citation de fivesstringer :

Pour le coup je suis d'accord avec aucun de vous deux:
Citez moi un seul exemple d'enceinte qui intègre un filtre passe bas avant le tweeter chargé de l'extrëme aigu, pour eviter que celui ci ne reçoive et traite des fréquences (trop hautes) pour lesquelles il n'est pas conçu ?

Citez moi un seul exemple de fabricant de tweeter qui recommande de procéder comme ça ?

Citez moi un seul exemple de chaine audio dans laquelle le filtrage mis en oeuvre au dessus de 20 ou 22 kHz ne l'est pas pour des raisons mathématique (Niquist..) liées à l'echantillonnage ??

Traiter le problème dans les basses fréquences (suppression d'offset) est très courant. Du côté haute-fréquence, ça n'est pas trop pratiqué parce qu'en général on suppose que ces fréquences ne sont pas présentes dans les sources. Que ce soit un vinyle, une cassette, ou un CD, le problème ne se pose pas. La question se pose uniquement avec les nouvelles sources numériques "HD", mais là, je vois mal un fabricant quelconque te vendre un système qui monte super haut, et à la fois filtrer les hautes fréquences. Commercialement parlant, ça ne serait pas très lisible.
Citation de alex.d. :

Traiter le problème dans les basses fréquences (suppression d'offset) est très courant. Du côté haute-fréquence, ça n'est pas trop pratiqué parce qu'en général on suppose que ces fréquences ne sont pas présentes dans les sources. Que ce soit un vinyle, une cassette, ou un CD, le problème ne se pose pas. La question se pose uniquement avec les nouvelles sources numériques "HD", mais là, je vois mal un fabricant quelconque te vendre un système qui monte super haut, et à la fois filtrer les hautes fréquences. Commercialement parlant, ça ne serait pas très lisible.


Techniquement non plus. Les constructeurs de moniteurs qui implémentent des tweeters montant très haut sont pas très nombreux mais existent (ADAM par exemple avec ses rubans). Je me demande si ces tweeters créent autant de disto dans l'audible "classique" que ceux qui coupent ou fragmentent à partir de 20 kHz
Quoiqu'il en soit, ce n'est pas en décidant qu'il vaut mieux couper les fréquences au dessus de 22 kHz quoi qu'il arrive pour être tranquille qu'on poussera les constructeurs à faire des efforts sur ce point.
Ce qui ne remplace ni ne répond à la question: Est ce utile ? sous jacente au sujet de ce post...

@EraTom:
Je suis d'accord avec toi, c'est une question de où on place le curseur:
Pas assez d'exigence: Les papiers ne sont pas recevables.
Trop d'exigence: Tout papier est contestable.

La réfutabilité c'est encore autre chose. Pour pouvoir répéter un test, il faut se placer dans les conditions exactes du test q'on cherche à répéter. Difficile pour un test d'audition fait par des personnels différents en d'autre lieux..
- Même matos
- Même protocole, au pouillème pres
Encore une fois quand on voit le nombre de variables d'un protocole de test d'audition, c'est très compliqué de reproduire à l'identique pour que le test soit strictement comparable et que le principe de réfutabilité s'applique strictement.
Donc la réfutabilité pose problème.
On pourrait toujours trouver moyen de faire un test "qui marche pas" mais sans pouvoir assurer non plus que c'est un réel contre exemple invalidant le résultat des autres tests, ou un "faux négatif" causé par un protocole pas exactement calé pareil.
J'en conclus qu'au niveau tests d'audition, vu la complexité des variables protocolaires, la seule solution est de regarder les tests indépendamment les uns des autres plutôt que de chercher à les comparer en toute rigueur, comme tu fais. La meta-analyse en ce sens ne les compare pas strictement mais fait une synthèse de leur résultats vu individuellement.

enfin je dis ça d'instinct
Mais si demain je lisais un papier basé sur un test d'audition super bien réalisé, sur un nombre statistiquement significatif de sujets et avec du top matos (et un soin particulier à recouper l'audio entrant par des mesures comme tu dis) et bien je n'aurais pas besoin de demander à un autre labo de recouper.
Même si on DOIT pouvoir recouper, par principe de réfutabilité, le risque de biais de protocole est trop grand. Autant augmenter le nombre de sujet sur un test (et en faire un de grande ampleur avec le maximum de chances techniques) plutot que d'en faire 10 ou 100 plus petits dans des conditions pas exactement les mêmes.

Sinon Perso j'ai toujours étalonné mon système de mesure avant de faire une expérience (qui peut comporter plusieurs mesures ou plusieurs tests, parfois plusieurs dizaines)
Mais je ne ré-étalonnais jamais le système entre chaque mesure d'une même expérience.
Un système de mesure qui nécessite d'être recalibré ou ré-étalonné entre chaque mesure peut être considéré comme instable (et donc pas approprié)

Qu'en penses tu ?


@Globule:
Contrairement à ce que tu laisses entendre un tweeter ne filtre pas le signal audio qu'il reçoit.
Par contre il agit comme un filtre acoustique , en particulier passe bas mais pas que, en ne crachant vers nos tympans que les fréquences audio qu'il peut reproduire et c'est là que les dégats se situent (fragmentation/distortion)
On parlais de le filtrer en amont (electroniquement donc) pour éviter cela.


Citation de fivesstringer :



Par contre il agit comme un filtre acoustique , en particulier passe bas mais pas que, en ne crachant vers nos tympans que les fréquences audio qu'il peut reproduire



Oui, c'est exactement ce que j'ai dit. La question sous-jacente étant de savoir s'il était nécessaire de filtrer en amont des fréquences que le tweeter ne pouvait de toute façon pas physiquement reproduire. Question à laquelle EraTom a d'ailleurs répondu juste après.

Peace
Glob
Raalala, j'aurais aimé tomber sur ce site plus tôt...

http://science-of-so…dio-state-debate/

Sujets les plus actifs dans "Prise de Son & Mixage"

Les dernières questions dans "Prise de Son & Mixage"