On parle beaucoup de "l'audio sans perte". Il y a également beaucoup d'opinions à son sujet, dont la plupart ne proviennent pas d'ingénieurs du son mais de personnes qui courent après la mauvaise partie de l'arc-en-ciel ;)
Pour vraiment simplifier,
- L'audio sans perte est celle qui peut être décompressée pour produire exactement les mêmes données que celles qui ont été codées à l'origine.
Vous en avez besoin si vous devez traiter ultérieurement l'audio.
- L'audio avec perte peut être décompressé pour son presque exactement comme il a été codé à l'origine.
Vous en avez besoin si vous voulez juste écouter l'audio.
Je ne vais pas m'attarder sur les mathématiques, je vais juste survoler les bases.
La différence entre les deux est devenue une question de perception publique, plutôt que de faits concrets et de données analytiques.
Très peu de personnes sur un test A/B peuvent faire la différence, alors elles utilisent des outils qu'elles ne comprennent pas pour leur donner des données qui n'ont pas vraiment de sens
[Soyez indulgent avec moi, je ne suis pas insultant, mais certains des sagesse de l'internet sur ce sujet est complètement à côté de la plaque].
Vous verrez souvent des images de spectrogrammes comme celles-ci
Je vous dis que celui de droite est évidemment avec perte car il a une coupure de fréquence plus basse. Eh bien, oui, ça le sous-entend, mais ça ne veut pas dire que prouver c'est une fausse prémisse basée sur un malentendu. Ce qu'il prouve, c'est qu'il a utilisé une fréquence d'échantillonnage plus basse, causant une plus faible limite de Nyquist et donc une plus faible limite des rayonnements à haute fréquence dans l'audio qui en résulte.
Si vous avez recompressé le fichier de droite dans un format sans perte. il ne retrouvera pas par magie les données perdues Pourtant, le fichier lui-même ne subit aucune perte, mais seulement dans la mesure où aucune autre donnée n'est perdue. Je pense que c'est probablement ce que les applications de vérification essaient de tester, mais d'une manière assez trompeuse.
Bon La compression avec perte n'a pas l'air "tronquée" comme ça sur un spectrogramme. Elle n'a pas l'air différente d'un fichier sans perte, parce que les différences sont beaucoup, beaucoup trop petites pour apparaître sur un outil aussi contondant qu'un spectrogramme.
L'intérêt du codage avec perte est qu'il élimine intelligemment les bits que vous ne pouvez pas entendre de toute façon. C'est son truc. Plus le débit binaire est élevé, moins il doit en rejeter, ce qui explique la différence notable entre un fichier de 256 kbps [ou 320 kbps] et un fichier de 128 kbps, si vos haut-parleurs et vos oreilles sont assez bons . Si vous écoutez votre téléphone avec des écouteurs, ou dans votre voiture, 9/10 personnes ne pourront pas faire la différence entre 128kbps et une vitesse supérieure - le bruit de fond masquera la différence.
Vous pouvez utiliser un outil qui effectuera les calculs sur un fichier non compressé avec perte, mais comment peut-il décider si des données sont manquantes dans le résultat final ? sans un original auquel se comparer me dépasse complètement. Peut-être qu'il ne regarde que les hautes fréquences, peut-être la coupure réelle
Je vais choisir l'un d'entre eux. sagesse reçue le pauvre type ne mérite probablement pas d'être pointé du doigt, mais il couvre le même terrain fatigué et mal informé que beaucoup d'entre eux
De : Audio Checker - Vérifiez la qualité réelle de vos fichiers audio
En ce qui concerne le spectrographe ci-dessus
kHz, une mesure de fréquence qui affecte grandement la qualité du son, s'affichera sur la gauche. En théorie, les débits binaires fonctionnent avec la fréquence et des débits binaires plus élevés préservent des fréquences plus élevées, ce qui se traduit par une meilleure qualité sonore.
C'est exact, mais les choses deviennent moins confuses si l'on utilise le terme "fréquence d'échantillonnage" plutôt que "débit binaire". Le débit binaire est en fait une "vitesse" de transmission et non une mesure précise de la fréquence d'échantillonnage réelle. Seuls les formats de compression avec perte ont vraiment quelque chose à voir avec les débits binaires. Les formats PCM sans perte et sans compression tels que WAV ou AIF n'ont qu'une fréquence d'échantillonnage [et une profondeur de bits].
Voir Presonus : Les bases de l'audio numérique : Fréquence d'échantillonnage et profondeur de bits pour de plus amples informations.
Les fichiers FLAC sans perte ne perdent aucune de leurs hautes fréquences, comme le montre le graphique de gauche, alors que les fichiers audio avec perte n'ont pas de hautes fréquences.
fausse prémisse. Les fichiers avec perte peuvent contenir autant d'informations à haute fréquence que les fichiers sans perte - c'est une question de fréquence d'échantillonnage et de Nyquist, comme expliqué ci-dessus.
détecte l'upscaling, l'upsampling et le transcodage.
Ahh donc c'est comme ça que ça se passe. Il vérifie si quelqu'un n'a pas triché en prenant un fichier de mauvaise qualité et en changeant les paramètres de transcodage pour le faire passer pour un fichier de bonne qualité. meilleur . Toutes ces méthodes produisent des zones de données avec des "trous" ou des données doublées, ce qui prouve certainement que le fichier a été modifié à un moment donné, probablement dans le but de tromper.
Ce qu'il ne fait absolument pas, c'est tester qu'un fichier peut être décompressé pour donner exactement les mêmes données comme lorsqu'il a quitté l'usine. Il n'a rien à quoi se comparer.
OK, passons à autre chose et revenons à vos résultats
CDDA avec une probabilité de 94%.
C'est très bien si vous considérez que le CDDA [PCM 16 bits 44,1 kHz] est le summum du stockage audio. Il ne l'est plus depuis une dizaine d'années. (N'oubliez pas non plus que votre vérificateur est arrivé à cette conclusion sans aucune référence au fichier original, ce n'est qu'une supposition).
À l'époque, tout le monde avait des lecteurs de CD, à partir du milieu des années 80, puis des CDDA. était le summum du stockage audio grand public - une fois que nous aurons dépassé la discussion sur les vinyles, que je vais ignorer complètement pour cet exercice.
Depuis qu'Apple est passé au sans-DRM AAC au milieu des années 2000 & a introduit iTunes Plus, les maisons de disques ont commencé à télécharger leurs masters audio originaux sur iTunes en 24 bits plutôt qu'en 16 bits. Cette évolution coïncide avec le fait que les ordinateurs sont devenus suffisamment rapides pour que les studios d'enregistrement puissent commencer à utiliser des fréquences plus élevées dans les enregistrements originaux, allant aujourd'hui jusqu'à 24, voire 32 bits 192 kHz, avant de les sous-échantillonner pour les livrer au consommateur. Dans un pur jeu de chiffres, c'est plus de chiffres il est "réel" parce qu'il n'a subi aucun traitement depuis qu'il a quitté le studio d'enregistrement/la suite de mastérisation. C'est la source la plus précise disponible pour quiconque n'est pas en studio.
Lorsque le tout a été encodé en AAC à 256 ou même 320kbps, le résultat est en réalité meilleur que le CDDA
et c'est là que l'argument en faveur du sans perte tombe définitivement.
À moins que les maisons de disques ne publient des données sans perte à ces taux d'échantillonnage/bit, [ce qui s'est produit avec les récents remastérisations des Beatles, uniquement disponibles sur clé USB], la "meilleure" source pour le consommateur est l'AAC qui était déjà avec perte, mais avec une perte presque invisible.