9 votes

Quelle est la différence entre des millions et des milliards dans les paramètres de couleur des imprimantes et des scanners ?

millions/billions

Le volet des préférences "Imprimantes et scanners" propose deux options de couleur : "millions" ou "milliards" de couleurs. Je n'arrive pas à faire la différence. Y a-t-il une raison de choisir l'une plutôt que l'autre ? Peut-être des circonstances particulières ?

Je suis en train de scanner de vieilles photos et de déterminer le compromis temps/énergie/taille du fichier. Les "milliards" semblent faire des photos trois fois plus volumineuses que les "millions" et je n'arrive pas à discerner s'il y a des avantages pour l'archivage.

10voto

Monomeeth Points 61435

Il est peu probable que les vieilles photos aient une profondeur de couleur de plusieurs millions ou milliards. Dans ce cas, il est inutile de numériser les images à une résolution supérieure à 24 bits. (Voir les commentaires ci-dessous).


En bref, dans certaines circonstances, certains utilisateurs peuvent opter pour des milliards de couleurs s'ils font de la photographie haut de gamme, de la conception graphique, de l'impression grand format, etc. et si leur matériel le permet.

Si l'on prend l'exemple des scanners, la couleur (ou profondeur de bits) est la quantité d'informations qu'un scanner obtient de ce que vous numérisez. En gros, plus la profondeur de bits est élevée, plus le nombre de couleurs pouvant être reconnues est important et plus la qualité de la numérisation est élevée.

Au risque de trop simplifier les choses, en résumé :

  • Les numérisations en niveaux de gris sont des images de 8 bits reconnaissant 256 niveaux de gris.
  • un scan couleur 16 bits peut reconnaître jusqu'à 65 536 couleurs
  • un scan couleur 24 bits peut reconnaître jusqu'à 16 777 215 couleurs
  • un scan couleur 32 bits peut reconnaître jusqu'à 4 294 967 296 couleurs.
  • et ainsi de suite

Note : Ce qui précède n'est qu'une explication de base et n'aborde pas les canaux alpha, etc.

Support matériel

Comme je l'ai mentionné plus haut, opter pour des milliards de couleurs dépendra également de la prise en charge de votre matériel. Il est évident que l'affichage de plus de couleurs nécessite plus de mémoire. La plupart des ordinateurs d'aujourd'hui disposent d'un GPU avec suffisamment de mémoire pour prendre en charge les couleurs 32 bits. Les ordinateurs plus anciens, en revanche, peuvent ne prendre en charge que les couleurs 16 bits. Quoi qu'il en soit, votre écran doit également prendre en charge cette fonctionnalité.

De même pour les scanners. Tous les scanners ne peuvent pas numériser à la même profondeur de bits. En utilisant mon résumé ci-dessus, un scanner capable uniquement de 24 bits peut reconnaître jusqu'à 16 777 215 couleurs, ce qui est bien en deçà de la capacité de l'ordinateur. milliards d'euros que certains peuvent scanner.

Je ne peux pas faire la différence

Vous avez déclaré dans votre question, "Je ne peux pas faire la différence" .

Ce n'est pas surprenant, car je doute que de nombreux utilisateurs puissent faire la différence entre des numérisations, des impressions ou des affichages en couleurs 16 bits et 32 bits. Cependant, les utilisateurs disposant d'un logiciel particulier capable d'afficher/de différencier les gradients, les ombres, la transparence, etc. qui nécessitent une large gamme de combinaisons de couleurs peuvent remarquer une différence, et c'est là que l'on revient aux circonstances spécifiques auxquelles vous avez fait allusion dans votre question.

[EDIT]

Le commentaire d'IconDaemon m'a incité à ajouter un exemple de cas où un utilisateur peut vouloir numériser à une résolution et une profondeur de couleur plus élevées que celles prises en charge par son propre ordinateur/écran.

En décembre dernier, j'ai dû produire des affiches grand format pour ma belle-sœur et, pour ce faire, j'ai dû utiliser son Mac beaucoup plus ancien pour les concevoir. Si son vieux Mac n'était pas capable d'afficher des milliards de couleurs, son scanner était capable de faire des numérisations jusqu'à 48 bits. J'ai donc numérisé les images requises en utilisant une profondeur de couleur de 36 bits et une résolution de 600 dpi.

Ensuite, sur son Mac obsolète, j'ai utilisé Photoshop CS5 pour assembler le tout et exporter les fichiers sous forme de PDF de haute qualité prêts à être imprimés. Ces fichiers ont ensuite été transmis à un bureau de service qui a imprimé les affiches grand format. Cependant, si les images originales n'avaient pas été scannées avec une qualité suffisante, les impressions grand format auraient été pixellisées et le manque d'informations sur les couleurs aurait donné une impression où certains effets (par exemple la transparence, etc.) ne seraient pas très bien rendus (voire pas du tout).

3voto

Oskar Points 1242

C'est profondeur de couleur .

Le paramètre Millions prend plus d'espace disque, donc à moins que vous n'ayez besoin d'une très haute résolution des couleurs ou que vous ne voyiez des bandes ou que vous ne vous souciiez pas de la taille du fichier ou de la lenteur de la numérisation, choisissez Millions.

Votre raisonnement est parfaitement sain. Des fichiers plus volumineux pour aucun avantage perceptible - choisissez la basse fidélité.

1voto

silvernightstar Points 301

Concernant une photographie avec une mauvaise exposition et donc un mauvais contraste - c'est-à-dire presque blanche ou presque noire

Si vous disposez d'un scanner de qualité (à partir de 300 dollars australiens), vous pouvez numériser cette photo en couleur 30 bits (à haute résolution, bien sûr), puis utiliser un logiciel [qui aurait été fourni avec le scanner onéreux] pour étendre la plage blanc à blanc ou noir à noir en blanc à noir, et faire apparaître comme par magie des détails qui semblaient ne pas exister. (Je le sais, car je l'ai fait.) Ce n'est pas vraiment de la magie, et il ne récupérera pas les {gris foncés noircis} ou les {gris clairs blanchis}, mais il peut en faire assez pour vous surprendre réellement (à condition, encore une fois, que le détail des couleurs n'ait pas été entièrement détruit). Notez que, dans ce processus d'expansion d'une section de la gamme de couleurs, les 30 bits de détails de la gamme étroite deviennent 24 bits de détails de la gamme complète. (Le terme technique ici est "gamma").

De mémoire, l'œil humain peut différencier 10 [ou peut-être 4] millions de couleurs, dans des conditions idéales. (Je répète : conditions idéales ; cela inclut l'utilisation d'une grande surface de couleur parfaitement uniforme). Comme nous l'avons indiqué, 24 bits représentent près de 17 millions. Le passage de la couleur 16 bits (2/3 x 100 000) à 24 bits fait une différence. Tout ce qui est supérieur est gaspillé, c'est-à-dire dans le résultat final. ("Monomeeth" inclut un exemple impliquant une grande image imprimée professionnellement. Je n'exclurais pas totalement qu'il y ait des conditions dans lesquelles une profondeur de couleur supplémentaire dans l'impression finale a réellement fait une différence matérielle - et en effet, les professionnels peuvent utiliser (puis rejeter) des informations de couleur supplémentaires comme je l'ai décrit ci-dessus - mais il me semble que le problème dans cet exemple était la résolution - 600 dpi avant mise à l'échelle - plutôt que la profondeur de couleur).

Notez que ce qui précède signifie qu'un moniteur capable d'afficher des milliards de couleurs (30 bits) est un gaspillage total (plus de 24 bits) - qu'il s'agisse d'un stratagème marketing bon marché ou d'un appareil de qualité professionnelle (bien qu'à l'inverse, ils semblent les fabriquer avec des couleurs 6 bits ou 10 bits). Idem pour une imprimante.

Le principe ci-dessus (qui consiste à sauver une vieille photo que l'on croyait perdue) s'applique également à la correction de choses telles que la distorsion des couleurs ou la perte de contraste dans n'importe quelle photographie ; si le résultat final est de 24 bits, une numérisation initiale à 30 bits vaut (un peu) la peine d'être effectuée. Dans l'application photo d'Apple, il y a un bouton de correction magique, qui fait bien cela, automatiquement.

En résumé : il vaut la peine de numériser en 30 bits, pour une sortie finale parfaite en 24 bits, mais sauvegarder une numérisation en 30 bits est juste un gaspillage.

LesApples.com

LesApples est une communauté de Apple où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres utilisateurs d'appareils Apple, poser vos propres questions ou résoudre celles des autres.

Powered by:

X