Il est peu probable que les vieilles photos aient une profondeur de couleur de plusieurs millions ou milliards. Dans ce cas, il est inutile de numériser les images à une résolution supérieure à 24 bits. (Voir les commentaires ci-dessous).
En bref, dans certaines circonstances, certains utilisateurs peuvent opter pour des milliards de couleurs s'ils font de la photographie haut de gamme, de la conception graphique, de l'impression grand format, etc. et si leur matériel le permet.
Si l'on prend l'exemple des scanners, la couleur (ou profondeur de bits) est la quantité d'informations qu'un scanner obtient de ce que vous numérisez. En gros, plus la profondeur de bits est élevée, plus le nombre de couleurs pouvant être reconnues est important et plus la qualité de la numérisation est élevée.
Au risque de trop simplifier les choses, en résumé :
- Les numérisations en niveaux de gris sont des images de 8 bits reconnaissant 256 niveaux de gris.
- un scan couleur 16 bits peut reconnaître jusqu'à 65 536 couleurs
- un scan couleur 24 bits peut reconnaître jusqu'à 16 777 215 couleurs
- un scan couleur 32 bits peut reconnaître jusqu'à 4 294 967 296 couleurs.
- et ainsi de suite
Note : Ce qui précède n'est qu'une explication de base et n'aborde pas les canaux alpha, etc.
Support matériel
Comme je l'ai mentionné plus haut, opter pour des milliards de couleurs dépendra également de la prise en charge de votre matériel. Il est évident que l'affichage de plus de couleurs nécessite plus de mémoire. La plupart des ordinateurs d'aujourd'hui disposent d'un GPU avec suffisamment de mémoire pour prendre en charge les couleurs 32 bits. Les ordinateurs plus anciens, en revanche, peuvent ne prendre en charge que les couleurs 16 bits. Quoi qu'il en soit, votre écran doit également prendre en charge cette fonctionnalité.
De même pour les scanners. Tous les scanners ne peuvent pas numériser à la même profondeur de bits. En utilisant mon résumé ci-dessus, un scanner capable uniquement de 24 bits peut reconnaître jusqu'à 16 777 215 couleurs, ce qui est bien en deçà de la capacité de l'ordinateur. milliards d'euros que certains peuvent scanner.
Je ne peux pas faire la différence
Vous avez déclaré dans votre question, "Je ne peux pas faire la différence" .
Ce n'est pas surprenant, car je doute que de nombreux utilisateurs puissent faire la différence entre des numérisations, des impressions ou des affichages en couleurs 16 bits et 32 bits. Cependant, les utilisateurs disposant d'un logiciel particulier capable d'afficher/de différencier les gradients, les ombres, la transparence, etc. qui nécessitent une large gamme de combinaisons de couleurs peuvent remarquer une différence, et c'est là que l'on revient aux circonstances spécifiques auxquelles vous avez fait allusion dans votre question.
[EDIT]
Le commentaire d'IconDaemon m'a incité à ajouter un exemple de cas où un utilisateur peut vouloir numériser à une résolution et une profondeur de couleur plus élevées que celles prises en charge par son propre ordinateur/écran.
En décembre dernier, j'ai dû produire des affiches grand format pour ma belle-sœur et, pour ce faire, j'ai dû utiliser son Mac beaucoup plus ancien pour les concevoir. Si son vieux Mac n'était pas capable d'afficher des milliards de couleurs, son scanner était capable de faire des numérisations jusqu'à 48 bits. J'ai donc numérisé les images requises en utilisant une profondeur de couleur de 36 bits et une résolution de 600 dpi.
Ensuite, sur son Mac obsolète, j'ai utilisé Photoshop CS5 pour assembler le tout et exporter les fichiers sous forme de PDF de haute qualité prêts à être imprimés. Ces fichiers ont ensuite été transmis à un bureau de service qui a imprimé les affiches grand format. Cependant, si les images originales n'avaient pas été scannées avec une qualité suffisante, les impressions grand format auraient été pixellisées et le manque d'informations sur les couleurs aurait donné une impression où certains effets (par exemple la transparence, etc.) ne seraient pas très bien rendus (voire pas du tout).