soulearth a écrit : ↑29 août 2020, 19:24
plus de bits = plus de nuance de couleur. J'ai bon ?
Oui c'est ça. Mais bien que ce soit lié, ce n'est pas directement la dynamique du signal, qui est ce qui nous importe en premier lieu.
Attention, je passe en mode professeur Clouzot. Vous avez le droit de sortir si ça vous saoule, je ne vous en voudrai pas.
La dynamique, par définition, c'est l'écart d'intensité entre le niveau le plus faible représentable par un système, et le niveau le plus fort représentable.
Le concept de dynamique va toucher des trucs comme le bruit de la caméra (un signal plus faible que ce bruit sera toujours "bouffé" par le bruit et donc perdu), le fullwell (la capacité de chaque pixel à engranger du photon avant de saturer et de déborder sur les voisins). Sans compter qu'il s'agit dans ton cas d'une caméra couleur, une 385c. Mais on peut simplifier, et dire, pour les besoins de l'exercice, qu'on a une image issue d'une caméra mono (une caméra couleur ça n'est jamais que 3 caméras monos avec des filtres colorés devant).
Dans cette caméra mono, chaque pixel a son intensité lumineuse décrite par un nombre
entier entre 0 et... quelque chose.
Mettons, pour l'expérience, que ce "quelque chose" c'est 1. Chaque pixel peut donc être soit éteint (0) soit allumé (1). Là, on a une dynamique de 1 bit, 2 valeurs de lumière possible (éteint ou allumé). Autant dire que l'image qui sortirait d'une telle caméra serait bien moche (exemple tiré de Wikipedia)

- image.png (8.91 Kio) Consulté 1351 fois
Toujours pour l'expérience, on va monter à "quelque chose" = 3. Là, chaque pixel peut prendre 4 valeurs différentes (0, 1, 2, ou 3). On a toujours 0 = éteint, et désormais 3 = allumé. Les valeurs 1 et 2 correspondent à des niveaux de gris plus ou moins foncé. Dans ce cas, on dit qu'on a une représentation sur 2 bits (chaque pixel peut avoir une valeur binaire 00, 01, 10 ou 11, ce qui correspond à 0, 1, 2 ou 3 en décimal).

- image.png (4.94 Kio) Consulté 1351 fois
En ainsi de suite (on se rend compte qu'à chaque fois qu'on rajoute un bit nouveau, on double les valeurs possibles pour le pixel) jusqu'à arriver à la façon dont fonctionnent nos caméras actuelles, en particulier une 385 version mono : chaque pixel peut prendre des valeurs représentées par 12 bits, soit 2 puissance 12 valeurs possibles, soit 4096 valeurs allant de 0 à...4095. La dynamique est alors dite "de 12 bits" ou "de 12 stops".

- image.png (55.33 Kio) Consulté 1351 fois
Dans ton cas, comme c'est une caméra couleurs, chaque CANAL de couleur peut prendre 4096 valeurs possibles. Je fais rapidement, mais pour chaque "pixel couleur" de la caméra, on a la contribution d'un sous-pixel rouge, d'un sous-pixel bleu, et d'un sous-pixel vert (2 sous-pixels verts, en fait, mais passons). On les combine, et on obtient une image colorée, donc chaque pixel va avoir une couleur qui dépend du mélange des trois canaux R V B selon leurs niveaux

- image.png (92.12 Kio) Consulté 1351 fois
On parle d'une représentation 3 x 12 bits = 36 bits couleur (bien plus large que ce qu'un oeil humain peut voir comme nuances de couleurs).
Ceci étant dit, la dynamique reste toujours par définition la différence entre le signal le plus faible (du noir complet, chaque canal R V B à 0) et le plus fort (du blanc, pour lequel les 3 canaux R V B ont leur valeur maximale possible). Bref, on a toujours 12 bits de dynamique : une caméra couleur et une caméra mono, ça fonctionne pareil pour ça.
Par contre, le nombre de nuances de couleurs représentables dépend bel et bien, comme tu l'écris, du nombre de bits par canal (mais ça n'est pas la "dynamique" à proprement parler). En RAW12, tu as 12 bits par canal. En RGB24, tu n'en as plus que 8 : c'est le mode dit "Truecolor" qui est censé être ce qu'un oeil humain peut discerner comme nuances...sauf qu'on ne parle pas d'un écran PC qui affiche une image normale ou une interface de logiciel, mais d'une image astronomique qu'on va triturer dans tous les sens, qu'on va étirer comme un élastique, dont peut-être on ne va d'ailleurs représenter qu'une petite partie des 12 (ou 8) bits tout en l'étirant.
... et là, le fait de bosser en RAW prend tout son sens, car pour les objets faibles comme les galaxies, les nébuleuses, il est possible que le signal du capteur ne s'étende réellement que sur 50% de la dynamique totale : on va prendre ces 50%, et on va les étirer pour qu'ils occupent 100% de la dynamique de l'image finalisée que l'on va poster sur AVA : ce qui est plus faible (le bruit de la caméra, le fond de ciel), on le vire. Ce qui est plus fort (les étoiles), on va le raboter.
En RGB24, pour chaque canal de couleur, on a donc 50% de 8 bits, soit 4 bits de dynamique entre le noir complet et le blanc pur qui vont se retrouver sur l'image finale. En RAW12, on a 6 bits, soit 4 fois plus de niveaux représentables (voir la formule 2 puissance N un peu plus haut). On y gagne énormément. Et plus on monte en gamme (une 294 sort 14 bits par canal, une 2600 sort 16 bits...) plus ça devient important de le faire, sinon on y perd beaucoup.
Par contre, en planétaire ou lunaire, l'intérêt est moindre : ce sont des objets brillants, qui vont occuper bien plus de dynamique qu'une galaxie : on va très peu étirer les histogrammes, on ne va donc pas énormément perdre de dynamique. Qui plus est, on va empiler des centaines ou des milliers d'image, ce qui va compenser une éventuelle perte de nuances (expliquer pourquoi prendrait une seconde tartine de texte, alors ça sera pour plus tard

)