Hello, y’a pas de honte à débuter et encore moins à poser des questions qui nous taraude.
Je vais essayer d’être simple : même si beaucoup d’informations vont arriver, mais tu as tout le temps de les ingurgiter trankilou.
Don phanus a écrit : ↑11 déc. 2020, 00:31
Donc je m'explique, pourriez vous m'expliquer comment fonctionne la VA.
Le Visuel Assisté consiste principalement à utiliser (en plus d’un instrument d’observation comme une lunette ou un télescope par exemple) des équipements électroniques supplémentaires, notamment une camera que l’on va glisser dans le porte oculaire pour faire le travail de notre œil.
Ensuite pour convertir les informations numériques de la camera et les afficher sur un écran, on passe souvent par un ordinateurs (un portable, un ordinateur déporté ou un truc qui fait office de mini ordi collé au scope comme un système type ASIair). Ici peu importe le matos l’objectif reste le même.
Dans le cas d’un pc, il faut bien sûr au moins un logiciel d’acquisition.
Don phanus a écrit : ↑11 déc. 2020, 00:31
On branche un pc à la Cam, on installe au préalable un logiciel d'acquisition (lequel et pourquoi ?)
Pourquoi ? Parce que l’écran ne peut exploiter directement le signal numérique en sortie de la camera, il faut une étape juste avant de pouvoir afficher le contenu sur l’écran. Le logiciel s’occupe de réaliser cette étape.
Lequel : il en existe plusieurs, premièrement celui fourni par le fabricant de la camera peut faire ce travail (généralement téléchargeable sur leur site web).
Mais nous sommes beaucoup ici à utiliser Sharpcap.
Pourquoi : car c’est un logiciel peu onéreux, 12€/an pour la licence pro. Avec plein de fonctionnalités utiles, je ne vais pas en faire la liste exhaustive mais principalement.
Ce logiciel permet de réaliser un pré-traitement :
- création et application d’un Master Dark, (une moyenne de plusieurs images faites au préalable capteur masqué

) qui va supprimer les pixels chaud et la lueur d’ampli du capteur (sur certains capteurs), à réaliser dans les mêmes conditions de température, de temps unitaire et de gain que les images qui viendront par la suite.
- création et application d’un Master Flat (une moyenne de plusieurs images faites avec un écran à flat ou en imageant un fond de ciel uniforme) qui permet de corriger le vignetage (assombrissement dans les coins) ainsi que les traces de doigts ou de poussières sur le train optique qui dégradent l’image.
Et tout ça en direct mais ces 2 étapes précédentes (dark et flat) ne sont pas obligatoires (certains s’en passent tout dépendra du temps dont tu disposes, du matériel que tu as et du rendu final que tu attends !). Le plus simple c’est de commencer sans
Sharpcap permet surtout via sa fonctionnalité « live stacking » de réaliser en plus un alignement + un empilement des images.
A quoi ça sert tout ça ? (alignement + un empilement des images) Ben n’exploiter qu’une seule image issue de la camera ne permettra pas de tirer beaucoup de signal en éliminant le bruit autour. Il faut savoir que le capteur fait de plusieurs milliers voire millions de pixels, réceptionne tous les photons qui lui arrive sur la tronche.
Certains pixels vont capter du signal, d’autres du bruit, issu par exemple du fin fond de l’espace. Le capteur ne sait pas discriminer le bruit du signal.
Il ne fait que convertir la lumière en électron qu’il va stocker jusqu’à ce qu’on vienne lire ce qu’il a enregistré.
Et un simple logiciel d’acquisition non plus, si on affiche ce qui sort du capteur, on a une image faiblarde en intensité et très bruitée.
L’empilement d’images avec le bon algorithme permet de diminuer ce facteur bruit sur l’image en augmentant le rapport signal sur bruit, (en quelque sorte la qualité du rendu final). Ensuite en triturant correctement l’histogramme, on parvient à faire cracher un maximum de signal de notre image et ce encore une fois en temps réel !
Avant de pouvoir faire l’empilement, le logiciel va d’abord réaliser un alignement. Il compare les images entres elles : la précédente par rapport à la nouvelle qui arrive et va les aligner afin de faire correspondre les étoiles, les nébulosités ... et cela va permettre lors de l’empilement de repérer les pixels qui ont capter de la « fausse information » afin de réduire leur influence dans l’image et de conserver ceux qui on reçus de la « véritable information ». Le bruit étant aléatoire, sur un grand nombre d’échantillons, donc un grand nombre d’images dans notre cas, les chances qu’il réapparaisse sans cesse au même endroit sont peu probables. Un algorithme permet de se débarrasser du bonne quantité de ce bruit. Mais, il faut un certain nombre d’images pour que l’effet soit visible.
L’alignement est nécessaire car le suivi de la monture n’est jamais parfait, et entre deux poses sur un mème objets, il y aura un très léger bougé en translation et/ou en rotation qui sera visible sur l’image car les pixels sont minuscules (seulement quelques microns).
Don phanus a écrit : ↑11 déc. 2020, 00:31
j'ai lu qu'il y avait des temps de pose (pause à la machine à café peut-être, avec un aspirine pour infuser toutes les infos, et une petite sieste pour se remettre de ses émotions).
Oui pour temps de pose il y a deux termes :
Le temps de pose unitaire qui correspond à la durée durant laquelle l’obturateur reste ouvert pour laisser passer la lumière donc le temps d’exposition où le capteur est illuminé. On essai de poser longtemps pour emmagasiné un max de lumière mais généralement on est limité par le suivi de la monture qui n’est pas parfait.
Alors on fait plusieurs poses unitaires (de 2s à 30s la plupart du temps en fonction de l’objet imagé) que l’on va cumuler pour atteindre le temps de pose total. Plusieurs minutes avant de changer de cible, soit lorsqu’on est satisfait du résultat soit lorsqu’on en a marre d’être sur le même objet !
Don phanus a écrit : ↑11 déc. 2020, 00:31
Donc si temps de pose, je suppose que ce n'est pas juste du visuel mais de l'enregistrement et du traitement ?
Quelles sont les étapes pour la VA, c'est à dire doit on laisser la monture suivre et le logiciel enregistrer pour ensuite traite et obtenir quelque chose à voir ?
Oui, rien n’est immédiat mais à la différence de l’astrophotographie, qui demande un traitement à posteriori assez lourd (post-traitement fait le lendemain ou bien deux mois plus tard) le VA c’est du quasi temps réel. Si tu fais des poses unitaires de 8s par exemple, ça veut dire que toutes les 8s une image arrive, Sharpcap l’alignera avec les précédentes puis l’empilera dans la foulée et tu verras progressivement la qualité de ton image s’améliorer toutes le 8s
Don phanus a écrit : ↑11 déc. 2020, 00:31
Peut on juste admirer et dans ce cas (définition de la VA) que voit on de different qu'avec l'oculaire ?
Voilà un petit résumé, j'ai encore plein de questions pour ceux donc les nuits sont une perte de temps et ont des insomnies.
Si je n'ai pas trouvé mais que le sujet a été traité, merci de m'en informer.
Merci
Ben le capteur va permettre d’atteindre un rendu bien meilleur qu’à l’œil placer derrière l’oculaire. On voit des choses à l’écran que l’on ne voit pas à l’oculaire : des détails, des nébulosités, de la couleur ...