Besoin d'explicationS VA

Explication des différentes techniques du Visuel Assisté
Répondre
Don phanus
Messages : 59
Inscription : 20 nov. 2020, 21:21
Localisation : Haapiti Moorea polynesie française

Besoin d'explicationS VA

Message par Don phanus » 11 déc. 2020, 00:31

Salut à tous,
Comme expliqué dans ma présentation, je suis novice en astro et donc en VA.
Depuis l'acquisition du C8, je n'ai pu sortir le tube que quelques fois étant donné que nous sommes en saison des pluies et qu'en ce moment, nous allons de perturbation en perturbation.
Du coup j'essai d'acquérir des connaissances théoriques que j'espère pouvoir mettre en pratique prochainement.
J'ai parcouru plusieurs post (pas tous) et je n'ai pas trouvé ce que je cherche, c'est à dire des explications pour un enfant de 10 ans 😁). Tout ce que je trouve est en chinois pour moi (pardon si des chinois sont dans l'assemblée, c'est juste une expression, je n'ai pas envie que ça finisse comme Charlie hebdo 😇).
Donc je m'explique, pourriez vous m'expliquer comment fonctionne la VA.
On branche un pc à la Cam, on installe au préalable un logiciel d'acquisition (lequel et pourquoi ?), j'ai lu qu'il y avait des temps de pose (pause à la machine à café peut-être, avec un aspirine pour infuser toutes les infos, et une petite sieste pour se remettre de ses émotions).
Donc si temps de pose, je suppose que ce n'est pas juste du visuel mais de l'enregistrement et du traitement ?
Quelles sont les étapes pour la VA, c'est à dire doit on laisser la monture suivre et le logiciel enregistrer pour ensuite traite et obtenir quelque chose à voir ?
Peut on juste admirer et dans ce cas (définition de la VA) que voit on de different qu'avec l'oculaire ?
Voilà un petit résumé, j'ai encore plein de questions pour ceux donc les nuits sont une perte de temps et ont des insomnies.
Si je n'ai pas trouvé mais que le sujet a été traité, merci de m'en informer.

Merci

Avatar de l’utilisateur
Petit Astro
Messages : 1894
Inscription : 11 avr. 2020, 17:15
Localisation : Région Parisienne

Besoin d'explicationS VA

Message par Petit Astro » 11 déc. 2020, 01:59

Hello, y’a pas de honte à débuter et encore moins à poser des questions qui nous taraude.

Je vais essayer d’être simple : même si beaucoup d’informations vont arriver, mais tu as tout le temps de les ingurgiter trankilou. :D
Don phanus a écrit :
11 déc. 2020, 00:31
Donc je m'explique, pourriez vous m'expliquer comment fonctionne la VA.
Le Visuel Assisté consiste principalement à utiliser (en plus d’un instrument d’observation comme une lunette ou un télescope par exemple) des équipements électroniques supplémentaires, notamment une camera que l’on va glisser dans le porte oculaire pour faire le travail de notre œil.

Ensuite pour convertir les informations numériques de la camera et les afficher sur un écran, on passe souvent par un ordinateurs (un portable, un ordinateur déporté ou un truc qui fait office de mini ordi collé au scope comme un système type ASIair). Ici peu importe le matos l’objectif reste le même.

Dans le cas d’un pc, il faut bien sûr au moins un logiciel d’acquisition.
Don phanus a écrit :
11 déc. 2020, 00:31
On branche un pc à la Cam, on installe au préalable un logiciel d'acquisition (lequel et pourquoi ?)
Pourquoi ? Parce que l’écran ne peut exploiter directement le signal numérique en sortie de la camera, il faut une étape juste avant de pouvoir afficher le contenu sur l’écran. Le logiciel s’occupe de réaliser cette étape.

Lequel : il en existe plusieurs, premièrement celui fourni par le fabricant de la camera peut faire ce travail (généralement téléchargeable sur leur site web).

Mais nous sommes beaucoup ici à utiliser Sharpcap.

Pourquoi : car c’est un logiciel peu onéreux, 12€/an pour la licence pro. Avec plein de fonctionnalités utiles, je ne vais pas en faire la liste exhaustive mais principalement.
Ce logiciel permet de réaliser un pré-traitement :
- création et application d’un Master Dark, (une moyenne de plusieurs images faites au préalable capteur masqué :ninja: ) qui va supprimer les pixels chaud et la lueur d’ampli du capteur (sur certains capteurs), à réaliser dans les mêmes conditions de température, de temps unitaire et de gain que les images qui viendront par la suite.
- création et application d’un Master Flat (une moyenne de plusieurs images faites avec un écran à flat ou en imageant un fond de ciel uniforme) qui permet de corriger le vignetage (assombrissement dans les coins) ainsi que les traces de doigts ou de poussières sur le train optique qui dégradent l’image.

Et tout ça en direct mais ces 2 étapes précédentes (dark et flat) ne sont pas obligatoires (certains s’en passent tout dépendra du temps dont tu disposes, du matériel que tu as et du rendu final que tu attends !). Le plus simple c’est de commencer sans ;)

Sharpcap permet surtout via sa fonctionnalité « live stacking » de réaliser en plus un alignement + un empilement des images.

A quoi ça sert tout ça ? (alignement + un empilement des images) Ben n’exploiter qu’une seule image issue de la camera ne permettra pas de tirer beaucoup de signal en éliminant le bruit autour. Il faut savoir que le capteur fait de plusieurs milliers voire millions de pixels, réceptionne tous les photons qui lui arrive sur la tronche.
Certains pixels vont capter du signal, d’autres du bruit, issu par exemple du fin fond de l’espace. Le capteur ne sait pas discriminer le bruit du signal.
Il ne fait que convertir la lumière en électron qu’il va stocker jusqu’à ce qu’on vienne lire ce qu’il a enregistré.
Et un simple logiciel d’acquisition non plus, si on affiche ce qui sort du capteur, on a une image faiblarde en intensité et très bruitée.

L’empilement d’images avec le bon algorithme permet de diminuer ce facteur bruit sur l’image en augmentant le rapport signal sur bruit, (en quelque sorte la qualité du rendu final). Ensuite en triturant correctement l’histogramme, on parvient à faire cracher un maximum de signal de notre image et ce encore une fois en temps réel !

Avant de pouvoir faire l’empilement, le logiciel va d’abord réaliser un alignement. Il compare les images entres elles : la précédente par rapport à la nouvelle qui arrive et va les aligner afin de faire correspondre les étoiles, les nébulosités ... et cela va permettre lors de l’empilement de repérer les pixels qui ont capter de la « fausse information » afin de réduire leur influence dans l’image et de conserver ceux qui on reçus de la « véritable information ». Le bruit étant aléatoire, sur un grand nombre d’échantillons, donc un grand nombre d’images dans notre cas, les chances qu’il réapparaisse sans cesse au même endroit sont peu probables. Un algorithme permet de se débarrasser du bonne quantité de ce bruit. Mais, il faut un certain nombre d’images pour que l’effet soit visible.

L’alignement est nécessaire car le suivi de la monture n’est jamais parfait, et entre deux poses sur un mème objets, il y aura un très léger bougé en translation et/ou en rotation qui sera visible sur l’image car les pixels sont minuscules (seulement quelques microns).

Don phanus a écrit :
11 déc. 2020, 00:31
j'ai lu qu'il y avait des temps de pose (pause à la machine à café peut-être, avec un aspirine pour infuser toutes les infos, et une petite sieste pour se remettre de ses émotions).
Oui pour temps de pose il y a deux termes :

Le temps de pose unitaire qui correspond à la durée durant laquelle l’obturateur reste ouvert pour laisser passer la lumière donc le temps d’exposition où le capteur est illuminé. On essai de poser longtemps pour emmagasiné un max de lumière mais généralement on est limité par le suivi de la monture qui n’est pas parfait.
Alors on fait plusieurs poses unitaires (de 2s à 30s la plupart du temps en fonction de l’objet imagé) que l’on va cumuler pour atteindre le temps de pose total. Plusieurs minutes avant de changer de cible, soit lorsqu’on est satisfait du résultat soit lorsqu’on en a marre d’être sur le même objet ! :mrgreen:
Don phanus a écrit :
11 déc. 2020, 00:31
Donc si temps de pose, je suppose que ce n'est pas juste du visuel mais de l'enregistrement et du traitement ?
Quelles sont les étapes pour la VA, c'est à dire doit on laisser la monture suivre et le logiciel enregistrer pour ensuite traite et obtenir quelque chose à voir ?
Oui, rien n’est immédiat mais à la différence de l’astrophotographie, qui demande un traitement à posteriori assez lourd (post-traitement fait le lendemain ou bien deux mois plus tard) le VA c’est du quasi temps réel. Si tu fais des poses unitaires de 8s par exemple, ça veut dire que toutes les 8s une image arrive, Sharpcap l’alignera avec les précédentes puis l’empilera dans la foulée et tu verras progressivement la qualité de ton image s’améliorer toutes le 8s ;)
Don phanus a écrit :
11 déc. 2020, 00:31
Peut on juste admirer et dans ce cas (définition de la VA) que voit on de different qu'avec l'oculaire ?
Voilà un petit résumé, j'ai encore plein de questions pour ceux donc les nuits sont une perte de temps et ont des insomnies.
Si je n'ai pas trouvé mais que le sujet a été traité, merci de m'en informer.
Merci
Ben le capteur va permettre d’atteindre un rendu bien meilleur qu’à l’œil placer derrière l’oculaire. On voit des choses à l’écran que l’on ne voit pas à l’oculaire : des détails, des nébulosités, de la couleur ...

Don phanus
Messages : 59
Inscription : 20 nov. 2020, 21:21
Localisation : Haapiti Moorea polynesie française

Besoin d'explicationS VA

Message par Don phanus » 11 déc. 2020, 05:43

Petit Astro a écrit :
11 déc. 2020, 01:59

Mais nous sommes beaucoup ici à utiliser Sharpcap.

Pourquoi : car c’est un logiciel peu onéreux, 12€/an pour la licence pro. Avec plein de fonctionnalités utiles, je ne vais pas en faire la liste exhaustive mais principalement.
Ce logiciel permet de réaliser un pré-traitement :
- création et application d’un Master Dark, (une moyenne de plusieurs images faites au préalable capteur masqué :ninja: ) qui va supprimer les pixels chaud et la lueur d’ampli du capteur (sur certains capteurs), à réaliser dans les mêmes conditions de température, de temps unitaire et de gain que les images qui viendront par la suite.
- création et application d’un Master Flat (une moyenne de plusieurs images faites avec un écran à flat ou en imageant un fond de ciel uniforme) qui permet de corriger le vignetage (assombrissement dans les coins) ainsi que les traces de doigts ou de poussières sur le train optique qui dégradent l’image.

Et tout ça en direct mais ces 2 étapes précédentes (dark et flat) ne sont pas obligatoires (certains s’en passent tout dépendra du temps dont tu disposes, du matériel que tu as et du rendu final que tu attends !). Le plus simple c’est de commencer sans ;)

Sharpcap permet surtout via sa fonctionnalité « live stacking » de réaliser en plus un alignement + un empilement des images.

A quoi ça sert tout ça ? (alignement + un empilement des images) Ben n’exploiter qu’une seule image issue de la camera ne permettra pas de tirer beaucoup de signal en éliminant le bruit autour. Il faut savoir que le capteur fait de plusieurs milliers voire millions de pixels, réceptionne tous les photons qui lui arrive sur la tronche.
Certains pixels vont capter du signal, d’autres du bruit, issu par exemple du fin fond de l’espace. Le capteur ne sait pas discriminer le bruit du signal.
Il ne fait que convertir la lumière en électron qu’il va stocker jusqu’à ce qu’on vienne lire ce qu’il a enregistré.
Et un simple logiciel d’acquisition non plus, si on affiche ce qui sort du capteur, on a une image faiblarde en intensité et très bruitée.

L’empilement d’images avec le bon algorithme permet de diminuer ce facteur bruit sur l’image en augmentant le rapport signal sur bruit, (en quelque sorte la qualité du rendu final). Ensuite en triturant correctement l’histogramme, on parvient à faire cracher un maximum de signal de notre image et ce encore une fois en temps réel !

Avant de pouvoir faire l’empilement, le logiciel va d’abord réaliser un alignement. Il compare les images entres elles : la précédente par rapport à la nouvelle qui arrive et va les aligner afin de faire correspondre les étoiles, les nébulosités ... et cela va permettre lors de l’empilement de repérer les pixels qui ont capter de la « fausse information » afin de réduire leur influence dans l’image et de conserver ceux qui on reçus de la « véritable information ». Le bruit étant aléatoire, sur un grand nombre d’échantillons, donc un grand nombre d’images dans notre cas, les chances qu’il réapparaisse sans cesse au même endroit sont peu probables. Un algorithme permet de se débarrasser du bonne quantité de ce bruit. Mais, il faut un certain nombre d’images pour que l’effet soit visible.

L’alignement est nécessaire car le suivi de la monture n’est jamais parfait, et entre deux poses sur un mème objets, il y aura un très léger bougé en translation et/ou en rotation qui sera visible sur l’image car les pixels sont minuscules (seulement quelques microns).
Merci pour ces explications.
Par contre, est ce que tous ces traitements sont automatiques ou c'est toi qui décide de le faire ?
est ce que ça prend autant de temps que lorsque tu fais du montage vidéo, parce que vu toutes ces étapes ça me parait prendre beaucoup de temps de montage.

Avatar de l’utilisateur
sebb916
Messages : 6723
Inscription : 09 avr. 2019, 08:53
Localisation : Bettviller (Moselle)

Besoin d'explicationS VA

Message par sebb916 » 11 déc. 2020, 05:57

Le logiciel fait tout automatiquement avec plus ou moins de possibilités de contrôle en temps réel selon le logiciel.

Les plus impatients se contentent de poses unitaires de quelques secondes, les images s'empilent pendant quelques minutes, parfois deux trois suffisent pour voir un objet qu'il serait impossible de voir de la même façon avec un télescope bien plus gros et avec un ciel bien meilleur.

Ceux qui sont un peu plus patients ou un peu mieux équipés faut des poses de 30 secondes à 2 minutes mais là ça devient long d'attendre entre chaque image, c'est une question de choix.

Ceux qui sont encore plus patients réalisent a minima des darks (car il ne faut aucun accessoire particulier), voire des flats en plus (comme expliqué ci-dessus) ce qui nécessite un écran lumineux homogène, mais là on est déjà chez les pointilleux.

Un fabricant comme Atik propose un logiciel qui ne fonctionne qu'avec les caméras de sa marque et qui est d'une simplicité déconcertante pour le visuel assisté, auquel il est destiné.

Beaucoup ici conservent quelques images de chaque objet , images souvent qualifiées de "photomoches" (AOP APPELLATION D'ORIGINE PROTÉGÉE) tandis que d'autres passent un peu de temps à améliorer l'image, certains logiciels, courants comme spécialisés, permettant une belle amélioration en quelques minutes seulement.

Ainsi, l'astrophotographie en comparaison met en œuvre des temps de pose incroyablement longs (pose unitaire allant jusqu'à 10 minutes et durée totale d'exposition pouvant atteindre une centaine d'heure , soit des dizaines de nuit d'observations cumulées) suivi d'un traitement numérique pouvant prendre lui aussi des dizaines d'heures...

Enfin, il existe des oculaires d'intensification qui amplifient en temps réel ce que l'on observe, sans aucun traitement de la part de l'utilisateur ni avant et après : il s'agit donc là de visuel assisté au sens "pur" du terme.

Tu peux aller voir sur ma chaîne youtube les nombreux exemples que j'ai enregistré, notamment une séance en direct pendant plus de 4 heures ou j'explique justement tout cela.


PS : possibilité de fautes dans mon texte, rédiger en dictée vocale à 6h du matin et sans lecture pour le moment

Avatar de l’utilisateur
ouki
Messages : 7489
Inscription : 09 avr. 2019, 22:24
Localisation : Perpignan

Besoin d'explicationS VA

Message par ouki » 11 déc. 2020, 07:26

ATTENTION @Don phanus JE TE RAPPELLE QUE’DANS TON MATOS TU DISPOSE D'UNE CAMERA UN PEU SPÉCIALE QUI MERITE TOUTE ON ATTENTION

Faut juste verifier :mrgreen:

Don phanus
Messages : 59
Inscription : 20 nov. 2020, 21:21
Localisation : Haapiti Moorea polynesie française

Besoin d'explicationS VA

Message par Don phanus » 11 déc. 2020, 07:38

ouki a écrit :
11 déc. 2020, 07:26
ATTENTION @Don phanus JE TE RAPPELLE QUE’DANS TON MATOS TU DISPOSE D'UNE CAMERA UN PEU SPÉCIALE QUI MERITE TOUTE ON ATTENTION

Faut juste verifier :mrgreen:
Je l'ai jeté, matériel trop vieux


Non je blague :mrgreen:

Avatar de l’utilisateur
ouki
Messages : 7489
Inscription : 09 avr. 2019, 22:24
Localisation : Perpignan

Besoin d'explicationS VA

Message par ouki » 11 déc. 2020, 08:08

Vraiment il faudrait vérifier cette caméra Mallincam en demandant directement au fabricant la notice (qui existe toujours) avec un peu de chance elle est peux être capable d'empiler seule sans ordinateur ( certaines caméras analogiques le font dont leur célèbre révolution imager).

Pour toi il y aurait juste besoin d'un réducteur de focale de 25€ à 150€ et roule

Avatar de l’utilisateur
kaelig
Messages : 7176
Inscription : 15 juil. 2020, 21:02
Localisation : Rennes - Bortle 4

Besoin d'explicationS VA

Message par kaelig » 11 déc. 2020, 08:15

@Petit Astro : super réponses, tout y est :ave:

Cool le jeté de caméra ...Monsieur a de l'humour, j'aime ça :mrgreen:

Au début, maîtriser le setup dans le noir, comprendre comment ca fonctionne, le faire fonctionner .... ca prend beaucoup de temps.

Pour améliorer ma maitrise, maintenant, je teste et je me familiarise avec mon setup en journée. C'est plus simple pour lire la
documentation, aller chercher des vidéos sur youtube, poser des questions sur le forum. Je ne fais jamais tout, point par point et
j'approfondie.

Par exemple: le goto, avec raquette, en direct sur le PC
la caméra: faire apparaitre une image ...

Par exemple, en ce moment, j'installe un Rpi avec Stellarmate pour commander à distance mon télescope, je passe beaucoup
de temps à lire, à revoir la connectique, à tester en simulation.

Note importante: beaucoup de logiciels ont des configurations "simulations" qui permet d'expérimenter sans avoir le matériel
ou sans connecter le matériel. Pour apprendre à utiliser les outils, c'est super.

Il y a plein de logiciels, c'est aussi une histoire de feeling, ceux qui te parlent car ils te paraissent clair. Les logiciels sont
aussi dépendants de ton matériel, je crois que pour un C8, ceux qui en ont peuvent de dire les logiciels qu'ils utilisent
et pourquoi. Cela t'évitera de perdre du temps.

Pour les caméras Mallincam, la doc peut-être ici:
https://www.mallincam.net/manuals--guides.html

Je veux bien une photo de la caméra et de ses marquages. On n'en a pas ici, je suis curieuse.

@clouzot pourrais-tu STP faire une short list de logiciel pour l'utilisation du C8 & du starsense, merci d'avance

Avatar de l’utilisateur
Greenood
Messages : 1382
Inscription : 09 avr. 2019, 08:06

Besoin d'explicationS VA

Message par Greenood » 11 déc. 2020, 08:31

ouki a écrit :
11 déc. 2020, 08:08
Vraiment il faudrait vérifier cette caméra Mallincam en demandant directement au fabricant la notice (qui existe toujours) avec un peu de chance elle est peux être capable d'empiler seule sans ordinateur ( certaines caméras analogiques le font dont leur célèbre révolution imager).

Pour toi il y aurait juste besoin d'un réducteur de focale de 25€ à 150€ et roule
je dirais que le réducteur c'est la priorité car à f/10 les temps de pose s'envole et le champ se réduit au trou de serrure.

chez Celestron tu as le courant 0.63x (f/6.3) à 150€

et j'ai découvert récemment celui la 0.33x (f/3.3) (126€)
https://www.inova-ccd.com/pro/catalog/p ... cts_id=426

https://www.webastro.net/forums/topic/1 ... e-et-cher/

Avatar de l’utilisateur
ouki
Messages : 7489
Inscription : 09 avr. 2019, 22:24
Localisation : Perpignan

Besoin d'explicationS VA

Message par ouki » 11 déc. 2020, 08:35

kaelig a écrit :
11 déc. 2020, 08:15
Pour les caméras Mallincam, la doc peut-être ici:
https://www.mallincam.net/manuals--guides.html

Je veux bien une photo de la caméra et de ses marquages. On n'en a pas ici, je suis curieuse
Décidément @kaelig tu m'étonnera toujours UN GRAND MERCI
Je viens de charger la doc de ta caméra @Don phanus si elle fonctionne encore (j'en suis a peu près certain) Ben tu peux faire du visuel assisté
Une technique un peu a part mais OHHHHHHHHHHHHHHHHHHHHHHHH COMBIEN intéressante carrément en live semi live.

La cam
received_1065958933853661.jpeg
received_1065958933853661.jpeg (29.99 Kio) Consulté 3607 fois

Et oui mo
received_396831108340712.jpeg
received_396831108340712.jpeg (40.92 Kio) Consulté 3607 fois
received_430781584984206.jpeg
received_430781584984206.jpeg (26.12 Kio) Consulté 3607 fois
received_504742430482565.jpeg
received_504742430482565.jpeg (33.95 Kio) Consulté 3607 fois
received_755070652020284.jpeg
received_755070652020284.jpeg (26.32 Kio) Consulté 3607 fois

Avatar de l’utilisateur
ouki
Messages : 7489
Inscription : 09 avr. 2019, 22:24
Localisation : Perpignan

Besoin d'explicationS VA

Message par ouki » 11 déc. 2020, 08:56

Greenood a écrit :
11 déc. 2020, 08:31
et j'ai découvert récemment celui la 0.33x (f/3.3) (126€
Vache inova existe toujours ????
Le lien renvoi sur un meade 3,3 curieux :eusa-think:

Don phanus
Messages : 59
Inscription : 20 nov. 2020, 21:21
Localisation : Haapiti Moorea polynesie française

Besoin d'explicationS VA

Message par Don phanus » 11 déc. 2020, 08:56

kaelig, ça va déjà être compliqué pour moi avec le starsense car tout est nouveau pour moi donc la mallicam, ce n'est pas pour maintenant.

ouki, je t'aurais bien passer la mallicam pour t'amuser mais un peu loin, et d'après l'ancien proprio elle fonctionne, il s'en servait avec un 200 mais me demande pas quoi car je me souviens pas.
Dernière modification par Don phanus le 11 déc. 2020, 09:26, modifié 1 fois.

Avatar de l’utilisateur
kaelig
Messages : 7176
Inscription : 15 juil. 2020, 21:02
Localisation : Rennes - Bortle 4

Besoin d'explicationS VA

Message par kaelig » 11 déc. 2020, 09:07

Ah Oui, full Analogique, les connecteurs BNC et tout et tout ...

Le software s'impose par le choix de la cam:
https://www.mallincam.net/software-downloads.html
2020-12-11 09-01-00.jpg
2020-12-11 09-01-00.jpg (36.19 Kio) Consulté 3595 fois
Et le fichier des caractéristiques des différentes caméras Mallicam (je crois que la X2 est une extreme?)
Mallicam_camera_views.pdf
(1.37 Mio) Téléchargé 346 fois
Ca peut-être utile pour faire des tests dans Astronomy.tools

Avatar de l’utilisateur
clouzot
Site Admin
Messages : 16381
Inscription : 08 avr. 2019, 23:13
Localisation : 06 et 30

Besoin d'explicationS VA

Message par clouzot » 11 déc. 2020, 10:01

@kaelig si on veut utiliser informatiquement un C8 sur monture alt-az (Nexstar, quelque soit le modèle) avec la caméra Starsense, il faut :
- la raquette Starsense qui est fournie avec
- la caméra Starsense (qui va servir pour aligner la monture toute seule)
- le câble RJ-machin qui se branche entre caméra Starsense et un port "Aux" de la monture. Il est fourni aussi.
- On regarde l'aspect du connecteur qui se trouve sur la tranche en bas de la raquette : si c'est un genre de RJ12, il faut un câble USB->RJ spécifique vendu par Celestron (ne pas faire l'économie en l'achetant on ne sait où, car un coup sur deux c'est aller vers les ennuis). Si c'est un mini USB, ben il faut un câble USB A -> mini USB B
- Le logiciel CPWI, à télécharger chez Celestron et à installer.

Et c'est tout. Ensuite, il suffit de tout brancher, de lancer CPWI et de cliquer sur "Connect" puis "via Handset". Les instructions d'alignement s'affichent alors en clair sur le PC, il suffit de les suivre scrupuleusement (mettre le tube à l'horizontale en direction du nord...enfin du sud pour notre ami polynésien, puis laisser faire le logiciel)

Avatar de l’utilisateur
kaelig
Messages : 7176
Inscription : 15 juil. 2020, 21:02
Localisation : Rennes - Bortle 4

Besoin d'explicationS VA

Message par kaelig » 11 déc. 2020, 10:22

Merci @clouzot pour cette explication. Petite question:

Est-ce que starsense ne fait pas doublon avec le module d'Alignement de Sharcap ou d'Ekos (kstars - stellarmate) qui prend une photo
et ensuite, soit synchronise la monture sur le lieu où elle est ou va à la cible choisi? Toi qui as utilisé les deux, quelles sont les pour et contre
des deux solutions.

Avatar de l’utilisateur
clouzot
Site Admin
Messages : 16381
Inscription : 08 avr. 2019, 23:13
Localisation : 06 et 30

Besoin d'explicationS VA

Message par clouzot » 11 déc. 2020, 11:04

kaelig a écrit :
11 déc. 2020, 10:22
Merci @clouzot pour cette explication. Petite question:

Est-ce que starsense ne fait pas doublon avec le module d'Alignement de Sharcap ou d'Ekos (kstars - stellarmate) qui prend une photo
et ensuite, soit synchronise la monture sur le lieu où elle est ou va à la cible choisi? Toi qui as utilisé les deux, quelles sont les pour et contre
des deux solutions.
Si, il y a recouvrement des fonctions.
Starsense offre un avantage, c'est qu'il peut aligner tout seul, sans aucune intervention : on le laisse faire tout seul, on se prépare un thé pendant qu'il aligne.
L'alignement avec Sharpcap + platesolve, c'est une opération manuelle : on choisit l'étoile, on la centre à coup de platesolve, on clique pour confirmer, on passe à la suivante, etc.

Avatar de l’utilisateur
bemo47
Messages : 5040
Inscription : 04 mai 2019, 00:23
Localisation : Lot et Garonne

Besoin d'explicationS VA

Message par bemo47 » 11 déc. 2020, 11:49

Don phanus a écrit :
11 déc. 2020, 05:43
est ce que ça prend autant de temps que lorsque tu fais du montage vidéo, parce que vu toutes ces étapes ça me parait prendre beaucoup de temps de montage.
le temps de mettre son télescope en station, brancher le pc, lancer les logiciels, 10 minutes ?
et on pointe un objet, on lance les captures, 3 minutes de plus, poses de 1sec à 30 sec au choix, et dès les 2 ou 3 premières poses on voit déjà l'objet prendre forme sur l'écran, et là on tire les curseurs pour l'améliorer et il s'affine, se colore, au fur et à mesure des poses...
voilà, voilà, rien à voir avec du montage vidéo, c'est juste quasi immédiat...
et en plus il te stocke toutes les images unitaires, donc si tu veux te mettre au post traitement, le lendemain tu reprends tout ça et tu post traite pour obtenir une image encore meilleure, comme tu le souhaites...

Avatar de l’utilisateur
kaelig
Messages : 7176
Inscription : 15 juil. 2020, 21:02
Localisation : Rennes - Bortle 4

Besoin d'explicationS VA

Message par kaelig » 11 déc. 2020, 15:14

clouzot a écrit :
11 déc. 2020, 11:04
on se prépare un thé pendant qu'il aligne.
Ca, c'est un argument qui fait mouche (ou sanglier) pour moi :mrgreen:
Je note le starsense dans mes futurs achats.
Question: c'est alimenté comment cette petite bête? 12V? 5V? USB-A-B-C-D-E ...?

Avatar de l’utilisateur
clouzot
Site Admin
Messages : 16381
Inscription : 08 avr. 2019, 23:13
Localisation : 06 et 30

Besoin d'explicationS VA

Message par clouzot » 11 déc. 2020, 15:18

C’est alimenté par la monture. Attention par contre, c’est compatible avec les montures Celestron et certaines Skywatcher uniquement.

Avatar de l’utilisateur
Greenood
Messages : 1382
Inscription : 09 avr. 2019, 08:06

Besoin d'explicationS VA

Message par Greenood » 11 déc. 2020, 16:11

kaelig a écrit :
11 déc. 2020, 15:14
clouzot a écrit :
11 déc. 2020, 11:04
on se prépare un thé pendant qu'il aligne.
Ca, c'est un argument qui fait mouche (ou sanglier) pour moi :mrgreen:
Je note le starsense dans mes futurs achats.
Question: c'est alimenté comment cette petite bête? 12V? 5V? USB-A-B-C-D-E ...?
je vais surement me séparer de mon starsense skywatcher
contact moi en MP si tu es intéressés

Avatar de l’utilisateur
Olivier-Fantasy
Messages : 10202
Inscription : 14 oct. 2020, 23:03
Localisation : Région parisienne (92)

Besoin d'explicationS VA

Message par Olivier-Fantasy » 11 déc. 2020, 17:24

clouzot a écrit :
11 déc. 2020, 11:04
Starsense offre un avantage, c'est qu'il peut aligner tout seul, sans aucune intervention
Et à ton expérience, c'est aussi précis ? J'imagine qu'on ne peut pas bidouiller le résultat de Starsense, si ? (pour améliorer le résultat automatique, éventuellement ?)

C'est vrai que le bazar est tentant, surtout quand on débute (même si c'est sympa aussi de savoir le faire avec SC !!)...

Avatar de l’utilisateur
clouzot
Site Admin
Messages : 16381
Inscription : 08 avr. 2019, 23:13
Localisation : 06 et 30

Besoin d'explicationS VA

Message par clouzot » 11 déc. 2020, 17:42

@Olivier-Fantasy c’est un tout petit peu moins précis qu’au platesolve, car le Starsense a une très courte focale par rapport à une Evoguide ou un C9 à f/6.3, mais on parle de quelques secondes d’arc d’écart donc pas grand chose.

Avatar de l’utilisateur
Olivier-Fantasy
Messages : 10202
Inscription : 14 oct. 2020, 23:03
Localisation : Région parisienne (92)

Besoin d'explicationS VA

Message par Olivier-Fantasy » 11 déc. 2020, 18:43

Ok, merci Inspecteur ! ;) Je laisse ça pour l'instant dans ma "liste de courses"... Je vais me lancer sans... et après... on verra ! :mrgreen:

Avatar de l’utilisateur
kawa
Messages : 7383
Inscription : 02 mai 2019, 19:11
Localisation : 03

Besoin d'explicationS VA

Message par kawa » 11 déc. 2020, 18:59

Greenood a écrit :
11 déc. 2020, 08:31
et j'ai découvert récemment celui la 0.33x (f/3.3) (126€)
https://www.inova-ccd.com/pro/catalog/p ... cts_id=426
Des que j'ai eu le C9 , je me suis rué sur ce truc ( daté 2007) ,Edité = info incertaine retiré (mais méfiance)
Le site est toujours là, :( :( ;)
Il y a les soldes de janvier 2018 ? :o :o
Et je viens de voir en bas dans le bandeau
" 696535 visites depuis mercredi 22 juillet, 2020 " :?: :?:
Dernière modification par kawa le 11 déc. 2020, 19:52, modifié 1 fois.

Avatar de l’utilisateur
Olivier-Fantasy
Messages : 10202
Inscription : 14 oct. 2020, 23:03
Localisation : Région parisienne (92)

Besoin d'explicationS VA

Message par Olivier-Fantasy » 11 déc. 2020, 19:41

kawa a écrit :
11 déc. 2020, 18:59
un dépôt de bilan pour cette société
Ben c'était une c...rie :mrgreen: Apparemment, ils sont là et toujours là, depuis 2005 :
https://www.societe.com/societe/m42-opt ... 97326.html

Et pour le red x0,33, c'est vrai qu'il est tentant mais faudrait connaître le champ corrigé... Sur le x0,4 de Starizona, c'est si petit que ça revient au même qu'avec le x0,63 (calculé au pif, mais je pense qu'on est pas loin)... donc bon...

Répondre

Revenir à « Techniques »