Mars comme si vous y étiez

(astéroïdes, objets transneptuniens et comètes acceptés)
Répondre
Avatar de l’utilisateur
soulearth
Messages : 8859
Inscription : 12 juil. 2020, 11:20
Localisation : 69

Mars comme si vous y étiez

Message par soulearth » 13 déc. 2022, 20:25

Tout le challenge de ce genre d'application, et c'est valable pour n'importe quel soft utilisant l'IA, c'est d'être fidèle au modèle d'origine.
Imaginons 2s que nous parlions dIRM, scanner ou radio médicales. On est d'accord que ces images peuvent être bien floues, jamais assez détaillé etc ... Ben le logiciel de traitement ne peux pas transformer un petite fissure osseuse en fracture nette et franche sous prétexte que c'est plus contrasté et plus visible. Mon bon messieurs, ce sera table d'opération broches et vis, l'image montre une grosse fracture. Prévenez votre famille :shock:

De même qu'inventer quelques pixels sur un scanner des sinus, c'est prendre le risque que le mec se retrouve avec une caméra dans le pif pour savoir : qu'est-ce que c'est que ce truc qui a rien a foutre la? :mrgreen:

Pour moi c'est donc très clair, soit c'est fidèle à l'original, et tant pis si c'est un peu flou et qu'il y a des limites.
Soit si divination de pixels il y a, il faut l'indiquer. Comme à l'ancienne: "image d'artiste".

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 13 déc. 2022, 21:35

soulearth a écrit :
13 déc. 2022, 20:25
Tout le challenge de ce genre d'application, et c'est valable pour n'importe quel soft utilisant l'IA, c'est d'être fidèle au modèle d'origine.
Imaginons 2s que nous parlions dIRM, scanner ou radio médicales. On est d'accord que ces images peuvent être bien floues, jamais assez détaillé etc ... Ben le logiciel de traitement ne peux pas transformer un petite fissure osseuse en fracture nette et franche sous prétexte que c'est plus contrasté et plus visible. Mon bon messieurs, ce sera table d'opération broches et vis, l'image montre une grosse fracture. Prévenez votre famille :shock:

De même qu'inventer quelques pixels sur un scanner des sinus, c'est prendre le risque que le mec se retrouve avec une caméra dans le pif pour savoir : qu'est-ce que c'est que ce truc qui a rien a foutre la? :mrgreen:

Pour moi c'est donc très clair, soit c'est fidèle à l'original, et tant pis si c'est un peu flou et qu'il y a des limites.
Soit si divination de pixels il y a, il faut l'indiquer. Comme à l'ancienne: "image d'artiste".
En fait les images VA sont 100% bio et semblent déjà faire la différence comme le montre les différentes vidéos initiales (les fichiers téléchargés depuis ma Dropbox).
Ce qui veut dire que la version 0.6 de turbu se suffirait déjà à elle-même à condition toutefois de corriger le bruit en temps réel ... ce qui n'est pas une grande difficulté. ;)

La discussion a commencé à dévier quand j'ai introduit les vidéos finales et mdd alors que la vidéo VA semble déjà faire la différence.

Avatar de l’utilisateur
soulearth
Messages : 8859
Inscription : 12 juil. 2020, 11:20
Localisation : 69

Mars comme si vous y étiez

Message par soulearth » 13 déc. 2022, 21:59

ms55 a écrit :
13 déc. 2022, 21:35
En fait les images VA sont 100% bio et semblent déjà faire la différence comme le montre les différentes vidéos initiales (les fichiers téléchargés depuis ma Dropbox).
Ce qui veut dire que la version 0.6 de turbu se suffirait déjà à elle-même
En tout cas avoir une version bio et une version IA clairement distinctes me semble une bonne idée.

Libre a chacun d'utiliser celui qui lui convient.
Et puis comme ça les choses sont claires. Tu utilises la version bio, ce sera bio mais peut être moins esthétique.
Tu utilises la version IA, ce sera différent, certain dirons amélioré et d'autres dénaturé, mais surtout tu sais à quoi t'en tenir, c'est marqué IA dessus.
J'utilise parfois topaze IA sharpen ( rarement ). Mais je le fais en toute connaissance de cause.

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 14 déc. 2022, 06:30

soulearth a écrit :
13 déc. 2022, 21:59
ms55 a écrit :
13 déc. 2022, 21:35
En fait les images VA sont 100% bio et semblent déjà faire la différence comme le montre les différentes vidéos initiales (les fichiers téléchargés depuis ma Dropbox).
Ce qui veut dire que la version 0.6 de turbu se suffirait déjà à elle-même
En tout cas avoir une version bio et une version IA clairement distinctes me semble une bonne idée.

Libre a chacun d'utiliser celui qui lui convient.
Et puis comme ça les choses sont claires. Tu utilises la version bio, ce sera bio mais peut être moins esthétique.
Tu utilises la version IA, ce sera différent, certain dirons amélioré et d'autres dénaturé, mais surtout tu sais à quoi t'en tenir, c'est marqué IA dessus.
J'utilise parfois topaze IA sharpen ( rarement ). Mais je le fais en toute connaissance de cause.
Je repars des images VA des 5 vidéos initiales qui correspondent bien à la réalité.
3 d'entre-elles (n°60, 80 et 106) ont une qualité inférieure à 20, je les remplace par interpolation de leurs 2 voisines.
J'applique aux 176 images VA un léger dé-bruitage avec l'algo bio BM3D.
Je compare avec mon image de test issue elle du lucky imaging.

La n°156 VA (elle se situe dans le répertoire "sharp") :
156.png
156.png (57.12 Kio) Consulté 1943 fois
La n°156 dé-bruitée avec l'algo BM3D (elle se situe dans le répertoire "final") :
156.png
156.png (39.43 Kio) Consulté 1943 fois
Mon image de test :
mars_polo.png
mars_polo.png (59.43 Kio) Consulté 1943 fois
Les courbes NPS de ces 3 images (respectivement bleu, rouge et jaune) :
156_g.png
156_g.png (58.36 Kio) Consulté 1943 fois
La courbe bleu montre la présence du bruit.
Le bruit est mieux contenu dans la courbe rouge que dans la courbe jaune mais les 2 courbes sont proches.

Il est judicieux de séparer les algorithmes traditionnels de ceux faisant appel à l'IA.
La version 0.6 avec un léger dé-bruitage est complètement bio.

Pour des images obtenues sous un Jetstream à 200km/h, je trouve cela pas mal ... dommage que le lucky imaging ne permette pas d'en obtenir plus et malheureusement il ne permettra jamais de produire des vidéos quand les conditions sont dégradées. J'espère que ce post en aura fait la démonstration. ;)

Avatar de l’utilisateur
soulearth
Messages : 8859
Inscription : 12 juil. 2020, 11:20
Localisation : 69

Mars comme si vous y étiez

Message par soulearth » 14 déc. 2022, 07:34

Salut
ms55 a écrit :
14 déc. 2022, 06:30
je les remplace par interpolation de leurs 2 voisines.
Ça consiste en quoi une interpolation par les voisines ? J'essaie d'imaginer des trucs mais on s'éloigne vite du sujet :mrgreen: :lol: :roll:


Sinon effectivement ça va aider de séparer traitement IA et algo classique. Ça permet au gens de comparer les deux, de faire un choix éclairé entre les deux, et pour toi ça va faciliter la communication et la compréhension en face. Chacun pouvant s'arrêter sur l'approche qui lui convient le mieux.

En tout cas, moi j'ai franchement avancé dans la compréhension du fonctionnement. Je t'en remercie.

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 14 déc. 2022, 08:36

soulearth a écrit :
14 déc. 2022, 07:34
Salut
ms55 a écrit :
14 déc. 2022, 06:30
je les remplace par interpolation de leurs 2 voisines.
Ça consiste en quoi une interpolation par les voisines ? J'essaie d'imaginer des trucs mais on s'éloigne vite du sujet :mrgreen: :lol: :roll:


Sinon effectivement ça va aider de séparer traitement IA et algo classique. Ça permet au gens de comparer les deux, de faire un choix éclairé entre les deux, et pour toi ça va faciliter la communication et la compréhension en face. Chacun pouvant s'arrêter sur l'approche qui lui convient le mieux.

En tout cas, moi j'ai franchement avancé dans la compréhension du fonctionnement. Je t'en remercie.
La qualité des images VA fluctue durant la session :
quality.png
Conditions d'observation :
Médiocres -> 30
Moyennes -> 50
Bonnes -> 70

On voit sur ce graphique que les images n°60, 80 et 105 sont en dessous de 20 (mauvaise qualité).
Pour relever leur niveau de qualité (image de droite), j'effectue une interpolation à l'aide de 1 image avant et 1 image après :
60_best.png
60_best.png (126.63 Kio) Consulté 1924 fois
80_best.png
80_best.png (118.05 Kio) Consulté 1924 fois
105_best.png
105_best.png (119.44 Kio) Consulté 1924 fois
J'obtiens ainsi une suite d'images VA plus homogènes.

D'un autre coté 3 images pourries sur 176 c'est pas la mort.

Les 4 essais faits sur Mars cette année sous différentes conditions de turbulence ont tous donnés des résultats exploitables.
Je peux en dire autant pour Jupiter et Saturne que je détaillais d'avantage l'an prochain avec des planètes plus hautes.

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 14 déc. 2022, 10:42

J'ai fait une petite modif en remplaçant l'algo de dé-bruitage BM3D (courbe bleu) qui est un peu une usine à gaz par un simple filtre bilatéral (courbe rouge) très rapide.
Quand le bruit n'est pas trop important comme ici, l'écart est minime :
156_comp.png
156_comp.png (80.54 Kio) Consulté 1907 fois
156_g.png
156_g.png (52.02 Kio) Consulté 1907 fois
Du coup, je peux remplacer les anciennes images VA par de nouvelles images VA dé-bruitées sans perte de vitesse. ;)

Avatar de l’utilisateur
John Mc Burn
Messages : 6383
Inscription : 14 mai 2020, 00:51
Localisation : layon

Mars comme si vous y étiez

Message par John Mc Burn » 14 déc. 2022, 14:10

ms55 a écrit :
14 déc. 2022, 06:30
soulearth a écrit :
13 déc. 2022, 21:59
En tout cas avoir une version bio et une version IA clairement distinctes me semble une bonne idée.

Libre a chacun d'utiliser celui qui lui convient.
Et puis comme ça les choses sont claires. Tu utilises la version bio, ce sera bio mais peut être moins esthétique.
Tu utilises la version IA, ce sera différent, certain dirons amélioré et d'autres dénaturé, mais surtout tu sais à quoi t'en tenir, c'est marqué IA dessus.
J'utilise parfois topaze IA sharpen ( rarement ). Mais je le fais en toute connaissance de cause.
Je repars des images VA des 5 vidéos initiales qui correspondent bien à la réalité.
3 d'entre-elles (n°60, 80 et 106) ont une qualité inférieure à 20, je les remplace par interpolation de leurs 2 voisines.
J'applique aux 176 images VA un léger dé-bruitage avec l'algo bio BM3D.
Je compare avec mon image de test issue elle du lucky imaging.

La n°156 VA (elle se situe dans le répertoire "sharp") :
156.png

La n°156 dé-bruitée avec l'algo BM3D (elle se situe dans le répertoire "final") :
156.png

Mon image de test :
mars_polo.png

Les courbes NPS de ces 3 images (respectivement bleu, rouge et jaune) :
156_g.png

La courbe bleu montre la présence du bruit.
Le bruit est mieux contenu dans la courbe rouge que dans la courbe jaune mais les 2 courbes sont proches.

Il est judicieux de séparer les algorithmes traditionnels de ceux faisant appel à l'IA.
La version 0.6 avec un léger dé-bruitage est complètement bio.

Pour des images obtenues sous un Jetstream à 200km/h, je trouve cela pas mal ... dommage que le lucky imaging ne permette pas d'en obtenir plus et malheureusement il ne permettra jamais de produire des vidéos quand les conditions sont dégradées. J'espère que ce post en aura fait la démonstration. ;)
Je me répète encore, mais l'image obtenue en lucky imaging est bien meilleure la aussi, beaucoup plus détaillée et nuancée, sur les autres trop d'informations passent a la trappe, des zones entières même, avec des détails qui sont noyés dans des aplats qui donnent un rendu assez uniforme, sans atmosphère :ninja:

Tu dis "mon image de test", c'est la même que celle en page précédente donc? Qui a été faite par un autre astram? C'est pour être sur de bien comprendre.

Idem pour la création d'images par "interpolation". En photo mais pas que, l'interpolation est un moyen logiciel d'augmenter la taille d'une l'image, en rajoutant des pixels entre les pixels de tons proches (ce qui ne se fait pas sans dégâts selon la méthode d'interpolation utilisée). Hors ici on ne parle pas d'agrandir les brutes mais de remplacer les mauvaises en en fabricant de nouvelles a partir des voisines. Déjà pourquoi ne pas simplement virer les 3 images bancales plutôt que d'en inventer d'autres pour les remplacer? Et comment sont fabriquées ces nouvelles images, en faisant la moyenne de la précédente et de la suivante?

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 14 déc. 2022, 15:27

John Mc Burn a écrit :
14 déc. 2022, 14:10
ms55 a écrit :
14 déc. 2022, 06:30

Je repars des images VA des 5 vidéos initiales qui correspondent bien à la réalité.
3 d'entre-elles (n°60, 80 et 106) ont une qualité inférieure à 20, je les remplace par interpolation de leurs 2 voisines.
J'applique aux 176 images VA un léger dé-bruitage avec l'algo bio BM3D.
Je compare avec mon image de test issue elle du lucky imaging.

La n°156 VA (elle se situe dans le répertoire "sharp") :
156.png

La n°156 dé-bruitée avec l'algo BM3D (elle se situe dans le répertoire "final") :
156.png

Mon image de test :
mars_polo.png

Les courbes NPS de ces 3 images (respectivement bleu, rouge et jaune) :
156_g.png

La courbe bleu montre la présence du bruit.
Le bruit est mieux contenu dans la courbe rouge que dans la courbe jaune mais les 2 courbes sont proches.

Il est judicieux de séparer les algorithmes traditionnels de ceux faisant appel à l'IA.
La version 0.6 avec un léger dé-bruitage est complètement bio.

Pour des images obtenues sous un Jetstream à 200km/h, je trouve cela pas mal ... dommage que le lucky imaging ne permette pas d'en obtenir plus et malheureusement il ne permettra jamais de produire des vidéos quand les conditions sont dégradées. J'espère que ce post en aura fait la démonstration. ;)
Je me répète encore, mais l'image obtenue en lucky imaging est bien meilleure la aussi, beaucoup plus détaillée et nuancée, sur les autres trop d'informations passent a la trappe, des zones entières même, avec des détails qui sont noyés dans des aplats qui donnent un rendu assez uniforme, sans atmosphère :ninja:

Tu dis "mon image de test", c'est la même que celle en page précédente donc? Qui a été faite par un autre astram? C'est pour être sur de bien comprendre.

Idem pour la création d'images par "interpolation". En photo mais pas que, l'interpolation est un moyen logiciel d'augmenter la taille d'une l'image, en rajoutant des pixels entre les pixels de tons proches (ce qui ne se fait pas sans dégâts selon la méthode d'interpolation utilisée). Hors ici on ne parle pas d'agrandir les brutes mais de remplacer les mauvaises en en fabricant de nouvelles a partir des voisines. Déjà pourquoi ne pas simplement virer les 3 images bancales plutôt que d'en inventer d'autres pour les remplacer? Et comment sont fabriquées ces nouvelles images, en faisant la moyenne de la précédente et de la suivante?
Tu passes ton temps à comparer 2 choses qui ne sont pas comparables.
J'utilise cette image de Mars comme référence pour vérifier que toutes les formations martiennes sont bien présentes.
L'image de référence a été obtenue en 180s et traitée en différée.
Mon image n°156 a été obtenue elle en 8000/198 = 40s et traitée en live comme en attestent les vidéos fournies.
J'ai juste ajouté un dé-bruitage par le filtre bilatéral, cela ne pénalise pas le temps d'acquisition qui reste de 40s.
Que cette image ne te plaise pas c'est ton problème mais pas le mien et ni celui en général de ceux qui assistent à ces sessions.
C'est valorisant de montrer en live les différentes formations et de les voir évoluer lentement.
Ici on ne parle plus d'une image obtenue au petit bonheur la chance comme avec ton lucky imaging mais d'une vidéo assistée qui peut durer plusieurs heures si les conditions le permettent.
Je n'ai pas besoin de faire de comparatif, la n°156 arrive en quarantième position en terme de qualité, il y en a donc de bien meilleures et de plus détaillées mais là n'est pas le problème.
Après à partir de ces images VA, il est certainement possible de faire bien mieux et c'est peut-être un traitement qu'il faut envisager offline.
En attendant, je peux montrer assez rapidement des images assez résolues de Mars, Jupiter, Saturne, ... et cela même sous des conditions difficiles.
Il y aura toujours des pisse-vinaigres pour essayer de démolir ce projet mais j'ai appris à vivre avec et c'est surtout la raison pour laquelle, je veux partager en priorité mon projet avec le grand public. ;)

Avatar de l’utilisateur
John Mc Burn
Messages : 6383
Inscription : 14 mai 2020, 00:51
Localisation : layon

Mars comme si vous y étiez

Message par John Mc Burn » 14 déc. 2022, 17:22

ms55 a écrit :
14 déc. 2022, 15:27

Tu passes ton temps à comparer 2 choses qui ne sont pas comparables.
Si je me souviens bien c'est exactement ce que tu faisais dans ton premier post, non? En étant même assez désagréable, désolé si j'en suis resté la, mais ça n'aide pas franchement a être plus constructif.
ms55 a écrit :
14 déc. 2022, 15:27

Ici on ne parle plus d'une image obtenue au petit bonheur la chance comme avec ton lucky imaging mais d'une vidéo assistée qui peut durer plusieurs heures si les conditions le permettent.
Je n'ai pas besoin de faire de comparatif, la n°156 arrive en quarantième position en terme de qualité, il y en a donc de bien meilleures et de plus détaillées mais là n'est pas le problème.
Après à partir de ces images VA, il est certainement possible de faire bien mieux et c'est peut-être un traitement qu'il faut envisager offline.
En attendant, je peux montrer assez rapidement des images assez résolues de Mars, Jupiter, Saturne, ... et cela même sous des conditions difficiles.
Il y aura toujours des pisse-vinaigres pour essayer de démolir ce projet mais j'ai appris à vivre avec et c'est surtout la raison pour laquelle, je veux partager en priorité mon projet avec le grand public. ;)
C'est toi qui compare sans arrêt au lucky imaging, de même que c'est c'est toi qui dis faire mieux que les cadors, pas nous. Enfin c'est également toi qui est plus que limite, puisque partout ou tu passes dès qu'on te pose des questions ou qu'on demande a en savoir plus, ou dès qu'on est dans l'objection, on se fait insulter, je me demande bien qui est le pisse vinaigre, pour reprendre tes propos ;)

Ce n'est pas de cette façon que tu vas convaincre, moi je juge le résultat selon les termes que tu as toi même posé en arrivant: " je défonce tous les cadors du lucky", c'est d'ailleurs systématiquement ce que tu as mis en avant sur AS, WA, tout en a comparant toujours des choses incomparables la aussi (avec parfois des images complétement bidonnées) . Je ne fais que répondre a ça, non ce n'est pas meilleur que ce qu'il est possible d'obtenir avec les techniques habituelles, c'est même nettement moins bon sur la Mars au dessus.

Maintenant tu vas me dire que toi ce que tu fais c'est du live et que donc ce n'est pas comparable (c'est un peu quand ça t'arrange donc), très bien, pour du live oui ok c'est plutot pas mal, même si ce n'est pas du live a proprement parler mais du différé (il faut attendre le traitement des 8000 brutes pour voir le résultat du calcul qui lui se fait vraisemblablement pendant l'acquisition, ce qui raccourci le différé) . Ceci dit tu procèdes de la même manière qu'en acquisition planétaire "classique", pas de nouveauté de ce côté la, seul le temps de traitement change, bien aidé par le calcul GPU, et la dessus il n'y a pas débat, dans beaucoup de domaines il y a des lustres qu'on utilise massivement les GPU plutôt que les CPU pour bon nombre de calculs, les softs astro sont pour le moment à la traine de ce côté la, mais ça finira par évoluer aussi. En ce qui me concerne tu prêches un converti sur le sujet.

En tous cas tu gagnerais franchement a sortir de ton discours le lucky nianiania, en plus si on voulait être vraiment clair sur le sujet, le lucky c'est juste la technique d'acquisition planétaire transposée au ciel profond (avec un framerate nettement moins important), donc c'est hors sujet pour le cas qui te concerne, tu fais de l'acquisition planétaire avec un traitement des brutes a la volée. On pourrait appeler ça du presque live stacking planétaire.

Tu l'auras peut-être compris, je ne critique pas bêtement la technique utilisée, au contraire je trouve ça intéressant, bien qu'on en sache pas grand chose puisqu'ici comme ailleurs tu ne réponds pas vraiment aux questions et tu n'expliques pas comment fonctionne la chose. Je comprends aussi pourquoi tu préfères présenter ça au grand public, vu le lourd passif que tu traines derrière toi sur les autres forums, car tu veux juste que les gens fassent "wouahhh" sans se poser de questions ni rentrer dans les détails, pas toujours clairs.

Si jusqu’à maintenant tu t'es heurté a de l’incompréhension voire a une farouche opposition, ce n'est pas parce que tu es la victime innocente des bourreaux de l'astro, un bon nombre on essayé d'être constructifs, c'est plus facile de croire qu'on est face a une bande de jaloux aigris plutôt que de se remettre en question, si a chaque fois, sur des forums différents face a des gens différents ça se termine de la même façon, c'est que le problème ne vient pas des autres ;)

Je note quand même qu'ici tu es moins vindicatif qu'ailleurs, tu vois je ne vois pas le verre a moitié vide.
Dernière modification par John Mc Burn le 14 déc. 2022, 18:56, modifié 2 fois.

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 14 déc. 2022, 18:11

Maintenant tu vas me dire que toi ce que tu fais c'est du live et que donc ce n'est pas comparable (c'est un peu quand ça t'arrange donc), très bien, pour du live oui ok c'est plutot pas mal, même si ce n'est pas du live a proprement parler mais du différé (il faut attendre le traitement des 8000 brutes pour voir le résultat du calcul qui lui se fait vraisemblablement pendant l'acquisition, ce qui raccourci le différé) . Ceci dit tu procèdes de la même manière qu'en acquisition planétaire "classique", pas de nouveauté de ce côté la, seul le temps de traitement change, bien aidé par le calcul GPU, et la dessus il n'y a pas débat, dans beaucoup de domaines il y a des lustres qu'on utilise massivement les GPU plutôt que les CPU pour bon nombre de calculs, les softs astro sont pour le moment à la traine de ce côté la, mais ça finira par évoluer aussi. En ce qui me concerne tu prêches un converti sur le sujet.
Capture d’écran du 2022-12-12 20-55-40.png
Regardes le tableau, le temps de calcul c'est 16 "dropped frames" pour l'image VA n°145, c'est à dire : 16/198 = 0,08s.
Je perds donc 8/100e de seconde en temps de calcul et d'enregistrement de l'image cumulée et de l'image VA.
En utilisant les cartes graphiques actuelles, je pourrais réduire ce temps d'un facteur 10 environ.

D'autre part 0 "bad frames" ça veut dire que toutes les images sont prises en compte, dans le cas présent, il s'écoulent 8000/198=40s entre 2 images VA mais là c'est la caméra qui est le facteur limitant.

Je ne crois pas que ce soit un problème de softs astro à la traîne à cause du calcul par le GPU. Le problème c'est plutôt la recherche d'une stratégie efficace qui prend en compte les déformations, le bruit et le flou.
Il y a des tonnes de publications sur le sujet mais depuis que je m'y intéresse (2008), je n'ai pas vu une publication et/ou un projet Github qui permette de réaliser ce que l'on voit dans l'image ci-dessus. ;)
Beaucoup de gens ne mesurent pas l'avancée que cela représente d'obtenir un facteur qualité de 50 dans des conditions pareilles et en plus sur une rafale d'images VA.

Avatar de l’utilisateur
soulearth
Messages : 8859
Inscription : 12 juil. 2020, 11:20
Localisation : 69

Mars comme si vous y étiez

Message par soulearth » 14 déc. 2022, 18:36

ms55 a écrit :
14 déc. 2022, 18:11
Je ne crois pas que ce soit un problème de softs astro à la traîne à cause du calcul par le GPU. Le problème c'est plutôt la recherche d'une stratégie efficace qui prend en compte les déformations, le bruit et le flou.
Je pense que @John Mc Burn parle au sens large des softs astro. Et je le rejoins. Cuda et le fameux offload GPU date de 2007. Je m'en souviens bien, j'avais spécialement changé de carte graphique pour tester cette fonction. C'était même plutôt positif comme tests ... 15 ans plus tard, ni pixinsinght, ni APP, ni sharpcap, ni Siril, ni affinity photo ( qui sait stacker ), ne tirent partie du GPU. C'est un changement profond donc effectivement c'est pas simple. Mais pire certains sont même pas foutu de tirer pleinement a profit le multicore et multithread.

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 14 déc. 2022, 19:02

soulearth a écrit :
14 déc. 2022, 18:36
ms55 a écrit :
14 déc. 2022, 18:11
Je ne crois pas que ce soit un problème de softs astro à la traîne à cause du calcul par le GPU. Le problème c'est plutôt la recherche d'une stratégie efficace qui prend en compte les déformations, le bruit et le flou.
Je pense que @John Mc Burn parle au sens large des softs astro. Et je le rejoins. Cuda et le fameux offload GPU date de 2007. Je m'en souviens bien, j'avais spécialement changé de carte graphique pour tester cette fonction. C'était même plutôt positif comme tests ... 15 ans plus tard, ni pixinsinght, ni APP, ni sharpcap, ni Siril, ni affinity photo ( qui sait stacker ), ne tirent partie du GPU. C'est un changement profond donc effectivement c'est pas simple. Mais pire certains sont même pas foutu de tirer pleinement a profit le multicore et multithread.
J'ai jeté un œil dans pas mal de softs de stacking et pas uniquement dans le milieu astro.
Je peux dire que même en utilisant le calcul par GPU ces softs ne permettront pas de faire du traitement en live parce qu'ils n'ont pas été pensés pour cela.
Aujourd'hui c'est encore pire parce que la mode est à l'IA c'est à dire la plus mauvaise façon de traiter un problème complexe en temps réel.
L'IA c'est certainement très bien pour faire du post traitement sur les images VA mais pas pour les extraire de la turbulence.
Maintenant, je peux me tromper mais à mon avis dans 10 ans, vous risquez encore d'être déçus.

Avatar de l’utilisateur
soulearth
Messages : 8859
Inscription : 12 juil. 2020, 11:20
Localisation : 69

Mars comme si vous y étiez

Message par soulearth » 14 déc. 2022, 19:05

ms55 a écrit :
14 déc. 2022, 18:36
Je perds donc 8/100e de seconde en temps de calcul et d'enregistrement de l'image cumulée et de l'image VA.
ms55 a écrit :
14 déc. 2022, 18:11
Dans le cas présent, il s'écoulent 8000/198=40s entre 2 images VA
L'incomprehension de John est symptomatique de l'incompréhension globale. Tes explications mélangent images VA, images finale, vidéo gif, termes techniques non expliqués ou trop rapidement... On s'y perd un peu... Pourtant certains s'accroche et montrent de la bonne volonté 😉.

Je vais me permettre de tenter une explication. Tu me reprends si je dis des conneries.

En fait, première étape, tu gères en live l'empilement des brutes à la façon de ce que pourrait faire Autostakkert 3 et un coup d'ondelettes, mais en live. Au bout de 40s tu stock une image résultat d'empilement. Les brutes ne sont pas stockés. Ensuite c'est pas forcément du live, en fonction des versions...

Au fil du temps tu te retrouves donc avec plusieurs images résultats d'empilement que tu nommes les images VA. Une bonne centaine voir plus.
Cette centaine de résultats d'empilement, tu la tries, tu gardes les meilleures, tu interpole les manquantes si nécessaire, tu mets un coup d'IA pour la recherche en profondeur qui consiste a améliorer l'image stackée de référence en regardant les X précédentes et X suivantes et enfin un coup de MDD qui est un modèle pour inverser les effets de la turbulence.

J'ai bon?

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 14 déc. 2022, 20:00

soulearth a écrit :
14 déc. 2022, 19:05
soulearth a écrit :
14 déc. 2022, 18:36
Je perds donc 8/100e de seconde en temps de calcul et d'enregistrement de l'image cumulée et de l'image VA.
ms55 a écrit :
14 déc. 2022, 18:11
Dans le cas présent, il s'écoulent 8000/198=40s entre 2 images VA
L'incomprehension de John est symptomatique de l'incompréhension globale. Tes explications mélangent images VA, images finale, vidéo gif, termes techniques non expliqués ou trop rapidement... On s'y perd un peu... Pourtant certains s'accroche et montrent de la bonne volonté 😉.

Je vais me permettre de tenter une explication. Tu me reprends si je dis des conneries.

En fait, première étape, tu gères en live l'empilement des brutes à la façon de ce que pourrait faire Autostakkert 3 et un coup d'ondelettes, mais en live. Au bout de 40s tu stock une image résultat d'empilement. Les brutes ne sont pas stockés. Ensuite c'est pas forcément du live, en fonction des versions...

Au fil du temps tu te retrouves donc avec plusieurs images résultats d'empilement que tu nommes les images VA. Une bonne centaine voir plus.
Cette centaine de résultats d'empilement, tu la tries, tu gardes les meilleures, tu interpole les manquantes si nécessaire, tu mets un coup d'IA pour la recherche en profondeur qui consiste a améliorer l'image stackée de référence en regardant les X précédentes et X suivantes et enfin un coup de MDD qui est un modèle pour inverser les effets de la turbulence.

J'ai bon?
On va décrypter ce que font les vidéos WEBM qui correspondent à turbu version 0.6 .
Au départ on va centrer une image qui servira par la suite à aligner toutes les autres.
On voit bien cela sur la première vidéo, l'image a été centrée, sa qualité calculée et en appuyant sur * les opérations peuvent commencer.
Il y a un compteur qui défile sur la fenêtre de gauche des images brutes.
C'est la caméra qui donne la cadence de 198fps.
Chaque image brute est alignée et fusionnée jusqu'à la 8000ième.
L'image obtenue est stockée dans le répertoire "png" en 16-bit.
Elle est traitée pour donner la première image VA qui est stockée dans le répertoire "sharp".
Ce processus se répète jusqu'à la fin de la session.
A ce stade nous avons les fonctionnalités de turbu version 0.6

Les versions suivantes apportent :
- la recherche en profondeur (n+1+n) dans les images VA en live ... c'est la version 0.7 ... répertoire "final",
- un modèle de dégradation MDD qui tient compte des paliers de turbulence en live ... c'est la version 0.8 ... répertoire "mdd".

On voit déjà avec la version 0.6 qui est une version bio qu'il est possible d'imager dans des conditions extrêmes.
J'ai d'ailleurs transmis à un astram le contenu du répertoire "sharp" afin qu'il réalise avec ses propres outils la meilleure image n°156 possible ainsi que la meilleure tout court.

En fait le lucky imaging n'est même pas présent dans la version 0.6 quand je conserve toutes les images comme dans les 5 vidéos WEBM.

Avatar de l’utilisateur
soulearth
Messages : 8859
Inscription : 12 juil. 2020, 11:20
Localisation : 69

Mars comme si vous y étiez

Message par soulearth » 14 déc. 2022, 20:26

A ben pour un mec qui a jamais lancé le soft j'étais pas loin de la vérité. :D

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 15 déc. 2022, 05:13

Je me répète encore, mais l'image obtenue en lucky imaging est bien meilleure la aussi, beaucoup plus détaillée et nuancée, sur les autres trop d'informations passent a la trappe, des zones entières même, avec des détails qui sont noyés dans des aplats qui donnent un rendu assez uniforme, sans atmosphère :ninja:
156_comp.png
156_comp.png (207.66 Kio) Consulté 1787 fois
Les 2 dernières sont obtenues par un astram qui est parti uniquement de l'image n°156 enregistrée en live.
La première est celle que j'ai rapidement dé-bruitée avec un filtre bilinéaire.
La seconde a été obtenue en 180s en lucky imaging.

Pour la gestion du bruit :
156_g.png
156_g.png (62.12 Kio) Consulté 1787 fois
Il est donc possible d'obtenir un traitement plus fin dès l'acquisition comme le montrent ces 2 nouvelles images.
Maintenant, il ne reste plus qu'à utiliser 2 images VA avant + 2 images VA après la n°156 pour partir sur une base de temps de 5x40s=200s et comparer avec le résultat obtenu en lucky imaging. ;)
C'est ce que fait turbu version 0.7 et que je vais détailler par un nouvelle image qui devrait se rapprocher d'un rendu photographique.

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 15 déc. 2022, 05:24

soulearth a écrit :
14 déc. 2022, 20:26
A ben pour un mec qui a jamais lancé le soft j'étais pas loin de la vérité. :D
En regardant les 5 vidéos WEBM, on commence à comprendre comment cela fonctionne.
Plus tard, je ferais des vidéos de sessions complètes et je joindrais sur mon sire les répertoires "sharp" et "final" comme je vais le faire ici.

Avatar de l’utilisateur
Ubuntu
Messages : 5014
Inscription : 09 avr. 2019, 10:02

Mars comme si vous y étiez

Message par Ubuntu » 15 déc. 2022, 14:13

ms55 a écrit :
14 déc. 2022, 20:00
Chaque image brute est alignée et fusionnée jusqu'à la 8000ième.
L'image obtenue est stockée dans le répertoire "png" en 16-bit.
Elle est traitée pour donner la première image VA qui est stockée dans le répertoire "sharp".
Tu veux dire que dans cette première partie tu ne fait qu'un alignement des 8000 frames ?

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 15 déc. 2022, 16:43

Ubuntu a écrit :
15 déc. 2022, 14:13
ms55 a écrit :
14 déc. 2022, 20:00
Chaque image brute est alignée et fusionnée jusqu'à la 8000ième.
L'image obtenue est stockée dans le répertoire "png" en 16-bit.
Elle est traitée pour donner la première image VA qui est stockée dans le répertoire "sharp".
Tu veux dire que dans cette première partie tu ne fait qu'un alignement des 8000 frames ?
La n°156 du répertoire "png" :
156.png
156.png (38.75 Kio) Consulté 1750 fois
La n°156 du répertoire "sharp" :
156.png
156.png (57.12 Kio) Consulté 1750 fois
Comment obtenir cette fameuse image n°156 du répertoire "png" qui est le point de départ de tout les traitements ?
S'il suffisait de faire un simple empilement, je crois que je n'aurais pas mis plus de 1 an pour mettre au point cet algorithme. ;)

Un astram vient de me confirmer que la n°156 du répertoire "sharp" est bien l'image qui donne le plus de détails après dé-bruitage et déconvolution :
<< L'image de référence (lucky imaging & 180s) est un peu mieux coté couleur (coté bleu), mais coté résolution rien de plus même par déconvolution. Comme quoi il n'y a pas d'information supplémentaire ou non affichée dans son image (il est au max de son procédé).
Sharp-1 c'est l'image de ton dossier sharp initial (no lucky imaging & 40s) , mais si on lui applique BM3D d'IPOL avec une valeur de 6 des informations ressortent par déconvolution aveugle.
Pour moi sharp-1 est la meilleure puisqu'on peut y faire ressortir des informations cachées, non perceptible directement. En plus c'est propre en sortie. >>

Il me reste donc à améliorer mon image n°156 pour rendre le visuel assisté encore plus attractif.

Vous allez pouvoir faire la démonstration par vous-même quand je vous aurais communiqué tous les liens nécessaires.

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 16 déc. 2022, 07:52

Pour clore ce post :
156_comp.png
156_comp.png (212.16 Kio) Consulté 1728 fois
156_g.png
156_g.png (63.61 Kio) Consulté 1728 fois
La première (courbe bleue) : n°156 VA en 40s de la cinquième vidéo WEBM,
La seconde (courbe rouge) : n°156 final en 41s nouveau traitement turbu version 0.7,
La troisième (courbe jaune) : n°156 VA traitée par un astram avec ses propres outils (dé-bruitage BM3D d'IPOL + déconvolution Wiener d'AstroSurface),
La quatrième (courbe violette) : image obtenue en 180s par un autre astram avec logiciel de lucky imaging (AS3).

Ceux qui veulent constater par eux-mêmes avec leurs propres outils peuvent essayer sur l'image n°156 VA :
156.png
156.png (57.12 Kio) Consulté 1728 fois
Pour ma part je réaliserai mes prochaines acquisitions avec la version 0.7 de turbu parce qu'elle montre un peu plus de détails en live :
156_1.png
156_1.png (101.3 Kio) Consulté 1728 fois

ms55
Messages : 326
Inscription : 21 sept. 2021, 22:08
Localisation : 67300

Mars comme si vous y étiez

Message par ms55 » 16 déc. 2022, 08:50

Prochainement : ;)
mars_va.gif
La qualité de l'image n°145 passera de 54 à 86 dans la prochaine étape (cliquer sur l'image pour voir l'animation).

Répondre

Revenir à « Imagerie planétaire, solaire et lunaire »