Lavinch31 a écrit : ↑23 mars 2022, 17:53
avec des temps d'intégration relativement peu élévé il est capapble de t'en montrer plus que sur des integrations de plusieurs 10aine d'heures faites avec des gros bousins .
Oui c'est sur, et l'acceptation de ce genre d'outil serait peut être meilleure si la preuve avait été faite que les ajouts de details n'était pas pure invention.
Faut avouer que le principe de l'IA, c'est faire manger des milliers d'images à l'appli en mode flou puis la même en mode haute résolution.
Ensuite quand l'appli retombe sur une photo floue qui ressemble vaguement a une photo de sa base, il la reconstitue sur le modèle haute résolution qu'il a appris. C'est loin d’être con et dans plein de domaine ca peut vraiment le faire. Reconstituer le plumage d'un aigle a partir du plumage d'un autre aigle, finalement pourquoi pas. Ca se tient. Grain de peau, gazon de pelouse et autre texture, ca marche. Mais pour le domaine qui nous concerne ou l'on pinuche entre des resolutions de 1" d'arc/pixel ou 1.25" d'arc/pixel, claquer la texture d'une galaxie approchante sur une autre, je ne sais quoi en penser
Pour vraiment convaincre, les boites qui éditent ces logiciels gagneraient à fournir quelques études avec le pourcentage d'erreur des photos reconstitués. Ca se trouve c'est très honorable mais actuellement on ne sais pas.
