Anciennement : Chipset Z77 + i5 3570k + 16Go DDR3 + Nvidia GTX1060 3Go
Nouvelle : Chipset Z690 + i5 12400 + 32 Go DDR4 + Nvidia RTX3060 Ti 8Go (je tourne encore avec ma GTX1060 3Go) en attendant ma RTX
Quand j'ai tenté un pre-traitement avec Pix au lieu de SIRIL sur mes brutes, avec mon ancienne config, ça a duré 1h34 !
Je viens de retenter avec la nouvelle présentée ci-dessus et c'es retombé à 30mn avec les mêmes fichiers
En tentant quelques traitements ensuite notamment avec Starnet, le temps de calcul, même avec une config récente, est assez élevée dès que l'on pousse un peu les réglages
J'avais remarqué que PI n'utilise que le CPU pour ses calculs.
J'ai donc cherché comment lui faire utiliser les cores CUDA de ma Nvidia 1060
Je suis tombé sur le site de https://darkskies.space/pixinsight-starnet-cuda/ puis sur une vidéo de notre jap-breton :
Et bien, le résultat est assez bluffant au moins sur Starnet (je vais tester d'autres process pour voir)
exemple avec IC5146 en 9Mpix : à gauche utilisation du CPU et à droite le GPU (CUDA)
Avec 506 tuiles :
Avec 7912 tuiles :