Astronomie

Lissage d'un SED avec binning

Lissage d'un SED avec binning



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

J'ai un SED (observé) d'une galaxie et j'essaie de lui faire correspondre les SED modèles. Pour ce faire, je dois être capable de mieux voir sa forme, ce qui impliquerait une sorte de lissage du spectre. J'aimerais le faire en Python. J'ai parcouru les divers outils de lissage de scipy (comme UnivariateSpline), mais je ne sais pas si c'est sur la bonne voie car ce ne serait que le mieux adapté à mes données spectrales.

J'ai également utilisé le logiciel Iris pour effectuer une interpolation de mon spectre avec 1000 bacs et l'option de lissage activée, mais je ne comprends pas le processus de calcul derrière cela. Comment puis-je accomplir cela en Python ?


Lissage d'un SED avec binning - Astronomie

Présentation du devoir 3 d'apprentissage automatique

REMARQUE: Le contenu de la section « aperçu » est tiré de la description de la mission.

Les modèles d'analyse prédictive des données sont souvent utilisés comme outils de contrôle de la qualité des processus et de détection des défauts.

Créer un modèle naïf de Bayes pour surveiller une station d'épuration des eaux usées.

14 jours
6 éléments descriptifs
1 caractéristique cible

éléments descriptifs (6, tous continus) :

  • SS-IN, SS-OUT : quantité de solides
  • SED-IN, SED-OUT : quantité de sédiments
  • COND-IN, COND-OUT : conductivité électrique
  1. ok tout fonctionne correctement
  2. colon, il y a un problème avec l'équipement du colon
  3. solides, il y a un problème avec la quantité de solides passant par l'usine

une. Créez un modèle naïf de Bayes qui utilise des fonctions de densité de probabilité pour modéliser les caractéristiques descriptives de cet ensemble de données (lissage, distribution normale, exponentielle, binning, . ou plus).

b. Quelle prédiction le modèle naïf de Bayes retournera-t-il pour la requête suivante ?

SS-IN = 222, SED-IN = 4,5, COND-IN = 1 518, SS-OUT = 74, SED-OUT = 0,25, COND-OUT = 1 642

REMARQUE: "Essai. déterminer D-1/4/90 à D-30/4/90"

  1. Code source
  2. Rapport (y compris les résultats, l'environnement, la bibliothèque et le langage, l'explication du code et comment l'utiliser)

Langage : Python
Environnement : macOS Sierra V10.12.4 (Macbook Pro, 13 pouces, 2016)

REMARQUE: Il y a une ligne de code dans lookupTable.py qui ne s'est pas exécutée sur ma machine Windows. Le code n'est testé que sur macOS.

Descriptions de la bibliothèque
Pandas : puissante boîte à outils d'analyse de données Python
SciKit-Learn : modules Python pour l'apprentissage automatique et l'exploration de données
Matplotlib : bibliothèque de traçage pour Python
Numpy : tableau à N dimensions pour le calcul numérique

Fonctions de densité de probabilité

Modèles intégrés (SciKit-Learn)

L'ensemble de données a été fourni sans leurs classes respectives dans le fichier csv. J'ai choisi de créer une table de recherche pour chaque classe, puis de mapper notre ensemble de données à sa classe respective.

La taille des données d'entraînement est de 504 entrées. 4 entrées n'ont pas été classées, j'ai donc choisi de les supprimer complètement de l'ensemble de données. Cela signifie que la taille des données d'entraînement restantes est de 500.

Une solution possible consiste simplement à les exclure du produit des événements de preuve qui fonctionneront pour des entités discrètes.

La solution que j'ai choisie était de imputer les valeurs manquantes par la valeur moyenne de la caractéristique. Cela peut ne pas être une bonne solution pour les petits ensembles de données. Cependant, avec 500 instances de données d'entraînement, je pense que c'est une solution viable.

Le lissage consiste à prendre une partie de la masse de probabilité des affectations avec une probabilité supérieure à la moyenne et à la répartir sur les probabilités inférieures à la moyenne, voire égales à zéro.

Le lissage de Laplace, également appelé lissage additif, a été utilisé en conjonction avec le binning. Le binning discrétise les caractéristiques continues. Pour résoudre le problème produit par « pas de correspondance », nous effectuons un lissage sur l'ensemble de données groupé.

Les limites de regroupement ont été choisies en observant l'histogramme de l'ensemble de données ainsi que le tableau de données. Les points médians entre les valeurs qui diffèrent beaucoup ont été choisis comme limites de regroupement. En examinant l'ensemble de données, vous pouvez voir que des « STATUS » spécifiques ont certaines valeurs de caractéristiques qui sont beaucoup plus élevées ou beaucoup plus basses que d'autres « STATUS », ce qui signifie que le binning est une solution très logique malgré le jeu de données limité.

table de recherche.py

contient du code qui analyse une chaîne pour créer un tableau de valeurs qui sera utilisé comme table de recherche dans q2.py

nbdFunctions.py

contient du code pour le modèle naïf personnalisé de Bayes

contient du code qui entraîne et prédit à l'aide d'un ensemble de données de base

contient du code qui entraîne et prédit à l'aide d'un grand ensemble de données

Surligner: Examinez l'ensemble de données pour choisir les limites de regroupement appropriées. Une fois le binning terminé, effectuez un lissage de Laplace.

  1. Générer une table de recherche (déjà donné les informations sur quelle instance appartient à quelle classe, mais nous devons nous-mêmes associer les instances à leur classe respective)
  2. Classer chaque instance de données avec la table de recherche
  3. Nettoyer les données qui ne sont pas classifiées
  4. Imputer des données afin que nous puissions faire la formation de modèle
  5. Maquette de train
  6. Prédire la classe pour tester les données

Code source: p1.py
Modèles créés pour un petit ensemble de données :

Code source: p2.py
Modèles créés pour un grand ensemble de données :

Comme vous pouvez le voir, la plupart du travail effectué pour la mission est l'analyse/la gestion des données. Les modèles qui utilisent des fonctions de densité de probabilité sont plus simples à coder, ce qui en fait une très bonne tâche de codage pour apprendre Python. Cependant, en tant que tâche d'apprentissage automatique, je ne pense pas qu'il faille mettre autant d'accent sur la gestion des données (peut-être).


Notes de version de l'ITC

2011-février: Changé CC90 en CC80. Ajout des options CCD GMOS-N Hamamatsu.

2007-mai-24: Ajout du support LGS pour NIRI. Fusion de NIRI et NIRI+Altair. Ajout de la prise en charge de NIFS + P2. Modifications mineures de forme.

2006-mai-24: Correction d'un bug avec une largeur de ligne d'émission minimale qui affectait tous les instruments. Ajout d'un filtre coupe-bande HK pour NIRI.

2006-fév-28: NIFS ajouté à la liste des ITC' disponibles. Ajout de la prise en charge de Michelle Polarimetry dans le mode d'imagerie. Nouveaux filtres ajoutés pour GMOS Sud.

2005-juin-23: Tous les ITC v4.0 s'exécutant sur un nouveau serveur pour une vitesse de calcul améliorée. Les nouveaux fichiers d'arrière-plan proche et moyen IR et les débits mis à jour offrent une meilleure correspondance avec les performances observées. Les modèles de fond et de transmissions atmosphériques sont à haute résolution pour Michelle échelle. Spectroscopie Michelle réactivée. Les modèles de fond et de transmissions atmosphériques sont à haute résolution pour GNIRS R=18000. T-ReCS réactivé.

2005-mars-2: Les ITC Gemini North (GMOS North, NIRI y compris Altair, Michelle) utilisent désormais par défaut un revêtement miroir argenté (primaire et secondaire)

2003-août-29: Ajout d'Altair + NIRI ITC, implémenté en tant que modification de l'ITC NIRI.

2003-juin-25: Mise à jour du paramètre T-ReCS "bruit extra basse fréquence" avec des performances mesurées au télescope, améliorées d'un facteur 2.

2003-avril-17: modifications majeures apportées à T-ReCS ITC. Les propriétés du détecteur correspondent désormais aux performances AT avant l'expédition, qui présentent un "bruit extra basse fréquence" (ELFN) significativement élevé. Liste de filtres mise à jour et profils de transmission de filtres. Ajout d'options de spectroscopie (grilles, fentes).

2003-avril-17: ajout de données de qualité d'image à 1,2 um lors de l'utilisation de PWFS pour améliorer la précision de l'interpolation. Voir les contraintes de condition d'observation pour plus de détails.

Bug découvert 2003-mars-5 : la sortie GMOS South ITC signale à tort qu'elle utilise les propriétés GMOS North CCD. Il utilise en fait le bon fichier. [corrigé dans la v3.0]

2003-mars-4: mises à jour pour l'appel à propositions du semestre 03B. Ajout de GMOS-S (assume actuellement les mêmes propriétés optiques qu'utilise les mêmes fichiers que GMOS-N mais avec des détecteurs optimisés pour le bleu). Fond interne de la spectroscopie NIRI (v3.1) dégradé pour prendre en compte la diffusion des grisms, principalement à L mais aussi une certaine dégradation des performances à K et M).

2002-Sept-4: nouvelles versions pour tous les instruments et ajout de Michelle (tous v3.0). Centiles de qualité d'image révisés (de [20 %, 50 %, 80 %, tout] à [20 %, 70 %, 85 %, tout]). Nouveau pack graphique.

2002-mars-11: nouvelles versions pour NIRI, GMOS, T-ReCS et AcqCam (toutes v2.0). Les modifications incluent : une qualité d'image révisée à 80 % d'ile et des contraintes de couverture nuageuse à 70 % d'ile, 90 % d'ile et « quotany », des éléments IFU multiples GMOS, le téléchargement de spectres d'entrée définis par l'utilisateur, ainsi que de nombreux autres changements. Consultez les notes de version 2.0 pour plus de détails.

2002-8 mars: Modifications incluses dans les versions v2.0 :

2001-oct-26: correction de la dispersion du réseau GMOS R400 à 0,0673 nm/pixel (au lieu de 0,0852 nm/pixel)

Bug découvert 2001-Sep-13 : lorsque le binning spectral GMOS de 2 ou 4 est sélectionné, la plage de longueurs d'onde n'est pas calculée correctement [réparé 2001-Sep-19]

2001-Sept-12: versions mises à jour des ITC NIRI (v1.2) et GMOS (v1.1). Les deux incluent des spectres de sortie ASCII GMOS comprend la première implémentation IFU et le réseau R831. Première version de T-ReCS ITC (v1.0).

Bug découvert 2001-Sep-11: - trouvé lors du test T-ReCS ITC que l'émission thermique du télescope n'était pas correctement appliquée. Aura également affecté les calculs thermiques NIRI (4 et 5 um) [fixé 2001-Sep-12]

Bug découvert au 28 août 2001 : - dans le calcul du flux en 'peak' pour une émission de luminosité de surface uniforme, le flux n'est pas mis à jour lorsque la luminosité de la source est modifiée bien que le signal total en secondes d'arc carré soit calculé correctement (tous les ITC) [corrigé 2001-Sept-1]

2001-8 août: fichier de débit d'optique fixe GMOS mis à jour après les tests initiaux au télescope débit légèrement inférieur aux longueurs d'onde bleues

Bug découvert 2001-mars-14 - rarement, si la longueur d'onde de la raie d'émission SED est donnée à 3 décimales l'ITC renvoie "null" la solution de contournement est de spécifier avec une précision de seulement 2 d.p. ou changer légèrement la longueur d'onde

2001-mars-2: mise à jour de l'ITC NIRI pour l'appel à propositions 2001B des ITC GMOS et AcqCam.

Bug découvert au 19 février 2001 - lorsque le bruit du flux source est plus important que le fond, l'ITC émet l'avertissement "pas de fond limité", même lorsque le bruit de fond dépasse toujours le bruit sombre et de lecture. Bien que cela soit strictement vrai, l'ITC doit noter que l'observation est limitée par le bruit de la source.

Bug découvert 2000-Nov-16 : dans NIRI ITC, le calcul 'forward' du S/N total ne donne pas les mêmes résultats que le calcul 'reverse' du temps d'intégration. Le calcul en avant donne en fait le résultat correct. [fixé 2001-Feb-21]

2000-août-30: Première version publique de NIRI ITC.

  • Prise en charge de GMOS IFU-2
  • Définir le nombre par défaut de fibres de ciel GMOS IFU
  • Prise en charge des filtres u & Y en tant que normalisations de la luminosité
  • Afficher le nombre de pics en ADU et la fraction de puits complets
  • Soutenir le grism F2 R3K
  • Supprimer l'ouverture du ciel inutilisée des instruments IR
  • Mettre à jour les données de transmission du filtre Flamingos2 ITC
    • Les spectres source définis par l'utilisateur peuvent être utilisés à la place du modèle et des modèles SED existants. Notez les restrictions suivantes concernant le format de fichier :
      • Deux colonnes séparées par des espaces : (1) longueur d'onde en nm (2) densité de flux en unités arbitraires. Les fichiers peuvent avoir n'importe quel nombre de lignes de commentaires, chacune commençant par le caractère #, et n'importe quel nombre de lignes vides.
      • L'intervalle de longueur d'onde n'a pas besoin d'être uniforme.
      • La densité de flux doit être exprimée en unités de longueur d'onde (par exemple par nm ou par um, mais pas par Hz).
      • La plage de longueurs d'onde doit s'étendre pour inclure le filtre de normalisation (ou longueur d'onde) demandé. Par exemple, un spectre défini par l'utilisateur pour T-ReCS doit s'étendre jusqu'à moins de 2000 nm si la luminosité de la source est définie dans la bande K.
      • La taille du fichier doit être inférieure à 1 Mo.
      • Courbes de transmission mises à jour pour plusieurs filtres à bande étroite
      • La largeur de la lame et la résolution spectrale correspondante ont été mises à jour pour la fente centrale de 6 pixels afin de correspondre à la nouvelle fente physique. L'interface utilisateur définit désormais la largeur de la fente en pixels (auparavant en arcsec) pour être cohérente avec PIT et OT et pour éviter les futures mises à jour lorsque de petites modifications sont apportées.
      • Taille de l'élément IFU corrigée (l'ouverture d'entrée hexagonale approchée de 0,19 arcsec carré était de 0,21 arcsec).
      • Ajout d'une plage radiale d'éléments IFU pour étendre le cas précédent à élément unique. Les éléments IFU ont des décalages de 0,20 arcsec. Comme précédemment, le S/N est calculé pour les éléments individuels.
      • Tous les caillebotis (y compris ceux qui ne sont pas actuellement installés) mis à la disposition de l'ITC.
      • Le temps d'intégration est désormais spécifié explicitement, remplaçant la spécification utilisant le temps de trame individuel et le nombre de trames. En tant qu'espace réservé, des durées de trame de 20 ms et 100 ms sont supposées pour les calculs d'imagerie et de spectroscopie.
      • Ajout de SED non stellaires pour la nébuleuse planétaire, la galaxie starburst, l'étoile pré-séquence principale et le centre galactique. SED dérivés des spectres ISO.

      Participants à l'Observatoire Gemini

      L'Observatoire Gemini fournit aux communautés astronomiques de six pays participants des installations astronomiques de pointe qui allouent du temps d'observation proportionnellement à la contribution de chaque pays. En plus du soutien financier, chaque pays apporte également d'importantes ressources scientifiques et techniques. Les agences nationales de recherche qui forment le partenariat Gemini comprennent : la National Science Foundation (NSF) des États-Unis, le Conseil national de recherches du Canada (NRC), la Comisión Nacional de Investigación Cientifica y Tecnológica (CONICYT), le Ministère brésilien de la Ciência, Inovação, le Ministerio de Ciencia argentin, Tecnología e Innovación et l'Institut coréen d'astronomie et d'espace (KASI). L'observatoire est géré par l'Association des universités pour la recherche en astronomie, Inc. (AURA) dans le cadre d'un accord de coopération avec la NSF. La NSF sert également d'agence exécutive pour le partenariat international.


      Binning matériel vs logiciel dans les caméras à faible bruit de lecture

      Don Rudny, le 3 décembre 2016 - 18:54, a déclaré :
      Si la caméra avec le capteur A) peut effectuer un binning matériel 2x2, alors les pixels groupés résultants correspondront au signal du capteur B) et conserveront toujours le bruit de lecture 1e (en supposant que le binning matériel puisse lire les 4 pixels à la fois - nécessite probablement deux lectures ?). Dans ce cas, le matériel mis en classe A) correspondrait à B) en termes de signal/bruit de lecture (si les 4 peuvent être lus une fois) ou plus probablement à 50 % (si cela prend 2 lectures pour les 4 pixels).

      Je me rends compte que cela devrait être dans un fil séparé, mais cela perdrait son contexte. Je continue de voir des articles sur le binning augmentant la sensibilité (augmentation du SNR) d'une caméra basée sur CMOS. Je pensais qu'à part un capteur CMOS Kodak unique d'il y a plusieurs années, les capteurs CMOS ne peuvent pas être regroupés en matériel et le regroupement logiciel ne fait pas grand-chose pour améliorer le SNR. J'ai déjà posté ces commentaires, mais ils sont toujours ignorés. Hiten, tu as eu un débat avec Sam de ZWO à ce sujet et je pensais que tu étais sur l'argent. Alors, quelle est la vraie histoire ?

      J'ai pensé que je commencerais un autre fil pour que nous puissions discuter. C'est un point important.

      C'est tout à fait exact. Le binning SW ne change pas le SNR. Mais si le bruit de lecture de la caméra est suffisamment faible, la différence de SNR entre le binning SW et le binning HW est négligeable.

      Cette importance ne doit pas être sous-estimée. Pendant des décennies, les communautés d'imagerie et d'EAA ont été imprégnées d'un paradigme qui assimile le binning et des pixels plus gros à un SNR plus élevé.

      C'était une conséquence du bruit de lecture élevé inhérent à la technologie CCD, c'est donc ce que nous avons appris de notre expérience. Mais l'avènement des capteurs à faible bruit de lecture nécessite un changement de mentalité.

      La raison pour laquelle le regroupement matériel dans les CCD produit un SNR plus élevé est que dans l'architecture CCD, le bruit de lecture est fixe lorsque vous lisez x1 ou x2 pixels regroupés. Ainsi, en binning x2, vous doublez le signal tout en gardant le même bruit de lecture.

      Cette même logique s'applique à la justification d'avoir des pixels plus grands pour améliorer le SNR, c'est-à-dire que vous augmentez le signal tout en gardant le même bruit de lecture.

      En l'absence de bruit de lecture, la taille des pixels et le binning matériel ne sont pas pertinents par rapport au SNR (toutes choses étant égales par ailleurs). Alors qu'à 1e le bruit de lecture n'est pas tout à fait nul, il est encore suffisamment petit pour que vous commenciez à voir ces avantages. En fait, à un bruit de lecture de 1e et moins, vous comptez littéralement des photons, ce qui est assez incroyable.

      Espérons que cela ait du sens. Heureux de discuter davantage.

      #2 Don Rudny

      Merci d'avoir lancé ce fil.

      Alors, quel est l'avantage de regrouper une caméra basée sur CMOS dans un logiciel ? Si le SNR n'est pas amélioré, la sensibilité n'est pas améliorée, la résolution est réduite et toute amélioration apparente de la luminosité n'est qu'une augmentation du gain, pas une réelle amélioration de la sensibilité.

      Si le bruit de lecture est si faible que l'amplification du signal et le maintien d'un SNR presque identique donnent une bonne qualité avec des expositions plus courtes, pourquoi ne pas simplement augmenter le gain et conserver la meilleure résolution ?

      En outre, pouvez-vous confirmer que le capteur CMOS typique ne peut pas être intégré au matériel, comme certains le prétendent ?

      #3 Astrojedi

      Je pense que la chose essentielle à comprendre est que si le binning logiciel n'augmente pas la sensibilité, le binning matériel (si vous pouviez le faire) ferait peu de différence car le bruit de lecture est si faible au départ. Votre SNR sera toujours supérieur à une caméra avec un bruit de lecture plus élevé avec un binning matériel (toutes choses étant égales par ailleurs)

      Oui, le binning logiciel augmente simplement la luminosité, mais cela modifie également l'échantillonnage. Donc, si vous êtes considérablement suréchantillonné, le binning SW fournira une luminosité plus élevée sans trop de perte de détails. Et tout comme le binning matériel, il masquera les erreurs de suivi et l'impact des aberrations optiques, le cas échéant, d'un taux d'échantillonnage plus élevé.

      Notez que le gain est un concept légèrement différent. Le gain ne concerne pas seulement la luminosité, mais aussi la conversion et la quantification.

      Edit : Don, pour répondre à votre autre question, oui, la plupart des capteurs CMOS utilisés par la communauté Astro aujourd'hui ne peuvent pas être stockés dans le matériel au niveau analogique. Mais je connais certains capteurs CMOS d'autres fabricants qui peuvent être rangés dans du matériel. C'est donc une question de mise en œuvre/d'architecture et non de capacité. Mais comme je l'ai déjà dit, à un bruit de lecture de 1e ou moins, la valeur du binning HW n'est pas claire.

      Edité par Astrojedi, le 04 décembre 2016 - 10h18.

      #4 MartinMeredith

      Si, par regroupement logiciel, nous parlons simplement de la somme des valeurs de pixels dans des blocs NxX qui ne se chevauchent pas, nous limitons sûrement nos opportunités en héritant strictement du concept de regroupement matériel. Il peut y avoir de bonnes raisons pour lesquelles le binning matériel doit être mis en œuvre de cette manière, mais dans le logiciel, nous avons d'autres moyens (et sans doute meilleurs) d'atteindre nos objectifs. Par exemple, nous n'avons pas besoin de classer en 2x2 ou 3x3 ou autre, mais nous pouvons implémenter un type plus général de lissage si c'est ce que nous voulons.

      Si l'objectif est de sous-échantillonner, il faut faire attention au binning logiciel en raison de la menace d'introduire du bruit de repliement. Supposons que nous ne soyons pas suréchantillonnés mais que nous décidions de bin. Ensuite, les hautes fréquences spatiales présentes dans l'image non regroupée ne seront pas complètement supprimées mais réparties autour de l'image sous forme de bruit (potentiellement structuré). L'approche correcte consiste à lisser l'image avec un filtre anticrénelage (logiciel) avant le sous-échantillonnage.

      #5 alphatripleplus

      Je suis tout à fait d'accord avec le premier message de Hiten dans ce fil. Aucun argument sur le fonctionnement du binning matériel ou logiciel par rapport au SNR.

      Notre discussion dans le fil de la galerie portait sur la question de savoir si un hypothétique grand capteur de pixels serait préférable à un plus petit capteur de pixels, tous deux avec un très faible mais non nul lire le bruit (disons 1e) et d'autres caractéristiques. J'ai plaidé la cause des pixels plus gros.

      Edité par alphatripleplus, le 04 décembre 2016 - 08:37.

      #6 Astrojedi

      Si, par regroupement logiciel, nous parlons simplement de la somme des valeurs de pixels dans des blocs NxX qui ne se chevauchent pas, nous limitons sûrement nos opportunités en héritant strictement du concept de regroupement matériel. Il peut y avoir de bonnes raisons pour lesquelles le binning matériel doit être mis en œuvre de cette manière, mais dans le logiciel, nous avons d'autres moyens (et sans doute meilleurs) d'atteindre nos objectifs. Par exemple, nous n'avons pas besoin de classer en 2x2 ou 3x3 ou autre, mais nous pouvons implémenter un type plus général de lissage si c'est ce que nous voulons.

      Si l'objectif est de sous-échantillonner, il faut faire attention au binning logiciel en raison de la menace d'introduire du bruit de repliement. Supposons que nous ne soyons pas suréchantillonnés mais que nous décidions de bin. Ensuite, les hautes fréquences spatiales présentes dans l'image non regroupée ne seront pas complètement supprimées mais réparties autour de l'image sous forme de bruit (potentiellement structuré). L'approche correcte consiste à lisser l'image avec un filtre anticrénelage (logiciel) avant le sous-échantillonnage.

      Martin

      La discussion ici porte sur le SNR dans le binning logiciel par rapport au matériel. Les problèmes liés au sous-échantillonnage font l'objet d'une discussion distincte et s'appliquent aux deux types de binning.

      Et bien que je sois d'accord avec vous sur le principe que nous devrions regarder au-delà des approches traditionnelles pour tirer parti de ces nouveaux capteurs, le binning est formellement défini comme une opération de somme et est le seul moyen que je connaisse pour vraiment changer l'échantillonnage et gérer l'étendue. D'autres opérations peuvent être définies pour atteindre d'autres objectifs.

      #7 MartinMeredith

      Si, par regroupement logiciel, nous parlons simplement de la somme des valeurs de pixels dans des blocs NxX qui ne se chevauchent pas, nous limitons sûrement nos opportunités en héritant strictement du concept de regroupement matériel. Il peut y avoir de bonnes raisons pour lesquelles le binning matériel doit être mis en œuvre de cette manière, mais dans le logiciel, nous avons d'autres moyens (et sans doute meilleurs) d'atteindre nos objectifs. Par exemple, nous n'avons pas besoin de classer en 2x2 ou 3x3 ou autre, mais nous pouvons implémenter un type plus général de lissage si c'est ce que nous voulons.

      Si l'objectif est de sous-échantillonner, il faut faire attention au binning logiciel en raison de la menace d'introduire du bruit de crénelage. Supposons que nous ne soyons pas suréchantillonnés mais que nous décidions de bin. Ensuite, les hautes fréquences spatiales présentes dans l'image non regroupée ne seront pas complètement supprimées mais réparties autour de l'image sous forme de bruit (potentiellement structuré). L'approche correcte consiste à lisser l'image avec un filtre anticrénelage (logiciel) avant le sous-échantillonnage.

      Martin

      La discussion ici porte sur le SNR dans le binning logiciel par rapport au matériel. Les problèmes liés au sous-échantillonnage font l'objet d'une discussion distincte et s'appliquent aux deux types de binning.

      Et bien que je sois d'accord avec vous sur le principe que nous devrions regarder au-delà des approches traditionnelles pour tirer parti de ces nouveaux capteurs, le binning est formellement défini comme une opération de somme et est le seul moyen que je connaisse pour vraiment changer l'échantillonnage et gérer l'étendue. D'autres opérations peuvent être définies pour atteindre d'autres objectifs.

      Je ne suis pas d'accord sur l'équivalence matériel/logiciel. Toutes les opérations de sous-échantillonnage doivent être précédées d'un filtre passe-bas adapté afin d'éviter l'anti-aliasing. Dans le cas du binning matériel, un tel anti-aliasing n'est pas possible à moins qu'il n'y ait un filtre anti-aliasing matériel (ce qui en général n'existe pas dans les CCD du moins, à quelques exceptions près). En revanche, pour le sous-échantillonnage logiciel, un tel filtre anti-aliasing est réalisable. Par conséquent, il existe une différence entre le binning logiciel et matériel en ce qui concerne le sous-échantillonnage et je pense donc que mon message est sur le sujet.

      Sur le deuxième point, je ne sais pas trop ce que vous entendez par etendue (je n'ai pas rencontré le terme), mais le binning n'est pas seulement ne pas le seul moyen d'obtenir des changements de fréquence d'échantillonnage, mais le binning est théoriquement sous-optimal comme moyen de le faire. Le binning équivaut à la convolution avec un filtre rectangulaire dans le domaine spatial, mais il faut un filtre dont la réponse est rectangulaire dans le domaine spatial. domaine de fréquence spatiale. Cela conduit à un filtre non rectangulaire dans le domaine spatial. IIRC, il conduit à un filtre infini comme une fonction sinc, qui doit être approché (tronqué) pour obtenir une atténuation sévère des hautes fréquences spatiales et réduire considérablement leur impact en termes d'aliasing.

      BTW Tout cela est un truc standard dans le traitement du signal 1D et bien que beaucoup dans le domaine CCD pensent que Nyquist ne s'applique pas aux capteurs en 2D, je ne suis pas l'un d'entre eux.

      voir aussi et ce tutoriel (en particulier p19 pour voir à quel point le binning est loin de l'idéal)

      PS juste pour ajouter : puisque l'énergie d'aliasing est une forme de bruit, le sous-échantillonnage correct concerne en effet le SNR dans le binning matériel vs logiciel (le sujet du fil). Néanmoins, je crois en général que c'est une petite source de bruit, bien qu'elle soit systématiquement ignorée dans ce domaine.

      Édité par MartinMeredith, 04 décembre 2016 - 11:41.

      #8 Astrojedi

      Si, par regroupement logiciel, nous parlons simplement de la somme des valeurs de pixels dans des blocs NxX qui ne se chevauchent pas, nous limitons sûrement nos opportunités en héritant strictement du concept de regroupement matériel. Il peut y avoir de bonnes raisons pour lesquelles le binning matériel doit être mis en œuvre de cette manière, mais dans le logiciel, nous avons d'autres moyens (et sans doute meilleurs) d'atteindre nos objectifs. Par exemple, nous n'avons pas besoin de classer en 2x2 ou 3x3 ou autre, mais nous pouvons implémenter un type plus général de lissage si c'est ce que nous voulons.

      Si l'objectif est de sous-échantillonner, il faut faire attention au binning logiciel en raison de la menace d'introduire du bruit de repliement. Supposons que nous ne soyons pas suréchantillonnés mais que nous décidions de bin. Ensuite, les hautes fréquences spatiales présentes dans l'image non regroupée ne seront pas complètement supprimées mais réparties autour de l'image sous forme de bruit (potentiellement structuré). L'approche correcte consiste à lisser l'image avec un filtre anticrénelage (logiciel) avant le sous-échantillonnage.

      Martin

      La discussion ici porte sur le SNR dans le binning logiciel par rapport au matériel. Les problèmes liés au sous-échantillonnage font l'objet d'une discussion distincte et s'appliquent aux deux types de binning.

      Et bien que je sois d'accord avec vous sur le principe que nous devrions regarder au-delà des approches traditionnelles pour tirer parti de ces nouveaux capteurs, le binning est formellement défini comme une opération de somme et est le seul moyen que je connaisse pour vraiment changer l'échantillonnage et gérer l'étendue. D'autres opérations peuvent être définies pour atteindre d'autres objectifs.

      Je ne suis pas d'accord sur l'équivalence matériel/logiciel. Toutes les opérations de sous-échantillonnage doivent être précédées d'un filtre passe-bas adapté afin d'éviter l'anti-aliasing. Dans le cas du binning matériel, un tel anti-aliasing n'est pas possible à moins qu'il n'y ait un filtre anti-aliasing matériel (ce qui en général n'existe pas dans les CCD du moins, à quelques exceptions près). En revanche, pour le sous-échantillonnage logiciel, un tel filtre anti-aliasing est réalisable. Par conséquent, il existe une différence entre le binning logiciel et matériel en ce qui concerne le sous-échantillonnage et je pense donc que mon message est sur le sujet.

      Sur le deuxième point, je ne sais pas trop ce que vous entendez par etendue (je n'ai pas rencontré le terme), mais le binning n'est pas seulement ne pas le seul moyen d'obtenir des changements de fréquence d'échantillonnage, mais le binning est théoriquement sous-optimal comme moyen de le faire. Le binning équivaut à la convolution avec un filtre rectangulaire dans le domaine spatial, mais il faut un filtre dont la réponse est rectangulaire dans le domaine spatial. domaine de fréquence spatiale. Cela conduit à un filtre non rectangulaire dans le domaine spatial. IIRC, il conduit à un filtre infini comme une fonction sinc, qui doit être approché (tronqué) pour obtenir une atténuation sévère des hautes fréquences spatiales et réduire considérablement leur impact en termes d'aliasing.

      BTW Tout cela est un truc standard dans le traitement du signal 1D et bien que beaucoup dans le domaine CCD pensent que Nyquist ne s'applique pas aux capteurs en 2D, je ne suis pas l'un d'entre eux.

      voir aussi et ce tutoriel (en particulier p19 pour voir à quel point le binning est loin de l'idéal)

      PS juste pour ajouter : puisque l'énergie d'aliasing est une forme de bruit, le sous-échantillonnage correct concerne en effet le SNR dans le binning matériel vs logiciel (le sujet du fil). Néanmoins, je crois en général que c'est une petite source de bruit, bien qu'elle soit systématiquement ignorée dans ce domaine.

      Le binning n'est pas seulement un sous-échantillonnage, c'est une opération différente. Il gère l'allonge qui est une propriété fondamentale d'un système optique.

      Ce que vous décrivez n'est pas incorrect mais cela peut être fait en SW avec l'un ou l'autre type de caméra CCD ou CMOS (en capturant en utilisant le binning x1, puis en faisant le binning SW avec l'analyse FFT pour biner des fréquences similaires) donc, bien que correct, il n'est pas pertinent pour la distinction que nous essayons de faire ici. La caméra à faible bruit de lecture aura toujours un avantage ici aussi.

      Une autre chose que vous devez savoir puisque vous avez une telle compréhension de la théorie de l'information et de l'imagerie est que l'aliasing n'est presque jamais un problème dans les applications Astro car l'énergie est si faible. C'est presque sans importance.

      Mais je suis d'accord avec vous que SW offre plus de possibilités pour les opérations de traitement d'images. Rien de nouveau ici.

      Edité par Astrojedi, 04 décembre 2016 - 11:52.

      #9 JonNPR

      Comme aparté ou point d'information. L'étendue n'est pas aussi souvent discutée que d'autres facteurs qui caractérisent notre équipement, ce lien peut donc être utile. Je ne me suis familiarisé avec le concept qu'en raison de conversations avec Mel Bartels, qui s'est concentré (pour ainsi dire) ces derniers temps sur la catégorisation des télescopes qu'il construit ainsi que d'autres d'intérêt selon leur attente.

      #10 Astrojedi

      Alors que tout le monde fait de grands points juste pour clarifier la raison pour laquelle j'ai commencé ce fil était de discuter des questions suivantes en réponse à Don et Errol.

      1. Une caméra CMOS à très faible bruit de lecture avec regroupement SW est-elle désavantagée par rapport au SNR par rapport à un CCD à bruit de lecture plus élevé qui peut effectuer un regroupement matériel/domaine analogique (toutes choses étant égales par ailleurs) ?

      Ma réponse est non pour les raisons indiquées ci-dessus

      2. Quelle est l'importance du 1e de bruit de lecture et devons-nous attendre des caméras CMOS à pixels plus grands ?

      Au point d'Errol, 1e n'est pas nul. mais à mon avis, même au bruit de lecture 1e, vous comptez littéralement les photons, votre système est donc déjà incroyablement efficace, surtout si vous utilisez une caméra à haute QE comme la 290 mono. Pour moi, attendre n'a pas de sens mais si je devais attendre (et je le suis : ) ) j'attendrais un capteur plus grand similaire au 1600 mais avec un QE élevé comme le 290 et un bruit de lecture encore plus faible <0.5e et encore plus petit 2 pixels du micron. Imaginez le pouvoir de décider quel échantillonnage vous souhaitez utiliser avec la post-acquisition en utilisant le binning SW. Pas besoin de déblayer avec la réduction focale.

      La pénalité évidente ici est la taille du fichier et le temps de traitement que certaines personnes n'aimeront pas, mais je serais d'accord avec cela.

      Pour EAA, vous pouvez utiliser l'appareil photo au format x3 ou x4 pour échanger la résolution contre la luminosité.

      Edité par Astrojedi, le 04 décembre 2016 - 16:19.

      #11 MartinMeredith

      Hiten, j'ai toujours supposé que le binning est effectué parce que c'est l'opération la plus simple possible qui peut être effectuée facilement dans le matériel pour réaliser un sous-échantillonnage, mais vous suggérez qu'il y a plus que cela? Peut-être pouvez-vous en dire plus sur ce que vous entendez par « gérer etendue » ?

      BTW Si les gens pensent que ce n'est pas le bon fil pour cette discussion, nous pouvons le déplacer ailleurs.

      #12 gdd

      Les capteurs CMOS ont un bruit de lecture beaucoup plus faible sans binning, mais les capteurs CCD obtiennent un bruit de lecture encore plus faible avec suffisamment de binning. Cela ne signifie-t-il pas que le CMOS peut être meilleur pour la haute résolution et que le CCD peut être meilleur pour aller en profondeur au détriment de la résolution ?

      #13 DonBoy

      Il y a quelque temps, en me lançant dans l'imagerie avec l'ASI1600 et en essayant d'apprendre quels paramètres produisent les meilleures images, j'ai demandé à Robin (auteur de SC) ce qui suit dans lequel j'ai posté trois images du 1600 prises avec le logiciel binning à bin 1, bin2 et bin 4 (J'ai dit par erreur que c'était le bac 3). J'espère que vous pourrez lire ces messages.

      Lors de la diffusion sur NSN, je fonctionne généralement à bin2 avec l'ASI1600MCC car le bruit est moindre et je peux obtenir une image plus nette plus rapidement même si la résolution est inférieure à bin 1, ce qui n'affecte généralement pas la qualité des images pour la diffusion.

      #14 Astrojedi

      En fait, de nombreuses opérations se produisent dans le matériel dans le domaine analogique pour calibrer et tenir compte des imperfections du capteur qui semblent transparentes pour l'utilisateur. La mise en œuvre d'un filtre passe-bas n'est pas difficile, mais la plupart des utilisateurs d'Astro préfèrent une sortie aussi brute que possible

      En ce qui concerne etendue je ne suis pas un expert en optique. Ma formation est la théorie de l'information et l'IA. Mais laissez-moi tenter le coup.

      Etendue is essentially the total energy captured and transferred by an optical system - simplistically it is a product of aperture and solid angle of view. The f ratio in a way embodies this conversion.

      Ability to bin a large sensor allows us to create larger pixels to capture the same energy even though it is spread across a larger area to mimic a higher etendue system.

      #15 Astrojedi

      Awhile back while getting into imaging with the ASI1600 and trying to learn what settings produce the best images I asked Robin (author of SC) the following in which I posted three images of the 1600 taken with software binning at bin 1, bin2 and bin 4 (I mistakenly said it was bin 3). I hope you can read those postings.

      https://stargazerslo. ftware/?page=47

      Screen Shot 2016-12-04 at 5.32.45 PM.jpg

      Screen Shot 2016-12-04 at 5.38.28 PM.jpg

      While broadcasting on NSN I generally run at bin2 with the ASI1600MCC since noise is less and I can get a cleaner image quicker even though resolution is less than bin 1, which generally doesn't effect the images quality for the broadcast.

      Thank you for this post. I remember having a similar conversion with Robin on these forums. One thing I disagree with him on is averaging within the same frame. Averaging across time and spatial dimensions are two distinct operations even if the look and feel the same. Also gain is not just a brightness construct but is primarily a quantization variable. Applying gain to manage brightness is not an appropriate approach for many reasons including unintended consequences that result.

      Edited by Astrojedi, 05 December 2016 - 11:15 AM.

      #16 Astrojedi

      CMOS sensors have much lower read noise without binning, but CCD sensors achieve even lower read noise with enough binning. Doesn't this mean CMOS may be better for high resolution and CCD may be better for going deep at the expense of resolution?

      Gale

      The CCD read noise is typically fixed. What happens when you bin is that the signal is greatly increased vs. read noise hence more fainter detail is able to overcome the read noise threshold.

      #17 alphatripleplus


      2. How much does 1e of read noise matter and should we wait for larger pixel CMOS cameras?

      To Errol's ponint 1e is not zero. but in my view even at 1e read noise you are literally counting photons so your system is already incredibly efficient especially if you are using a high QE camera like the 290 mono. For me waiting does not make sense but if I was to wait (and I am : ) ) I would wait for a larger sensor similar to the 1600 but with high QE like the 290 and even lower read noise <0.5e and even smaller 2 micron pixels. Imagine the power of deciding what sampling you want to go with post acquisition using SW binning. No need to muck with focal reduction.

      The obvious penalty here is file size and processing time which some folks will not like but I would be ok with it.

      For EAA you could use the camera at x3 or x4 binning to trade resolution for brightness.

      I agree with Hiten that having a small pixel camera does allow the flexibility of adjusting the resolution via SW binning post acquisition, something that a large pixel sensor does not have the flexibility to do. However, I'd like to give another slightly more concrete example for the case of why I would favour a larger pixel sensor to a small pixel sensor with identical QE and low read noise. I'll start with a comparison of the X2 and the ASI290, and then I'll compare the ASI290 with a hypothethical big pixel (like the X2), but low read noise sensor. (Sorry if I this gets a bit wordy, but bear with me):

      I have a C8 which I often use at around f/4 ie about 813mm focal length. I can't really use much more focal reduction (non-Hyperstar) without aberrations becoming noticeable with a 1/2inch sensor. If I use my Lodestar X2 mono (8.6 x8.3micron pixels) with this setup, each pixel has a resolution of 2.18 arcsec x 2.11 arcsec. If I owned an ASI 290 mono (2.9 micron pixels), each pixel would have a resolution of about 0.74 arcsec x 0.74 arcsec. So the individual Lodestar pixels cover roughly 8.5 times the solid angle of the ASI290 pixels. I don't know the relative QE of the X2 vs the ASI290, but I'll assume they are similar. Let's suppose I have average seeing, so the FWHM of a star is 3arcsecs. With the X2 the light from the star would be spread over about 4 pixels ( 3 arcsecs diameter fits inside a box of 2x2 pixels with each pixel about 2arcsec in size). For the ASI290 the same light from the star would be spread over about 16pixels (3 arcsec diameter fits inside a 4x4 pixel box with each pixel only 0.74arcsec in size). Thus, the light intensity per pixel from this star is about 4 times greater for each of the 4 pixels illuminated in X2 than the 16 pixels illuminated by the ASI290. (For simplicity, I'm ignoring the point spread function which would imply that the central pixels have a greater intensity compared to the outer pixels for the ASI290). However, the Lodestar X2 has typically 5.5e read-noise according to the SX Lodestar X2 handbook, versus about 1e read noise at 300 gain for the ASI290. So a faint star whose signal is just above the 1e read noise of the ASI290 pixels may be detected by the ASI290, but may or may not be detected by the X2 (as 4 x 1e is less than the 5.5e read noise of the X2 pixels). The ASI290 would seem to have a slight edge in detecting a very faint star over the X2 because of its lower read noise, even though it has smaller pixels.

      Now consider a hypothetical sensor (maybe call it the 'X3') which is identical to the X2 - same large pixels and QE - but has the same very low 1e read noise as the ASI290 rather than the 5.5e read noise of the X2. This big pixel sensor will be able to detect stars which are approximately 1/4 the brightness of those visible to the ASI290, since it could detect a signal of about 1e in each large X3 pixel, which would equate to about 0.25e in each of the smaller ASI290 pixels (well below the ASi290 1e read noise).

      Software binning will not help the ASI290 detect a signal which does not register on the unbinned ASI290 pixels. As Hiten mentions, software binning may improve the brightness of details already visible, but it won't pull out a signal that is buried in the read noise.

      Edited by alphatripleplus, 05 December 2016 - 10:04 AM.


      Smoothing an SED with binning - Astronomy

      We discuss mathematical methods for analysis of the X-ray observational data to obtain a distribution of the main physical parameters of X-ray galaxy clusters. First of all, this is the binning of galaxy cluster imagery on the concentration rings around the central parts. It allows us to calculate the integrated amount of pixels, which contain the information on temperature and other parameters of hot diffuse gas, cooling flows etc., as well as to detach the central engine of galaxy cluster. The another approach is the so-called "contour binning algorithm", which allows us to select contours on an adaptively smoothed map in such a manner that the generated bins closely fit the surface brightness. This method is mostly informative when the spectral properties follow surface brightness and/or their distribution is not smooth. We compare these methods using the Chandra observational data for A2029, A2107, and A2151 galaxy clusters. We consider a wavelet analysis likely the "Mexican Hat" as an additional and important approach for the X-ray image processing to determine not only the regions of cores in clusters but also substructures occupied by galaxies and ICM regions while processing their X-ray image contour binning. We confirm that the detachment of substructures should precede further research because of the existence of subclustering imposes doubt in the validity of the hydrostatic eqilibrium hypothesis of the X-ray gas when the dynamical matter distribution and the profiles of various physical parameters along radii are considered. A combined application of these three techniques can significantly complement our understanding of the physical processes that occur in X-ray galaxy clusters.


      Fundamentals and Analytical Applications of Multiway Calibration

      Karisa M. Pierce , . Robert E. Synovec , in Data Handling in Science and Technology , 2015

      2.2 Noise Reduction

      Baseline correction procedures are designed to correct low-frequency noise and offsets, but not to alter higher frequency variations. Several techniques may be applied to reduce high-frequency variations and improve signal-to-noise (S/N) ratio in chromatograms. The most commonly implemented methods are smoothing and binning. The classic Savitzky–Golay method is a running smoothing function that fits a low-order polynomial to each data pixel and its neighbors, replacing the signal of each data pixel with the value provided by the polynomial fit [39] . Wavelet smoothing methods transform the chromatogram into the frequency domain, remove the high-frequency components that are assumed to be indeterminate noise, and then perform the reverse transform to the time domain yielding the smoothed chromatogram [40] . Similarly, the low-frequency components characteristic of slowly drifting baseline variations may also be removed with the wavelet method, assisting in baseline correction. Data reduction by simple interpolation and averaging, referred to as “binning,” improves S/N and additionally reduces computational load when processing large volumes of 2D separations data [41] . COMForTS, a Fourier transformation method for comprehensive 2D chromatographic separations, improves S/N and additionally reduces the separation time and data density [42] .

      Noise reduction techniques are critical to successfully addressing a wide variety of analytical challenges. The improvement in S/N, as well as the concurrent data reduction with some methods, improves the ability of the following pixel-based analysis to discover meaningful chemical differences between samples, while reducing false discoveries due to noise. Regardless of the technique used, noise reduction is a delicate operation that requires careful choice of parameters to avoid compromising the real chemical signals that are present in the data. Careless choice of parameters for noise removal algorithms or excessive noise removal may artificially broaden peaks, reduce resolution, introduce artifacts, and/or complicate deconvolution.


      Smoothing an SED with binning - Astronomy


      Aims: In this paper, we characterize the first γ-ray flaring episode of the flat-spectrum radio quasar PKS 0346-27 (z = 0.991), as revealed by Fermi-LAT monitoring data, and the concurrent multi-wavelength variability observed from radio through X-rays.
      Methods: We studied the long- and short-term flux and spectral variability from PKS 0346-27 by producing γ-ray light curves with different time binning. We complement the Fermi-LAT data with multi-wavelength observations from the Atacama Large Millimeter Array (radio mm-band), the Rapid Eye Mount telescope (near-infrared) and Swift (optical-UV and X-rays). This quasi-simultaneous multi-wavelength coverage allowed us to construct time-resolved spectral energy distributions (SEDs) of PKS 0346-27 and compare the broadband spectral properties of the source between different activity states using a one-zone leptonic emission model.
      Results: PKS 0346-27 entered an elevated γ-ray activity state starting from the beginning of 2018. The high-state continued throughout the year, displaying the highest fluxes in May 2018. We find evidence of short-time scale variability down to approximately 1.5 h, which constrains the γ-ray emission region to be compact. The extended flaring period was characterized by a persistently harder spectrum with respect to the quiescent state, indicating changes in the broadband spectral properties of the source. This was confirmed by the multi-wavelength observations, which show a shift in the position of the two SED peaks by approximately two orders of magnitude in energy and peak flux value. As a result, the non-thermal jet emission completely outshines the thermal contribution from the dust torus and accretion disk during the high state. The broadband SED of PKS 0346-27 transitions from a typical Low-Synchrotron-Peaked (LSP) to the Intermediate-Synchrotron-Peaked (ISP) class, a behavior previously observed in other flaring γ-ray sources. Our one-zone leptonic emission model of the high-state SEDs constrains the γ-ray emission region to have a lower magnetic field, larger radius, and higher maximum electron Lorentz factors with respect to the quiescent SED. Finally, we note that the bright and hard γ-ray spectrum observed during the peak of flaring activity in May 2018 implies that PKS 0346-27 could be a promising target for future ground-based Cherenkov observatories such as the Cherenkov Telescope Array (CTA). The CTA could detect such a flare in the low-energy tail of its energy range during a high state such as the one observed in May 2018.


      ASI 294pro and binning

      I have not had much luck with my ASI294pro and using binning. First in sharpcap I could not see much of a benefit when switching to 2x2 binning over regular non binning. So this weekend I tried using ASCOM and ran a few sequences using the binning mode in SGP. These were with my AT65 and not guided.

      ASI 294pro
      Bin 2x2
      Gain 390
      10s x 20

      Histogram stretch only tweak. Stacked in DSS


      ASI 294pro
      Bin 1x1
      Gain 390
      10s x 20
      Histogram stretch only tweak. Stacked in DSS



      I would like to see other examples of binning vs. non binning to see what is not working for me

      Edited by A. Viegas, 01 November 2017 - 10:04 AM.

      #2 Tapio

      #3 Astrojedi

      Not much point in binning with these color CMOS cameras.

      Software binning has exactly the same benefit to brightness and shot noise as hardware binning. The problem is that ZWO does not implement it properly.

      #4 ccs_hello

      Not sure what the 2x2 setting is performed by IMX294 image sensor SoC's internal digital unit or not.

      if it is, per the public data brief SONY released ( http://www.sony-semi. mx294cjk_e.html ), it is stated as

      All-pixel scan (aspect ratio 17:9)
      Horizontal/vertical 2/2-line binning 2048 (H) × 1080 (V) 120 (SLVS-EC) or 60 (CSI-2) 12

      The key is that 12, which is 12-bit output.

      This most likely reading all pixels in 12-bit readout mode, then digital averaging into 12-bit.

      Remember that IMX294 is 14-bit capable. The above mode is really for data reduction and read out speed.

      I'd rather see the PC software does it.

      #5 Astrojedi

      I don't really care for on-chip / hardware binning in low read noise CMOS sensors. The read noise is already so low that unlike CCDs there is little improvement in SNR (this should not be confused to mean that HW binning in CCDs delivers better SNR than these newer low read noise CMOS sensors).

      My preferred approach to binning CMOS sensors is in software. And by binning I mean "summing" and not some undefined averaging operation which really is not useful in astro applications (primailiy targeted at improving frame rates in security applications).

      This also has the side benefit of not bringing the ADC into play which can introduce quantization errors. So I can get say a full 14 bit unbinned frame and x2 bin it which yields a 16 bit image.

      x1 bin 14 bit image is: 2^14 = 16,384 levels

      Binning this x2 yields 16,384 x 4 = 65,536 levels which equals a 16 bit image (2^16)


      Altair Hypercam 269C PRO TEC Cooled 21mp Colour CMOS Camera 4GB DDR3 RAM

      Please Log In to view the details for this classified ad.

      Don't have an Astromart account? Click here to create one

      AA269CPROTEC Altair Hypercam 269C PRO TEC Cooled 21mp Colour CMOS Camera 4GB DDR3 RAM
      Owned since April 2020 but used only a few times. A great camera but I no longer have a use for it. Sold the telescope it worked with. Comes with hard case and cables shown. Description below. The price new was $ 1,300. Yours for $1,000 and it's in stock!
      --------------------------

      The Hypercam 269C Colour camera has a Thermoelectric Cooling System (TEC) for extremely low noise imaging.

      The 21mp Sony IMX269 is a 12bit colour 4/3rds sensor with 3.30 m Pixels - a better replacement for the now discontinued colour Panasonic MN34230 Series for long exposure astrophotography, for those wanting similar image scale and pixel size.

      The Hypercam features TEC-cooling with 4GB DDR3 RAM, and amp glow reduction for easier image capture and processing. A sealed chamber, and desiccant system with heated optical window make the camera ideal for harsh environments. Due to it's low read noise, the Hypercam 269C PRO TEC camera is suitable for both deepsky and solar system imaging with ROI, as well as "frame stacking and averaging" in other applications. The TEC system can be switched off for fast exposure video imaging.

      • 4GB DDR3 RAM Memory Buffer for better performance.
      • Total elimination of amp glow. We cannot detect any glows on this camera.
      • TEC Cooling system - cools down to -45C below ambient.
      • Temperature sensor, with data available in real time, temperature written to .FITS files for easier processing.
      • Free offer armoured case.
      • 12v Power supply (specify EU UK or USA cord)
      • ROI (Region of Interest) for cropped higher speed solar, lunar and planetary imaging.
      • Binning supported.

      Easier than a DSLR and no "astro modding" required: Unlike a DSLR, there's no need to risk modifying your camera to capture detail in red hydrogen wavelengths, because it has no "red blocking filter" in the way. Hypercam is much easier to use and focus than a DSLR, thanks to the live preview mode which shows uncompressed video at full resolution. You can see a tiny star-point clearly in real-time, because there is no video compression like with a DSLR video stream. There are no clumsy power connectors which drop out easily, no firmware to fight with your software, no mirror to lock up, and a "true" uncompressed RAW mode output. You get exactly what this Sony sensor "sees" from without alterations.

      Low read noise: The Sony IMX269 CMOS sensor has very low read noise at approx. 2.6e and the usual high-sensitivity, low dark current, no smear, and excellent anti-blooming characteristics you would expect from a CMOS sensor. Unity gain is 282 in High Conversion Gain mode and 565 in Low Conversion Gain mode SharpCap and most other imaging applications (2.82 / 5.65 in AltairCapture).
      Video Astronomy/EAA Friendly. The Hypercam 296C camera is not only desirable for Deepsky Imaging - it's also great for Video Astronomy or "EAA" Electronically Assisted Astronomy. The resolution, high sensitivity, and amp glow reduction technology are well suited to this task. What's more, you can use the Live Stacking features in the AltairCapture software or SharpCap PRO. All-sky time-lapse imaging or video is easy with a DSLR lens and optional Hypercam Lens Adaptors (product code: CLA-EOS or CLA-NIKON).

      • 21mp resolution SONY Exmor IMX269 CMOS sensor.
      • 5280x3956 active 3.3 micron pixels in a 20.49 mm × 17.83 mm array. Physical sensor size, 4/3rds" 21.77mm diagonal.
      • Extremely low read noise enabling deepsky lucky imaging and very smooth image quality.
      • Amp glow reduction technology onboard totally eliminates amp glow, reduces noise, and increases contrast.
      • A 12 bit ADC converting to 16bit output .FITS files in RAW mode, for deepsky imaging.
      • Up to 17.5 Frames per second video in full 21mp resolution. (You will need a computer with high USB bandwidth to achieve these speeds, preferably with Intel or Via hardware USB controller on the motherboard).

      USB3.0 speed and USB2.0 reliability:
      USB3.0 gives much faster transfer speeds than USB2.0 cameras, however, if like most imagers, you prefer to use longer and more flexible USB2.0 cables for better tracking and reliability with a USB2.0 hub, no problem! The Hypercam is completely compatible with USB2.0 or USB3.0. Just plug and go!

      QUALITY software and drivers included:
      AltairCapture: Unlike cheaper cameras, Altair Astro has spent considerable time improving the extensively featured and intuitive AltairCapture software, which can be downloaded from . AltairCapture is a stable 64 bit Windows application, which allows full control of the camera in high speed video or still mode. It includes extensive automation features, and supports all the major file formats useful for astro imaging and professional scientific imaging in 16bit, 12bit or 8bit mode. The popular PHD Guiding, SharpCap PRO, and Deepsky imaging software APT and NINA are also fully supported. An ASCOM driver is available for other software, downloaded at where you can also get ASCOM driver updates. The installation process is simple and straightforward, starting with AltairCapture which contains the driver base.
      SharpCap PRO: Altair Astro have worked closely with SharpCap developer Robin Glover since 2015, to fully integrate Altair cameras with SharpCap at a basic level. Now, Sharpcap PRO enables even more features with this camera, such as software driven polar alignment (more accurate than any other method), live flat frame subtraction and live darkframe subtraction. The fast, accurate polar alignment feature in SharpCap PRO is a life-saver for imaging, minimising setup time.

      TEC cooling:
      The Hypercam has an internal Thermoelectric cooling system connected directly to the sensor. The temperature can be set and maintained at a chosen level down to -45C below ambient (though there is no real benefit going below -15-20C aside from power consumption). Cooling is especially desirable for long exposure imaging to reduce thermal noise which accumulates during long exposures. The result is visibly reduced noise per frame, easier processing, and less sub-frames required to attain a smooth noise-free image, compared to a non-cooled camera.

      Support & warranty: Altair delivers proper on-shore English-speaking UK/EU support with a 2 year manufacturer warranty against defects in materials and workmanship. New users should visit the Altair Astro Facebook Group or Altair Camera Google User Group where you can get answers to technical questions. Our support groups are also a great place to share tips and techniques, to get the best out of your camera. The AltairCapture software interface supports most European languages including English, German, French, Japanese, Korean, Polish, Spanish, and Thai.

      File formats: The camera can be fully controlled in AltairCapture and SharpCap to output uncompressed .AVI and .SER video files for solar system imaging, as well as all common still image formats such as .JPEG .PNG .TIFF .BMP, and .FITS (for deepsky imaging) to mention just a few. The Hypercam supports 8bit or 12bit output. The 12 bit output mode can be used for deep sky imaging with less frames needing to be stacked and a wider pixel intensity range. The sensor is extremely sensitive and a good candidate for video astronomy, especially with small refractors. Find out more about bit depth here. Find out more about video & file formats here.

      The Hypercam platform: The Hypercam platform supports Trigger Mode to make long exposures of over 5 seconds easier to control. With most cameras, in normal video mode, you have to wait for an exposure to complete before the camera will accept, say a command to abort the frame, for say clouds, aircraft, or an alignment issue, like kicking the tripod and so-on, changes in gain, exposure time, or re-aligning or refocusing. For long exposures, normal video mode is inconvenient, especially for video astronomy and deep-sky imaging, however in Trigger Mode, you can stop the camera instantly (even if you are half way through a long exposure) change the settings, and re-start the camera. The Hypercam also has an improved on-board frame buffer to improve data transfer stability at high frame rates (to reduce dropped frames) and to increase compatibility with a wider range of PCs. The improved buffers give a more consistent data transfer rate over USB2.0 and USB3.0 buses on laptops and desktop PCs.

      • Camera body with internal Thermoelectric cooling system and front female M42x0.75mm T-Thread interface (17.5mm backfocus).
      • A spare, rechargeable dessicant cartridge is included for long-term servicing.
      • (Note: This should not be replaced unless confirmed by your dealer or Altair Astro and the sensor chamber seal should not be opened unless under instructions by a qualified party).
      • 1.8m High-speed USB3.0 cable.
      • 2" OD Nosepiece with standard 2" M48x0.75mm filter thread on the front. (code ALTAIRH-2IN) to accept standard astro filters.
      • Built-in UV-IR Blocking Filter with AR coatings protects the sensor and hermetically sealed chamber.
      • Protective silicon rubber end-cap for M42x0.75 front female thread.
      • Dust cap for 2" nosepiece.
      • Armoured sealed case with foam insert.
      • 110v/240v Power supply for camera (please specify US, UK or EU plug when ordering).
      • Noter: This camera does not come with software in the box. To operate the camera you will need to download the latest camera drivers at (opens new window)
      • AA269CPRO: SONY Exmor IMX269 Color CMOS sensor
      • Sensor Size: 4/3" diagonal (21.77mm)
      • Exposure duration shortest/longest: 0.1 ms (0.00014 secs) / 5 secs (Video Mode)
      • 0.1 ms (0.0001 secs) / 1000 secs (Trigger Mode)
      • Unity gain HGC mode: 282 in 12bit mode (2.82 in Altaircapture).
      • Unity gain LCG mode: 565 in 12bit mode (5.65 in Altaircapture).
      • Bit depth: 8bit & 12bit mode switchable
      • Pixel size microns: 3.3 x 3.3 um
      • Resolution in pixels: 5280x3956 (21mp)
      • Recording System: Still Picture and Video
      • Region of Interest (ROI) support: Available

      5280x3956 17.5fps 1x1 binning
      2640x1978 17.5fps 2x2 binning
      1760x1318 75fps 3x3 binning
      584x440 210fps 9x9 binning

      12bit mode:
      Environ. 50% of above FPS.*
      * Based on average testing. May be revised as we get more data. The shorter the exposure duration, the faster the frame rate. An expensive PC does not guarantee a fast frame rate it depends on the PC drivers, bus and main board architecture.

      Sensor QE / Quantum Efficiency: No data from Sony
      Readout: Progressive Scan
      Shutter: Electronic Rolling Shutter

      Software & OS support:
      Drivers & AltairCapture software download (Windows only): (opens new window).
      Driver support: PHD2, AltairCapture, SharpCap
      AltairCapture OS support: Win 8/ 10 (32 & 64 bit)
      NOTE: Windows 10 is recommended for best performance, with 2013 or later machine USB host controller v1.0 or later.

      ASCOM fully supported with drivers downloadable at (opens new window).
      SharpCap and APT (3rd party applications) are also fully supported with native drivers for seamless camera control.
      USB Port & Cable: 3.0 USB Cable, 1.8m cable (USB2.0 also supported).

      Camera Format:
      Backfocus / Flange Distance: 17.5mm from front flange to sensor.
      Cooling: High Performance Electronic Fan-cooling System with Heat-sink connected to sensor via cold-finger
      Camera body length: 98mm
      Camera body outer diameter: 85mm
      Weight grams: 580g
      Optical window: AR-coated UV/IR blocking filter 400-700nm wavelength Transmission

      Back-focus & Adaptor compatibility:
      Optical Window is NOT removable for cleaning.
      Camera body thread: M42x0.75 T2 Thread.
      Astro filter thread adaptor: Included, 1.25" OD and 2 OD (optional), Female thread
      Sensor surface distance from flat end of CS-mount adaptor: 12.5 mm

      Operating environment:
      Power consumption: 1.4W (standby) 5V 280mA
      3.65W (running with Fan off)
      7.2W (running with Fan on)
      Max operating temp: 50 °C
      Lowest operating temp: -10 °C
      Max operating humidity: 80 % RH
      Power source in Volts: 5V DC (via USB cable)

      we have changed the PC specifications for Hypercam because customers keep trying to use very cheap devices without adequate USB:

      Windows PC Hardware Requirements for best performance:
      Minimum CPU: Equal to i5 or Higher
      Minimum Memory: 8GB or More
      USB ports: USB2.0 High-speed Port or USB3.0 High-speed Port (best performance). Please note: Some laptops and touchscreen notebooks may not have adequate USB throughput.

      Software delivery: Downloaded online at and saved to hard drive.
      Quick Start & AltairCapture instructions: Online at and saved to hard drive.

      Packaging: Armoured plastic case with foam insert.

      Garantie: 2 years manufacturer warranty against defects in materials and workmanship. Return to point of purchase.


      Getting Started With Your Project

      Once you've gathered all of your supplies, you can start on your project by following along with these easy directions.

      Make sure the item you're decoupaging is clean, removing any dust or dirt. It must also be dry. If you're going to paint your item first, the paint must be totally dry before you start decoupaging (no tackiness). This example used spray paint with an added-in primer to paint a wooden tray. Make sure the paint you use is appropriate for the object you intend to decoupage.

      Cut out the pictures you are going to use. It helps to use an X-Acto knife to cut out the paper pieces that have quite a bit of intricate detail.

      Before you add glue, arrange the pictures onto the item you are decoupaging until you like the way they look. The pictures can be in any placement you like and can also overlap.

      Working in a small section at a time, remove the pictures and apply a generous layer of decoupage medium onto the item you are decoupaging. Make sure you completely cover any area the picture will touch. If you prefer, you can spread the medium onto the back of the picture.

      Stick the picture on the decoupage medium. Use your finger to gently push down the picture (for a large picture, start from the center and work your way out) and push out any wrinkles and excess medium. You can also use a bone folder or brayer to do this.

      Continue with the last two steps until all of your pictures are glued on.

      Let the decoupage medium dry. If you are using pictures on thicker paper, such as photos or greeting cards, they can take longer to dry.

      Watch for bubbles as your pictures dry. If one forms, use a pin or utility knife to pop it and then use your fingers to smooth it down.

      Once the medium is dry, coat your item thoroughly with another layer of the decoupage medium. Let this dry.

      Continue to add coats of the medium until you get the desired results. You will want to keep adding layers until the edges of the pictures are all smooth.

      Let your project dry completely before it's ready to use, display, or be given away as a gift.