Question:
Certaines caméras ont-elles des algorithmes avancés d'exposition automatique?
jpa
2020-01-16 23:21:23 UTC
view on stackexchange narkive permalink

En lisant les réponses à Pourquoi mes photographies du ciel sont-elles sombres?, j'ai commencé à me demander: tous les algorithmes actuels d'exposition automatique sont-ils vraiment assez basiques pour simplement mesurer la luminosité moyenne de la scène? >

Il semblerait que l'on puisse obtenir de bien meilleurs résultats en utilisant par exemple un système d'apprentissage automatique formé avec de vraies photos bien exposées. Il pourrait alors estimer plus précisément l'exposition correcte à partir de l'image d'aperçu, même pour le chat noir dans une mine de charbon et le chien blanc sur la neige.

Et je ne parle pas des modes de scène spécialisés, comme c'est simplement déplacer une partie de la tâche vers l'utilisateur.

Les DSLM modernes offrent un assez bon aperçu de l'exposition directement dans le viseur électronique, ce qui a tendance à être assez bon pour que vous * remarquiez * si votre appareil photo est sur le point de bousiller l'exposition ....
La fusion profonde d'Apple sur iPhone 11 fait presque ce que vous voulez, mais ne fonctionne actuellement que sur une lumière moyenne à faible.Il prend rapidement plusieurs photos avec une exposition variable, puis utilise un logiciel pour combiner les images afin d'améliorer les détails.Je suppose que vous pouvez régler un tel algorithme pour qu'il fonctionne également avec la photographie en extérieur
Une innovation presque magique avec des résultats frappants disponibles dans n'importe quel appareil photo de poche à 100 $ de nos jours: la reconnaissance faciale.L'appareil photo identifie les visages dans la vue et les expose * correctement.Parce que les gens sont presque toujours ce qui nous intéresse dans une image (avez-vous remarqué à quel point tous les couchers de soleil sont inintéressants 10 ans plus tard? Ce que vous recherchez dans les vieilles photos, ce sont invariablement les gens!) Les résultats sont presque toujours meilleurs.(Mais le ciel est toujours blanc - vous devez utiliser le flash pour obtenir les deux).
Cinq réponses:
xiota
2020-01-17 00:01:30 UTC
view on stackexchange narkive permalink

Tous les algorithmes d'exposition automatique actuels sont-ils vraiment assez basiques pour ne mesurer que la luminosité moyenne de la scène?

Non

Des caméras ont-elles des algorithmes avancés d'exposition automatique?

Oui.

Il semblerait que celui-ci pourrait obtenir de bien meilleurs résultats en utilisant par exemple un système d'apprentissage automatique formé avec de vraies photos bien exposées. Il pourrait alors estimer plus précisément l'exposition correcte à partir de l'image de prévisualisation, même pour le chat noir dans une mine de charbon et le chien blanc sur la neige.

La plupart des caméras ont plusieurs modes de mesure:

  • Spot - La luminosité d'une petite partie de l'image est utilisée pour calculer l'exposition.

  • Moyenne - La luminosité de l'ensemble la scène est moyennée et utilisée pour calculer l'exposition.

  • Moyenne pondérée au centre - La luminosité de l'ensemble de la scène est moyennée, mais le centre a plus de poids.

  • Matrice / Evaluative / etc - C'est le mode qui tente de faire ce que vous décrivez. La scène est divisée en plusieurs parties. La luminosité de chaque pièce est évaluée. Le résultat est utilisé pour rechercher une base de données ou introduit dans un algorithme pour déterminer l'exposition.

Je ne connais aucune caméra qui le fait actuellement, mais les données matricielles pourraient facilement être introduit dans un réseau neuronal. Cela permettrait à un appareil photo d'apprendre les préférences d'exposition de son propriétaire. C'est le type de technologie que Google utilise pour identifier les chats dans les vidéos YouTube.

Lors de l'utilisation de la mesure matricielle couleur 3D (la plupart), les Nikons comparent la scène mesurée à une base de données de plus de 30 000 types d'images / scènes dans le processus de détermination de l'exposition appropriée.
@StevenKersting Presque tous les fabricants d'appareils photo ont au moins quelques modèles avec reconnaissance de scène basée sur une bibliothèque.Au fur et à mesure que l'on progresse dans les modèles et leurs prix, ils deviennent de plus en plus complexes et performants.
Notez que tout cela utilise toujours le même indicateur qui, dans la plupart des appareils photo, mesure la lumière réfléchissante et doit donc être corrigé (manuellement) pour les sujets non gris.Et dans les scènes éclairées très dynamiques, vous serez limité par la plage dynamique du capteur.Suffisamment d'options pour toujours obtenir de mauvaises expositions, même avec les modes de mesure intelligents.
Michael C
2020-01-17 06:17:19 UTC
view on stackexchange narkive permalink

Oui, beaucoup d’entre eux le font. Mais ils n'arrivent toujours pas à lire dans l'esprit du photographe quelle partie de la scène est souhaitée pour être la plus correctement exposée.

Parfois, l'appareil photo ne peut être aussi intelligent que le photographe le permet .

Même à l'époque du cinéma, les compteurs de lumière primitifs multi-segments permettaient une analyse très basique des parties de la scène les plus lumineuses et des parties les plus sombres. Lorsque les semi-conducteurs ont été introduits dans les systèmes logiques des caméras dans les années 1970, ces informations ont pu être utilisées pour effectuer une reconnaissance de scène rudimentaire. Si le tiers supérieur du cadre était beaucoup plus lumineux que les deux tiers inférieurs du cadre, l'appareil photo biaiserait l'exposition en supposant que le photographe voulait les zones plus sombres au milieu de la plage d'exposition. Si les deux tiers supérieurs du cadre étaient plus lumineux et le tiers inférieur était plus sombre, l'appareil photo biaiserait l'exposition en partant de l'hypothèse que le photographe souhaitait exposer les zones les plus claires au milieu de la plage d'exposition. Cela a plutôt bien fonctionné pour la photographie de paysage.

Au fil des années, les photomètres dans les reflex, puis les reflex numériques ont multiplié le nombre de segments discrets allant des nombres à un chiffre à des centaines à des milliers d'entre eux. Ils sont passés du statut véritablement monochromatique à la double couche (mesurant et comparant la luminosité à deux longueurs d'onde différentes de la lumière) aux capteurs RVB-IR actuels qui sont en fait des capteurs d'imagerie couleur miniatures. Avec l'avènement des appareils photo sans miroir (et de l'affichage en direct sur les reflex numériques), la mesure peut être effectuée à l'aide des informations du capteur d'image principal.

À mesure que les débits de données et la capacité de mémoire disponibles pour les concepteurs d'appareils photo ont augmenté de façon exponentielle, la complexité de Les routines de mesure d'exposition «basées sur une bibliothèque» ont également augmenté. En conséquence, les caméras de mieux en mieux reconnaissent de nombreux types de scènes et ajustent l'exposition recommandée en fonction de cette identification.

Mais les appareils photo ne peuvent toujours pas lire dans les pensées du photographe, même s'ils sont de mieux en mieux à deviner ce que le photographe veut probablement.

C'est particulièrement le cas lorsque le photographe utilise un mode de mesure, tel que mesure matricielle / évaluative , dans une situation où un autre mode de mesure, tel que partiel ou spot , informerait plus précisément la caméra sur quelle partie du scène que le photographe est le plus intéressé à exposer dans les tons moyens entre trop clair et trop sombre. Ou lorsque le photographe limite les reflets soufflés dans n'importe quelle partie de la scène en activant Priorité aux tons clairs (Canon) / Éclairage D actif (Nikon) / comme l'appellent les autres fabricants d'appareils photo.

Parfois, l'appareil photo peut être aussi intelligent que le photographe le permet.

J.Hirsch
2020-01-17 01:07:46 UTC
view on stackexchange narkive permalink

Les fabricants d'appareils photo et les processeurs de films travaillent littéralement sur ce problème depuis que le film a été inventé et les gens ont arrêté de le traiter eux-mêmes. Nous sommes passés de compteurs de lumière ambiante utilisant des cellules solaires à des bases de données incroyablement complexes d'expositions prises et analysées par des tableaux multipoints dans une impulsion flash «pré-flash».

Et pourtant ... expositions.

Aujourd'hui, la plupart des mesures d'exposition que je risquerais de deviner sont centrées sur «l'embellissement» de l'image. Cela compense les déficiences d'exposition et les mauvaises conditions d'éclairage en modifiant activement le gain, la saturation et la polarisation de décalage pour diverses parties de l'image. Ce ne sont pas tant des mesures que des interprétations des photons collectés, mais quand même…

Il y avait un concept appelé «paxelization» que je n'ai pas entendu en dehors de Kodak. Cela s'apparentait à l'imagerie de l'apprentissage automatique sous-échantillonnée des temps modernes. Ce paxel de pixels était petit mais a été utilisé par les différents algorithmes pour prédire l'exposition idéale (pour le film et le numérique).

Donc oui, les caméras font plus que ce à quoi vous vous attendez, et le logiciel qui rend votre image ou imprime votre film (numériquement ou optiquement) le fait également. C'est vraiment incroyable.

Je n'ai pas la réponse ici parce que, littéralement, des livres ont été écrits sur le comptage et l'impression. Si vous êtes intéressé par la photographie, veuillez envisager de lire les livres d'Ansel Adam (2 sur 3), la caméra et le négatif. Le livre imprimé est également utile et vous expliquera en détail comment appliquer ce que vous avez appris, mais il n'est pas si pertinent par rapport à votre intérêt pour les systèmes de mesure.

Zubida
2020-04-15 15:22:44 UTC
view on stackexchange narkive permalink

Oui. Fin 2019, Canon a lancé son reflex numérique phare EOS-1D X Mark III pour les photographes professionnels. Cette caméra affiche le réglage automatique le plus exceptionnel jamais observé, ainsi que des vidéos / films de très bonne qualité que de nombreuses personnes attendues ne trouveraient que dans les caméras sans miroir les plus développées. Nikon a annoncé son propre rival, le Nikon D6, qui combine une conception robuste et durable avec une mise au point automatique avancée et une prise de vue à haute vitesse.

xenoid
2020-01-17 16:54:10 UTC
view on stackexchange narkive permalink

Les smartphones sont des ordinateurs dotés d'un capteur de caméra. Les caméras sont des capteurs avec un ordinateur. Tout ce calcul nécessite du temps et de l'énergie et entraînerait une réduction de la durée de vie de la batterie et de la vitesse de prise de vue. Cela nécessite également beaucoup de stockage qui serait hors ligne, donc la caméra nécessiterait une carte SIM et un accès réseau ...

Et jusqu'à présent, dans le smartphone, le calcul se produit après la ou les photos à peu près ce que vous obtiendriez avec le bracketing d'exposition et le post-traitement



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 4.0 sous laquelle il est distribué.
Loading...