Allgemein

Fotografie Basics

11. März 2019

main

Allgemein

Fotografie Basics

11. März 2019

kamerra.jpg

Irgendwann erreicht jeder abmontierte Fotograf den Punkt sich mal genauer mit der Technik seiner Kamera zu befassen, anstatt sich nur auf Ratschläge und Automatik-Modi zu verlassen. Möchte man doch verstehen was da eigentlich passiert, wenn man den Auslöser drückt. Natürlich gibt es zahlreiche Bücher über dieses Thema. Ich bemühe mich den Artikel kurz und informativ zu halten, dann kann jeder für sich entscheiden ob das zunächst ausreicht oder tiefer in die Materie einzusteigen…

Am Anfang war das Licht

was biblisch klingt ist eher nun wissenschaftlich begründet. Wenn Sie in einem total abgedunkelten Raum stehen, werden Sie nur schwarzsehen. also nichts. Wieso ist das so? Viele würden nun sagen, dass man im Dunkeln eben nichts sieht. Aber die wenigsten können erklären, warum das (physikalisch) so ist.

Wichtig zu wissen ist: Das menschliche Auge enthält mehrere Elemente, die für die optische Reaktion sorgen. Ich vermeide hier bewusst von Sehen zu sprechen, denn das erfordert noch mehr.

Zunächst muss also Licht existieren und nicht zu vergessen: am Auge auch ankommen. Licht ist eine Strahlung aus Photonen mit verschiedenen Wellenlängen. Stellen sie sich also wieder den dunklen Raum vor und wie dort Photonen auf ein Objekt treffen und reflektiert werden, hierbei kann es je nach physikalischer Eigenschaft des Objektes nochmal zu einer Änderung der Wellenlänge kommen. Beispiel: Stellen wir uns vor, dass dieses besagte Objekt ein grünes Blatt ist. Das Licht, also die Photonen, treffen dieses Blatt und nur eine bestimmte Wellenlänge wird von dem Blatt reflektiert, nämlich jene die wir später als grün identifizieren können.

(Quelle: Wikipedia)

Auf unsere Netzhaut trifft nun also eine Flut von Lichtwellen ein, nämlich die Reflektion oder das direkte verfügbare Licht. Je nachdem wie hell die Lichtquelle ist und wie viele reflektierenden Oberflächen im Raum sind (zB weiße Tapete), wird ein optisches Lichtwellenraster von unseren Sehzellen, nämlich sog. 6 Mio Zäpfchen und 120 Mio Stäbchen pro Auge “empfangen”. Interessanterweise reagieren die Stäbchen grundsätzlich nur auf die einzelnen Photonen (Wissenschaftler glaubten bisher das mindestens 3 Photonen eine einzige Sehzelle anregen, doch dies wurde bereits 2016 wieder korrigiert (https://www.forschung-und-wissen.de/nachrichten/medizin/das-menschliche-auge-kann-ein-einzelnes-photon-sehen-13372338) , ohne die Wellenlänge zu berücksichtigen, vereinfacht ausgedrückt – diese Masse an Rezeptoren reagiert nur auf schwarz/weiß. Während die Zäpfchen die Eigenschaft besitzen die Wellenlängen des Lichtes zu unterscheiden. Bei (gesunden) Menschen reagieren diese Zäpfchen auf die Grundfarben: Rot, Blau und Grün.

Wichtig ist : Bis an dieser Stelle spreche ich noch immer nicht vom “Sehen” sondern von der ersten Stufe der biologischen Reize im Auge. Vergleichbar mit der Erklärung für die Berührung der Haut: Die Nervenzellen reagieren auf die Berührung und deuten Intensität und Temperatur. Doch all diese Informationen sind zuerst nur bioelektrische Reize ,die ohne das wichtigste Organ nicht interpretiert werden könnten : dem Gehirn. Denn erst dort werden diese Reize aufgenommen und verarbeitet. Und erst hier entsteht unser “Foto” im Kopf.  Interessant ist hierbei dieser Artikel: (https://www.gondwana-collection.com/de/neuigkeiten/article/2017/01/20/mit-anderen-augen-die-farbwahrnehmung-der-himba/) der hervorhebt wie unterschiedlich Reize interpretiert werden.

Vom Licht zum Pixel

Nun – nichts anderes macht eine Kamera: Anstatt der Netzhaut hat diese Kamera einen Sensor mit (mittlerweile) Millionen von Fotodioden, welche auf Licht reagieren. Aber noch immer ist die Technik hinter dem besseren Beispiel der Natur, sodass man für Farben hier zu einem “Trick” greifen muss. Denn im Prinzip kann eine Fotodiode auch nur Licht erkennen (also wie die Stäbchen im menschlichen Auge). Um die verschiedenen Farben zu erfassen muss jedoch mit Farbfolien gefiltert werden. Die Fähigkeit der Zäpfchen unseres Auges konnten noch nicht nachgeahmt werden.

Wenn also eine Kamera z.B. 23,4 Mio Pixel erfassen kann. dann erfährt man dass der Sensor 6000×4000 Pixel hat = 24 Mio  – also fallen 600.000 (5% Toleranz) schonmal aus. Zur Erinnerung: Das Auge hat 120 Mio Stäbchen (die “auch nur” sw/ws erkennen können).

Des Weiteren ist jeder Pixel zunächst nur ein Licht- und entsprechend der Folie darüber : ein Farbwert.. denn die 23,4 Mio Pixel werden in einem sogenannten Bayer-Muster mit Farbfolie eingeteilt :

 

4 Sensoren enthalten also zunächst erstmal 3 verschiedene Farbinformationen (2mal grün, 1mal rot, 1mal blau). Diese 4 Sensoren erhalten jeweils eine 14Bit (zumindest bei Sony a7+ Kameras) große Information über Lichtstärke (also von 0 = schwarz/aus bis 16384 weiß/max Wert). Eine Datei mit einem RAW-Foto müsste also :

6000x4000x14Bit = 336 Mio Bits ->

1 Byte = 8 Bit ->

also 336 Mio geteilt durch 8 = 42 Mio Bytes.

Umgerechnet also 40,05 Megabytes (1 MByte = 1024 Bytes).

Jedoch ist die Datei wesentlich kleiner, nämlich fast um die Hälfte: 24 Megabyte.

Der Verlust liegt an der Verarbeitung der Informationen in der Kamera. Ein RAW-Foto ist also kein 100%iges 6000×4000 Pixelmuster, sondern wird hier bereits durch Algorithmen reduziert. Allerdings in einer “angeblichen” Art und Weise welche das Auge niemals erkennen könnte. Hierbei hat jeder Hersteller sein eigenes “Geheimnis” und lässt sich nicht in die Karten schauen. Das ist auch der Grund warum nicht jedes Programm ein RAW-Foto anzeigen kann, denn es muss den Algorithmus des Herstellers kennen. Schwierig für die Berechnung sind auch diese Rauschwerte, also Photonen die man eigentlich nicht oder doch berücksichtigen müsste. das menschliche Auge macht dies z.Zt. noch besser. In der digitalen Fotografie führt es häufiger zu unerwünschten Effekten: dem Rauschen.

Vom Pixel zum Foto

Wichtig ist auch “wie” die Lichtreflektionen optisch aufgenommen werden. Der Mensch hat hierzu den Augapfel und eine Linse.

Die Kamera benötigt hierzu ein Objektiv. Hierbei ist man gegenüber dem Menschen bereits im Vorteil, denn die Linse des Menschen hat beschränkte optische Eigenschaften, während Objektive für verschiedene Zwecke viel besser zum Einsatz kommen. Sei es für Makro-Aufnahmen oder Tele-Zoom.

Am Ende trifft also ein Mix von Informationen ein: Licht(stärke)/Luminanz und Farbe und optische Verhältnisse. Was beim Menschen das Gehirn leistet (und hier meistens “noch” immer viel besser) leistet in der Kamera die Software, die nun das Bitmuster zusammenstellen muss. Die schnellste Methode ist das (oben erwähnte) RAW-Bild. Daraus wird dann das JPEG-Foto berechnet, welches noch viel umfangreicher “herunter gerechnet” wird, indem man Blockweise auf Details verzichtet, die man nur bei maximalem Zoom unterscheiden könnte.

Entscheidend ist also: Licht ist essentiell wichtig und die Anzahl an Sensoren entscheidet über die technische Qualität des Fotos. Am Ende zählt aber immer das Endergebnis: Das Foto das man für sich und/oder andere macht. Oft spielt die Technik hierbei nicht die größte Rolle.

Leave a Reply

Your email address will not be published. Required fields are marked *

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.