Wie das menschliche Auge Farben sieht und wie das Gehirn sie manipuliert

Worum es geht

Dass die Farbwahrnehmung durch das menschliche Auge und Gehirn für die Fotografie enorm wichtig ist, ist offensichtlich – schließlich soll das Ergebnis ja dem menschlichen Auge gefallen.

Der Mensch sieht Farben aber anders als eine Digitalkamera und Sie sollten die Unterschiede zwischen beiden kennen, wenn Sie die Farben Ihrer Fotos bewusst beeinflussen möchten.

Dazu geht es in diesem Artikel um den Menschen und in einem anderen über den Weißabgleich darum, wie Ihre Kamera „sieht“.

Die Farbwahrnehmung im Auge

„Sensoren“ für die drei Grundfarben rot, grün und blau

Das menschliche Auge hat unterschiedliche „Sensoren“ – genannt Rezeptoren – für Helligkeit und Dunkelheit.
Bei Dunkelheit gilt der alte Spruch „nachts sind alle Katzen grau“, da es nur eine Sorte lichtempfindlicher Rezeptoren für schwaches Licht gibt, die keine Farben unterscheiden können.
Bei Helligkeit benutzt das Auge farbempfindliche Rezeptoren, von denen es drei verschiedene gibt, die jeweils auf eine der Grundfarben rot, grün, blau besonders ansprechen.

…daher rot, grün und blau als Basis aller digitalen Bilder

Diese drei Arten von Rezeptoren sind der Grund, weshalb alle Digitalbilder, Farbfernseher und Monitore mit den drei Grundfarben rot, grün und blau auskommen.
Man kann damit nicht etwa Licht zusammenmischen, das dem von verschiedenfarbigen Motiven in der Realität ausgesendeten Licht gleicht. Das Licht in der Realität ist stets eine Mischung vieler verschiedener Wellenlängen aus dem ganzen Spektrum natürlichen Lichtes.
Man kann aber sehr wohl Lichtsignale erzeugen, die unsere drei Arten von „Farbsensoren“ im Auge (fast) genauso ansprechen und dem Auge damit ähnliche Farben vortäuschen.

Ein Vergleich soll dies veranschaulichen: Es gibt Spielfilme, in denen Überwachungskameras ausgetrickst werden, indem man ihnen ein Foto vor das Objektiv klemmt, das genau den überwachten Bereich zeigt. Anschließend können die Bösewichter bzw. Helden des Filmes sich dahinter unentdeckt bewegen.
Dieser Trick ist insofern mit der Täuschung des menschlichen Auges vergleichbar, als der Überwachungskamera mit dem davorgeklemmten Foto ein anderer „Reiz“ vorgesetzt wird (entsprechend den Rot-, Grün-, Blau-Signalen für das Auge), trotzdem sieht aber das am Ende auf einen Monitor gelieferte (bzw. im Gehirn erzeugte) Bild aus wie das direkt von der Realität empfangene.

Herkömmliche Diafilme arbeiten in dieser Hinsicht übrigens ähnlich wie die Digitaltechnik – sie bestehen aus übereinanderliegenden Schichten von lichtempfindlichem Material und die einzelnen Schichten reagieren jeweils auf die einelnen Grundfarben rot, grün und blau.

Zahlreiche Quellen für leichte Farbfehler

Diese Täuschung der Augen funktioniert erstaunlich gut, hat aber auch ihre Grenzen, wenn es auf wirklich exakte Farbwiedergabe ankommt. Es gibt immer leichte Abweichungen gegenüber den in der Realität auftrenden Farben:

  • Die genaue Reaktion der Rezeptoren im Auge auf verschiedene Wellenlängen ist nicht so einfach, als dass sie sich mit nur drei Signalen ganz exakt nachbilden lässt. Insbesondere gibt es bestimmte Farbtöne wie z.B. leuchtende Neonfarben, die in der Rot-Grün-Blau-Darstellung problematisch sind.
  • Die Unmenge an Monitoren und anderen Wiedergabegeräten produzieren zwar alle ihre Rot-, Grün- und Blau-Signale – aber nicht alle exakt dieselben, es gibt nunmal technisch bedingte Schwankungen zwischen den vielen Geräten.
    Dies führt übrigens zur Notwendigkeit der Kalibrierung von Monitoren (=Feineinstellung mit Hilfe eines Messgerätes oder von Referenzbildern), wenn Sie sicher ausschließen möchten, dass Ihr Monitor einen Farbstich hat und dadurch die sorgfältige Farbabstimmung an vielen Digitalbildern vergeblich ist. Ohne Kalibrierung passen Sie möglicherweise die Farben nur an Ihren Monitor an und irgendwann nach dem Kauf eines neuen oder bei der Bestellung von Papierabzügen könnten plötzlich alle Bilder anders aussehen. Aber das ist ein Thema anderes für sich.

Exkurs: Metamerie

Diesen Abschnitt brauchen Sie nicht unbedingt für Ihre Fotopraxis, aber er kann das Verständnis für die zuvor beschriebene Täuschung des menschlichen Auges vertiefen.

Metamerie bedeutet, dass es verschiedene Lichtsignale gibt, die vom Auge identisch wahrgenommen werden.
Beispiel: Gelb ist eine der Farben im Spektrum des Regenbogens. Es gibt also Licht mit genau einer Wellenlänge, das für das menschliche Auge gelb aussieht. Wenn Sie am Monitor rot und grün mischen, entsteht ebenfalls gelb. Dann sieht das Auge also Licht mehrere Wellenlängen gemischt und der Farbeindruck ist (fast) derselbe. Bis hier handelt es sich genau um das Prinzip der zuvor beschriebenen „Täuschung“ des Auges, jetzt allerdings mit einem Fremdwort belegt.

Gehen wir einen Schritt weiter: Man bezeichnet zwei Farbtöne als metamer, wenn sie unter einer bestimmten Beleuchtung gleich aussehen, unter einer anderen jedoch nicht.
Beispiel: Zwei Kleidungsstücke passen gut zueinander, wenn man sie in einem Geschäft bei Kunstlicht betrachtet – im Freien im Tageslicht jedoch nicht mehr.
Die Erklärung ist: Das Kunstlicht enthält nicht alle Wellenlängen, die im natürlichen Licht auftreten. Im Freien fällt natürliches Licht auf die Kleidungsstücke, das zusätzliche Wellenlängen enthält. Und nur das Licht dieser zusätzlichen Wellenlängen wird von den beiden Kleidungsstücken unterschiedlich reflektiert. Ein kompliziertes Thema, mit dem Hersteller anspruchsvoller Textilien oder hochwertiger Wandfarben viel Zeit verbringen können …

Die „Farbverarbeitung“ im Gehirn

Was wir darüber (nicht) wissen

Was im Gehirn tatsächlich passiert, wenn wir „sehen“ und wie wir z.B. uns Bilder merken und wiedererkennen, ist ein Thema für die Gehirnforschung und noch lange nicht im Detail verstanden. Bei Recherchen zu diesem Artikel bin ich z.B. auf die Aussage gestoßen, dass das Sehen die komplexeste Gehirnfunktion überhaupt ist und an ihr gut vierzig (!) Prozent des Gehirns beteiligt ist. Insbesondere die Erkennung von Formen und das räumliche Sehen sind extrem komplex.

Was sich einigermaßen sicher festhalten lässt, ist folgendes:

  • Farbe ist eine Empfindung, die erst im Gehirn entsteht. Wäre das anders und würden Augen und Gehirn Farben wie ein unbestechliches Messgerät registrieren, würden wir mit wechselnder Beleuchtung ständig drastische Farbänderungen sehen (s. die separate Beschreibung des natürlichen Lichtes und seiner Farben).
  • Der plausibelste Grund, weshalb wir Menschen im Laufe der Evolution überhaupt gelernt haben, Farben sehen zu können, ist, dass sie helfen, Objekte zu unterscheiden, sofern Helligkeitsunterschiede dafür nicht ausreichen. Wir benutzen beim Sehen einen hochkomplexen Mechanismus im Gehirn, der seit vielen Jahrtausenden vor allem dazu dient, sich zu orientieren und zu überleben.
    Farben „naturgetreu“ wiederzugeben, spielt dabei keine Rolle. Wir sollten dies nicht vergesen, wenn wir moderne Digitalfotos mit dem vergleichen, was unser wahrscheinlich schon bei Höhlenmenschen ähnlich arbeitendes Gehirn von der Realität wahrnimmt.
  • Das Gehirn neigt dazu, Objekte trotz veränderter Umgebung und Beleuchtung relativ konstant erscheinen zu lassen. Der Abgleich der von den Augen empfangenen Signale mit im Gehirn gespeicherten, bekannten Mustern ist Teil des Sehens und Erkennens von Objekten.

Zwei Straßenlaternen mit verschiedenen LichtartenDas links stehende Bild veranschaulicht den letzten Punkt: Es handelt sich um zwei Straßenlaternen, die aufgrund verschiedener Leuchtmittel unterschiedliches Licht produzieren. Die Straßenkreuzung war verschneit, also zweifellos weiß und so sah sie beim abendlichen Spaziergang für das Auge auch aus. Die Digitalkamera hatte nicht nur Schwierigkeiten, das Kunstlicht zu erkennen und auszugleichen, sie macht auch sichtbar, dass das Licht einer Lampe ins Orange und das der anderen tatsächlich ins Grünliche geht. Das menschliche Gehirn hingegen gleicht diese Farbunterschiede (ohne jegliche Bearbeitungszeit!) und sogar für die einzelnen Bildteile unterschiedlich aus.

Wie Digitalkameras versuchen, die menschliche Farbwahrnehmung nachzubilden

Nach all den recht vagen Aussagen und dem Eingeständnis, was wir eigentlich nicht wissen, schlägt der letzte Punkt der Aufzählung im vorigen Abschnitt eine plötzliche Brücke zur konkreten Anwendung in der Digitalfotografie.
Der zuverlässigste Weg der Farbkorrektur von Digitalbildern, der uns im Artikel über den Weißabgleich wieder begegnen wird, ist nämlich folgender: Unter der für eine Aufnahme herrschenden Beleuchtung wird der Digitalkamera eine weiße oder graue Fläche vorgehalten und der Weißabgleich besteht salopp formuliert in der Anweisung an die Kamera „sorge dafür, dass diese Fläche weiß bzw. grau erscheint und korrigiere alle anderen Farben im Bild so, wie Du die Farbwerte dieser weißen bzw. grauen Fläche korrigieren musst“. Das ist das Prinzip des sog. „manuellen Weißabgleichs“.

Man bildet also die Farbwahrnehmung des Gehirns in der Fotografie insofern nach, als dass man versucht, wie das Gehirn Beleuchtungsunterschiede auszugleichen.
Aber es bleibt immer ein Rest an Ermessensspielraum, den nie die Automatik einer Digitalkamera bzw. Bildverarbeitung übernehmen kann:

  • Ob der Ausgleich von Farbstichen durch die gerade herrschende Beleuchtung vollständig oder nur teilweise erfolgen soll, ist immer wieder unterschiedlich.
    Der Grund ist: Der beschriebene Weißabgleich würde tatsächlich durchweg neutrale Farben wie bei Tageslicht erzeugen. Wenn Sie auf diese Weise aber z.B. bei Sonnenuntergang fotografieren, wo auch das Gehirn die Farben wärmer wahrnimmt, werden die Ergebnisse nicht dem entsprechen, wie es „in echt“ aussieht.
  • Leichte Farbverschiebungen hin zu wärmeren oder kühleren Farben und damit Abweichungen von einer „korrekten“ Farbwiedergabe sind nunmal für die Bildwirkung wichtig – ganz unabhängig davon, wie wir ein Motiv in der Realität wahrnehmen.

Zusammenfassung

Sie haben zwei Gründe erläutert bekommen, weshalb die „richtige“ Farbwiedergabe in der Fotografie immer schon viel Aufmerksamkeit, laufende Anpassungen und auch Erfahrung erfordert hat und trotz aller modernen Technik auch weiter erfordern wird:

  • Fotografie kann das in der Realität auftretende Licht nicht einfach einfangen und alle auftretenden Wellenlängen mit der exakt gleichen Intensität wiedergeben. Sie kann nur vereinfachte Farbinformationen speichern – die Rot- Grün- und Blauanteile des eingefangenen Lichtes, die die menschlichen Augen möglichst ähnlich reizen.
    Diese Art der „Übersetzung“ sowie leichte Unterschiede, wie die vielen Anzeigegeräte ein und dieselbe digitale Farbinformation anzeigen, liefern viele Quellen für leichte Unterschiede.
  • Die von den Augen wahrgenommenen Farbinformationen werden vom Gehirn verändert, bevor wir das Bild tatsächlich „sehen“ – was auch immer das im Gehirn genau bedeutet.
    Tendenziell gleicht unser Gehirn Farbunterschiede in der Beleuchtung aus, um uns möglichst gleichmäßige Bilder in bekannten Farbmustern zu liefern..

Die nachträgliche Anpassung der von einem Bildsensor einer Digitalkamera aufgezeichneten Farbinformationen und das ständige situationsbedingte Nachbessern sind also nicht etwa durch unzureichende Technik bedingt oder dadurch, dass Fotografie halt kompliziert ist – es entsteht dadurch, dass man in der Fotografie ständig bestrebt ist, die tatsächlich komplizierte Farbwahrnehmung des menschlichen Gehirns nachzubilden oder die Farben auf eine bestimmte Bildwirkung hin anzupassen.