Fotografie

Sensor - digital

Was der Film bei der Analogkamera, ist der Sensor bei der Digitalkamera, er wandelt das durch die Blende und den geöffneten Verschluss einfallende Licht so um, dass es digital gespeichert werden kann.

nach oben

Aufbau eines Sensors

Der Sensor ist ein Integrierter Schaltkreis, der aus eine Matrix von mehreren Millionen von Fotozellen besteht. Jede dieser Fotozellen stellt einen Pixel des Sensors dar und wandelt das einfallende Licht auf Grund des inneren photoelektrischen Effekts in elektrische Ladung um.
Ein Pixel selbst besteht aus einer Mikrolinse, einem Farbfilter, einer Reihe von Leiterbahnen, zwei Elektroden, einer isolierenden Oxidschicht und dotiertem Silizium.
Die Mikrolinse bündelt das Licht, so dass möglichst viel Licht auf den lichtempfindlichen Teil des Pixels treffen kann.
Photodioden reagieren auf Licht in einem breiten Farbspektrum. Mit ihnen kann man die Helligkeit messen und in elektrische Information umwandeln. Um Farbinformationen zu erhalten, ist vor jedem Pixel ein Farbfilter angebracht, welcher nur Licht eines bestimmten Spektralbereichs passieren lässt. Aus der Farbinformation benachbarter Pixel kann die Kamerasoftware sich dann die Farben eines jeden Pixels errechnen.
Die Leiterbahnen werden benötigt, um die einzelnen Pixel auslesen zu können. Je nach Sensortyp können zusätzlich noch elektronische Komponenten in diesem Bereich integriert sein.
Die Elektroden, das Silizium und das Silizium-Oxid bilden das eigentliche lichtempfindliche Element, wobei hier die Helligkeitsinformation nicht wie einer Photodiode direkt in Strom umgewandelt wird, sondern als Ladung in einer Ladungssenke gesammelt wird. Je mehr Licht auf einen Pixel fällt, desto mehr elektrische Ladung wird erzeugt. Diese Ladung am Ende der Belichtungszeit ausgelesen.
Danach wird die Helligkeitsinformation zu einem abtransportiert, verstärkt und digitalisiert.

Schematischer Aufbau eines Sensorpixels
Schematischer Aufbau eines Sensorpixels

Vor jedem Pixel sitzt eine Farbfilter, es gibt rote, blaue und grüne Pixel, welche bei den meisten Sensoren im sogenannten Bayer-Muster angeordnet sind. Bayer-Sensor
Pixel beim Bayer-Sensor
Wie aus dem Bild erkennbar ist, sind es doppelt so viele grüne wie rote oder blaue Pixel. Dies ist darauf zurück zu führen, dass das menschliche Auge aus dem spektralen Bereich des grünen Lichts die meisten Informationen über Helligkeit, Kontrast und Schärfe erhält.
Die Dichte dieses Raster bestimmt die physikalische Auflösung des Sensors. Bei einem 18M-Pixel APS-C Sensor sitzt alle 4,3 µm ein Pixel.
Trifft viel Licht auf einen Pixel, enthält dieser mehr Ladung, als einer auf den wenig Licht trifft. Nach der Belichtung werden die Ladungen ausgelesen und weiter verarbeitet.
Dieses Signal kann bei einigen Kameratypen direkt gespeichert werden. Man nennt dieses Format dann RAW-Format, weil es die Rohdaten vom Speicherchip enthält.
Damit daraus ein Bild entsteht, müssen die Daten dann noch mit einem Programm bearbeitet werden.

Demosaicing
Aus den Informationen der Pixel in den drei Farben wird ein farbiges Bild erzeugt

Ein Bild das aus so einem Chip entsteht, dürfte eigentlich nur einen Bruchteil der Pixel haben, wie der Chip Zellen hat, da ja jeder Sensorpixel nur eine der drei Grundfarben sehen kann. Im endgültigen Bild setzt sich aber jeder Pixel aus den Helligkeiten und der Farbinformation aller drei Grundfarben zusammen.
Damit aber ein aus einem 18-Megapixel-Sensor auch ein 18-Megapixel-Bild (z.B. jpeg) wird, werden die RAW-Daten durch Demosaicing entsprechen aufbereitet. Das ganze geschieht mit herstellerspezifischen Algorithmen. Dabei erhält man ein fertiges Bild, welches in der Helligkeit ein Auflösung von 18 Millionen Pixeln erreicht, bei der Farbe aber weniger. Diese Einschränkung ist hinnehmbar, da das menschliche Auge Helligkeitsinformationen höher auflösen kann als Farbinformationen.
Es gibt auch einen Sensor, welcher wirklich alle Information zur Helligkeit und Farbe für jeden Pixel aufzeichnen kann.
Dieses Bild wird dann im eingestellten Bildformat auf dem Speichermedium gespeichert.
Die Größe der Sensoren hängt vom Hersteller und der Preisklasse der Kamera ab. Wobei hier der Trend, wie bei allen anderen elektronischen Bauteilen auch, zu immer kleineren Sensoren mit immer höheren Auflösung geht. Dieses hat Vor- und Nachteile.

Vorteile:

Nachteile:

Da Fotosensoren auch für Infrarotlicht empfindlich sind, sitzt vor dem Sensors ein IR-Sperrfilter um zu verhindern, dass infrarote Strahlung die Bildqualität verschlechtert.
Ein weiteres Problem bei der Digitalisierung ist das mögliche Auftreten von Aliasing-Effekten wie das Moiré. Dies kann auftreten, wenn sehr feine Strukturen oder Muster fotografiert werden sollen. Wenn also der Sensor zu grob für das Muster auflöst, kann es im Bild zu unschönen Effekten kommen. Richtig auffällig wird Moiré, wenn das Muster nicht eben und senkrecht zur Blickrichtung liegt.

Küchensieb
Ohne und mit Anti-Aliasing-Filter

Um das zu vermeiden, erzeugt ein Tiefpassfilter (Anti-Aliasing) vor dem Sensor eine leichte Unschärfe, welche später im Bild nicht zu erkennen ist, aber genügt, Aliasing zu verhindern.
Ein Anti-Aliasing-Filter ist wie immer in der Digitaltechnik ein Tiefpassfilter, welcher Frequenzen größer als das 2-fache oder 2,5-fache der Auflösung bzw. Abtastfrequenz aus dem Analogsignal filtert.

Sensor
Schematischer Aufbau eines Bildsensors
Four Thirds Kompaktkamera
Zwei Sensoren: Olympus PEN E-P 2 und Fujifilm A330
nach oben

Sensortypen

In heutigen Kameras werden zwei Sorten von Bildsensoren verbaut:

Bezeichnung Elektronisches Prinzip Bauteilname
CCD MOSFET (Metal Oxide Semiconductor Field Effect Transistor) CCD (Charge Coupled Device)
CMOS CMOS (Complementary Metal Oxide Semiconductor) APS (Active Pixel Sensor)

Beide Sensortypen wandeln das einfallende Licht in Ladungen um. Was nun mit den Ladungen geschieht, hängt vom Sensor ab.

CCD

CCD ist die Abkürzung für charge coupled device und heißt auf Deutsch ladungsgekoppeltes Bauelement.
Ursprünglich als Datenspeicher konzipiert wurde 1970 der erste CCD-Sensor gebaut. Dessen Erfinder Willard Boyle und George E. Smith bekamen dafür 2009 den Nobelpreis für Physik.
Während der Belichtung sammeln die einzelnen Pixel Ladungen, welche von den eintreffenden Photonen erzeugt werden. Wenn der Verschluss wieder zu ist, müssen diese ausgelesen werden. Hierzu werden die Ladungen in einen lichtunempfindlichen Bereich des Sensors verschoben und dann zu einem Auslesebereich transportiert. Dies kann entweder zeilenweise (Full-Frame), im Ganzen (Frame-Transfer ) oder pixelweise (Interline-Transfer) geschehen.
Folgendes Bild zeigt den Ausleseablauf eines Full-Frame-CCD.

Beispiel Auslesen Sensor
Ein Full-Frame-CCD

CMOS

Der CMOS-Sensor oder eigentlich besser APS (Activ Pixel Sensor) ist ein Verwandter des CCD-Sensors. Nur sitzt bei diesem Chip nicht ein Ladungsverstärker am Ausgang des Chips, sondern jeder Pixel hat seinen eigenen Verstärker. Deswegen nennt man ich auch APS. Neben der lichtempfindlichen Zelle müssen noch bis zu 6 Transistoren pro Pixel auf dem Sensor untergebracht werden, dies bedeutet, dass die Information jedes einzelnen Pixels direkt digitalisiert werden kann und nicht erst als Ladung verschoben werden muss. Dadurch ist es möglich, dass schon wieder belichtet wird, während die vorherigen Bilddaten noch ausgelesen werden, mehrere Pixel zusammen ausgelesen werden und nur Teile des Sensors verwendet werden.

Vorteile der CMOS-Sensoren:

Nachteile:

BSI CMOS

Beim normalen CMOS Sensor liegen vor der eigentlichen lichtempfindlichen Schicht, sehr viele Schichten mit Leiterbahnen und Transistoren. Dadurch ist die eigentliche lichtempfindliche Fläche relativ klein und das Licht muss erst durch eine Art Tunnel, bis es auf diese trifft. Dadurch geht einiges an Licht verloren.
Beim BSI CMOS ist die Elektronik daher hinter der lichtempfindlichen Fläche angebracht. So eine Sensor ist wohl nicht so einfach herzustellen, so dass es einige Zeit gedauert hat, bis die ersten dieser Sensoren auf den Markt kamen.
BSI bedeuten back side illumination, wobei hier das illumination für Belichtung und nicht für Beleuchtung steht, also bedeutet BSI rückseitige Belichtung. Der eher bekannte Begriff exposure hätte zu einem vermutlich nicht ganz so gut vermarktbarem Sensor geführt.

nach oben

Crop-Faktor

Eigentlich sind digitale Bildsensoren fast immer kleiner als ein Kleinbildnegativ. Es gibt nur wenige Kameras mit einem so genannten Vollformatsensor. Selbst die meisten digitalen Spiegelreflexkameras verwenden einen kleineren Sensor, fast immer im Format ASP-C (23,7 mm x 15,7 mm) oder vergleichbar.
Crop-Faktor
Crop-Faktor
Die Bilddiagonale beider Formate sind ca. um den Faktor 1,5 bis 1,6 verschieden.
Der digitale Sensor ist kleiner als das Kleinbildnegativ und kann deswegen nur einen kleineren Ausschnitt aufzeichnen.
Wenn der gleiche Ausschnitt fotografiert werden soll, dann muss ein Objektiv mit einem größeren Formatwinkel und damit einer kürzeren Brennweite verwendet werden. Deswegen werden an Digitalkameras kleinere Objektive mit kürzerer Brennweite benötigt, um den gleichen Bildinhalt wie eine Kleinbildkamera zu haben.
Der Faktor zwischen beiden Brennweiten ist genauso groß, wie der Faktor zwischen beiden Diagonalen und wird als Crop-Faktor oder Formatfaktor bezeichnet.
System- und Kompaktkameras haben meist noch kleinere Sensoren und daher einen noch größeren Cropfaktor.
Falsch ist es, wenn man von einer (virtuellen) einer Brennweitenverlängerung spricht, denn es handelt sich eigentlich um eine Formatwinkelverkleinerung, welche durch eine Veränderung der Brennweite kompensiert wird.

nach oben

Besonderheiten bei Digitalkameras

Bedingt durch den Sensor und dessen Eigenschaften gibt es typische Unterschiede zwischen Digital- und Kleinbildkameras.
Durch die kleinere fotoaktive Fläche des Sensors können/ müssen kleinere Brennweiten verwendet werden. Auch alle anderen optischen Maße nehmen ab. Diese Verkleinerung hat den Vorteil, dass man Digitalkameras relativ kompakt bauen kann. Waren im Kleinbildformat die Minox 35 und die Olympus XA die kleinsten Kameras, kann man im Zeitalter der digitalen Fotografie Kameras bauen, welche unwesentlich größer sind als ein Stapel Kreditkarten.

Minox 35 im Vergleich mit der Canon S110
Minox 35 im Vergleich mit der Canon S110

Eine weitere Eigenschaft der digitalen (Kompakt-) Kamera ist, dass das Bildsensor nicht nur während der Aufnahme, sonder auch davor schon Bilder erzeugen und die Kamera diese auf dem Display darstellen kann. Diese Bilder entsprechen dann genau dem, was beim Auslösen gespeichert wird, also ohne Parallaxenfehler. Das ermöglicht Ansichten wie bei einer Spiegelreflexkamera, ohne dass jedoch ein Spiegel benötigt wird. Wobei das Bild auf dem Display, bedingt durch die Auflösung des selbigen, weniger detailliert ist, als das auf der Mattscheibe einer Spiegelreflexkamera. Wenn der Monitor einen großen Blickwinkel zulässt oder sogar schwenkbar ist, kann man mit so einer Kamera aus verschiedensten Positionen (z.B. über Kopf) kontrollierte Fotos schießen. Es lassen sich auch ein Live-Histogramm, Bildschirmlupe, Belichtungsvorschau, Weißabgleichvorschau usw. realisieren.
Der Sensor übernimmt in den meisten digitalen Kompaktkameras auch noch weitere Aufgaben: die Belichtungsmessung und das Fokussieren. Dadurch sind die unterschiedlichsten Messcharakteristiken beim Belichtungsmessen und eine frei Messpunktwahl beim Fokussieren möglich. Der Nachteil ist aber, dass ein Sensor alles machen muss und nicht speziell für die eine oder andere Aufgabe ausgelegt werden kann. Dadurch kann es zu Verzögerungen kommen, welche sich unter anderem in einer etwas längeren Zeit zwischen Auslösen und Belichten äußern.

nach oben

Speichermedien

Als Speichermedium für mobile digitale Inhalte hat sich sehr schnell der Flashspeicher etabliert. Dieser Speicher ist resistent gegen Erschütterungen, Magnetfelder, Hitze und Kälte, schnell, benötigt wenig Bauraum und hat keine bewegten Bauteile. Mit der Zeit hat er alle anderen Verfahren in der digitalen Fotografie sowie im Videobereich so gut wie verdrängt.
Für Fotokameras wird er als Wechselmedium in Kartenform verwendet. Diese Karten werden immer schneller, größer und preiswerter.
Alle ein bis zwei Jahren halbiert sich der Preis und verdoppelt sich die Speicherkapazität.
Vor Jahren hat man sich noch über die 16 MB Smart-Media-Karte gefreut, immerhin passten da 16 statt 8 Bilder in voller Auflösung drauf. Heute ist das mehr als das 1000-fache an Speicherkapazität Standard.
Seit einigen Jahren sind die Karten auch groß und günstig genug um auf Festplatten als mobiler Datenspeicher für Foto und auch Video verzichten zu können.
Ein Nachteil bei Flashspeichern ist, dass sie nicht beliebig oft beschrieben und gelöscht werden können. Nach ca. 100.000 Zyklen ist ein Speicherblock in der Regel verschlissen und kann nicht mehr verwendet werden. Um möglichst alle Blöcke gleichmäßig zu verschleißen wird mit wear-leveling abwechseln alle verfügbaren Blöcke des Speichers beschrieben, so dass diese alle gleichermaßen verschleißen und die volle Kapazität des Speichers möglichst lang erhalten bleibt. Kaputte Blöcke können, je nach Controller, erkannt und gekennzeichnet werden, so dass diese nicht mehr verwendet werden.

Compact Flash (CF)

Diese Art von Speicherkarte besitzt einen ATA-kompatiblen Kontroller, was heißt, dass sie vom Rechner und von der Kamera wie eine Festplatte angesprochen werden kann. Dadurch sind die Karten auch weitestgehend auf- und abwärtskompatibel. Die Karten selbst sind vergleichsweiße groß und schwer, was aber nur bei Ultrakompaktkameras, kleinen MP3-Playern oder Handys zu Platzproblemen führen kann. Bei einer DSLR fallen die Größe und das Gewicht nicht weiter auf. Beides hat sogar den Vorteil, dass die Karte an sich nicht so leicht verloren geht, wie ihre kleineren Kollegen. Außerdem ist sie durch ihr teilweiße aus Metall bestehendes Gehäuse und den versteckten Kontakten recht robusten. Trotzdem werden diese Karten bei neuen Kameras nur noch bei Profimodellen verwendet, bei allen anderen ist meist nur noch ein SD-Kartenschlitz vorhanden.
Neben der Speichergröße sind noch die Schreib- und Lesegeschwindigkeit von Interesse, vor allem wenn man Serienbilder oder HD-Filme aufnehmen möchte.
Diese wird entweder in MB/s, als Vielfaches der Lesegeschwindigkeit eines CD-Laufwerks (150 kB/s) oder als Modus PIO/ UDMA angegeben.

PIOTransferrate in MByte/sx-fach(nächst tieferer Wert)
PIO 03,320
PIO 15,232
PIO 28,340
PIO 311,166
PIO 416,7100
UDMATransferrate in MByte/sx-fach(nächst tieferer Wert)UDMA
Mode 016,7100UDMA16
Mode 125150UDMA25
Mode 233,3200UDMA33
Mode 344,4300UDMA44
Mode 466,7433UDMA66
Mode 5100666UDMA100
Mode 6133,3800UDMA133
Mode 71661000UDMA166

Für normale Fotos sollte man mit einer Karte die um die 30 MB/s Lesen und Schreiben locker auskommen. Will man Bildserien mit hohen Frequenzen oder gar HD-Filme aufnehmen, darf es ruhig eine etwas schnellere Karte sein.

Compact Flash Karten
CF-Karten mit 16 MB und 8 GB. Die Anschlüsse liegen geschützt im Gehäuse.
Maße: 36,4 mm x 42,8 mm x 3,3 mm (Typ I)
Maximal Größe im Moment: 512 GB
Kontroller: ja
Verbreitung: Canon, Nikon, Sigma

SD-Card

SD steht für Secure Digital und ist eine Weiterentwicklung der MultiMediaCard. Geräte, die diese Karten ansprechen können, verstehen sich auch mit MMCs. Sie verfügt über einen Schreibschutzschieber und einen Speicherbereich, welcher eine passwortgeschütze Verschlüsselung und für ein digitales Rechtemanagement zuständig ist, daher auch der Name SD.
Der Schreibschutzschieber muss von Cardreader oder der Kamera unterstützt und abgefragt werden.
Die SD-Karte ist die im Moment weitest verbreitete und günstigste Karte auf dem Markt.
Für Mobiltelefone und andere kleine Geräte gibt es noch die kleineren Versionen miniSD (veraltet) und microSD.
Die SD-Karte besitzt einen eigenen Controller und deswegen hakt es etwas mit der Abwärtskompatibilität, d.h. ältere Geräte können oft die neuen Karten nicht lesen oder beschreiben. Man muss also immer prüfen, ob die Kamera oder der Cardreader mit der jeweiligen Karte zurechtkommt.
Die ursprüngliche SD-Karte (SD 1.0) war nur bis zu 1 GB konzipiert und wurde durch eine SD 1.1 auf 2 GB erweitert.
Eine Evolutionsstufe weiter ist die SDHC mit 32 GB und seit 2009 SDXC (SD 3.0) mit bis zu 2 TB Speicherkapazität.
Neben den Speicherkapazitäten haben sich auch die Schreib- und Lesegeschwindigkeiten gesteigert. Diese wird entweder als Zahl in einem offenem Kreis oder in einem U angegeben. Dabei entspricht Mindestgeschwindigkeit in MB/ s beim Schreiben der einfachen Zahl im Kreis oder der 10-fachen Zahl im U.

Secure Digital Speicherkarten
SD mit 2GB, SDHC Class 4 mit 4 GB, SDHC Class 10 mit 32 GB, Anschlüsse und Micro SD mit Adapter
Maße: 24 mm x 32 mm x 2,1 mm
Maximal Größe im Moment: 128 GB
Kontroller: nein
Verbreitung: (fast) alle Kamerahersteller

Aus historischen Gründen folgen alle inzwischen nicht mehr weiterentwickelten Formate:

SmartMedia

SM ist eines der ältesten Formate und von der Entwicklung schon überholt. Die Karten enthalten keinen eigenen Controller und sind somit auf den der Kamera angewiesen. Ist der aber nur für z.B. 32 MB Karten ausgelegt, kann er mit 128 MB Karten nichts anfangen. Außerdem ist die dünne Karte mit Ihren großen Kontakten anfällig für mechanische
Beschädigungen. Das die Zeit für SM abgelaufen ist hat auch der ehemals größte SM-Kartenhersteller Olympus erkannt und Ihre Weiterentwicklung bei 128 MB eingestellt.

Smart Media
Smart Media mit 4 MB Speicher
Maße: 45 mm x 37 mm x 0,76 mm
Maximal Größe:128 MB
Kontroller: nein
Verbreitung: Olympus

xD-Card

Die xD-Card ist die Weiterentwicklung der SM-Karte in einem anderen Gehäuse. Sie wurde von Fujifilm und Olympus entwickelt und wird inzwischen nicht mehr weiterentwickelt.

xD-Picture Card
xD-Picture Card mit 128 MB Speicher.
Maße: 20 mm x 25 mm x 1,7 mm
Maximal Größe: 2 GB
Kontroller: nein
Verbreitung: Fujifilm, Olympus

MMC

Die MMC oder auch MultiMediaCard war wohl zu ihrer Markteinführung die kleinste Speicherkarte, deswegen wurde sie auch gerne in kleinen portablen Geräten und Handys verbaut. Inzwischen wurde sie von Ihrer Nachfolgerkarte der SD-Karte abgelöst.

Maße: 24 mm x 32 mm x 1,4 mm
Maximal Größe:4 GB
Kontroller: nein
Verbreitung: Nokia

Memory Stick (Pro) usw.

Das ehemalige Flashmedium von Sony. Davon gibt es unterschiedliche Varianten: als normaler Speicherchip, Speicherchip mit Rechteverwaltung, für die Hausroboter oder die Playstation.
Es gibt eine normale und eine Pro Version, welche schneller ist und mehr Speicher haben kann.
Der Memory Stick Pro versteht sich nicht mit Geräten, die nur den Memory Stick kennen.
Die nächste Varianten, der Memory Stick Duo und Pro Duo, sind kleiner. Nochmal kleiner ist der Memory Stick Micro (M2), welcher Anwendung in Mobiltelefonen findet.

Memory Stick
Memory Stick Micro plus Adapter auf Dou
Maße: 50 mm x 21,5 mm x 2,8/ 31,0 mm x 20,0 mm x 1,6 mm (Dou)
Maximal Größe: 128 MB/ 32 GB (Pro)
Kontroller: ja
Verbreitung: Sony
nach oben

Eigenschaften

Belichtungsumfang

Der Belichtungsumfang eines fotografischen Mediums gibt an, wie groß das Verhältnis zwischen der hellsten und dunkelsten gerade noch darstellbaren realen Helligkeit ist. Er wird häufig in Blendenstufen oder Lichtwerten angeben. Die Änderung der Belichtung um eine Blendenstufe oder einen LW bedeutet eine Verdopplung oder Halbierung der Belichtung, deswegen bedeutet, dass bei einem Belichtungsumfang von n Blenden/ LWen das Verhältnis zwischen hellster und dunkelster Stelle im Motiv 1:2n betragen kann, ohne dass eine Über-/ Unterbelichtung stattfindet.

1/2000 s 1/250s 1/30s 1/8s 1/4s
1/2000 s 1/250s 1/30s 1/8s 1/4s
+0 LW +3 LW +6 LW +8 LW +9 LW
1:1 1:8 1:64 1:256 1:1024

Im obigen Beispiel sieht man einzelne Bilder einer Belichtungsreihe durchgeführt mit einer Digitalkamera. Dabei wurde von Bild zu Bild mit einem LW mehr belichtet. Dies wurde erreicht, in dem die Belichtungszeit jeweils verdoppelt wurde. Für das Beispiel wurden jeweils die Bilder an den Grenzen des Kontrastumfangs, die mittlere Belichtung und zwei Zwischenstufen ausgewählt. Anhand der Belichtungsreihe kann man den Kontrastumfang der Kamera abschätzen. Diese beträgt in etwa 9 Lichtwerte bzw. Blendenstufen. Für eine genauere Bestimmung muss man mit der Kamera ins Testlabor gehen und Aufnahmen mit kleineren Stufen durchführen.

Gradation

Trägt man den Wert der Helligkeit dieser Bilder über der Belichtungszeit in einem Diagram auf, dann erhält man folgenden Graphen. Dabei ist zu beachten, dass die Belichtungszeit in Sekunden logarithmisch angetragen ist. Die Darstellung ist also mit der Gradationskurve eines Film vergleichbar.

Gradationskurve
Helligkeit über Belichtungszeit

In diesem kann man dann den Verlauf der Bildhelligkeit über der Belichtungszeit erkenn. Aus diesem Verlauf kann man Rückschlüsse auf den Kontrastumfang der Kamera und deren Gradationskurve ziehen:

Der für die Belichtung eines Bildes brauchbare Bereich liegt irgendwo zwischen 1/2000s und 1/4s.
Aus diesem Graphen kann man auch erkennen, dass es besser ist, Digitalfotos lieber etwas geringer zu belichten, als es zu riskieren, überbelichtete Bereiche zu haben: der Übergang zwischen Unterbelichtung und linearem Bereich ist sanft wohin gegen der Übergang zur Überbelichtung hart ist.

Empfindlichkeit

Die Empfindlichkeit gibt wie beim Analogfilm an, wie viel Belichtung nötig ist, um eine bestimmte Helligkeit im Bild zu erzeugen. Sprich: bei höherer Empfindlichkeit muss weniger belichtet werden, um ein genauso helles Bild zu erhalten. Die verstellbare Empfindlichkeit bei einer Digitalkamera ist eigentlich ein Verstärkungsfaktor der angibt um welchen Faktor die Signale vor dem Digitalisieren erhöht werden. Dabei sind nach oben hin erst mal keine Grenzen gesetzt, nur nimmt das Bildrauschen bei höheren Verstärkungsfaktoren extrem zu, so dass es eine sinnvolle Obergrenze gibt.
Die Angabe der Empfindlichkeit wird analog zum Film in ISO-Werten angeben und kann, je nach Kamera, im Extremfall zwischen 50 und 25600 variiert werden. Normale Werte liegen zwischen 100 und 1600. Darüber kommt es zu vermehrtem Bildrauschen.

nach oben

Rauschen

Rauschen ist eines der typischen Probleme elektronischer Bauteile und Geräten, es tritt immer auf. Damit es sich nicht störend auswirken kann, muss man entweder dafür sorgen, dass das Nutzsignal eine um vielfach höhere Amplitude aufweist als das Rauschsignal oder man muss das Rauschen mit geeigneten Mitteln aus dem Signal herausfiltern. Filtern ist aber immer die schlechtere Wahl, da dabei auch immer etwas an Nutzsignal verloren geht.
Bei Fotosensoren treten zwei Arten von Rauschen auf: fixed pattern noise und thermisches Rauschen.
Das fixed pattern noise wird durch die Streuung der Empfindlichkeiten der einzelnen Pixel auf dem Sensor verursacht. Die einzelnen Pixel auf der Sensorfläche erzeugen, bei gleichem Lichteinfall, ein leicht unterschiedliches Signal. Dadurch entsteht ein Muster, welches typisch für jeden einzelnen Sensor ist. Daher kann es leicht kameraintern aus dem Bild gerechnet werden. Dazu ist eine so genannte Weißkalibrierung nötig.
Beim thermischen Rauschen handelt es sich tatsächlich um ein zufälliges Signal. Ursache dafür ist, dass in den einzelnen Pixel nicht nur durch Lichteinfall Ladungen erzeugt werden, sondern auch durch Wärme. Dieses tritt umso mehr auf, desto wärmer der Chip in der Kamera wird.
Man spricht dabei auch vom Dunkelstrom. Dieser ist proportional zur Wärme des Sensors. Dabei ist aber nicht jeder Pixel gleich anfällig für diesen Dunkelstrom. Ursachen dafür sind ganz normale Verunreinigungen im Silizium und Toleranzen bei der Fertigung.
Außerdem rauschen auch alle weiteren elektronischen Bauteile im Analogteil des Sensors und tragen ihren Anteil zum Gesamtrauschen bei.
Sichtbar wird Rauschen aber erst, wenn der Signal-Rauschabstand gering wird, d.h. solange genügend Nutzsignal vorhanden ist, wird das Rauschsignal nicht wahr genommen.
Wenig Nutzsignal liegt vor wenn bei geringer Helligkeit fotografiert wird, also z.B. bei Nachtaufnahmen. Um ein erkennbares Bild zu erhalten muss dann mit einer höheren Empfindlichkeit = Verstärkung fotografiert werden. Dies führt zu Bildrauschen.
Dieses tritt vor allem bei kleinen Sensoren mit hoher Pixelanzahl auf, denn bei diesen sind die Pixel sehr klein. Kameras mit großen Sensoren neigen weniger zu Bildrauschen, da größere Pixel mehr Licht abbekommen und deswegen mehr Signal erzeugen, was weniger stark verstärkt werden muss.
Wenig Nutzsignal und hohe Verstärkung führt zu sichtbarem Rauschen.
Einfaches Beispiel dazu ist die Stereo-Anlage. Wenn dort eine gut ausgesteuerte CD abgespielt wird, hört man das ständig vorhandene Rauschen nicht. Wird aber bei einer leisen Passage die Lautstärke am Verstärker erhöht, kann man das Rauschen hören.

ISO 100 und ISO 3200
Rauschen tritt vor allem bei hohen Empfindlichkeiten auf.

Die beiden Bilder sind gleich hell, obwohl beim rechten der Sensor viermal empfindlicher war. Die unterschiedlichen Sensorempfindlichkeiten werden durch die geänderte Belichtungszeit ausgeglichen. Im rechten Bild ist mehr Rauschen zu erkennen, als im linken, d.h. mit der Empfindlichkeit nimmt das Bildrauschen zu. Im Umkehrschluss heißt das, man kann Rauschen vermindern, indem man eine niedrigere Empfindlichkeit wählt und dementsprechend länger belichtet und/ oder eine größere Blendenöffnung wählt. Wobei die größere Blendenöffnung die bessere Wahl wäre, denn auch bei langen Belichtungszeiten steigt das Rauschen an.
Man kann Rauschen auch nachträglich aus den Bildern entfernen. Zum Teil wird das schon in der Kamera gemacht. Hierbei besteht aber die Gefahr, dass auch bildwichtige Details der Rauschentfernung zum Opfer fallen und so das Bild neben dem Rauschen auch an Details verliert. Deswegen ist es am besten, Rauschen zu verhindern, bevor es entsteht.

nach oben

Hotpixel

Neben dem normalen Hintergrundrauschen gibt es, besonders bei Nachtaufnahmen, noch eine weitere Quelle für Bildfehler, die sogenannten Hotpixel.
Hotpixel sind eine extreme Erscheinungsform des thermischen Rauschens und machen sind als helle Punkte in den Farben Rot, Blau oder Grün im Bild bemerkbar. Auch sie treten vornehmlich bei warmen Chip, langer Belichtungszeit und hoher Verstärkung auf. Sie sind vornehmlich in sehr dunklen Bildregionen sichtbar Man erkennt sie als weiße oder buntes Sprenkelmuster im Bild, welches auch für einen Sternenhimmel gehalten werden könnte. Sterne sind aber im Gegensatz zu Hotpixeln, meist nicht farbig.
Diese entstehen dadurch, dass die einzelnen Pixel des Sensors verschieden stark auf Wärme reagieren. Deswegen heißen diese Punkte auch Hotpixel.
Man sollte sie nicht mit Stuckpixeln verwechseln. Dieses sind kaputte Pixel und sind in jedem Bild vorhanden.
Diese Fehlerpixel treten an ein und demselben Sensor immer an derselben Stelle auf.
Wie stark bzw. wie viele Hotpixel auftreten hängt von der Belichtungszeit ab, also wie lange der Dunkelstrom fließt und damit Zeit hat, einzelne Sensorzellen mit Ladung zu versorgen. Je nachdem wie lange man belichtet, werden immer mehr Pixel zu Hotpixeln. Dies würde theoretisch soweit gehen, dass das ganze Bild weiß wird.
Die folgenden neun Bilder sind mit der Nikon Coolpix 885 entstanden. Dabei war das Objektiv mit dem Verschluss abgedeckt. Abgebildet ist jeweils immer derselbe Ausschnitt eines jeden Fotos. Wenn man sich z.B. nun das mittlere mit dem rechts unten vergleicht, kann man erkennen, dass immer ein ähnliches Muster entsteht. Das Auftreten von Hotpixeln ist von Kamera zu Kamera verschieden, deswegen sind diese Bilder nur als Beispiel gedacht.

1/8 s 2 s 8 s
ISO 400 kalt
ISO 400 warm
ISO 100 warm

Hier kann man also alle drei Einflussfaktoren auf das Erscheinen der Hotpixel erkennen. Daraus wird auch ersichtlich, wie man diesen Bildfehler vermeiden oder zumindest mindern kann.
Am besten ist es, wenn man Aufnahmen mit kalter Kamera macht d.h. aber nicht, dass man die Kamera z.B. in den Kühlschrank oder die Tiefkühltruhe legen soll. Zwar überstehen diese die Kälte, aber es kann sich Kondenswasser bilden, was der Elektronik und der Bildqualität schadet.
Eine kalte Kamera erreicht man am besten dadurch, dass man sie immer ausschaltet, wenn gerade nichts zu fotografieren ist.
Weiterhin sollte man die Blende weit aufmachen, so dass Belichtungszeit und Empfindlichkeit auf kleine Werte eingestellt werden können.

mit Hotpixel ohne Hotpixel
Ohne und mit Rauschunterdrückung (Black Frame) zur Entfernung von Hotpixeln

Ob man nun mit kurzer Belichtungszeit oder mit einer geringen Empfindlichkeit fotografiert, ist eher egal, denn bei einer kurzen Belichtungszeit entstehen weniger Hotpixel, dafür werden die mehr verstärkt und umgekehrt.
Wenn das alles nichts hilft, kann man Hotpixel natürlich auch nachträglich entfernen: 4.1.10.1 Hotpixel Seite 232.
Viele Kameras machen das auch schon bevor sie das Bild als jpeg abspeichern. Eine der besten Methoden, aber auch der langsamsten, ist, wenn die Kamera gleich nach der eigentlichen Aufnahme eine weitere macht, dabei den Verschluss aber nicht öffnet. So entsteht eine Aufnahme, die nur die Hotpixel enthält. Nun weiß die Kamera-Elektronik wo sie in der eigentlichen Aufnahme Bildpunkte reparieren muss und wo nicht.

nach oben

Blooming

Blooming tritt auf, wenn ein Pixel viel mehr Licht abbekommt, als er eigentlich in der Lage ist, in Ladung umzuwandeln. Dann passiert es, dass er "überläuft" und seine Ladung an benachbarte Pixel abgibt. Dies kann sich dann auf weitere Pixel in der Nähe vorsetzten und zu großen, überbelichteten Stellen im Bild führen.

Blooming
Vor allem Nachtaufnamen mit künstlichen Lichtquellen sind für dieses Effekt anfällig. Oft tritt dieser Fehler kombiniert mit Purple Fringing (lila Farbsaum) auf. Bei Nachtaufnahmen lässt er sich relativ schlecht vermeiden. Durch eine geringere Belichtung der Bilder (ca. 1 bis 2 Blenden) und einer nachträglichen Aufhellung am Rechner kann man durchaus brauchbare Ergebnisse erzielen.
Ein ähnlicher Effekt wie Blooming ist das so genannte Smearing (Verschmieren) welches immer dann auftritt, wenn kein mechanischer Verschluss nach der Belichtungszeit den Sensor vor weiterem Lichteinfall schützt. Deswegen tritt dieser Effekt fast ausschließlich auf, wenn entweder gefilmt wird oder ein Motiv mit einer hellen Lichtquelle auf dem Monitor betrachtet wird.

nach oben

Purple Fringing

Purple Fringing meint die lila Farbsäume, welche sich um sehr helle Bildbereiche bilden können. Sie treten vornehmlich dann auf, wenn sehr helle Bildbereiche und dunkle aneinandergrenzen, so wie in nebenstehendem Bild. Auch bei Ästen vor sehr hellem Himmel oder auch bei hellweißen Flächen oder bei Lichtquellen bei Nachtaufnahmen.
Purple Fringing
Purple Fringing
Ursache dafür ist nicht Blooming oder chromatisch Aberration sondern Licht, welches am IR-Sperrfilter und anschließen an der Hinterlinse wieder zurück auf den Sensor reflektiert wird.
Je nachdem, wie der Filter und die Hinterlinse vergütet sind, kommt je nach Kameramodell zu mehr oder weniger purple fringing.
Beim Fotografieren hat man relativ wenige Möglichkeiten, solche Farbsäume zu vermeiden: entweder man fotografiert mit einer kleineren Blende, belichtet etwas geringer, als nötig oder vermeidet Motive, welche anfällig dafür sind.
Nachträglich kann man diese Farbsäume entweder mit einer speziellen Funktion der Software oder durch manuelle Entsättigung reduzieren.

Weiter mit Fokussieren.








Fotografie auf www.puchner.org | Kontakt | Sitemap | letzte Änderung: 2014-02-06 | nach oben