Pixel, Dot, DPI,PPI,LPI…

Wenn Sie sich endlich einmal Klarheit verschaffen wollen über die Bedeutung und Zusammenhänge all dieser Begriffe, die in der elektronischen Bildverarbeitung von der Aufnahme bis zur Ausgabe des Bildes eine Rolle spielen, dann kommen Sie nicht umhin, sich zunächst einmal mit den Definitionen dieser Begriffe zu beschäftigen – schließlich muss man ja wissen, wovon die Rede ist. Fangen wir also an mit einigen Begriffserklärungen.

Inhalt:


1) Das Pixel
2) DPI
3) PPI
4) LPI

 

 

 

1) Das Pixel

Ja, Sie lesen richtig: es heißt DAS Pixel . Zusammengesetzt aus den englischen Begriffen Pictures (pix) und Element. Andere deutsche Bezeichnungen wären z.B. Bildpunkt, Bildzelle oder Bildelement.
Bei einer digitalen Rastergrafik bezeichnet ein Pixel einen einzelnen Farbwert. Bei einem Bildsensor und bei einem Bildschirm (rastergesteuert) bezeichnet ein Pixel das Flächenelement, welches zur Erfassung oder zur Darstellung eines Farbwertes nötig ist.
Und hier wären wir bereits an einem „Verständnisproblem“ angekommen: im Sinne der digitalen Signalverarbeitung ist nämlich ein Pixel ein Abtastwert. Die Modellvorstellung des Pixels als Quadrat oder Rechteck ist somit streng genommen „unangemessen“, ein Pixel muss nicht zwangsläufig quadratisch oder rechteckig sein.
Also ist ein Pixel ein Element, welches das (analoge) Licht (Farbe) in ein (digitales, elektrisches) Signal umwandelt. Die Farbe wird unter anderem über den Farbraum und die Farbtiefe definiert. Das Pixel enthält also Kanäle für den Farbraum, die wiederum verschiedene Abtastwerte für verschiedene Helligkeiten der jeweiligen Farbe liefern. Am gebräuchlichsten ist der RGB-Farbraum (hier enthält ein Pixel jeweils einen Kanal für die Farben Rot, Grün und Blau) . Eine Farbtiefe von 1 bit würde hier bedeuten, dass in jedem Kanal genau zwei Zustände möglich wären: ist z.B. der Kanal „Rot“ aktiviert, signalisiert er den Zustand Rot als messbares Signal, ist er nicht aktiviert, bedeutet dies „Schwarz“. Genauso mit den Kanälen Grün und Blau. Bei einer Farbtiefe von 2 bit sind also schon 4 Zustände möglich – für den Blau-Kanal also beispielsweise schwarz, dunkelblau, mittleres Blau, helles Blau. Bei einer Farbtiefe von 8 bit gibt es bereits 256 Zustände – wohlgemerkt für jeden Kanal, was zu einer Anzahl von theoretisch möglichen 256³ = ca. 16,7 Millionen Farben führt und bei einer 16 bit Farbtiefe pro Kanal gibt es über 281 Billionen Farbmöglichkeiten.
Für Digitalfotos sind 24 bit Farbtiefe üblich. Die meisten Computermonitore können nur 8 bit pro Kanal darstellen.
Extreme Helligkeitsbereiche (gleißendes Licht, tiefschwarze Schatten) können mit 8 bit nicht gespeichert werden, hier muss der Kontrastumfang erheblich reduziert werden – um die damit verbundenen Auswirkungen auf den Dynamikumfang optisch ansprechend zu gestalten, gibt es die HDR-Anwendungen (High Dynamic Range) und die Tone-Mapping-Verfahren als Bildoptimierung.

Wenn wir uns nun ein Bild vorstellen, das aus vielen kleinen Bildpunkten zusammengesetzt ist, so wird schnell klar, dass auf einer bestimmten Fläche die Anzahl der Bildpunkte entscheidend ist für die Auflösung. Je mehr Bildpunkte, desto höher die Auflösung.
Die physikalische Größe eines Pixels ist begrenzt und demnach auch die Anzahl der Pixel auf einer Fläche. Die Pixeldichte eines Scanners oder eines Bildschirmes wird angegeben in

 

2) DPI

(dots per inch) oder in

 

3) PPI

(pixel per inch).

 

4) LPI

(lines per inch)
Diese Bezeichnungen sind die üblichen Einheiten für die Punktdichte bei der Bildwiedergabe (Druck, Bildschirm) und bei der Bildabtastung (Scanner, Kamera) und sind damit einer der wesentlichen Aspekte der Bildqualität. Weitere Aspekte sind die Farbtiefe und natürlich die Schärfe der Vorlage selbst.
Per Definition ist
1 dpi = 1 Punkt pro Zoll ( =25,4mm)
1 Punkt pro cm = 2,54 dpi
Heutige Bildschirme verfügen in etwa über 100 ppi. Da ein Inch = 2,54cm entspricht, sind die Pixel also etwa 0,3mm groß. Die Sensoren von Scannern und Digitalkameras erreichen eine Pixeldichte von mehreren 1000 ppi, oft angegeben in Megapixeln (MP, MPx). Die Werbung suggeriert, dass die Anzahl der Pixel gleichbedeutend mit der Bildqualität sei – dass dies nicht so ganz stimmt, liegt u.a. daran, dass ab einer bestimmten Pixeldichte die einzelnen Pixel durchaus zu Fehlaufzeichnungen neigen (Rauschen), welches durch Programme kompensiert werden muss, die wiederum auf Kosten der Bildschärfe oder des Detailreichtums gehen. Die einzelnen Bildpunkte sind heute nur noch ein Achtel so groß, wie vor 5 Jahren, die Gesamtauflösung ist um das Vierfache angestiegen. Die Sensorflächen kleiner Kompaktkameras sind auf 30 mm² geschrumpft!
Würde man auf einen APS-C Sensor einer Kleinbildkamera (ca 350 mm²) mit der gleichen Pixeldichte arbeiten, käme man bereits auf 37 Megapixel bei einer Pixelgröße, die einer Kompaktkamera mit 3MP entspräche.
Wichtig ist also in diesem Zusammenhang, dass eine Grafik oder ein Bild selbst nicht in ppi, dpi oder lpi „gemessen“ wird, da sie eine feste Anzahl von Pixeln enthält, unabhängig vom Ausgabemedium.
Hier einige Beispiele für typische Punktdichten:
Tageszeitung 150 dpi, Laserdrucker 1200 dpi, Tintenstrahldrucker 1200 dpi, Foto-Ausbelichtung 300 ppi, Thermosublimationsdrucker 300 bis 400 ppi.

Somit wird auch klar, dass eine Grafik/Bild der entsprechenden Ausgabe „angepasst“ werden muss. Die Anzahl der Bildpunkte des (gerasterten) Bildes muss der Anzahl der Bildpunkte des Druckers oder Bildschirms angepasst werden, was entweder durch Verkleinerung ( z.B. 6-MP-JPG-Datei, dargestellt auf dem LCD der Kamera) oder durch Vergrößerung (Beispiel: 1-MP-Foto, dargestellt auf einem Bildschirm der Größe 1600×1200 Pixel =1,9 MP). Dies geschieht in der Regel durch Interpolation, also hinzu- oder wegrechnen der überschüssigen oder fehlenden Pixel.
Etwas unterschiedlich ist die Ausbelichtung auf Fotopapier, da hier kein sichtbares Druckraster entsteht, die Wiedergabequalität hängt vom optischen Belichtungsprozess und den Eigenschaften des fotochemischen Papiers ab.
[zurück]

—————————–Fortsetzung