Artikeltext
Trends in Wissenschaft und Technik
Hintergrundwissen
Gesichter der Automatik
Was auf dem Gebiet der Fototechnik geschieht, können Sie Monat für Monat in COLOR FOTO nachlesen. Was aber für uns und auch für Sie aktuell ist, ist für die Entwicklungsingenieure der Hersteller schon lange der Schnee von vorgestern, sie arbeiten an den Geräten von morgen und an Ideen für die Geräte von übermorgen. Was momentan Bedacht, konzipiert und entwickelt wird, damit befaßt sich der folgende Bericht.
Programmgesteuerte Belichtung - und damit Kameras, bei denen eine Meßzelle je nach der vorhandenen Lichtintensität sowohl die Objektivblende wie die Verschlußzeit einstellt - gibt es schon seit mehr als 20Jahren. Diese einfache Steuerung in verhältnismäßig preisgünstigen Sucherkameras erschien nun vor ca. vier Jahren auch als eine prozessrechnergesteuerte Alternative zur Belichtungsautomatik mit Blendenvorwahl und/oder Verschlußzeitenvorwahl in den sogenannten Multimode-Modellen. Bekanntlich hatte ein solches Programm immer eine wichtige Beschränkung: Die Blende und Verschlußzeit werden jeweils gleichzeitig und zu einem gleichen Grad verkleinert bzw. verkürzt. Ein Programm, das etwa von Belichtungswert oder EV 4 (z.B. 1/4 s bei Blende 2) bis EV 18 (1/500 S bei Blende 22) verläuft würde in der Mitte bei EV 10 oder 11 eine Kombination von 1/30 oder 1/60 S bei Blende 5,6 bis 8 ergeben. Mit diesem Programm kann der Fotograf weder schnelle Bewegung mit kurzer Verschlußzeit und großer Blende, noch extreme Schärfentiefe mit einer kleinen Blende bei einer langen Belichtungszeit einfangen.
Programmiertes Fotografieren
Mit diesem Kompromiß nimmt das Programm ja dem Fotografen die Entscheidung ab, welche Blenden/Verschlußzeitenkombination er für verschiedene Aufnahmesituationen wählen soll. Dem Benützer einer einfachen Sucherkamera genügte das auch; der fortgeschrittenere und auch anspruchsvollere Hobbyfotograf soll dann eben bei Bedarf seine Reflexkamera auf Manuellbetrieb umschalten und so die gewünschte Blende bzw. Verschlußzeit vorwählen.
In Japan und in Europa sieht man das Erscheinen der programmgesteuerten Reflexkameras als die logische Entwicklung einer fotografischen Erziehung an. Der Anfänger steigt mit einer vollprogrammierten Pocketkamera in die Fotografie ein, entwickelt sich zu einer Reflexkamera mit Programmbetrieb weiter und lernt dann den vergrößerten Einsatzbereich mit Manuell- und Automatikbetrieb der verschiedenen Vorwahlmöglichkeiten kennen. Die erste Kamera, die diese Betrachtungsweise praktisch auswerten wollte - die Canon A-1 im Jahr 1978 - war hochinteressant, aber auf dem Markt nicht ganz so erfolgreich wie erwartet. Canon's größter Absatzmarkt ist die USA - und ein amerikanischer Fotograf, der mit einer Pocket - oder anderen Billigkamera in das Bildermachen eingestiegen ist, will zwar gern auf eine Reflexkamera umsteigen, aber nicht auf eine fortgeschrittene Belichtungstechnik. Erfolgreich waren daher auf dem Markt jene Kameras, die die Belichtungseinstellung weiter vereinfachten, ohne eine höhere technische Ausbildung (bzw. ein höheres technisches Interesse) seitens des Fotografen vorauszusetzen. Damit erklärt sich auch der wachsende Umsatz von Kameras ohne jede manuelle Betriebsart - oft anstelle des Verschlußzeitenknopfes nur mit einem Betriebsartenwähler (Automatik, Blitz B) und in manchen Fällen sogar nur mit Leuchtdiodensignalen ("Ampel") anstelle der Verschlußzeitenanzeige im Sucher.
Wie kommt man aber um die Beschränkungen des Programms herum? In einer Übersicht über Programmautomatiken in der japanischen Zeitschrift Camerart schlägt Naomichi Fujita eine Kamera mit einer dreifachen Programmwahl vor. Mit derartigen Programmen könnten dann die herkömmlichen Automatik-Betriebsarten und selbst Manuellbetrieb entfallen.
Das Grundprogramm sieht einen gleichzeitigen linearen Anstieg der Belichtungszeit- und Blendenstufen, z. B. von 1/15s s bei Blende 1,4 für EV 5 bis 1/1000 s bei Blende 22 für EV 19 vor. Das ist als ein Allgemeinprogramm für problemlose Aufnahmen gedacht. Neuartig sind dagegen die beiden weiteren Programme, die Fujita in die Kamera einbauen will:
Erstens soll ein Programm mit Verschlußzeitenbetonung möglichst schnell auf eine kürzeste Verschlußzeit kommen und dann erst im Verlauf der letzten Zeitenstufen den Blendenbereich durchfahren. In der Programmkurve würde die Kamera bei EV11 schon z. B. 1/250 s bei Blende 2,8 erreichen und dann erst bei günstigeren Lichtverhältnissen abblenden. Zweitens soll ein blendenbetontes Programm in erster Linie auf eine kleine Blende gehen, so daß bei EV 11 die Kamera mit 1/30 S bei Blende 8 belichtet und somit größte Schärfentiefe sichert - aber erst dann den Verschlußzeitenbereich durchfährt und dabei wieder bei EV 19 auf 1/1000 s bei Blende 22 ankommt.
Zur Programmschaltung könnte an der Kamera ein einfacher Wählschalter dienen. Für die meisten Aufnahmen bleibt dieser in einer Normalstellung, wird aber bei Bedarf auf "Schnellschuß" oder "Schärfentiefe" umgeschaltet. Mit den heutigen Elektroniksystemen ließe sich das auch verhältnismäßig einfach in die Kamera einprogrammieren. Die Frage ist nur, welche Hersteller damit zuerst kommen.
Automatische Bewegungsschärfe
Eine Verfeinerung dieser Programmwahl könnte eine weitere Automatik zur Erfassung der Objektbewegung sein. Vorschläge dieser Art gibt es schon seit einiger Zeit, und die Bewegungsmessung wird u. a. im Militärwesen zum Zielen bzw. Schießen auf bewegte Objekte eingesetzt. Vor einigen photokinas wollte auch ein führender europäischer Kamerahersteller einen Bewegungsdetektor auf dieser Basis bringen hauptsächlich als Antwort auf einen aus Japan erwarteten Prototyp. Schließlich wurde weder das eine noch das andere Gerät vorgestellt, aber Einzelheiten möglicher Arbeitsweisen sind inzwischen in der Patentliteratur erschienen.
Da gibt es ein Patent von Canon, das die Bewegung im Bild mittels Quereffekt-Fotodioden messen soll. Eine solche Diode hat mehrere aus verschiedenen Halbleitern aufgebaute Lagen und zwei Elektroden, die auf der letzten Fläche rechtwinklig zum Lichteinfall angeordnet sind. Erreicht ein Lichtstrahl diese Fotodiode an einem Punkt zwischen den beiden Elektroden, dann hängt der von diesen Elektroden abgegriffene Strom vom relativen Abstand des Lichteinfallpunktes ab. Liegt dieser Einfallspunkt genau in der Mitte zwischen den beiden Elektroden, so sind auch die Stromstärken gleich; liegt der Lichtpunkt näher zu einer Elektrode, so ergibt die letztere auch ein entsprechend stärkeres (und die andere ein schwächeres) Signal. Bewegt sich der Lichtpunkt zwischen den beiden Elektroden hin und her, so erzeugt diese Bewegung Änderungen der relativen Stromstärken. Das gleiche gilt natürlich für die flächige Bewegung von Lichtverteilungen - also auch von optisch erzeugten Bildern. Die entstehenden Stromschwankungen werden in einen Prozeßrechner eingeleitet, der nun ein Signal im Verhältnis zur Bildverschiebung (und zur Verschiebungsrate - also Objektgeschwindigkeit) in der Richtung des Elektrodenabstands erzeugt.
Dieses Signal kann man nun an die Belichtungsautomatik der Kamera weiterleiten, die eine geeignete Verschlußzeit für die richtige Belichtung und auch für die vorhandene Objektbewegung errechnet. Der Prozeßrechner kann dann diese ideale Verschlußzeit mit der an der Kamera eingestellten Zeit vergleichen und bei Bedarf die letztere nachstellen und so Bewegungsunschärfen vermeiden.
Zwei Bemerkungen zum Bewegungsausgleich mit Quereffekt-Fotodioden:
Erstens messen die Fotodioden auch den gesamten Lichteinfall und können daher einen Teil des Belichtungsmeßsystems bilden. Zweitens mißt jede Quereffekt-Diode nur Bildbewegungen bzw. Verlagerungen entlang einer Verbindungslinie zwischen den Differentialelektroden. In der Kamera könnte das z. B. waagrechte Bewegung von links nach rechts im Bild bedeuten. Zur Erfassung einer senkrechten Bewegung nach oben oder unten wäre eine weitere Quereffekt-Fotodiode erforderlich sowie ein Strahlenteiler, der die Meßstrahlen aufteilt.
Wichtig ist auch die Meßlage der Quereffekt-Fotodioden. In ihrem Patent schlägt Canon eine Strahlenteiler-Vorrichtung in der Mitte der zur Einstellscheibe gehörenden Sammellinse vor, so daß die Abbildung auf der Einstellscheibe zum Teil nach rückwärts umgelenkt wird, wo dann die Quereffekt-Fotodiode in die Kamera eingebaut ist. Diese Konstruktion erinnert stark an die Anordnung zur Selektivmessung mit den Einstellscheiben der Serie P und S des neuen Modells Canon F-1. Mit mehreren Quereffekt-Fotodioden wären die Signale dann auch auf verschiedene Weisen auswertbar - zur Messung der Belichtung, Bildbewegung und selbst für den Kontrast (Helligkeitsverteilung im Bild) für eine eventuelle Schärfenmessung.
Im Sinn der oben beschriebenen Programmwahl könnte man sich auch eine Kamera vorstellen, die automatisch von einem normalen auf ein verschlußzeitenbetontes Programm umschaltet, sobald der Bewegungsdetektor ein schneller bewegtes Objekt erfaßt, als das normale Programm scharf abbilden kann. In einem hochgezüchteten System könnte man sich selbst eine Einstellautomatik vorstellen, die dann gleichzeitig das Objektiv auf den richtigen Objektabstand einstellt.
Nochmals Einstellautomatik
Über hochgezüchtete Automatik machen sich übrigens auch Kamerafirmen im Osten Gedanken. Als ich vor drei Jahren darüber mit einem leitenden Konstrukteur des VEB Pentacon sprach, arbeiteten seine Kollegen in Dresden schon an einer Schärfemeßvorrichtung für Autofocus. Damals konnte ich zwar keine weiteren Einzelheiten ermitteln eine neuere britische Patentanmeldung zeigt aber mindestens eine der Möglichkeiten, die die Konstrukteure in Dresden wohl im Sinn hatten.
Zum Einsatz kommt ein Sensorsystem, in dem Fotozellengruppen die von den beiden Hälften eines Spaltbildkeiles erzeugten Bilder vergleichen und ermitteln, ob diese Bilder gegeneinander verlagert sind. (Bekanntlich ist das ein Zeichen der Fehleinstellung.) Das TCL-System von Honeywell beruht ja auch auf der Auswertung einer Bildverlagerung - im Gegensatz zur Schärfemeßvorrichtung von Asahi und auch von Canon (u.a.), wo der Bildkontrast als Maß der Bildschärfe in verschiedenen Bildebenen verglichen wird.
Ungewöhnlich ist die optische Anordnung im System von Pentacon. Der Hauptspiegel in der Kamera ist teilversilbert, lenkt aber vorerst die Bildstrahlen in der üblichen Weise auf die Einstellscheibe nach oben um. Zwei entgegengesetzt angeordnete Prismenkeile erzeugen in bekannter Weise Schnittbildindikator-Teilbilder. Über diesen Keilen sitzt eine gekrümmte Halbspiegelfläche (zwischen den Keilen und dem Prismensucher), die das Licht zum Teil zur visuellen Betrachtung der Teilbilder durchläßt, aber zum Teil durch die Keile zurückstrahlt. Diese zurückgeworfenen Strahlen erreichen nun durch den teilversilberten Hauptspiegel hindurch zwei Meßzellengruppen im Kameraboden. Durch die Gesetzmäßigkeit des Schnittbildindikators messen die beiden Zellengruppen identische Bildteile, wenn die beiden Hälften des Schnittbildes richtig zusammenfallen (richtige Scharfeinstellung). Sind dagegen bei Fehleinstellung die Schnittbilder gegeneinander verlagert, ändert sich auch die Helligkeitsverteilung, die auf die beiden Meßzellen fällt. Diese Änderung wird nun vom Meßsystem erfaßt und in "Scharf"- bzw. "Unscharf"-Signale umgewandelt. Die genaue Plazierung der Meßbilder ist dadurch gegeben, daß die gekrümmten Teilspiegel über dem Schnittbildindikator genau das Bild der Objektiv-Austrittspupille in die Ebene der beiden Meßzellen projizieren.
Diese Messung spricht am besten auf Objekte mit ausgeprägten rechtwinklig zur Schnittlinie der Prismenkeile liegenden Konturen an - wie ja auch ein Schnittbildindikator. Verwendbar sind aber auch Doppelkeile mit zwei gegeneinander rechtwinklig liegenden Schnittlinien und mit zwei Sätzen zugehöriger Meßzellen, die dann auch die Schärfe in zwei Meßrichtungen erfassen.
Wann eine Praktica mit Schärfenmessung bzw. -automatik zu erwarten ist, hängt allerdings wohl von der Industrieplanung in der DDR ab.
Die andere Lösung: Extreme Schärfentiefe
Scharfeinstellprobleme verschwinden allerdings auch, wenn man nach althergebrachter Art das Objektiv auf eine kleinste Blende abblendet.
Von der Nissei Commerce Ltd. in Japan gibt es jetzt ein sehr preisgünstiges Objektiv, das genau das erreicht: Dieses Itorex Pan-Focus 1:40/50 mm bringt alles ab 0,2 m Abstand scharf. Diese Blende ist knapp 1 mm groß und macht aus der SLR praktisch eine Lochkamera. Es handelt sich um ein Wechselobjektiv, das über T2-Adapter mit den meisten einäugigen Spiegelreflexkameras verwendbar ist. (Ein ähnliches Objektiv stellt derzeit Rowi vor: 1:64/50 mm.)
Bei diesem Zweilinser erübrigt die kleine Blende auch jede aufwendige optische Korrektur. Die Blende ist eine kleine Lochblende. Das Objektiv ist zerlegbar, und man kann diese Lochblende auch entfernen.. Das ergibt dann ein Weichzeichner-Objektiv mit Lichtstärke 1:4, in dem die unkorrigierten Bildfehler die Weichzeichnung liefern. Die Bildschärfe bei der festen Blende 40 hängt übrigens mehr von der Beugungsgrenze als von Residualbildfehlern ab: Bei Lichtwellenlängen im mittleren sichtbaren Bereich kann kein Objektiv bei Blende 40 mehr als etwa 35 Linienpaare/mm auflösen.
Aufnahmen mit Lichtgeschwindigkeit
In der fotografischen Aufnahme spielt Licht normalerweise nur als jene Wellenenergieverteilung eine Rolle, die die reflektiven oder lichterzeugenden Eigenschaften von Gegenständen und daher deren Form, Farbe und räumliche Lage widerspiegelt.
Während einer Belichtung pflanzt sich das Licht von der Lichtquelle zum Objekt und von dort zur Kamera fort, ein ständiger Vorgang während einer üblichen Belichtungszeit. Ein Lichtbild zeichnet daher einen ununterbrochenen Lichtstrom bzw. -weg auf.
Mit einer entsprechend kurzen Belichtungszeit könnte man aber auch unterbrochene Lichtstrahlen auf ihrem Weg zwischen der Lichtquelle, dem Objekt und der Kamera einfangen. Solche Aufnahmen lassen sich nur mit Laserlichtimpulsen erreichen. Die unterste Zeitgrenze dafür ist heutzutage eine Impulsdauer von etwa 10 Picosekunden oder eine hunderttausendmilliardenstel Sekunde. Während dieser Zeit pflanzt sich das Licht um 3 mm fort. Aufnahmen solcher Lichtstrahlen fangen diesen 3 mm langen Lichtweg irgendwo in Reichweite der Kamera ein.
Dieses "irgendwo" ist allerdings etwas problematisch. Um einen sich fortpflanzenden Lichtstrahl überhaupt irgendwo aufzuzeichnen, muß man das in einer fortlaufenden Folge machen, etwa wie eine Filmaufnahme, die sich vom Zeitpunkt, in dem der Lichtimpuls die Lichtquelle verläßt, bis zum Zeitpunkt, in dem er alle Objektpunkte erreicht hat, erstreckt. Nun kann natürlich keine Filmkamera schnell genug für eine derartige Aufnahmefolge funktionieren. Möglich ist das nur mit einer fortlaufenden Aufzeichnung, die aber das Herausgreifen beliebiger Zeitpunkte (und daher Orte) des Lichtweges ermöglicht. Das läßt sich nun mittels der Holografie lösen, denn ein Hologramm kann praktisch eine unendliche Anzahl von Einzelbildern beinhalten, die dann bei der Betrachtung des Hologramms in unterschiedlichen Blickwinkeln einzeln sichtbar werden.
Entwickelt und eingesetzt wurde dieses Prinzip im vergangenen Jahr von Niels Abramson des Königlichen Technischen Instituts in Stockholm. Abramson verwendete dazu einen Farbstofflaser mit einer Impulsdauer von 10-" s, die eine sich vom Laser ausbreitende Wellenfront von 3 mm Tiefe erzeugte. Für die holografische Aufzeichnung wird diese Wellenfront winklig auf eine flache weiße Fläche gerichtet, während die holografische Platte dieser Fläche gegenübersteht. Der Laserimpuls erreicht damit gleichzeitig sowohl die Objektfläche wie die holografische Platte. Er wird auf die letztere auch von der Objektfläche zurückgestrahlt, wobei auf herkömmliche Weise ein Interferenzhologramm mit der direkten und der reflektierten Wellenfront entsteht. Betrachtet man dieses Hologramm nach der fotografischen Entwicklung, erscheint die Wellenfront als ein 3 mm breiter Streifen, dessen Fortpflanzung man nun durch Betrachtung verschiedener Teile des Hologramms verfolgen kann.
In dieser einfachen Anordnung erscheint die Wellenfront an jedem Punkt des Hologramms als ein 3 mm breiter Streifen. Setzt man dagegen optische Elemente (Spiegel, Linsen usw.) in den Weg dieser Wellenfront ein, so zeigen die Abschnitte des Hologramms nacheinander, wie diese optischen Elemente die Wellenfront spiegeln, brechen usw. Kompliziertere optische Strukturen zeigen, wie sich die Lichtimpulse durch diese Vorrichtungen fortpflanzen.
Wie kommt man aber zu einem Laufbild? Es sind die erforderlichen Einzelbilder alle in der holografischen Platte enthalten. Man könnte den Weg dieser Wellenfront nun aufnehmen, indem man einen Laserstrahl durch das Hologramm schickt und die Form der Wellenfront (also dieses evtl. durch optische Einwirkungen modifizierte Band von 3 mm Breite) an verschiedenen Punkten des Hologramms abfotografiert. Dabei können aufeinanderfolgende Einzelbilder einer Filmaufnahme entstehen. Je näher diese Aufnahmepunkte längenmäßig zueinander liegen, desto kürzer ist auch das entsprechende zeitliche Intervall der Wellenfront und desto höher wird die (umgerechnete) effektive Aufnahmefrequenz. Verschiebt man z. B. die Filmkamera entlang des Hologramms um 1 mm pro Einzelbild, ergibt sich eine äquivalente Aufnahmefrequenz von 3 x 10hoch11, Bildern/ s, wobei eine holografische Platte von 30 cm Länge 300 Einzelbilder ergibt. Projiziert man den so aufgenommenen Film mit einer normalen Geschwindigkeit von 18 Bildern/s, so erscheint das Licht um ca. 17milliardenfach verlangsamt - etwas, was bisher noch keine Ultrahochfrequenz-Filmkamera erreicht hat. In der Projektion bewegt sich dann anscheinend die Wellenfront gemächlich über die Bildwand hinweg, ändert beim Auftreffen auf optische Hindernisse entsprechend ihren Weg, usw.
Ein grundlegender Begriff der Bildentstehung ist die Bildschärfe. Unter einem scharfen Bild stellt man sich normalerweise saubere Konturen mit genauer Abgrenzung zwischen hell und dunkel vor, die einzeln und nicht mehrfach genau dort liegen, wo sie sollen - also scharf erscheinen. Tatsächlich sind aber diese verschiedenen Eigenschaften - genaue Abgrenzung, saubere Kontur und bildgerechte Lage - ganz unterschiedliche Charakteristika, die von verschiedenen Bedingungen abhängen und daher auch unterschiedliche Schärfen bzw. Unschärfen ergeben.
Ein vom Objektiv erzeugtes Bild läßt sich als eine unendliche Anzahl von Einzelbildchen ansehen, die aus durch verschiedene Partien des Objektivs gehende Lichtstrahlen entstehen. Überdecken sich diese Einzelbildchen alle genau - also wenn alle Objektivpartien die Kontur am gleichen Ort entwerfen - so ist das entstehende Bild scharf. In einem unscharfen Bild sind diese Teilbildchen nicht paßgenau z. B. durch Korrekturfehler im Objektiv, Einstellfehler usw. Die Unschärfe des Bildes ist dann durch die Passerfehler der Teilbildchen bedingt. Manchmal sind sogar diese Teilbildchen und ihre Passergenauigkeit einzeln erkennbar: wenn man z. B. einen opaken Streifen (Karton) über die Mitte eines Objektivs legt, werden bei nicht genauer Scharfeinstellung zwei Gruppen von durch gegenüberliegende Linsenhälften erzeugten Teilbildern sichtbar. Bei richtiger Scharfeinstellung werden diese Teilbilder deckungsgleich - weshalb dieses Verfahren in früheren Zeiten der Fotografie zuweilen als Scharfeinstellhilfe - z. B. beim Vergrößern - diente. Im Filmbild einer fotografischen Aufnahme ist diese Verschwommenheit des Bildes hauptsächlich für die unscharfe Erscheinung und für den Verlust der Detailschärfen verantwortlich. Dabei spielt diese Unschärfe eine viel größere Rolle als der Informationsverlust durch das Bildkorn, denn die Körnigkeit des Silberbildes ist bedeutend feiner als die visuelle Detailauflösung - bis man nicht das Bild entsprechend vergrößert.
Es gibt aber auch eine zweite Art der Unschärfe, nämlich die zackige bzw. zerfetzte Kontur. Die Ursache ist die Plazierungs- oder Ortungstoleranz: Die Kontur wird, durch die Größe der Bildelemente bedingt, unregelmäßig. Denn in manchen modernen bilderzeugenden Systemen kommen bedeutend größere Elemente als Silberkörner zum Einsatz - so sind die Tonerteilchen in der Xerografie und ähnlichen elektrofotografischen Verfahren etwa 10 x so groß wie ein durchschnittliches Silberkorn. Und die Farbtropfen eines Farbstrahldruckers sind um noch eine Größenordnung größer und werden mit ca. 0,1 mm Durchmesser im Bild schon deutlich sichtbar.
Hersteller derartiger bilderzeugender Systeme setzen sich zunehmend mit diesen Problemen auseinander. (Farbstrahldrucker sind eine Möglichkeit der elektronisch gesteuerten Bildausgabe, evtl. zur Erzeugung von Ein- und Mehrfarbenbildern nach auf Magnetband oder Magnetplättchen aufgezeichneten Signalen - also in der elektronischen Fotografie.) In den Forschungslaboratorien der Xerox Corporation liefen physiko-optische Versuche der Bildbetrachtung, um zu ermitteln, wie weit diese durch grobe Bildelemente bedingte Unschärfe den Bildeindruck stört. Denn wenn diese Elemente größenmäßig sichtbar werden, ergeben sie selbst im schärfsten Bild unsaubere Konturen. Ein Beispiel ist die Punktstruktur eines gedruckten Rasterbildes. In einem grob aufgerasterten Zeitungsbild sind die Rasterpunkte immer erkennbar, obwohl sie als eine konstante Struktur nicht allzu störend wirken. Wird ein derartiges Rasterbild unscharf, so wird dabei die Rasterstruktur nicht weniger sauber, sondern es wird die Kontur weniger deutlich. In der Xerografie und in Farbstrahldruckern sind die Bildelemente zwar größenmäßig mehr oder weniger gleich, aber sie werden nicht gleichmäßig abgesetzt. Da kann die unsaubere Kontur störender wirken.
Die Untersuchungen bei Xerox ergaben, daß bei der Bildbetrachtung unsaubere Konturen unschärfer wirkten. Der Eindruck der Unschärfe wächst dabei mit der Größe der Bildelemente. Das ist für zukünftige elektrofotografische Entwicklungen wichtig, und in derartigen Printern wird evtl. eine elektronische Konturennormalisierung erforderlich sein. (Das ist eine rechnerische Überteuerung des Bildes, die bewirken soll, daß die Tonerteilchen Farbpunkte usw. nicht zu sehr von der Idealkontur abweichen.) Eine derartige elektronische "Verbesserung" der Bildqualität gibt es schon in der Satellitenfotografie, wo Bilder mangelhaften Kontrasts und auch mangelhafter Schärfe rechnerisch aufgebessert werden. Ähnliche Verfahren sind zur Verbesserung von elektronisch gesteuerten Farbstrahldrucken möglich, bilden aber eine ziemlich aufwendige Komplikation des Verfahrens. Das kann heißen, daß Geräte für elektronisch erzeugte Qualitätsbilder entsprechend groß und teuer werden und könnte auch die öfters angekündigte Verdrängung der "Silberfotografie" bedeutend verzögern.
L. Andrew Mannheim in Color Foto 5/1983
{ewl Thnhlp32.dll,THIN,SKIN.LZH;STEIMERM.BMP}