Wie Software die Fotografie verändert

Apps Fotos werden dank Algorithmen längst schöner als die Wirklichkeit, und die Menschen auf den Bildern sehen perfekter aus als in natura. Ist das Fortschritt – oder vielleicht doch ein Betrug am Publikum?

Matthias Schüssler

Vor wenigen Wochen hat das sogenannte Beautygate die sozialen Medien in Aufruhr versetzt. Manche fanden, die Personen auf ihren Fotos würden einfach zu hübsch aussehen. Konkret war es so, dass bei Fotos des iPhone XS und XS Max die Haut bei manchen abgelichteten Personen unnatürlich glatt erschien. Sogleich tauchte die Vermutung auf, da könnte ein übereifriger Algorithmus am Werk sein. Oder steckt gar Absicht dahinter? Will Apple die iPhone-Nutzer schöner machen, als sie wirklich sind?

Die Hypothese ist nicht aus der Luft gegriffen. Samsung beispielsweise hat in seine Kamera den «Beauty Mode» eingebaut. Der bringt nicht nur Hautunreinheiten zum Verschwinden, sondern nimmt auch subtile Veränderungen an den Proportionen eines Gesichts vor: Er macht die Backen schlanker und die Augen grösser. Und eben: Hautunreinheiten werden digital beseitigt. Dieser Modus ist bei der Selfie-Kamera standardmässig eingeschaltet. Wahrscheinlich will Samsung damit einfach die neuen Möglichkeiten der Technik vorführen. Oder steckt mehr dahinter? Zum Beispiel die Idee, die Begeisterung der Nutzer für ihr neues Telefon mit einem besonders vorteilhaften Selbstporträt noch zu steigern?

So sehe ich in 3-D aus!

So oder so: Manche Nutzerinnen sind empört: Melissa Wells ist eine Influencerin, die sich in ihren Fotos auf Instagram durchaus ins richtige Licht zu rücken weiss. Sie zog ordentlich vom Leder: «Danke, Samsung, für dieses Vertrauensvotum!» Sie wolle ihre Sommersprossen und Imperfektionen doch lieber behalten, schrieb sie an ihre gut 60 000 Follower: «So sehe ich in 3-D aus, und so kennen mich meine Freunde!»

Bei Apple entpuppte sich die stark geglättete Haut als Versehen, das mit dem nächsten Update beseitigt wurde. Doch auch beim iPhone ist ein Foto längst nicht mehr nur das Ergebnis von Licht, das auf einen Sensor fällt. Beim iPhone XS verarbeitet ein künstliches neuronales Netz die Daten, bevor sie als Bild gespeichert werden. Auf dem Prozessor sitzt die sogenannte Neural Engine, die bei jedem Bild auf jedem Pixel Millionen von Berechnungen vornimmt. Zum Beispiel für die Smart-HDR-Funktion: Mit ihr werden Helligkeitsunterschiede ausgeglichen. In sehr hellen und sehr dunklen Bereichen bleiben Bilddetails erhalten, die in der klassischen Analog- und Digitalfotografie verloren gehen.

Die von Algorithmen perfektionierte Fotografie ist nicht aufzuhalten. Auch Google treibt beim neuen Pixel 3 die Computational Photography voran. Das (in der Schweiz nur als Grauimport erhältliche) Smartphone hat den Night-Sight-Modus, der «die Nacht zum Tag macht», wie Tester schwärmen. Bei schlechten Lichtverhältnissen entstehen Bilder, wie man sie bisher nur mit Stativ und langen Belichtungszeiten erzielt hat. Doch das Pixel 3 perfektioniert auch Aufnahmen aus der Hand, indem die Kamerabewegungen erst aufgezeichnet und dann weggerechnet werden. Das Telefon macht bis zu 15 Aufnahmen, die dann zu einem fertigen Bild kombiniert werden.

Unmögliches wird möglich

Der Porträtmodus des iPhones simuliert die Wirkung von grossen Kameras und teuren Objektiven, indem er deren begrenzten Schärfentiefebereich simuliert. Dabei lassen die Smartphones die Vorbilder alt aussehen: Denn während die Bildwirkung bei den Fotos von Spiegelreflex- und Systemkameras durch die Optik entsteht und unveränderlich ist, lässt sie sich bei den Telefonen nach Belieben ändern: Der Nutzer darf nachträglich die Blende seiner Aufnahme verstellen oder den Schärfepunkt anpassen. Es ist auch möglich, einzelne Bereiche von der Unschärfe auszunehmen, wenn es der Bildwirkung dient. Physikalisch ist das unmöglich, doch für die Software ein Klacks. Sogar der Hintergrund lässt sich wegrechnen und durch eine schönere Szenerie ersetzen.

Natürlich provoziert das Widerstände. «Ist das überhaupt noch Fotografie?», fragte neulich ein Autor des grossen Fotoblogs fstoppers.com. Fotografen spüren die Konkurrenz durch die Algorithmen: Amateure erzielen dank der klugen Technik Resultate auf Profiniveau. Doch trotzdem findet man kaum Stimmen, die Computational Photography grundsätzlich ablehnen würden. Fotografen sind sich bewusst, dass Fotos schon immer auf Wirkung getrimmt wurden und Manipulationen am Bild keine Erfindung der digitalen Ära sind. Auch in der Dunkelkammer hat man Ausschnitte angepasst und Kontraste optimiert. Selbst weiter gehende Veränderungen sind analog möglich. Techniken dafür sind unter anderem: mehrere Negative auf ein Foto belichten, unerwünschte Bereiche zur Unkenntlichkeit überbelichten oder Dinge weg- oder hinzuretuschieren.

Ewiger Streit der Fotografen

Der Computational Photography einen Riegel schieben will jedoch der US-Verband der Pressefotografen (NPPA). John Long, der Chef des Ethikkomitees, sagt, es hätte schon immer gegensätzliche Positionen gegeben: die einen, die verlangen, dass ein Foto genau das wiedergeben müsse, was die Kamera aufgezeichnet habe – und die anderen, die postulieren, dass die «Wahrheit» eines Bildes wichtiger sei als die eigentliche Aufnahme. Dennoch seien diese neuen Methoden für die Pressefotografie nicht akzeptabel: «Es fühlt sich an wie eine Täuschung, eine Verfälschung des Moments, an dem die Kamera ausgelöst hat.»

Doch die meisten Fotografen akzeptieren, dass sich in ihrem Betätigungsfeld immer mehr Software breitmacht – manche mit einer Begeisterung für die neuen Möglichkeiten, andere zähneknirschend. Beim Fotoblog fstoppers.com sind Durchhalteparolen angesagt: Handwerkliche und kreative Fähigkeiten würden weiterhin entscheidend bleiben. Ein perfektes Bild könne wahnsinnig langweilig sein, wenn der Fotograf nichts von Komposition verstehe: «Es kommt am Ende von jedem Fotoshooting schliesslich darauf an, ob man etwas produziert hat, das man der Welt zeigen kann.»

Da wird die Nacht zum Tag: Das Foto wurde bei Dämmerlicht aufgenommen und von der Night-Sight-Funktion aufgehellt. Fotos: Google

Bei der Konkurrenz versinkt die Szene im Schatten.

Viele Fotografen akzeptieren die Techniken; manche begeistert, andere zähneknirschend.

Kluge Apps fürs richtige Bild

  • Die beiden Apps Focos (kostenlos) und Slør (4 Franken) erlauben es auf iPhones mit Dualkamera, die Blende und den Fokuspunkt nachträglich zu verändern: Die Kamera nimmt ein fast durchgehend scharfes Bild auf, das künstlich mit Tiefenschärfe ausgestattet wird. Möglich macht es die Doppelkamera, die Tiefeninformationen registriert.

Auch Android-Telefone beherrschen diesen Trick, manche sogar auch ohne Extra-App.

  • Die App Depth Background Eraser entfernt mittels den Tiefeninformationen den Hintergrund. Das Sujet wird freigestellt, wie der Bildbearbeiter sagt: Es kann freistehend verwendet oder mit einem anderen Hintergrund ausgestattet werden.
  • Apollo: Immersive Beleuchtung (1 Franken) verwendet die Tiefeninformationen, um ein Objekt auf dem Foto künstlich zu beleuchten. Die virtuelle Lichtquelle lässt sich frei positionieren, in Stärke und Richtung verändern, und es ist möglich, Lichtmuster zu projizieren. Anhand der Tiefeninformationen wird das Licht auf der Oberfläche des Sujets simuliert. (schü.)

Quelle: Tages-Anzeiger, Mittwoch, 28. November 2018

Rubrik und Tags:

Faksimile
181128 TA Seite 33.pdf
181128 ZSR Seite 9.pdf

Die Faksimile-Dateien stehen nur bei Artikeln zur Verfügung, die vor mindestens 15 Jahren erschienen sind.

Metadaten
Thema: Aufmacher
Nr: 15157
Ausgabe:
Anzahl Subthemen: 1

Obsolete Datenfelder
Bilder:
Textlänge:
Ort:
Tabb: FALSCH