So verwenden Sie Deep Fusion auf iPhone-Kameras


Apples Deep Fusion-Technologie, die das Unternehmen als „verrückte Wissenschaft der computergestützten Fotografie“ bezeichnet, kam erstmals mit dem iPhone 11 auf den Markt. Jetzt wird sie sogar auf dem unterstützt iPhone SE3 neben iPhone 12 und 13. Hier erfahren Sie, wie Sie Deep Fusion auf dem iPhone aktivieren, einschließlich der Funktionsweise und wann die Funktion aktiviert wird.

Deep Fusion ist ein Bildverarbeitungssystem, das unter bestimmten Bedingungen automatisch hinter den Kulissen arbeitet. Apple sagt, dass die Funktion in der Lage ist, „Bilder mit dramatisch besserer Textur, Detailgenauigkeit und reduziertem Rauschen bei schwachem Licht“ zu erzeugen.

Im Gegensatz zur Nachtmodusfunktion des iPhones oder anderen Kameraoptionen gibt es kein benutzerseitiges Signal, dass Deep Fusion verwendet wird, es ist automatisch und unsichtbar (absichtlich).

Es gibt jedoch einige Fälle, in denen Deep Fusion nicht verwendet wird: Jedes Mal, wenn Sie ein Ultraweitwinkelobjektiv verwenden, wenn „Fotos außerhalb des Rahmens aufnehmen“ aktiviert ist, und wenn Sie Serienfotos aufnehmen.

So aktivieren Sie Deep Fusion auf iPhone-Kameras

Denken Sie daran, dass Deep Fusion nur auf verfügbar ist iPhone 11, 12, 13 und SE3.

  1. Gehen Sie zum Einstellungen-App Wischen Sie dann nach unten und tippen Sie auf Kamera
  2. Versicher dich Fotos außerhalb des Rahmens aufnehmen ist ausgeschaltet
  3. Stellen Sie sicher, dass Sie das Weitwinkel- (Standard) oder Teleobjektiv verwenden, 1x oder höher
  4. Deep Fusion arbeitet jetzt hinter den Kulissen, wenn Sie Fotos aufnehmen (funktioniert nicht mit Serienfotos)
So verwenden Sie Deep Fusion auf iPhone-Kameras

Wie funktioniert Deep Fusion?

Wie von Apples ehemaligem VP Phil Schiller beschrieben:

Was macht es also? Wie kommen wir zu so einem Bild? Bist du dafür bereit? Dies ist, was es tut. Sie schießt neun Bilder, bevor Sie den Auslöser drücken, hat sie bereits vier kurze Bilder geschossen, vier sekundäre Bilder. Wenn Sie den Auslöser drücken, dauert es eine lange Belichtung, und dann analysiert die Neural Engine in nur einer Sekunde die verschmolzene Kombination aus langen und kurzen Bildern, wählt die besten aus, wählt alle Pixel aus und geht Pixel für Pixel durch 24 Millionen Pixel, um Details und geringes Rauschen zu optimieren, wie Sie es im Pullover dort sehen. Es ist erstaunlich, dass dies das erste Mal ist, dass eine Neural Engine für die Generierung des Ausgabebildes verantwortlich ist. Es ist eine verrückte Wissenschaft der Computerfotografie.

Wann funktioniert es?

Apple erzählt Der Rand dass es Deep Fusion für Benutzer unsichtbar machte, um ein nahtloses Erlebnis zu ermöglichen:

Es gibt keine Anzeige in der Kamera-App oder in der Fotorolle, und es wird nicht in den EXIF-Daten angezeigt. Apple sagt mir, dass dies sehr beabsichtigt ist, da es nicht möchte, dass die Leute darüber nachdenken, wie sie das beste Foto machen. Die Idee ist, dass die Kamera es einfach für Sie erledigt.

Hier sind weitere Einzelheiten dazu, wann Deep Fusion aktiv ist:

  • Mit dem Weitwinkelobjektiv (Standard) in hellen bis mittelstark beleuchteten Umgebungen wird Smart HDR verwendet, während Deep Fusion für mittel- bis schwach beleuchtete Szenen aktiviert wird (der Nachtmodus wird natürlich für Aufnahmen mit schwachem Licht aktiviert).
    • Das Teleobjektiv verwendet im Allgemeinen Deep Fusion, mit Ausnahme von Aufnahmen, die sehr hell beleuchtet sind, wenn Smart HDR übernimmt
    • Für das Ultraweitwinkelobjektiv wird Deep Fusion nie aktiviert, stattdessen wird Smart HDR verwendet

Lesen Sie weitere 9to5Mac-Tutorials:

FTC: Wir verwenden einkommensverdienende Auto-Affiliate-Links. Mehr.


Besuchen Sie 9to5Mac auf YouTube für weitere Apple-Neuigkeiten:



Source link