iPhone 14 Pixel: Warum der 48-Megapixel-Sensor dieses Jahr nicht die große Kamera-Neuigkeit ist


Reden wir über Pixel. Speziell, iPhone 14 Pixel. Genauer, iPhone 14 pro Pixel. Denn während die Schlagzeilen lauten, dass die neuesten Pro-Modelle einen 48-MP-Sensor anstelle eines 12-MP-Sensors bieten, ist dies nicht die wichtigste Verbesserung, die Apple an der diesjährigen Kamera vorgenommen hat.

In der Tat, von der vier Die größten Änderungen in diesem Jahr sind für mich der 48-Megapixel-Sensor am unwichtigsten. Aber haben Sie Geduld mit mir, denn wir müssen noch viel auspacken, bevor ich erklären kann, warum ich denke, dass der 48-Megapixel-Sensor weitaus weniger wichtig ist als:

  • Die Sensorgröße
  • Pixel-Binning
  • Die Photonische Maschine

Ein 48-MP-Sensor, zwei 12-MP-Sensoren

Umgangssprachlich sprechen wir im Singular von der iPhone-Kamera und beziehen uns dann auf drei verschiedene Objektive: Haupt-, Weitwinkel- und Teleobjektiv. Wir tun das, weil es vertraut ist – so funktionieren DLSRs und spiegellose Kameras, ein Sensor, mehrere (Wechsel-)Objektive – und weil das die Illusion ist, die Apple der Einfachheit halber in der Kamera-App erzeugt.

Die Realität sieht natürlich anders aus. Das iPhone hat eigentlich drei Kameras Module. Jedes Kameramodul ist separat und jedes hat seinen eigenen Sensor. Wenn Sie beispielsweise auf die 3x-Taste tippen, wählen Sie nicht nur das Teleobjektiv aus, sondern wechseln zu einem anderen Sensor. Beim Slide-Zoom wählt die Kamera-App automatisch und unsichtbar das passende Kameramodul aus und dann führt alle erforderlichen Zuschnitte durch.

Nur das Hauptkameramodul hat einen 48MP-Sensor; die anderen beiden Module haben noch 12MP.

Apple war diesbezüglich bei der Einführung der neuen Modelle völlig offen, aber es ist ein wichtiges Detail, das einige möglicherweise übersehen haben (unsere Betonung):

Zum allerersten Mal bietet die Pro-Reihe ein neues 48 MP Hauptkamera mit einem Quad-Pixel-Sensor, der sich an das aufgenommene Foto anpasst, und einer optischen Bildstabilisierung der zweiten Generation mit Sensorverschiebung.

Der 48MP-Sensor arbeitet in Teilzeit

Selbst wenn Sie die Hauptkamera mit ihrem 48-Megapixel-Sensor verwenden, nehmen Sie immer noch standardmäßig nur 12-Megapixel-Fotos auf. Nochmal Apple:

Bei den meisten Fotos kombiniert der Quad-Pixel-Sensor alle vier Pixel zu einem großen Quad-Pixel.

Die einzige Zeit, in der Sie mit 48 Megapixeln fotografieren, ist, wenn:

  • Sie verwenden die Hauptkamera (nicht Tele- oder Weitwinkel)
  • Sie fotografieren in ProRAW (standardmäßig deaktiviert)
  • Sie fotografieren bei anständigem Licht

Wenn Sie dies tun möchten, hier ist wie. Aber meistens wirst du nicht …

Apples Ansatz macht Sinn

Sie fragen sich vielleicht, warum Sie uns einen 48MP-Sensor geben und ihn dann meistens nicht verwenden?

Apples Ansatz macht Sinn, denn in Wahrheit gibt es sie sehr In seltenen Fällen ist das Aufnehmen mit 48 MP besser als das Aufnehmen mit 12 MP. Und da dies viel größere Dateien erzeugt und Ihren Speicherplatz mit einem Heißhunger auffrisst, macht es keinen Sinn, dies als Standard festzulegen.

Ich kann mir nur zwei Szenarien vorstellen, in denen das Aufnehmen eines 48-Megapixel-Bildes sinnvoll ist:

  1. Sie beabsichtigen, das Foto groß zu drucken
  2. Sie müssen das Bild sehr stark zuschneiden

Dieser zweite Grund ist auch etwas fragwürdig, denn wenn Sie so stark beschneiden müssen, ist es möglicherweise besser, die 3x-Kamera zu verwenden.

Lassen Sie uns nun über die Sensorgröße sprechen

Beim Vergleich einer Smartphone-Kamera mit einer DSLR oder einer hochwertigen spiegellosen Kamera gibt es zwei große Unterschiede.

Einer davon ist die Qualität der Linsen. Standalone-Kameras können viel bessere Objektive haben, sowohl wegen der physischen Größe als auch wegen der Kosten. Es ist nicht ungewöhnlich, dass ein Profi oder begeisterter Amateurfotograf einen vierstelligen Betrag für ein einzelnes Objektiv ausgibt. Da können Smartphone-Kameras natürlich nicht mithalten.

Die zweite ist die Sensorgröße. Bei sonst gleichen Bedingungen gilt: Je größer der Sensor, desto besser die Bildqualität. Smartphones haben aufgrund ihrer Größe und all der anderen Technik, in die sie passen müssen, viel kleinere Sensoren als Standalone-Kameras. (Sie haben auch eine begrenzte Tiefe, was eine weitere wesentliche Einschränkung der Sensorgröße auferlegt, aber darauf müssen wir nicht eingehen.)

Ein Smartphone-großer Sensor schränkt die Bildqualität ein und erschwert auch das Erreichen einer geringen Schärfentiefe – weshalb das iPhone dies künstlich tut, mit Portrait-Modus und Cinematic-Video.

Apples großer Sensor + begrenzter Megapixel-Ansatz

Während es offensichtliche und weniger offensichtliche Grenzen für die Sensorgröße gibt, die Sie in einem Smartphone verwenden können, hat Apple in der Vergangenheit größere Sensoren als andere Smartphone-Marken verwendet – was einer der Gründe dafür ist, dass das iPhone lange Zeit als das beste Telefon für Kameraqualität angesehen wurde . (Samsung wechselte später auch dazu.)

Aber es gibt noch einen zweiten Grund. Wenn Sie die bestmögliche Bildqualität von einem Smartphone wünschen, möchten Sie auch die Pixel so groß wie möglich sein.

Aus diesem Grund hat Apple religiös an 12 MP festgehalten, während Marken wie Samsung bis zu 108 MP in einen Sensor gleicher Größe gepackt haben. Viele Pixel in einen winzigen Sensor zu quetschen, erhöht das Rauschen erheblich, was sich besonders bei Fotos mit wenig Licht bemerkbar macht.

Ok, ich habe eine Weile gebraucht, um dorthin zu gelangen, aber ich kann jetzt endlich sagen, warum ich denke, dass der größere Sensor, das Pixel-Binning und die Photonic Engine eine viel größere Sache sind als der 48MP-Sensor …

Nr. 1: Der Sensor des iPhone 14 Pro/Max ist 65 % größer

In diesem Jahr ist der Hauptkamerasensor im iPhone 14 Pro/Max 65 % größer als der des letztjährigen Modells. Natürlich ist das immer noch nichts im Vergleich zu einer Standalone-Kamera, aber für eine Smartphone-Kamera ist das (Wortspiel beabsichtigt) riesig!

Aber wie oben erwähnt, wenn Apple viermal so viele Pixel in einen nur 65 % größeren Sensor quetschen würde, würde das tatsächlich eine schlechtere Qualität ergeben! Genau aus diesem Grund werden Sie meistens immer noch 12-Megapixel-Bilder aufnehmen. Und das ist dank …

#2: Pixel-Binning

Um 12-Megapixel-Bilder mit der Hauptkamera aufzunehmen, verwendet Apple eine Pixel-Binning-Technik. Dies bedeutet, dass die Daten von vier Pixeln in ein virtuelles Pixel umgewandelt werden (Mittelung der Werte), sodass der 48-MP-Sensor meistens als ein größerer 12-MP-Sensor verwendet wird.

Diese Illustration ist vereinfacht, gibt aber die Grundidee wieder:

iPhone 14 Pixel: Pixel-Binning-Illustration

Was bedeutet das? Die Pixelgröße wird in Mikron (einem Millionstel Meter) gemessen. Die meisten Premium-Android-Smartphones haben Pixel, die irgendwo im Bereich von 1,1 bis 1,8 Mikron messen. Das iPhone 14 Pro/Max hat bei Verwendung des Sensors im 12MP-Modus effektiv Pixel mit einer Größe von 2,44 Mikrometern. Das ist ein Ja wirklich deutliche Verbesserung.

Ohne Pixel-Binning wäre der 48-Megapixel-Sensor – die meiste Zeit – ein Downgrade.

#3: Photonische Engine

Wir wissen, dass Smartphone-Kameras in Bezug auf Optik und Physik natürlich nicht mit Standalone-Kameras konkurrieren können, aber wo sie konkurrieren können, ist die Computerfotografie.

Computergestützte Fotografie wird seit buchstäblich Jahrzehnten in Spiegelreflexkameras verwendet. Wenn Sie beispielsweise den Messmodus wechseln, weist dies den Computer in Ihrem DLR an, die Rohdaten des Sensors anders zu interpretieren. Ähnlich können Sie bei Consumer-DSLRs und allen spiegellosen Kameras aus einer Vielzahl von Fotomodi auswählen, die wiederum dem Mikroprozessor mitteilen, wie er die Daten vom Sensor anpassen muss, um das gewünschte Ergebnis zu erzielen.

Computational Photography spielt also bereits bei Standalone-Kameras eine viel größere Rolle, als viele glauben. Und Apple ist sehr, sehr gut in Computerfotografie. (Ok, es ist noch nicht gut in Cinematic Video, aber gib ihm ein paar Jahre …)

Die Photonic Engine ist der dedizierte Chip, der Apples Deep Fusion-Ansatz für Computerfotografie antreibt, und ich sehe bereits einen großen Unterschied im Dynamikbereich von Fotos. (Beispiele folgen nächste Woche in einem iPhone 14-Tagebuch.) Nicht nur die Reichweite selbst, sondern auch die intelligenten Entscheidungen, die getroffen werden die Schatten hervorzubringen, und die Highlight zu zähmen.

Das Ergebnis sind deutlich bessere Fotos, was genauso viel mit der Software zu tun hat wie mit der Hardware.

Einpacken

Ein dramatisch größerer Sensor (in Bezug auf Smartphones) ist eine wirklich große Sache, wenn es um die Bildqualität geht.

Pixel-Binning bedeutet, dass Apple für die meisten Fotos effektiv einen viel größeren 12-Megapixel-Sensor entwickelt hat, wodurch die Vorteile des größeren Sensors genutzt werden können.

Die Photonic Engine bedeutet einen dedizierten Chip für die Bildverarbeitung. Ich sehe bereits die realen Vorteile davon.

Mehr folgt in einem iPhone 14 Tagebuch, wenn ich die Kamera in den nächsten Tagen einem ausführlicheren Test unterziehe.

FTC: Wir verwenden einkommensverdienende Auto-Affiliate-Links. Mehr.


Besuchen Sie 9to5Mac auf YouTube für weitere Apple-Neuigkeiten:



Source link