Die 7 ungeheuerlichsten Flausel, die Apple heute über die iPhone XS-Kamera erzählte – TechCrunch


Apfel immer fällt ein paar Whopper bei seinen Veranstaltungen, und die iPhone XS Ankündigung war heute keine Ausnahme. Und nirgendwo waren sie krasser als in der Einführung der "neuen" Kamerafunktionen der Geräte. Niemand bezweifelt, dass iPhones großartige Bilder machen, also warum sollte man darüber lügen? Ich schätze, sie können sich nicht selbst helfen.

Um es klar zu sagen, ich habe keinen Zweifel, dass sie einige großartige Updates gemacht haben, um eine gute Kamera besser zu machen. Aber was auch immer diese Verbesserungen sind, sie wurden heute von dem atemlosen Hype überschattet, der häufig fragwürdig und gelegentlich einfach falsch war. Nun, um diesen Artikel zu füllen, musste ich ein bisschen pedantisch werden, aber ehrlich gesagt, einige davon sind ziemlich ungeheuerlich.

"Die beliebteste Kamera der Welt"

Es gibt eine Menge iPhones da draußen, um sicher zu sein. Aber das iPhone als eine Art von jahrzehntelanger kontinuierlicher Kamera zu definieren, die Apple anscheinend macht, ist eine Art unaufrichtiger Weg, es zu tun. Mit diesem Standard würde Samsung mit ziemlicher Sicherheit voraus sein, da es erlaubt sein würde, all seine Galaxy-Telefone auch ein Jahrzehnt zurück zu zählen, und sie haben definitiv Apple in dieser Zeit überholt. Gehen Sie weiter, wenn Sie sagen würden, dass ein Standard-Kamera-Stack und gemeinsame Sony oder Samsung-Sensor war eine "Kamera", iPhone wäre wahrscheinlich 10: 1 von Android-Handys in der Unterzahl.

Ist das iPhone eine der beliebtesten Kameras der Welt? Um sicher zu sein. Ist es die beliebteste Kamera der Welt? Sie müssten es ziemlich dünn schneiden und sagen, dass dieses oder jenes Jahr und dieses oder jenes Modell zahlreicher war als jedes andere einzelne Modell. Der Punkt ist, dass dies eine sehr matschige Metrik ist und man viele davon abhängig machen könnte, wie sie die Zahlen auswählen oder interpretieren. Wie üblich, hat Apple hier nicht ihre Arbeit gezeigt, also können wir auch einen Begriff prägen und dies einen gebildeten Bluff nennen.

"Bemerkenswertes neues Doppelkamerasystem"

Wie Phil später erklären würde, kommt viel Neues von den Verbesserungen des Sensors und des Bildprozessors. Aber wie er sagte, dass das System neu war, während es durch eine Explosionsansicht der Kamerahardware unterstützt wurde, können wir ihn auch als einen Bezug darauf betrachten.

Es ist nicht wirklich klar, was in der Hardware unterscheidet sich von dem iPhone X. Sicherlich, wenn Sie sich die Spezifikationen ansehen, sind sie fast identisch:

Wenn ich sage, das sind andere Kameras, würdest du mir glauben? Gleiche F-Nummern, kein Grund zu der Annahme, dass die Bildstabilisierung anders oder besser ist, und so weiter. Es wäre nicht unvernünftig anzunehmen, dass es sich bei den Optiken um die gleichen Kameras wie zuvor handelt. Nochmals, nicht, dass mit ihnen etwas nicht in Ordnung war – sie sind eine fabelhafte Optik. Aber das Zeigen von Komponenten, die tatsächlich gleich sind und sagen, dass es anders ist, ist irreführend.

Angesichts des Stils von Apple, wenn es tatsächlich Änderungen an den Objektiven oder dem OIS gegeben hätte, hätten sie etwas gesagt. Es ist nicht trivial, diese Dinge zu verbessern, und sie würden Kredit nehmen, wenn sie das getan hätten.

Der Sensor ist natürlich extrem wichtig, und es ist Verbessert: Der 1,4-Mikrometer-Pixelabstand auf der Weitwinkel-Hauptkamera ist größer als der 1,22-Mikrometer-Abstand auf dem X. Da die Megapixel ähnlich sind, können wir wahrscheinlich vermuten, dass der "größere" Sensor eine Folge dieser unterschiedlichen Pixelteilung ist keine Änderung des realen Formfaktors. Es ist sicherlich größer, aber der breitere Pixelabstand, der mit der Empfindlichkeit hilft, ist, was tatsächlich verbessert wird, und die vergrößerten Dimensionen sind nur eine Konsequenz von Das.

Wir werden uns die folgenden Ansprüche des Bildverarbeiters ansehen.

"2x schneller Sensor … für bessere Bildqualität"

Es ist nicht wirklich klar, was gemeint ist, wenn er das sagt. "Um all diese Technologie auszunutzen." Ist das die Ausleserate? Ist es der Prozessor, der schneller ist, weil das wahrscheinlich eine bessere Bildqualität erzeugen würde (mehr Leistung, um Farben zu berechnen, besser zu kodieren usw.)? "Schnell" bezieht sich auch auf Licht sammeln – ist Das schneller?

Ich denke nicht, dass es zufällig ist, dass dies nur irgendwie rausgeworfen und nicht spezifiziert wurde. Apple mag große einfache Zahlen und möchte das Spezifikationsspiel nicht auf dieselbe Weise spielen wie die anderen. Aber das geht meiner Meinung nach von der Vereinfachung zur Irreführung über. Das können zumindest Apple oder einige detaillierte Drittanbieter-Tests klären.

"Was es völlig neu macht, ist, den ISP mit dieser neuralen Engine zu verbinden, um sie zusammen zu nutzen."

Das war ein bisschen Fingerspitzengefühl von Phil. Vermutlich hat Apple den Bildverarbeitungsweg zwischen dem herkömmlichen Bildprozessor, der die wichtigsten Dinge wie Autofokus und Farbe erledigt, und der "neuralen Engine", die Gesichtserkennung durchführt, besser integriert.

Es mag für Apple neu sein, aber so etwas ist in vielen Kameras seit Jahren Standard. Sowohl Telefone als auch Systeme mit auswechselbaren Objektiven wie DSLRs verwenden Gesichts- und Augenerkennung, einige verwenden neuronale Modelle, um Autofokus oder Belichtung zu steuern. Dies (und die damit verbundenen Probleme) gehen Jahre zurück. Ich erinnere mich an Point-and-Shoots, die es hatten, aber leider konnte ich keine Leute finden, die dunkle Haut hatten oder die Stirn runzelten.

Es ist viel besser geworden (Apples Geräte zur Tiefenerkennung helfen wahrscheinlich sehr), aber die Idee, ein Gesichtserkennungssystem, wie auch immer Sie es nennen, an den Bilderfassungsprozess zu binden, ist ein alter Hut. Was in der XS ist, mag das Beste sein, aber es ist wahrscheinlich nicht "völlig neu", selbst für Apple, ganz zu schweigen vom Rest der Fotografie.

"Wir haben ein brandneues Feature, das wir Smart HDR nennen."

Apples brandneue Funktion ist seit einiger Zeit auf Google Pixel-Handys. Viele Kameras halten jetzt einen Frame-Puffer, indem sie im Hintergrund Schnappschüsse machen, während die App geöffnet ist, und dann die neueste, wenn Sie die Taste drücken. Und Google hatte unter anderem die Idee, dass Sie diese ungesehenen Bilder als Rohmaterial für eine HDR-Aufnahme verwenden könnten.

Wahrscheinlich Apples Methode ist eine andere, und es kann sogar besser sein, aber im Grunde ist es die gleiche Sache. Wieder "brandneu" für iPhone-Nutzer, aber unter Android-Flaggschiff-Geräten wohlbekannt.

"Das solltest du nicht tun, richtig, ein Foto in die Sonne schießen, weil du die Belichtung auspusten wirst."

Ich sage es nicht sollte schießen Sie direkt in die Sonne, aber es ist wirklich nicht ungewöhnlich, die Sonne in Ihren Schuss aufzunehmen. In der Ecke kann es zum Beispiel für einige coole Lens Flares sorgen. Es wird heutzutage nicht mehr explodieren, da fast alle Kameras mit automatischer Belichtung entweder mittenbetont oder intelligent verschoben werden – zum Beispiel um Gesichter zu finden.

Wenn die Sonne in Ihrer Aufnahme ist, ist Ihr Problem nicht ausgeblasen Höhepunkte, sondern ein Mangel an Dynamikbereich durch einen großen Unterschied zwischen der Belichtung benötigt, um den sonnenbeschienenen Hintergrund und den Schatten Vordergrund zu erfassen. Dies ist natürlich, wie Phil sagt, eine der besten Anwendungen von HDR – eine gut eingeklammerte Belichtung kann sicherstellen, dass Sie Schattendetails haben, während Sie auch die hellen behalten.

Lustigerweise sind auf dem Bild, das er hier gewählt hat, die Schatten Details größtenteils verloren – man sieht dort nur einen Haufen Lärm. Sie brauchen kein HDR, um diese Wassertropfen zu bekommen – das ist wirklich eine Zeit für die Verschlusszeit. Es ist übrigens immer noch eine großartige Aufnahme, ich denke nur nicht, dass es illustrativ für das ist, worüber Phil spricht.

"Sie können die Schärfentiefe einstellen … das ist bei der Fotografie von irgendwelchen Kameratypen nicht möglich gewesen."

Das ist einfach nicht wahr. Sie können dies auf dem Galaxy S9 tun, und es wird auch in Google Fotos ausgerollt. Lytro hat vor Jahren schon so etwas gemacht, wenn wir "irgendeine Art von Kamera" einbauen. Wird das besser? Wahrscheinlich – sieht gut aus für mich. War es noch nie möglich? Nicht annähernd. Ich fühle mich schlecht, dass niemand es Phil erzählt hat. Er ist hier draußen ohne die Fakten.

Nun, das sind die Großen. Es gab noch viel mehr, sagen wir, Verzierungen bei der Veranstaltung, aber das ist normal für den Kurs bei jedem Start einer großen Firma. Ich hatte nur das Gefühl, dass diese nicht unbeantwortet bleiben konnten. Ich habe nichts gegen die iPhone Kamera – ich benutze selbst eine. Aber Junge sind sie wild mit diesen Ansprüchen. Jemand muss es sagen, da offensichtlich niemand in Apple ist.

Den Rest unserer Apple Event-Berichterstattung finden Sie hier:

mehr iPhone Event 2018 Berichterstattung