Erste Eindrücke von der Kamera-Qualität des Mi 11 Ultra

  • 1.070 Antworten
  • Letztes Antwortdatum
@avfreak Nee, nicht nur das. Bei vielen Geräten - Oneplus zum Beispiel - schaltet er das Postprocessing zu großen Teilen ab. Dadurch hast du dann z.B. keine künstlichen Gemälde mehr im Gras, sondern softe aber echte Details.
Warnung: Das ist nicht vom Mi11U, das dient nur zur Veranschaulichung. Beides 12mp. Links JPG mit Processing, rechts RAW JPG. Gibt auch deutlich bessere Beispiele, aber das soll reichen :D
1622652594986.png
 
@avfreak Beim GN2 ist es ja einfach der Quad Bayer Filter der 2x2 Pixel eine Farbe gönnt.
(daher auch die "farbschwäche" bei voller Auflösung)
Allerdings wie es Samsung beim HM3 Sensor des S21 Ultra macht??? Da müsste ja ein 9'er Filter (3x3) drüber sitzen?
Vielleicht erklärt das auch die noch grössere Schwäche bei den Farben im 108 MP Modus?
 
Zuletzt bearbeitet:
@paysen Das Postprocessing kannst du natürlich variabel gestalten. Dein Raw-Jpg ist ja auch bearbeitet, sonst hättest du kein Bild, sondern nur Daten.
Beiträge automatisch zusammengeführt:

@scudici Wie geschrieben, genaue Angaben gibt da keine Firma öffentlich raus. Pixel-Binning ist aber keine reine Postprocessing-Geschichte. Das würde für die Lichtaufnahme des Sensors ja auch nicht viel bringen.
 
Zuletzt bearbeitet:
avfreak schrieb:
Pixel-Binning ist aber keine reine Postprocessing-Geschichte
Nee, da der jeweilige 2x2 Filter ganz physisch auf den 4 Pixeln sitzt. Das ist Hardware. Genau

Die Frau erklärt es ganz verständlich.
Auch warum der Autofocus dank der Dualpixeltechnologie so schnell ist.
(ähm schnell? 🤔, wahrscheinlich hab ich dann ein GN2 Ersatzimitat)

 
Zuletzt bearbeitet:
  • Danke
Reaktionen: avfreak
Genau. In dem Video wird ja auch die besondere Pixelstruktur verdeutlicht. Das Binning selbst passiert dann im C-Mos. Bevor das “Raw“ dann zum Postprocessing marschiert. Da wählt Xiaomi nichts aus, das passiert im Sensor. Die 50 MP-Daten werden dann dazwischen abgezwackt, sind aber aufgrund der technischen Begebenheiten nur ein Kompromiss.
 
Zuletzt bearbeitet:
@avfreak Das stimmt schon, die Verarbeitung hält sich dort aber in Grenzen. Es ging mir nur darum, ob dort wenigstens die natürlichen Details vorhanden sind, oder ob die RAW schon ähnlich vorbehandelt wird :) Das scheint aber nicht der Fall zu sein. Danke auch an @Kubikossi für die Vergleichsbilder.
 
Muss mich korrigieren, Quad Bayer ist eher so Sony.
Samsung nennt es Tetrapixel technology.
Das Prinzip ist das gleiche, bis auf ... den Re-mosaik Algorithmus.
Wie aber dieser Funktioniert weiss ich auch noch nicht. Denn über jedem Pixel liegt ja entweder ein roter, grüner oder blauer Filter. Den kann man nicht einfach wegnehmen.

detail-how-tetracell-delivers-crystal-clear-photos-day-and-night-01.jpg

Edit:
Hab das Patent gefunden.
Es ist ein Algorithmus. (das Erklärt eben diese Farbschwäche wenn unzureichend Implementiert)
Im Prinzip fragt es die andersfarbigen Pixel nach und nach, was sie gesehen haben und "vermutet" daraus, z.B. wieviel blau das grüne Pixel gesehen haben könnte, wenn es blau wäre.

IMG_20210602_195242.jpg


Jetzt hör ich aber auf mit dem Scheiss 👍😬😎
 
Zuletzt bearbeitet:
  • Haha
Reaktionen: paysen
Im Video-Modus gibt es ja 2 Stabi-Modi... "stabiles Video" und "stabiles Video pro".
Liegt hier der Unterschied lediglich in Telekamera vs Weitwinkelkamera?
Wobei "stabiles Video pro" bei mir bei schnelleren Schwenks zu deutlichen Verzerrungen führt. Bei "stabiles Video" ist das kaum wahrnehmbar.
 
Beim stabilen Video greift der OIS bei Normal und Tele, Pro kommt noch Software hinzu. Bei allen Gimbal-Fakes habe ich Markenübergreifend Artefakte bei Bewegung gesehen.
Beiträge automatisch zusammengeführt:

@scudici Kann ja auch im Grunde nicht anders sein, ansonsten braucht man sowas wie einen aktiven Bayer-Filter. Der ist noch nicht erfunden.😉 Die Binning-Sensoren sind bei Smartphones auf das Binning optimiert. Dein Ablaufdiagramm dürfte übrigens im C-Mos ablaufen.
Das Postprocessing macht mehr als die Hälfte des Fotos aus, davon lebt die Smartphone-Kamera. Sonst könnte sie ihre Nachteile bei der Sensorgröße (außer bei den ~1“), dem Mikro-Objektiv, der fehlenden Blende und der abstrusen Strahlenwinkel bei den kleinen Objektivöffnungen nicht kompensieren.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: paysen und spline
@Kubikossi Standardmäßig wird die Tele garnicht verwendet. Bei stabil ist es die Main, bei pro die UW. Im Normalmodus ist OIS übrigens auch schon aktiv. Sieht man wenn man sich die Linse anschaut während man im Video ist. Die bewegt sich immer leicht mit und ohne OIS wäre das Video auch sehr zittrig, selbst bei ruhiger Hand ^^

Der Grund warum Pro so dolle verzerrungen hat, ist das die UW kein OIS hat und ausschließlich auf EIS setzt (Software). Dabei wird extrem in den Sensor gecroppt, wodurch maximal noch 1080p möglich ist.
(Die Bilder im Link unter Abschnitt "EIS" zeigen sehr gut was dabei passiert)

What is image stabilization? OIS, EIS & more explained! - Android Authority
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    169 KB · Aufrufe: 84
  • Danke
Reaktionen: Kubikossi, paysen, spline und eine weitere Person
Danke für die ausführliche Erklärung, war mir nicht bewusst, dass nur 1 Modus eine echte Stabilisierung hat und der zweite nur ein "fake" ist.
 
Zuletzt bearbeitet:
Ich hatte das schon mal gefragt, aber keine Antwort bekommen.
Ist es normal, dass wenn man die Videostabilisierung (egal welche) aktiviert, dass man dann maximal 1080p und 30 FPS aufnehmen kann? Bei mir ist nur noch das auswählbar.
 
@fosgate 2 Beiträge über deinem steht's
 
  • Danke
Reaktionen: fosgate
Aber auch wenn ich den normalen Stabilisierungsmodus einstelle, ist bei 1080P und 30 FPS Schluss.
 
@fosgate Ja, weil auch im "Stabil" Modus EIS verwendet wird, zusätzlich allerdings OIS.

Der Pro Modus ist zwar stabiler, erkauft sich dies aber durch das SEHR starke reincroppen in den UW Sensor. Durch EIS bekommt man die beste Stabilisierung aber die Lichtempfindlichkeit sinkt enorm und Jittering kann auftreten. Einfach mal zum Thema EIS informieren ;)

Da beim "Stabil" Modus der Hauptsensor verwendet wird, sieht das Bild aber qualitativ besser aus da der Sensor viel größer ist als der UW.
(1080 auf dem Main ist viel größer als 1080 beim UW)

Und wie gesagt, wer die enorme Stabilisierung nicht braucht, der ist im kleinsten der drei Modi immer noch am besten aufgehoben, denn der ist auch stabilisiert , ausschließlich mit OIS. Somit auch die beste Bildquali.
Beiträge automatisch zusammengeführt:

EIS kann man sogar nachträglich ins Bild integrieren. Mit Videobearbeitungssoftware wird dadurch allerdings dann der Bildausschnitt kleiner. Hab ich bei Timelapses gern mit Microsoft Hyperlapse App gemacht (gibts glaub nicht mehr offiziell)

Wenn man zwei Sensoren synchron für EIS benutzt hat man zb sehr viel Raum zum spielen und verliert weniger Licht. Insta nutzt auch noch den Gyro wie das iPhone damals schon für Stabilisierung.

 
Zuletzt bearbeitet:
  • Danke
Reaktionen: fosgate
Semi schrieb:
Also ich weiß auch nicht warum hier bei einigen Usern die Bilder so unscharf sind, ich habe diese Probleme mit meinem Gerät nicht.

Mir kommt es mittlerweile so vor, als gibt es zwei Hardware Varianten. Schau dir mir meinen Post weiter oben mit den aliasing Treppen bei einem Foto mit Brillenträgerin an.

Alle meine Fotos sind drastisch überschärft, überall weiße bzw schwarze Konturen. Bei anderen Personen hier ist das offenbar nicht. Uww ist bei mir grundlegend unscharf, deutlich schlechter was z.b. gsmarea im Review veröffentlicht hat.

Fokus bei Haupt Linse stimmt ebenfalls so gut wie nie-mir kommt es so vor als fokussiert das Gerät immer etwas hinter dem eigentlichen Motiv. Bei DSLR Linsen heißt der defekt Front bzw Back Fokus. Ich werde das mit einem Meterstab Mal testen


s3axel schrieb:
@Semi was ich mich frage ist, ob diejenigen vielleicht ein Schutzglas oder - folie vor dem Kameramodul haben, welches die AG-Funktion beeinträchtigt....

Nope, kein Schutz Glas bei mir

residentcj schrieb:
Schalte mal alles ab. HDR, Makro, alle Helferlein wie Bildverzerrung korrigieren etc..

Habe ich alles durch probiert. Der einzige reproduzierbare Unterschied ist mit bzw ohne HDR. Ohne HDR wird uww weniger schlecht aber noch lange nicht gut oder gar "die Vollendung"

Kubikossi schrieb:
, das Foto hat ein dermaßen abnormal hohes Farbrauschen, was es völlig unbrauchbar macht. Vom Pixelmatsch mal ganz abgesehen, unscharf und verwaschen.

Dieses massive rauschen sehe ich in vielen Aufnahmen selbst bei strahlendem Sonnenschein, bzw Artefakte davon, die die Software versucht hat zu entfernen
 
@DReffects
Hey dann schick Handy zur Reparatur ein :) ich hatte bei meinem oneplus 8 pro auch ein Kamera defekt der nachgewiesen wurde. Gerät direkt ausgetauscht
 
Zuletzt bearbeitet von einem Moderator:
@Semi zum Problem mit dem Processing passt aber halt kein Hardware defekt ;)
 
Weiß jemand warum bei Videos nur bei 1080P und 30FPS beim zoomen zwischen der 1x und 5x Linse tatsächlich gewechselt wird? Da sieht man den Sprung von 4,9x Zoom auf 5,0x deutlich!
Bei allen anderen Einstellungen (1080P 60FPS und alle 4K Einstellungen) wird das Bild mit der Hauptlinse digital gezoomt und sieht schrecklich aus.

Ist das ein Fehler? Macht überhaupt kein Sinn meines Erachtens und senkt die Videoqualitäten enorm ein.
 
Zuletzt bearbeitet:
posen schrieb:
Ist das ein Fehler? Macht überhaupt kein Sinn meines Erachtens und senkt die Videoqualitäten enorm ein.
Na ja... Fehler im Sinne von kaputt sicher nicht. Das ist halt schlampig gemacht. Kotzt mich auch tierisch an.
 
  • Danke
Reaktionen: residentcj

Ähnliche Themen

AD-A2
Antworten
7
Aufrufe
323
gorillalaci
gorillalaci
Dadof3
  • Dadof3
Antworten
3
Aufrufe
762
balu_baer
balu_baer
wukatsch
Antworten
4
Aufrufe
258
gorillalaci
gorillalaci
Zurück
Oben Unten