Diskussion um die Kamera des Galaxy S24 Ultra (ab Werk installierte App)

  • 4.032 Antworten
  • Letztes Antwortdatum
Nichts

Nichts

Enthusiast
2.765
Zuletzt bearbeitet:
  • Danke
Reaktionen: basketballer, Phosfour, Panewbi und eine weitere Person
Das war ja im Mai glaube ich da hat auch einer ein Trick gefunden wie das mit allen zoom Stufen funktioniert im 23ultra außer den optischen.
Das war wenn man uber 20x gezoomt hat ( jetzt foto machen erst oder nicht weiß ich nicht mehr) und dan manuell mit 2 fingern unter 20x gezoomt hat egal welche Stufe zb 13x oder 7x hat der Algorithmus vom über 20x eingegriffen und die Fotos wurden viel besser. Ob das jetzt noch funktioniert it der aktuellen Kamera app vers. weiß ich nicht muss mal testen :1f61c:
 
Ja daran musste ich auch denken, für Actionaufnahmen wo das eine Bild sitzen muss nutzt das natürlich nicht viel. Aber trotzdem interessant.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Panewbi
Ja mit dem gefummle sicher aber samsung hätte es ja implementieren könne damit die Action Aufnahmen dann auch sitzen,
haben sich damals auch viele gefragt warum nicht? jetzt wissen wir es haben es sich fürs 24 auf gehoben damit von 5x bis 20x besser aussieht als beim Vorgänger :1f61c:
 
Panewbi schrieb:
Action Aufnahmen dann auch sitzen
Wie soll das mit einer Kamera gehen? Dazu müssten mehrere Kamers im gleichen Moment das Foto machen statt einer Kamera mehrere hintereinander.

Der Algorithmus erkennt es ja dann auch und nimmt dann eben ein Einzelbild in den zu schnellen Bereichen, fällt dann nur auf das der anders aussieht (z.B. mehr rauscht). Der weiter Nachteil von Multiframe ist natürlich da Du am Ende nicht weißt welche Pose Du bekommst wenn das brechnen fertig ist.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Panewbi
Ich mein ja mit dem gefummle erst hoch zoom dann wieder runter usw. Bis dahin ist das bewegte Objekt schon an anderer stelle. Der Trick war nur gut für statische Objekte. Und warum das von seiten Hersteller nicht per Software eingebunden wurde es ging ja mit dem Trick halt nur umständlich anstatt direkt auf die gewünschte zoom Stufe zu gehen und foto machen.
Oder wir reden gerade aneinander vorbei.
Egal gruß
 
  • Danke
Reaktionen: Nichts
Ja aneinander vorbei, ich war dabei das Mutliframe Aufnahmen generell nix für Action sind.
 
  • Danke
Reaktionen: Panewbi
Sofern die geleakten Daten stimmen:
Die 5x Kamera wird Pixel in der Größe von 0.7µm haben, die alte 10x vom S23u ist bei 1.12μm.

Dafür kommt bei 5x mit f/3.4 etwas mehr Licht rein als beim alten 10x mit f/4.9.

Und das 5x liefert im äquivalenten Crop 12,5 MP statt 10MP beim S23u.

Bin wirklich sehr gespannt auf den direkten Vergleich. Die Optik muss natürlich mitspielen, aber in der Bildmitte sind die ja auch am schärfsten.
 
@Nichts
Ich bin auch gespannt.
Je kleiner die Pixel desto mehr Rauschen.
Da wird die Software ordentlich was zu tun haben.
 
"Mehr Rauschen" da spielt ja vieles rein, wenn mehr Licht ankommt hilft das ja auch wieder, ein richtig belichteter Pixel rauscht weniger als ein aufgehellter. Theoretisch könnte man jetzt noch rechnen was Blende vs Pixel Größe bringt, ob sich das evtl. die Waage hält, da bin ich aber echt raus. Ist der Sensor moderner? Wissen wir nicht.

Mein Schwerpunkt ist eh raw, aber ich werde auch mal schauen was sie per Software im Auto Modus machen beim Vergleich. Überlege ob ich am S23U dann auch mal versuchen sollte den Multiframe Modus bei 10x auszulösen. Und schauen ob es Vorteile eines Moduls bei ISO 50 und ISO 800 gibt.
 
Zuletzt bearbeitet:
Darf man hier auch auf X und Co verlinken? Hier, nichtssagende aber dafür schöne Marketing-Präsentationsfolien zur s24 Reihe als leak:


Dieses ganze Deep Learning und KI könnte positiv wirken sogar. Kenne das AI Noise Reduction vom DxO (DeepPRIME) und bin sehr beeindruckt manchmal was für Ergebnisse bei hoher ISO ich erhalte.
 
  • Danke
Reaktionen: Orangehase07
Hab ich auch schon gepostet. Am Ende ist es auch nur Spielerei, macht ja keinen großen Unterschied ob Du Deine KI Bearbeitung mit der Samsung Galerie oder DxO machst.

Wirklich hilfreich wäre es gewesen die KI für bessere Autofocus Features zu verwenden und mit richtigen Kameras gleich zu ziehen.
 
Nichts schrieb:
macht ja keinen großen Unterschied ob Du Deine KI Bearbeitung mit der Samsung Galerie oder DxO machst.
Es geht ja nicht um mich, sondern die breite Masse. Wer legt sich denn Bitte von den Handy Nutzern DxO oder ähnliche KI Software an, um seine in Raw geschossenen Bilder zu verbessern?
Ich verwende für meine Canon selten DxO (Hobby-Studio Aufnahmen), aber für mein Olympus dafür umso mehr (Micro Four Thirds Sensor beim Wandern, Urlaub, etc).

So wie ich das verstehe machen die Handys auch mehrere Aufnahmen hintereinander und rechnen diese zu einem Bild zusammen. Hier im Workflow noch eine KI unterstütze NR einzubauen würde ich nicht als Spielerei bewerten (aber nur meine Meinung), sondern konsequente Weiterentwicklung der Smartphone Kameras.

Wünsche mir, dass Canon auch den einen oder anderen Gedanken hier in die Kamera verbauen würde. Olympus hat es ja seit Jahren vorgemacht (z.B. 80MP Handaufnahme, SW ND Filter, HDR, etc).
 
Sie werden es höchstwahrscheinlich nicht im Aufnahme Workflow einbauen, der dauert den Leuten ja jetzt schon zu lange (mit dem Multiframe Zeug) "shutter lag", es wird bei einer optionalen Nachbearbeitung bleiben. Mag sein das sich die Masse darüber auf dem Gerät freut. Aber ich kann ja nur für mich sprechen: Für meine RAW Aufnahmen (ohne Multiframe für bessere Kontrolle was auf dem Bild drauf ist) die in Lightroom landen macht das keinen Unterschied.

Von einem modernen Autofokus (in allen Auflösungsstufen) hätten aber alle profitiert.

Z.B. Katzen zu fotografieren ist eine Qual mit dem Samsung: Ich tippe mehrmals auf die Augen und hoffe das der Objektautofokus sie als Objekt erkennt und verfolgt, im 50MP Modus gibt es diesen erst gar nicht erst. Da muss ich antippen (hoffen das ich richtig gepatscht habe und etwas fokussiert wird) und gleich das Foto machen bevor sich der Abstand wieder ändert, das heißt auch immer 2 Hand Betrieb da ich mit einer den AF bedienen muss. Die Katzen halten in der Regel auch immer nur kurz ihre Pose, bis ich dann manuell scharfgestellt habe haben sie sich auch wieder bewegt. Ein Tieraugenautofokus würde hier Point and Shoot ermöglichen, wozu ein Smartphone ja da sein sollte.

Die Zeiten das Smartphones mit ihrer direkten Rechnen Power und Algorithmen den großen Kameras voraus sind sind wohl vorbei. Meine Canon ist mehr Point and Shoot als ein Samsung (bei Bereitschaft aus dem Standby, Autofokus und korrekter Belichtung).

S23U:
- Es dauert 1,5 Sekunden im Standby befindlichen Gerät die Kamera App durch doppeltippen auf Ein/Aus zu starten.
- Das Gerät startet im ProModus, 50MP, eine feste Belichtungszeit von 1/125 habe ich schon vor eingestellt, für moderat bewegende Motive (+ Punkt für Samsung nicht alle Apps anderer Hersteller behalten Einstellungen)
- Bin ich jetzt aber im freien wird diese Einstellung zu Überbelichtung führen.
- Im 50MP Modus gibt eins keinen Objektverfolgungsautofokus, ich hab also nur OneShot. Die rudimentäre Automatik geht auf das der Kamera am nächsten stehende Objekt, die Nase des Tieres, die Augen wären dann schon unscharf, ein technisch schlechtes Foto wenn ich nicht manuell eingreife.
- Dann beginnt das Spiel das manuellen Fokussetzens und auslösen bevor das Tier wegschaut.

Canon:
- Nach 1/4 Sekunde aus dem Standby aktiv.
- Smartes Autoiso ist auf ein Belichtungslimit von 1/125 von mir vor eingestellt.
- Bin ich im Freien wird die smarte Automatik aber auch mit 1/2000 oder schneller belichten und keine Überbelichtung produzieren wie das Smartphone. Aber im Dunkeln vorher mit dem ISO ans Limit gehen bevor 1/125 unterschritten wird.
- Der Autofokus erkennt sofort die Augen des Tieres und verfolgt sie.
- Jedes Tippen auf den Auslöser ein technisch gutes Foto.
- Und das alles mit nur einer Hand, nur der Auslöser wird bedient.

Und das macht die Canon nicht weil sie teurer, größer, einen größeren Sensor und bessere Optiken hat. Es ist einfach nur besser durchdachte Software. Software die mal die Stärke von Smartphones war. Oder zumindest hat es bei Canon jemand designt der mehr als nur Obstkörbe fotografiert.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: AOK und s3axel
@Nichts Multiframe scheint mir bei Zoom eine Methode zu sein. Ich denke Du meinst Mehrfachbelichtung. Um ehrlich zu sein, bei so einem kleinen Sensor würde ich Mehrfachbelichtung bevorzugen. Es scheint von Samsung eine App zugeben, die nicht stanardmäßig installiert ist: Expert Raw. Scheint kein wirkliches single shot raw zu sein, sondern mehrere Belichtungen werden zusammengeführt und ein raw Datei erstellt.

Hier mal was das bedeutet:
Photographic Dynamic Range versus ISO Setting - Olympus High Res Shot Mode Special Edition

Der PDR ist nachweislich fast 2 stops größer. Da würde keiner auf die Idee kommen bei viel kleineren Sensoren single raw shot zu machen.

Ich werde wohl mit dem s24 ultra erst die Erfahrung sammeln, ob die angepriesene PDAF basierte AF dem einer Kamera entspricht. So wie ich das Überblicke ist die Periscope Kamera die einzige, die kein (PDAF) AF anbietet. Kann an dem Konstrukt der Kamera sein, weiß es aber nicht besser.

Grundsätzlich: Wenn Apple das kann, dann sollte es auch Samsung und Co können. Außer die HW bei Apple ist speziell (wie periscope pdaf). Und da liegt es dann nur noch an der Software.

Zu Canon: Ich hoffe wir sprechen hier von Vollformat, kam mir jetzt nicht so vor :) Ich sprach zumindest von Vollformat Canon-Kameras (besitze den R5).
 
@Tuffikakao hast du mal ein Iphone/Huawei mit so einem Sensor verwendet?
 
@hood91 Multiframe, mehrere Aufnahmen zu einer verrechnen, ich meine was ich sage, ob jetzt um Rauchen zu reduzieren und Detail erhöhen oder unterschiedliche Belichtung für mehr Dynamik Umfang ist dabei erstmal egal, wobei der bei 12MP mit Pixel Binning auch in der Einzel Aufnahme erhöht wird. Erst im 50 MP Modus muss es auf auf die traditionelle Art gemacht werden.

Und doch auch beim Smartphone mache ich single shot Aufnahmen, gerade beim Sport und bei Bewegung, ein bißchen Rauschen hat doch Charme und stört mich nicht. Komisch zusammen gerechnete Mutanten in der schnellen Bewegung machen das Bild aber unbrauchbar. Und das Shutterlag schwierig den richtigen Moment ab zu passen.

ExpertRaw dann gerne für "hey halt mal kurz still ich mach ein Foto" Situationen. So lange genug Licht da ist, denn dunkle Bereiche werden gerne mit jpg ähnlichen Artefakten befüllt.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: vw-kaefer1986
@Nichts
Ist der Shutterlag so stark bemerkbar bei schnell bewegenden Motiven?
Möchte gerne ein Handy, mit dem ich die Aktivitäten meines Kindes spontan mit dem Handy in möglichst guter Qualität einfangen kann.
Wie stark ist der Shutterlag bei S23 bzw. S23U ausgeprägt?
Danke! LG
 
Beim S23U ist das bei nicht optimalen Lichtbedingungen so eine Sache. Konnte man aber in der Stock Cam im Pro Modus mit entsprechender Belichtungszeit entgegen wirken. Schau dort mal auf den letzten Seiten im Kamerathread. @Nichts hatte dort entsprechende Verschlusszeiten genannt. Dann geht es. Ich gehe mal davon aus, dass Samsung da nicht wirklich viel dran ändern wird bei der neuen Serie. Das Problem besteht schon seit vielen Serien
 
  • Haha
Reaktionen: MOSkorpion

Ähnliche Themen

K
Antworten
69
Aufrufe
2.846
DerStefan
DerStefan
gigaexpress
Antworten
17
Aufrufe
1.620
maik005
maik005
R
Antworten
3
Aufrufe
487
maik005
maik005
Zurück
Oben Unten