Diskussion um die Kamera des Galaxy S23 Ultra (Nur die ab Werk installierte App)

  • 9.329 Antworten
  • Letztes Antwortdatum
Also irgendwelche Wunder von einem möglichen "dayonepatch" zu erwarten, finde ich irgendwie komisch. Die ganzen tester und youtuber machen jetzt die kameratests und das weiß samsung. Da wird nicht erst Wochen später eine mysteriöse neue wundersoftware released.

Für mich pakt samsung nicht die Probleme an. Ob das Bild etwas gelblich oder was auch immer wirkt, interessiert mich nicht die Bohne, so lange die leute darauf verschwommen abgebildet werden.
Normale tageslichtaufnahmen zu vergleichen und zu mutmaßen welches "besser" ist, finde ich sind subjektive Meinungen und bei dem nächsten Foto kann das schon wieder anders sein.

Es wird doch möglich sein Bewegungen zu erkennen und einen automatischen sportmodus zu starten damit man seinen Hund oder was auch immer, schön fotografieren kann. Den gab es früher auch und gibt es bei jeder Kamera.
 
Zuletzt bearbeitet:
Interessant wäre bei vollem Licht noch ein bisschen mit den hohen Auflösungen zu spielen:

Ich denke der 200MP Modus wird nie mehr Details zu Tage fördern und ist nur Spielerei.
Die 200MP Katze bei Iso100 sah bei 50MP auch noch schwammig aus, aber auf 12MP verkleinert ergab es ein super Bild 1:1. Kann aber auch leicht verwackelt gewesen sein.

Vom 50MP Modus erwarte ich schon etwas mehr echte Details als vom 12MP Modus.

Irgendwo wird der ISO Sweetspot sein ab dem sich der 50MP Modus nicht mehr lohnt.

Testen ließe sich auch auch, was ergibt das bessere 12MP Bild direkt im 12MP Modus (was 1:1 meistens doch unschön ist, gerade in der Vollautomatik) oder 50/200MP Modus und selber verkleinern, was im Katzenbeispiel 1:1 für ein Smartphonefoto ein super Ergebnis war.
Beiträge automatisch zusammengeführt:


@arcentos Wenn die Nase scharf ist aber nicht das Auge dann ist das der Autofokus. Wenn der AF die Bewegung nicht mitführt (die Katz sah sehr still aus) ist es trotzdem der AF der zu langsam ist. Der AF hat einfach auf das scharf gestellt was am nähsten dran ist (die Nase) anstatt zu erkennen "oh Augen, die nehm ich".
 
Zuletzt bearbeitet:
Schinkenhörnchen schrieb:
Ich hoffe, @Handymeister , die Crops aus deinen Bildern sind für dich in Ordnung zur Veranschaulichung. Bunte Streifen war falscher Hinweis: Gelb-blaues Streifenmuster vorhanden, das vermutlich nicht in der Wirklichkeit existiert. Hier sieht man auch, dass das S23U tagsüber ebenfalls zum Gelbstich neigt, nicht nur nachts. Das S23U schafft es auch nicht, die lamellenartige Wandstruktur der Lagerhalle darzustellen und macht eine glatte Wand draus. Samsung muss noch ziemlich nachbessern. Bügelt derzeit glatt, schießt zu stark ins Gelbliche und zaubert Strukturen in manche Fotos, die nicht existieren.

Beide Fotos Crops:

S23U
Anhang anzeigen 1054337

Pixel 7P
Anhang anzeigen 1054338

Bilderquelle: [Entscheidungshilfe] Fotovergleich Google Pixel 7 Pro und Samsung Galaxy S23 Ultra
Die bunten Streifen sind ein sogenannter Moiré-Effekt. Wenn sich das feine Raster der Wand mit dem feinen Raster des Sensors überlagert kann es in ganz bestimmten Fällen zu so einem Effekt kommen. Das ist ein prinzipielles Problem beim Fotografieren und früher hatte man dagegen extra einen Filter auf dem Sensor, der das Bild aber unschärfer machte. Man versucht heute so gut es geht mit der Firmware dagegen zu steuern, kann es aber auch nicht ganz vermeiden, da sonst die Schärfe zu sehr leiden würde. Damit habe übrigens die großen DSLR Kameras schon sehr lange zu kämpfen.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Schinkenhörnchen
@MOSkorpion sicher ist das möglich. Aber wenns aktuell nicht geht, dann kommts bestimmt per Patch. Und ich vermute den wie gesagt am 17.02. zum offiziellen Verkaufsstart. Und das wären auch keine Wunderdinge, sondern ein simples Anpassen der Verschlusszeit im Automatikmodus. Das kann man ansonsten auch selbst einstellen, aber eben auf Kosten der Bildqualität in dunklen Situationen. Wünschenswert wäre, dass die KI selbst erkennt, wann das geschieht und wann nicht. Dann hat man da keine Arbeit mit, aber wie gesagt ist halt Software und das kann noch kommen ohne, dass es ein großes Wunder sein muss. Meines Wissens nach ist der nächste Patch ein Kamera-Update.
 
@MOSkorpion Zu dem Day One Patch gibt es aber diesmal wirklich Gerüchte das da noch mal in der Signalverarbeitung was überarbeitet wird.

Und das Mindest-Verschlusszeit Anpassen müsste Samsung erstmal selber Programmieren, da es die Google API nicht hergibt, das ist ein Aufwand der sich für sie nicht lohen wird. Nur weil ein paar Leute (ich auch) rumheulen das sie eine ernsthafte Point und Shoot Software wollen wie sie auch echte Kameras haben.

@arcentos Das kommt garantiert nicht per Patch, das müsste Google regeln, ich schicken seit 5 Jahren den Herstellern Anfragen nach so einem Modus.

Ansonsten sagt man GCam nach das dort der Bildinhalt vorher analysiert wird und entsprechende Einstellungen genutzt werden, GCam hat darum keinen manuellen Modus (für mich ein No-Go) aber viele schwören drauf. Jetzt mit Snapdragon sollte GCam auch relativ gut laufen.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: dost4
@Nichts welches von den beiden Bildern ist denn überhaupt vom 22er und welches vom 23er? Ich vermute, das hellere wird das 23er sein und da sehe ich jetzt keine unscharfen Augen. Und bei dem anderen wirkt die Katze so, als hätte sie sich leicht bewegt, da um dan Kopf und das Fell Unschärfe zu erkennen ist. Und das wäre dann Thema der Verschlusszeit und darauf hatte ich mich bezogen, weil ich das Bild noch vor Augen hatte und eben erst nachgelesen habe, dass das eine vom 22er und das andere vom 23er stammt.
 
Hab mir erlaubt mit IrfanView noch einmal das Katzenbild auf 12.5MP runter zu skalieren.
Bei der Nähe ist die Schärfenebene schon schmal, man kann nicht mehr sagen ob das Phone auf Nase oder Augen fokusiert hat.
Viel schärfer wird es mit einer "echten" Kamera mit Festbrennweite bei 12MP auch nicht mehr.
 

Anhänge

  • 20230205_095752.jpg
    20230205_095752.jpg
    1,7 MB · Aufrufe: 156
Zuletzt bearbeitet von einem Moderator:
  • Danke
Reaktionen: Paintball75 und Jasper2
@Nichts halte das nicht für ausgeschlossen, dass sie da dran sind. Das ist nicht so weit weg von der KI, die sie für den Nachtmodus implementiert haben.
Beiträge automatisch zusammengeführt:

@SmartphonePhotographyRaw achso um dieses Katzenbild geht es, habe langsam den Überblick verloren. Ihr mit euren ganzen Katzen :D
Da gehe ich mit, dass es ein Problem des Fokus ist @Nichts
 
Zuletzt bearbeitet:
  • Haha
Reaktionen: Nichts
@arcentos Ich mein die Katz in 207 Diskussion um die Kamera des Galaxy S23 Ultra
Beiträge automatisch zusammengeführt:

@SmartphonePhotographyRaw Kleines bisschen mehr ginge schon, aber es doch ein echt gutes Ergebnis. Und es ist ja klar das ein Minisensor nicht mit einem Vollformat Sensor und Optik mehrfach so groß wie das ganze Telefon mithalten kann.

Spannend ist was ist besser, gleich in 12MP fotografieren oder höher und selber verkleinern, wahrscheinlich letzteres..
Bei mehr Licht und Iso50 geht evtl. auch mal ein super 24MP Bild.
 
Zuletzt bearbeitet:
Nichts schrieb:
@MOSkorpion Zu dem Day One Patch gibt es aber diesmal wirklich Gerüchte das da noch mal in der Signalverarbeitung was überarbeitet wird.

Und das Mindest-Verschlusszeit Anpassen müsste Samsung erstmal selber Programmieren, da es die Google API nicht hergibt, das ist ein Aufwand der sich für sie nicht lohen wird. Nur weil ein paar Leute (ich auch) rumheulen das sie eine ernsthafte Point und Shoot Software wollen wie sie auch echte Kameras haben.

@arcentos Das kommt garantiert nicht per Patch, das müsste Google regeln, ich schicken seit 5 Jahren den Herstellern Anfragen nach so einem Modus.

Ansonsten sagt man GCam nach das dort der Bildinhalt vorher analysiert wird und entsprechende Einstellungen genutzt werden, GCam hat darum keinen manuellen Modus (für mich ein No-Go) aber viele schwören drauf. Jetzt mit Snapdragon sollte GCam auch relativ gut laufen.

vielleicht wäre das ja ein Thema für Labs. Features von damals sind ja mittlerweile implementiert. Und wenn Samsung schon so sehr Wert auf KI Fotografie legt, warum dann nicht sowas? Meinetwegen als Extra-App wie Expert Raw damals. Müssten die eigentlich auf dem Schirm haben.
 
@arcentos Ja am Ende wird's irgendeine Sport KI, glaube ich zwar auch nicht. Aber von der hätte ich mit meiner RAW Fotografie auch nichts von.

Wobei ich auf KI verzichten kann, die erkennt auch nicht wenn die Person gleich losspringt (wobei evtl. schon, aber das wird dann wieder zum Shutterlag wenn vorher noch analysiert werden muss) und denkt es ist statisch. Einfach selber die Mindestzeit setzen wie an der System Kamera und gut ist.

Meinetwegen im Automodus mit 3 Symbolen für langsam, schnell, richtig schnell um die Leute nicht so sehr mit Fotografie Theorie zu verwirren und im M Modus dann ganz normal über die Belichtungszeit.

Ist trotzdem jammern auf hohem Niveau, währenddessen startet die Huawei Photoapp (zumindest beim P30) immer mit Standardeinstellungen und man muss erstmal komplett alles bereit machen. Und Samsung merkt sich nicht nur in welchem Modus ich war sondern auch für jedes Kameramodul einzeln die Einstellungen die ich hatte.
 
Zuletzt bearbeitet:
@Nichts Ja ein wenig besser ginge natürlich, im Blindtest unter durchaus Fotoaffinen würde keiner auf Smartphone tippen, beim 12MP direkt aus dem Phone aber garantiert schon. Ich wünsche mir schon lange, dass ein Ergebnis wie das runterskalierte Bild direkt aus dem Geräten purzelt (also wo 200MP Sensoren drinnen sind und diese Art von Supersampling möglich ist).
 
  • Danke
Reaktionen: Nichts
Aber einen "Sport" Modus gabs doch früher schon einmal. Warum wurde dieser dann entfernt?
 
Kann jemand bitte ei 50MP RAW zu Verfügung stellen, darf auch von einer Katze sein😉

ISO100 wäre fein...
 
@arcentos Mir ist nicht ganz klar ob Smartphone nur für die Aufnahme, oder direkt zum Entwickeln?
 
@SmartphonePhotographyRaw Gern auch auf Base ISO für mich. Ist das 100? Glaub eher 25 oder 50.
Und ich denke mal aus der normalen App und nicht ExpertRAW?
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Nichts
@arcentos Was gefällt Dir an Snapseed nicht. Klar Lightroom ist ohne Abo etwas eingeschränkt, besonders was das Dateien mit den gemachten Einstellungen sichern angeht.
 
@arcentos

Ich bin auch Freund davon, alles selbst in der Hand zu haben. Aber bei spontanen Bildern ist ein allumfassender Automatikmodus natürlich top. Denke wie gesagt schon, dass das Thema KI-Fotografie angegangen wird, auch unabhängig von Samsung ist das derzeit ja ein riesen Thema. Und Samsung muss da natürlich schauen, dass sie am Zahn der Zeit bleiben.

Realistisch betrachtet ist ein perfekter Automatikmodus ohne KI aber kaum machbar, wie soll denn sonst immer die perfekte Einstellung getroffen werden? Ohne es ganz genau zu wissen, müsste der derzeitige Automatikmodus doch auch schon sowas implementiert haben. Und warum darauf nicht aufsetzen?
 
Zuletzt bearbeitet von einem Moderator:
Bearbeitet von: Nagash - Grund: Bitte keine Vollzitate. Gruß Nagash
@arcentos Weil der Automatik Modus mir keine RAW Bilder gibt. Ich würde davon einfach nicht profitieren.

Wenn ich weiß das ich mit meinen Freunden zum Sport gehe würde ich die Grundbelichtungszeit einfach auf 1/250 setzen (was ich an der Canon R5 auch so mache) und in der Sonne auch nichts relevantes an Qualität einbüßen wenn ich mal was statisches mit der Zeit fotografiere. Klar bei einer Indoor Party würde ich dann wohl öfter mal wechseln müssen je nach Situation, aber auch das ließe sich mit einem Druck auf 3 Presets am Bildschirmrand lösen (die man sich übrigens auf auf der System Kamera aufs Wahlrad legen kann falls nötig).

Ich möchte mich ja auch auf meine Kamera verlassen können, nicht jedes Foto ist wiederholbar. Und die heutige KI greift eben auch oft daneben.
 
Zuletzt bearbeitet:

Ähnliche Themen

M
Antworten
1
Aufrufe
333
darki2021
D
D
Antworten
11
Aufrufe
542
Tuffikakao
Tuffikakao
Trident62
Antworten
1
Aufrufe
545
maik005
maik005
Zurück
Oben Unten