UltraHD (4K) videos mit dem Nexus4 aufzeichnen?

sirbender

sirbender

Stamm-User
29
Ich erinnere mich an Hacks fuers iphone und android phones womit man drastisch besser aufgeloeste videos aufzeichnen konnte. Also z.b von 720p auf 1080p.

Gibts sowas fuer das Nexus4? Ich denke die Leistung wuerde fuer 4k ausreichen...wenn auch nicht bei 30 fps.
 
Da es sich hierbei nur um interpolative Hochskalierung handeln würde, wäre der Vorteil gleich Null. Der Nachteil hingegen immens bei dem exorbitanten Speicherverbrauch. Du kannst genausogut das Video einfach nachträglich am PC in die gewünschte Auflösung konvertieren.
 
Sorry aber das ist Quark. Die Nexus4 Kamera macht 8MP Fotos. Sind die etwa auch von 1080p hochskaliert? Wenn man 8MP Bilder ohne Interpolation machen kann, dann heisst das auch, dass der Sensor diese Pixeldichte unterstuetzt und es Sinn macht.

Ich koennte z.B. ein Zeitraffer-Movie einer wachsenden Bohne machen mit 8MP Aufloesung indem ich jede Minute ein Bild mache und dann 1000de von Bildern zu einem Movie zusammenpappe.

Ich fasse also zusammen. Das Nexus4 hat einen ausreichend genauen Sensor. 4K Movies sind nicht von 1080p hochskaliert! Das Nexus4 hat sehr viel RAM und ist auch schnell (Snapdragon 600).
Das aktuelle Samsung Galaxy Note3 macht mit einem Snapdragon 800 ja auch 4K Movies. Klar ist das Nexus4 ein bissl langsamer aber wer sagt, dass das Note3 am Limit arbeitet bei 4K Aufnahmen. Auch muss es wie ich im ersten Post schon erwaehnt habe keine 30 fps sein. Mir reichen auch 20 fps.
 
Wieso 4K Auflösungen nehmen? Ist bei der Bild und Videoqualität bei Handys nur Speicherverschwendung. So fein ist die Kamera nicht, dass sich das lohnt. 720p oder 1080p sind empfehlenswerter.

Gesendet von meinem LT22i mit der Android-Hilfe.de App
 
Ich habe eine Theorie. Foren ziehen viele Leute an, die auf viele Fragen so antworten: "warum willst du das denn, geht's noch?", "das braucht doch kein Mensch!", "das macht doch ueberhaupt keinen Sinn", "das lohnt nicht", usw., und die damit dem Rest den letzten Nerv klaut. Entweder SIE wollen es und finden es toll oder NIEMAND past, present and future will oder braucht es! Naja, ist nur eine Theorie ;)

@BEnji96: du hast schon gelesen, dass ich oben - mit etwas was ich Fakten nenne - darlege, dass die Kamera des Nexus4 eben mehr als genung 'fein' ist um 4K Videos zu machen.
Auch machen 4K Videos richtig viel Sinn und sehen um Laengen detailierter aus als 1080p Videos. Such mal in Youtube nach "Samsung Galaxy Note3 4K" dann siehst du was ich meine. Zum Vergleich sollte man es uebrigens nicht im Browser anschauen sondern die Video Dateien in 4K und 1080p von Youtube runterladen.

Das Note3 ist was Sensor oder CPU oder RAM angeht nicht sehr viel besser als das Nexus4. Deswegen nehme ich an, dass 4k auch mit dem Nexus4 technisch gehen sollte.

Und es gibt viele Leute die sich das Note3 nur wegen diesem 4K Feature kaufen! Ich kenne sogar jemanden aus dem Freundes der sich das Teil aus Korea mitgebracht hat weil es dort 4K unterstuetzt - lustigerweise machen das abhaengig vom Land aber nicht alle Note3. Es gibt also Leute die wollen 4K und das macht bei Smartphones auch VIEL Sinn!
Das Nexus4 bietet 480p, 720p, 1080p Video Recording an. Ich werde mich bestimmt nicht hinstellen und Leute die 480p einstellen davon abbringen wollen. Dasselbe sollte aber auch fuer 4K gelten!
 
  • Danke
Reaktionen: Aslolo, Fight4Music, coolfranz und 2 andere
Um die Frage zu beantworten: Nein geht nicht, da der Snapdragon 600 noch nicht 4K unterstützt. Die Grafikeinheit des Snapdragon 800 ist dagegen potent genug um dies zu können.

Quelle:
Snapdragon 800, 600, 400, 200 Processor Specs | Mobile Technology | Qualcomm Snapdragon Processors

Der ursprüngliche Beitrag von 09:52 Uhr wurde um 09:54 Uhr ergänzt:

P.S.: Auch wenn die Kamera 8MP hat und damit auch eigentlich genug Pixel, so heißt das noch lange nicht, dass sie auch 4K aufnehmen kann, da meist zum Kameramodul ein entsprechender Bild/Signalprozessor gehört der zusätzlich die gewaltigen Datenmengen verarbeiten muss
 
  • Danke
Reaktionen: Guenni88 und sirbender
Kurze Anmerkung: Wir haben einen S4 Pro und keinen 600 :) Alles andere wurde oben erklärt.
 
Geh mal auf das englische Wikipedia und guck mal im Abteil Snapdragon 600. Die Krait Dualcore heißen auch jetzt Snapdragon 400, nicht mehr S4 Plus

Gesendet von meinem LT22i mit der Android-Hilfe.de App
 
Ist auch egal ob S4Pro oder 600 - der 600er ist ein etwas getunter S4 Pro. Die Aussage bleibt gleich ;)
 
Melkor schrieb:

P.S.: Auch wenn die Kamera 8MP hat und damit auch eigentlich genug Pixel, so heißt das noch lange nicht, dass sie auch 4K aufnehmen kann, da meist zum Kameramodul ein entsprechender Bild/Signalprozessor gehört der zusätzlich die gewaltigen Datenmengen verarbeiten muss


Wirklich schade, dass wir hier hoechstwahrscheinlich niemand haben, der mal eine Video-Kamera App geschrieben hat. Der koennte uns mal erklaeren wie das ablaeuft und wie stark dass nativ mit der Hardware verknuepft ist bzw. nur auf APIs von Android aufsetzt. Auch intressant waere es zu wissen ob die Foto- und Video App sehr verschieden sind wenn es um grundlegende Bildverarbeitung angeht. Wenn man eine Video-App schreibt ist da die API recht high level und man ruft einfach nur eine Methode FullHD auf oder ist es mehr Handarbeit...das man Einzelbilder dann im eigenen Code zu einem Videostream verarbeitet?!

Bestimmt koennte man ja eine App schreiben, die 4MP Bilder in sehr kurzen Zeitabstaenden von der Kamera machen laesst und diese dann als Videostream ablegt. Sowas wie eine Serienbildaufnahme.
 
Ein bischen Recherche spaeter. Es gibt "Timelapse" Apps mit denen man wie die es nennen dem "Full Sensor" Videos aufzeichnen kann.

Das sind uebrigens Timelapse Videos: https://www.google.com/search?chann...utf-8#channel=fs&q=timelapse&safe=off&tbm=vid

Hier ist eine App die sowas macht: https://play.google.com/store/apps/details?id=com.ui.LapseIt&hl=de

In der PRO Version nutzt diese auch den Full Sensor!!! Also 8MP Videos. Ich habe vorhin mit dem Nexus4 eines gemacht.

Es ist also moeglich. Was man anmerken sollte, ist, dass diese ganzen Apps bestimmt die Android Foto-API nutzen und dann 'per Hand' die Einzelbilder zu Videos zusammenkleben. Das ist SUUUUPER uneffizient. Wenn man so Videos aufnehmen wuerde haette man selbst bei 1080p Probleme mit 25 fps aufzuzeichnen.

Deswegen...ich glaube 4K Videos waeren mit dem Nexus4 in 15+ fps moeglich. Kommt halt drauf an wie gut das optimiert ist.
 
sirbender schrieb:
Wirklich schade, dass wir hier hoechstwahrscheinlich niemand haben, der mal eine Video-Kamera App geschrieben hat. Der koennte uns mal erklaeren wie das ablaeuft und wie stark dass nativ mit der Hardware verknuepft ist bzw. nur auf APIs von Android aufsetzt. Auch intressant waere es zu wissen ob die Foto- und Video App sehr verschieden sind wenn es um grundlegende Bildverarbeitung angeht. Wenn man eine Video-App schreibt ist da die API recht high level und man ruft einfach nur eine Methode FullHD auf oder ist es mehr Handarbeit...das man Einzelbilder dann im eigenen Code zu einem Videostream verarbeitet?!

Bestimmt koennte man ja eine App schreiben, die 4MP Bilder in sehr kurzen Zeitabstaenden von der Kamera machen laesst und diese dann als Videostream ablegt. Sowas wie eine Serienbildaufnahme.

Also ich bin jetzt nicht unbedingt der Profientwickler, aber für Kamerazugriff verwendet man normalerweise das Android-API, oder täusche ich mich da?

Camera | Android Developers
 
Meinst du mit Kamerazugriff die Foto-Kamera-App oder die Video-Kamera-App?

Vielleicht nutzt man die Android-API. Wobei Videos aufzeichnen/abspielen so stark optimiert sein duerfte, dass da vielleicht auch manche Hersteller ihre Optimierungen machen. Es gibt ja viele Snapdragon 800 Smartphones aber nur das Note3 kann 4K Video.

Es koennte natuerlich auch sein, dass Google alles (also alle krassen sehr hardwarenahen Optimierungen) hinter einer API versteckt mit der man dann Video-Recording Apps bauen kann. Die Hersteller muessen dann mitunter den Code internen Code dieser API auf die Hardware anpassen. Ich spekuliere hier nur, aber an irgendeinem Punkt gibt es sehr hardwarenahe Optimierungen. Kann gut sein, dass der Nutzer der Android-API davon nix mitkriegt.
Nur wird diese Android-API zu unflexibel sein. D.h. wenn man sowas wie eine Timelapse App machen will mit Full Sensor Capturing, dann wird man wohl mit der Foto-API Einzelbilder aufzeichnen und an irgendeinem Punkt daraus ein Video machen. Dass ganze ist dann aber sehr viel lahmer und unoptimierter als eine echte Video-APP die auf die hochoptimierte Android-API zugreift um Videos zu erstellen.
 
Wie ist das eigentlich mit den unterstuetzten Videoaufloesungen? Die sind ja nicht irgendwo hardcoded. Also z.B. im Android-Sourcecode. Da wird doch in der Video-Recording-App irgendwo eingestellt welche Aufloesungen unterstuetzt werden, oder?

Wenn jetzt ein Smartphone, dass nur 480p Recording vom Hersteller aus unterstuetzt eine Cyanogenmod-ROM erhaelt, gibt ja letztendlich Cyanogenmod oder dessen Video-Rec-App vor, welche Aufloesungen unterstuetzt sind und welche man in der App dann einstellen kann.
Koennte das Cyanogenmod Team somit einfach entscheiden den User in der Video-Rec-App 720p Recording anzubieten? Das schlimmste was passieren koennte waere, dass die Videos nicht fluessig sind, oder verstehe ich das falsch?

Oder gibt es irgendwelche Hardware-Limits die verhindern, dass eine App geschrieben wird, die 720p anbietet? Das einzige Hardwarelimit das ich sehe ist der Kamera-Sensor selbst und der ist ja meist ausreichend da die Fotos sehr viel hoehere Aufloesung haben als Videos.
Oder ist dieses Limit im DSP zu suchen und kann das jemand mal detailierter erklaeren?!
 
timelapse macht keine videos in dem sinne.

ein video muss codiert werden. nicht nur der sensor und die cam an sich sind am video beteiligt, sondern auch das micro und viele sensoren und chips.

timelapse sind eigentlich nur starre fotos, die aneinandergeklebt werden.
ein richtiges video ist damit gar nicht möglich!
 
Ich denke das Hauptproblem wird da von der Hardware die Auslesegeschwindigkeit des Sensors sein. Klar kann der 8 MP Bilder machen, aber die kann man halt nicht schnell genug aus ihm raus kriegen, damit es für ein flüssiges Video reicht (die werden üblicherweise Zeilenweise ausgelesen, was bei Digitalkameras bei Schwenkbewegungen in Videos mitunter den Rolling-Shutter Effekt hervorruft).
Und dann muss das ganze wie angeschrieben ja noch codiert und mit Ton kombiniert werden. Also ich denke nicht, dass sich da (bis auf hochauflösende Zeitraffervideos) wirklich was reißen lässt.
 
@Melkor und Guenni88
Da gebe ich euch recht. Schaut euch doch mal ne Spiegelrefelx an mit der man auch Videos aufnehmen kann. Eine Canon EOS 7D mit 18 Mega Pixel und einer Auflösung von 5184x3456 nimmt auch "nur" FullHD auf. Da wird es irgendwo am Sensor liegen der die gewaltigen Bild Daten nicht schnell genug verarbeiten kann.
Manche Kameras nehmen ja auch 60p Filme auf aber regeln dann die Auflösung runter.
 
Meist nicht Sensor, das ist ein Problem des DSP bzw. der Anbindung zwischen Sensor und DSP - meistens ein angepasster ARM-Chipsatz (bei Smartphones und anderen günstigen Geräten) der auf Medienverarbeitung (um z.B. optimal MP3 und Jpeg verarbeiten zu können) spezialisiert ist oder eben ein speziellen Bildprozessor (bei Eos sind es DIGIC - auch ARM basiert), die festverdrahtet dann z.b. die RAW-Daten schnell auslesen und weiterverarbeiten können.
4K ist halt schon gewaltig - das geht bei Qualcomm eben erst mit der aktuellsten Hexagon-DSP (Snapdragon 800: Hexagon QDSP6V5A mit 600MHz, Snapdragon 600: Hexagon QDSP6V4 500MH)
 
Jo Sensor war quatsch, mein Fehler.
 

Ähnliche Themen

sirbender
  • sirbender
Antworten
3
Aufrufe
2.810
fazerdirk
fazerdirk
sirbender
Antworten
10
Aufrufe
2.829
kmon2502
K
I
  • infinity4
Antworten
6
Aufrufe
2.209
infinity4
I
Zurück
Oben Unten