![Rookie19](/data/avatars/s/170/170700.jpg,q1553171643.pagespeed.ce.qNmXt6UK1g.jpg)
Rookie19
Stamm-User
- 151
Eine allgemeine Frage, daher im Allgemeines Thread:
Wieso hängt der Stromverbrauch von der eingestellten Auflösung ab? Es gibt meiner Ansicht nach 2 Szenarien:
Display hat physisch 1920x1080
Eingestellt sind 1920x1080
Hier werden alle Bildpunkte 1:1 verarbeitet.
Display hat physisch 1920x1080
Eingestellt sind 1480x720
Das Display hat physisch immer noch FullHD, also werden hier die Berührungspunkte nicht 1:1 umgesetzt, sondern müssen noch extra umgerechnet werden.
Letzteres müsste meiner Logik nach ja sogar MEHR Strom verbrauchen? Ich meine, ALLE sagen, dass eine niedrigere Auflösung weniger Strom frisst, also wird's wohl stimmen. Die Frage ist nur, wieso? Was übersehe ich?
Wieso hängt der Stromverbrauch von der eingestellten Auflösung ab? Es gibt meiner Ansicht nach 2 Szenarien:
Display hat physisch 1920x1080
Eingestellt sind 1920x1080
Hier werden alle Bildpunkte 1:1 verarbeitet.
Display hat physisch 1920x1080
Eingestellt sind 1480x720
Das Display hat physisch immer noch FullHD, also werden hier die Berührungspunkte nicht 1:1 umgesetzt, sondern müssen noch extra umgerechnet werden.
Letzteres müsste meiner Logik nach ja sogar MEHR Strom verbrauchen? Ich meine, ALLE sagen, dass eine niedrigere Auflösung weniger Strom frisst, also wird's wohl stimmen. Die Frage ist nur, wieso? Was übersehe ich?