Project Glass: Google Glasses Allgemeine Diskussion und News-Thread

  • 179 Antworten
  • Letztes Antwortdatum
Mal was neues. Bin mal echt gespannt was daraus wird. ;)
 
Demnächst steigt der Anteil der Brillenträger dann also exponentiell. ;)
Ich freu' mich auf das, was Google daraus macht. Das HUD im 5er find ich ja schon cool...-wie ist denn sone Brille dann bitte? :D

Ich stelle es mir sehr schwer vor ohne die Akkuaufladung nebenbei einen dauerhaften und längeren Stromfluss sicherzustellen. Also die nächsten Jahre wohl eher noch eine Überlegung als eine Umsetzung?
 
Wenn würde das als quasi Fernbedienung für das eigentliche Smartphone kommen, denke ich
Alles andere wäre allein wegen dem Akku nicht machbar, die sind jetzt schon an der grenze des momentan Machbaren...

Und so eine Skibrille gibt es meines Wissens nach schon

Gesendet von meinem Optimus 2X mit Tapatalk
 
Sehr sehr interessant und wäre wirklich eine Bereicherung.. finde ich .. ABER.. und ja es muss ein ABER folgen .. es sollte genug Akkulaufzeit haben und vor allem einfach in eine normale Brille integrierbar sein, oder eine normale Brille ersetzten, auf so ein futuristischen "Sonnenclip" für AR hab ich keine lust..

Wenn doch meine Brille sowas jetzt schon könte :)
 
Fehlerhafte Formatierung? Ich sehe noch immer die Bilder aus dem urprünglichen Demonstrationsvideo?

Das einzige Bild das wirklich mit der Kamera aufgenommen wurde, genau das wurde nicht in die Meldung eingearbeitet.
 
  • Danke
Reaktionen: don_giovanni
mea culpa -.-
wurde berichtigt.
 
Der erste Schritt auf dem Weg zum Cyborg :D

Durchaus ein interessantes Konzept, was Google hier ans Licht bringt. Aber leider auch nicht mehr, würde ich schätzen, da die Nutzer heutzutage sehr großen Wert auf alltagstauglichkeit legen. Da wäre zum einen der Akku, der ja mindestens so lange halten sollte wie bei nem Smartphone (einen guten Tag), was aber in die Brille integriert designtechnische und auch Ergonomische Grenzen hat. Das hieße wiederum, man bräuchte einen externen Akku samt Kabelverbindung zur Brille, was das Ganze wieder zu unhandlich gestaltet.

Zweites Problem sehe ich ganz klar in der Bedienung, da ich mich in der Öffentlichkeit mit der Brille ja nicht zum Affen machen will ("Möchten sie die Email löschen? Dann schütteln sie mit dem Kopf, drehen sich 2 Mal um die eigene Achse und klatschen dabei drei Mal laut in die Hände"). Klar wird man sich da pfiffige Bedienungslösungen ausdenken wie man sie jetzt auch beim Touchscreen erst hat finden müssen (Zwei-Finger-Zoom,...), aber wenn man die Brille dann nicht strikt in ihren Funktionen beschneidet wie z.B. Emails lesen ist möglich, Antworten aber nur mit auswählbaren Kurzantworten (Tastatur einblenden und mit den Augen bedienen wäre wieder zu umständlich), gibt das ein Fiasko.

Man kann auch erkennen, dass Google das ähnlich sieht: Hätten sie einen ausgereiften Prototypen im Labor, der die oben beschriebenen Schwächen nicht besitzt, würden sie sich ja hüten, das ganze jetzt öffentlich zu machen. Da sie aber wohl selbst nicht wissen, wo da die Reise hingeht, und von der Umsetzung noch weit entfernt sind, macht es auch nichts aus, das ganze zu veröffentlichen und durch den dadurch erhaltenen Input zu lernen.

Soviel dazu ;)
 
Ich befürchte ja, dass der Preis zu Beginn alles andere als human sein wird. Alle möglichen Komponenten werden im Miniaturformat benötigt, aber gerade die dann ohnehin teuren müssen auch noch Leistungsstark sein (Laser, Akku). Auch die übrige Hardware wird keine Schwachpunkte enthalten dürfen, wenn man die Brille ohne Ruckler betreiben möchte. Denn umso stärker ein Gadget ins persönliche Leben integriert werden will, desto höher sind die Anforderungen daran.
Vielleicht führt Google ja aber auch die Android-Strategie weiter, sodass sie einen Teil der Kosten über die Nutzerdaten/Werbeeinnahmen finanzieren.

Wenn die Brille unauffällig aussieht und gut bedienbar ist, hätte ich auch nichts gegen einen tragbaren separaten Akku. Die stünde dann eigentlich ganz oben auf meiner Wunschliste. An Funktionen wird es mittelfristig bei einer Androidbasis nicht mangeln - da wird Google und werden andere pfiffige Entwickler schon für sorgen.

MARIIIO schrieb:
aber wenn man die Brille dann nicht strikt in ihren Funktionen beschneidet wie z.B. Emails lesen ist möglich, Antworten aber nur mit auswählbaren Kurzantworten (Tastatur einblenden und mit den Augen bedienen wäre wieder zu umständlich), gibt das ein Fiasko.
Oder man optimiert die Spracherkennung weiter, die inzwischen eh schon erstaunlich gut funktioniert. Wenn Google noch etwas an der Zeichensatzung arbeitet, könnte man damit durchaus schon Mails diktieren. ;)
 
Ich weiß, dass das ein Großteil der Smartphone-Nutzer das wohl anders sieht, aber ich finde die Spracherkennung trotz großer Fortschritte in den letzten Jahren immernoch nicht wirklich brauchbar. Beim diktieren einer Mail geht's ja noch einigermaßen, aber das Handy damit steuern wie es bei der SGS3-Präsentation der Fall war (erst den Zuhoren-Button drücken und dem Handy dann sagen, was tun soll finde ich schon echt umständlich...)
 
MARIIIO schrieb:
Ich weiß, dass das ein Großteil der Smartphone-Nutzer das wohl anders sieht, aber ich finde die Spracherkennung trotz großer Fortschritte in den letzten Jahren immernoch nicht wirklich brauchbar. Beim diktieren einer Mail geht's ja noch einigermaßen, aber das Handy damit steuern wie es bei der SGS3-Präsentation der Fall war (erst den Zuhoren-Button drücken und dem Handy dann sagen, was tun soll finde ich schon echt umständlich...)
Bei Konsumer Produkte stimme ich dir zu, bei professionale Produkte eher nicht.
 
An welche professionelle Anwendungen denkst du da? Würde das ganze gern mal ausgereift sehen...
 
Microsoft Tellme(?) kenn den Namen nicht gerade. Wurde von Microsoft entwickelt, nur nicht wirklich (wie üblich) so stark vermarktet.
;)
http://www.microsoft.com/en-us/Tellme/default.aspx

Was nah ran kommt ist auch die Sprachsteuerung unter Windows 7.
 
Zuletzt bearbeitet:
Das man in aller Regel erst einen Button drücken muss ist weniger ein systembedingtes Problem (diese - ansonsten blöde - Spracherkennung im S2 reagiert auch auf Ansprache, wenn die App läuft). Aber wenn man die Sprachsteuerung durchgehend laufen lassen will saugen auch durchgehend Mikrofon, Datenverbindung und CPU am Akku. Mal von den Datenmengen zu schweigen, die die Googleserver und die Netze fluten würden, wenn von 20+ Millionen Geräte parallel quasi 24 Stunden am Tag ein individueller Sound-livestream kommen würde, der auch noch mit wenigen Sekunden Verzögerung ausgewertet und beantwortet werden müsste.
Das wird denke ich auch bei den glasses ein spannender Punkt werden.
Eventuell könnte man einen Teil der Erkennung lokal erledigen, aber selbst das wäre ein absoluter Akkukiller.

Ich frage mich aber gerade auch, ob der Akku überhaupt ein Problem wäre... Mal angenommen es wird ein externer... Der könnte dann ja schon 4 bis 8 mal so groß wie ein Smartphone-Akku sein. Macht also ca. 8500 mAh.


So wie ich die Infos auf der Seite zu tellme deute, ist das einfach die Spracherkennung, die auch in Windows phone & Co drin ist...


Mal ein anderer Aspekt: Viele gezeigte Funktionen könnte man auch klassisch lösen, indem man einfach mit anderen Menschen redet (z.B. nach dem Weg Fragen, Produktinformationen,...). Die Frage ist eigentlich, ob so eine Brille von dem her überhaupt nötig ist oder nicht sogar ein weiterer Schritt Richtung Vereinsamung der Menschen und Verlust von sozialen Kompetenzen ist.

VG dadri

Gesendet von meinem GT-I9100 mit Tapatalk 2
 
Zuletzt bearbeitet:
Zum Thema Akku stimme ich dir zu, dass konnte bisher eine großeses Problem werden. Aber dennoch stehen wir ja noch nicht im Releasetime, sondern weit vor der Alphaphase! :D Mal schauen, was sich alles so entwickelt wird.

Zum sozialer Vereinsamung stimm ich dir teilweise zu. Heute ist es doch deutlich schlimmer geworden, wenn man mit einfachsten Mittel (z.B Straßenkarte, Stadtplan) nicht zurecht kommen. Aber die Technik allein ist ja nicht schuld, sondern der Mensch. (Siehe Social Media wie Facebook).

Gesendet von meinem Nexus S mit der Android-Hilfe.de App
 
Tolle Sache !!

Wenn es so funktionieren würde wie gezeigt... Aber das glaube ich noch nicht... Ich denke auch,das die Spracherkennung und Umsetzung nicht zuletzt in unterschiedlichen Umgebungen immer noch zu problematisch ist...
Weder ein Siri noch ein Alice-System versteht mich im Auto, zu Hause, auf der Straße, bei Krankheit etc bei den unterschiedlich lauten Umgebungen bzw Störgeräuschen...

Wenn das mal im Griff ist, wäre es genial... Welche Systeme können das heute schon zuverlässig ?
 
Larry Page sollte definitiv keine Präsentationen halten.

LG Marius
 
Bringt ihr einfach bei, die Vita zu heiraten. Dann bin ich glücklich :)
 
Die neuste Eingabetechnik (18.01.2013) geht in die richtige Richtung.
 

Ähnliche Themen

W
Antworten
3
Aufrufe
215
mblaster4711
mblaster4711
1Manfred1
Antworten
7
Aufrufe
1.006
balu_baer
balu_baer
S
  • splittiDE
Antworten
4
Aufrufe
113
splittiDE
S
Zurück
Oben Unten