Die App Google Goggles ist diese Woche in der neuen Version 1.1 erschienen. Wichtigste Änderung: Goggles kann fotografierten Text in fünf Sprachen übersetzen. Weitere Neuerungen betreffen die Nutzerschnittstelle, die Analyse von auf dem Smartphone gespeicherten Fotos und den Umfang der Datenbank erkannter und gespeicherter Objekte.
Einfach fotografieren und übersetzen lassen. Das geht mit Google Goggles 1.1. Die neue Version der App für visuelle Suche auf Android-Geräten könnte besonders Auslandsreisenden das Leben erleichtern. Bei Google denkt man an die Übersetzung von Straßenschildern und Speisekarten, die sich fotografieren lassen, indem man ein Foto mit der Handykamera schießt.
Über „Region of Interest“ markiert der User den Teil des Fotos, auf den es ankommt. Schließlich muss die Software wissen, welchen Bildausschnitt sie analysieren lassen soll. Wurde der Text erkannt, kann er übersetzt werden. Da ab sofort die Sprachen Spanisch, Italienisch, Englisch, Französisch und Deutsch zur Auswahl stehen, müssen die Originalsprache und die Zielsprache angeben werden.
Obwohl Smartphones immer leistungsfähiger werden, findet die Übersetzung selbst nicht auf dem Mobiltelefon statt, sondern in der Cloud, auf den Servern von Google, wo der Übersetzungsservice Google Translate läuft. Deshalb steht eine enorme Rechenkapazität für den Service zur Verfügung.
Der Nachteil besteht allerdings darin, dass das Übersetzen nur mit einer Internetverbindung funktioniert. Mit einem Mobiltelefon im Ausland zu teuren Roaming-Tarifen das Internet zu nutzen, kann allerdings richtig teuer werden. Außerdem sind viele Besitzer von Android Phones von der Nutzung dieser App ausgeschlossen, weil sie noch eine ältere Version als Android 1.6 auf ihrem Smartphone benutzen und es keine Updates für ihre Geräte gibt.
Die neue Version von Google Goggles kann außerdem Fotos auswerten, die sich bereits auf dem Smartphone befinden. Traut man sich aufgrund der Kosten für die mobile Internetnutzung im Ausland nicht, einen Eintrag auf der Speisekarte zu übersetzen, fotografiert man ihn für später und lässt sich erst zu Hause von Google sagen, was man im Urlaub eigentlich gegessen hat.
Außerdem ist die Datenbank mit den erkannten und gespeicherten Objekten, auf die Google Goggles zur Bildanalyse zugreift, vergrößert worden. Die Idee hinter der visuellen Suche ist schließlich, von allen möglichen Objekten Fotos aufnehmen zu können, um damit eine Suchanfrage starten zu können. Je mehr Sehenswürdigkeiten, Produkte und andere Objekte in der Datenbank sind, desto nützlicher wird Google Goggles.
Theoretisch ist mit der App eine Personenerkennung möglich, doch diese Funktion hält Google noch zurück. Schade eigentlich, denn das wäre ein Quantensprung für die Internetsuche. Aber angesichts der Aufregung vieler Menschen, wenn Google nur ihr Haus von außen fotografiert, ist die Welt vermutlich noch nicht reif für diesen Schritt.
Was denkt Ihr über die visuelle Suche mit Google Goggles?