Das neue Google-Hirn ist unheimlich gescheit – und einfach nur unheimlich

Apps, die Fotos sortieren, intelligente Antworten geben und Gesichter erkennen. An der Entwickler-Konferenz I/O in San Francisco zeigte Google einmal mehr, was es mit seinem enormen Wissensschatz anfangen kann. Doch nicht alle Innovationen werden Europa erreichen. Aus Datenschutz-Gründen, versteht sich.

Ende Mai fand in San Francisco die Entwickler-Konferenz I/O statt, wo Google seine allerneusten Produkte präsentierte. Einige davon könnten unseren Alltag revolutionieren. (Bild: ROBERT GALBRAITH)

Apps, die Fotos sortieren, intelligente Antworten geben und Gesichter erkennen. An der Entwickler-Konferenz I/O in San Francisco zeigte Google einmal mehr, was es mit seinem enormen Wissensschatz anfangen kann. Doch nicht alle Innovationen werden Europa erreichen. Aus Datenschutz-Gründen, versteht sich.

In Sachen hirnähnlicher Computersysteme ist Google ganz weit vorne. Der Konzern hat in den vergangenen Jahren mit mehreren hundert Millionen Dollar Investitionen getätigt, einige der besten Forscher der Welt eingestellt und sich einen enormen Wissensschatz angeeignet. Google-Software kann jetzt Ferienfotos sortieren oder passende Filmtrailer finden.

Zwei neue Produkte, die von Googles künstlichem Hirn angetrieben werden, gehörten zu den interessantesten Neuerungen, die Google an der jährlichen Konferenz für Entwickler und die Presse vorgestellt hat. Ein neues Produkt ist die Foto-App. Sie nutzt Googles Intelligenz, um Bilder automatisch nach Menschen, Orten, und Dingen zu organisieren. In einem Test organisierte die App meine persönlichen Bilder: Alle Brücken landeten in einem Album, weil davon jede Menge in meiner Sammlung waren. Suchte ich nach «Truthahn» fand Google sofort dieses eine Foto des letzten Thanksgiving-Essens. Dasselbe Bild befand sich in dem bereits automatisch zusammengestellten Album «Essen». Organisiert wie von einem Menschen, einfach viel, viel schneller.

Google weiss, dass das Foto in Paris gemacht wurde 

Um das hinzukriegen, reichen der App die Informationen wie Tageszeit oder Standort eines Fotos nicht, die heute an den meisten Bildern hängen. Google analysiert auch das Bild selbst, und findet sogar heraus, wo es geschossen wurde, wenn keine GPS-Informationen dranhängen. Die Algorithmen erkennen auf den Bildern Dinge, die auf den Ort rückschliessen lassen. Entdeckt es den Eiffelturm, weiss die App, dass das Foto in Paris gemacht wurde. Der Turm ist eine von 250’000 Sehenswürdigkeiten weltweit, die Googles Algorithmen auf unseren Fotos erkennen und zuordnen können.

Es geht aber noch weiter: Fotografiere ich den Eiffelturm und zwanzig Minuten später eine Ente am Fluss in der Nähe, nimmt Google an, dass auch dieses Foto in Paris geschossen wurde, so erklärte es «Photos»-Produkte-Chef David Lieb in einem Pressegespräch. Google rechnet damit, dass die Person das zweite Foto ebenfalls in Paris aufnahm, wenn sie in 20 Minuten kaum aus Paris rausfahren würde. 

Das Ganze erlaubt Nutzern bisher ungekannte Suchmöglichkeiten in der Fotosammlung. Die neue App löst ein Problem, an dem Konkurrenten wie Flickr oder Dropbox gescheitert sind. In den Worten von Google-Manager Bradley Horowitz: «Wenn wir von den Ferien zurückkehren, und tausende von Fotos geschossen haben, brauchen wir gleich nochmals Ferien, um uns all die Fotos anzusehen.»

Weitaus bessere Spracherkennung

Wir schiessen Fotos wie wild, aber das Verwalten ist immer noch umständlich und aufwändig. Hier hilft Google: Wenn in einer Sammlung verschiedene Fotos einer einzigen Person liegen, entdeckt die App sofort, dass es sich auf den Bildern um die gleiche Person handelt. Der Computer erkennt etwa das gleiche Kind auf einem Babyfoto und auf einem, das Jahre Jahre später am ersten Schultag entstanden ist. «Dank Modellen, die zeigen wie Menschen generell altern», erklärte Horowitz.

Diese Intelligenz ist die Killer-Funktion dieser auch sonst ganz hübschen App. Sie ist so intelligent dank künstlicher neuronaler Netze, also abstrakten Nachbildungen eines menschlichen Gehirns im Computer. Man kann das durchaus als Google-Hirn bezeichnen — so nennt die Firma ein entsprechendes Projekt. Google sei führend in Sachen Künstlicher Intelligenz dank einer Reihe von Zukäufen aus dem Sektor, sagte Sundar Pichai, Googles oberster Produktechef.

Erst letztes Jahr hat Google die englische Firma DeepMind für mehrere mehrere hundert Millionen gekauft. Davor auch Neven Vision, DNN Research und Jetpac. Sie haben das Google-Hirn unendlich besser gemacht. Das hilft beim Verwalten und Durchsuchen von Fotos, aber auch bei fast allem andern, was Google so anbietet. Der Spracherkennung etwa: Da wurde die Fehlerquote auf acht Prozent reduziert, sagte Pichai. Noch vor zwei Jahren war sie drei Mal so hoch.

App erkennt nicht nur Frage, sondern auch Kontext

Und die Intelligenz treibt auch das zweite Aufsehen erregende Produkt der diesjährigen Entwicklerkonferenz an. Es heisst «Now on Tap» und dürfte für Android-Nutzer das ganze Smartphone-Erlebnis verändern. Die Präsentation löste bei Journalisten, Entwicklern und auch der Google-Managerin, die präsentierte, schier kindliche Freude aus. Auf der Bühne fragte ein junger Mann sein Smartphone: «Wie heisst er mit bürgerlichem Namen?», nachdem das Lied des Künstlers «Skrillex» aus dem Smartphone klang. Das Google-Hirn verstand und antwortete innerhalb von Millisekunden: «Skrillex’ bürgerlicher Name ist Sonny John Moore.»

Das Google-Hirn versteht nicht nur die Frage des jungen Mannes, sondern auch den Kontext, in dem er spricht. Deswegen ist klar, wer der «er» aus der Frage ist. «Die Informatikerin in mir ist völlig ausser sich vor Freude», sagte Managerin Aparna Chennapragada und erklärte: Skrillex ist eine von über einer Milliarde «Einheiten» in Google’s Datenbank, dem «Knowledge Graph».

Google weiss von diesen Dingen was sie sind — Restaurants, Filme, Sportteams — und hat weitere Informationen zu ihnen — Öffnungszeiten, die Liste der Schauspieler und so weiter. Das revolutioniert die Google-Suche. Doch die wird mit «Google Now on Tap» in vielen Fällen unnötig, ist die Funktion doch als fester Bestandteil der neuen Version des Android-Betriebssystem immer da und sucht ganz von selbst. Beispielsweise in der Kurznachrichten-App: Hier tippte die Google-Managerin die Funktion an, während sie eine Nachricht ihres Mannes las.

Unheimlich gescheit und einfach nur unheimlich

Google «las» mit und erkannte, dass ihr Mann von einem bestimmten Restaurant sprach und zeigte sofort Bewertungen für das Lokal und eine App für Reservierungen an. Keine Suche nötig. Google entging auch nicht, dass der Mann vergessen hatte, die Kleider in der Reinigung abzuholen und schlug der Empfängerin einen passenden Eintrag in der Erinnerungsfunktion vor. Diese neuen Fähigkeiten dürften auch Nutzern helfen, die keine Android-Telefone haben. In der Google-App «Inbox» für andere Geräte tauchen bereits neue hilfreiche Details auf. Doch nur mit Android wird die Funktion zum allzeit verfügbaren Assistenten für alles.

Das ist unheimlich gescheit, unheimlich praktisch – aber auch einfach ein bisschen unheimlich. Denn das Google-Hirn funktioniert nur mit einer Menge Informationen. Also noch mehr Daten, die Google von uns will. Fotos oder Einblicke in Apps. Dass das etwas unheimlich sein kann, scheint auch Google klar zu sein: Europäische Nutzer erhalten erstmal eine entschärfte Version von «Google Photos», wie ein Google-Sprecher am Rande der Konferenz erklärte.

Die Version ausserhalb der USA hat vorerst keine Gesichtserkennungsfunktion, schaut also nicht, ob ein Babyfoto die eigene Tochter als Säugling oder ein anderes Baby zeigt. Eine Sprecherin behauptete, es sei ganz gewöhnlich, dass gewisse Funktionen erstmal in den USA getestet werden. Doch David Lieb, der Produkte-Chef für «Photos» sprach von «mehreren rechtlichen und anderen Gründen».

Google weiss alles, was wir auf dem Smartphone tun

Auch Nutzern in den USA könnten die Funktionen ungeheuer sein, deswegen betont Google, dass die Funktionen auch ohne persönliche Informationen funktionieren. Die Informationen der Bilder-App würden nicht mit anderen Daten verknüpft, die Google von seinen Nutzern hat. Und auch nicht umgekehrt: «Die Informationen, die bei der Analyse dieser Fotos gewonnen werden, werden ausserhalb dieses Produktes nicht verwendet», sagte auch Bradley Horowitz, der Chef sozialer Produkte und Fotos von Google, dem Magazin «Backchannel». Aber er fügte an: «Jedenfalls noch nicht.»

Auch die andere, vom Google-Hirn angetriebene Funktion, gibt Google einen tieferen Einblick in das Leben seiner Nutzer. Mit «Now on Tap», der Assistenzfunktion, gibt Google Android-Nutzern erstmals einen Grund, sich auch in die Apps schauen zu lassen, die Google nicht selbst anbietet. Dahin also, wo Smartphone-Nutzer immer mehr Zeit verbringen, aber Google bisher keinen Zugriff hatte.

Die neue Funktion legt eine Google-Schicht über alles, was wir auf unseren Smartphones tun. Das können auch die Entwickler der Apps nicht verhindern, wie eine Google-Sprecherin bestätigte. Nur Nutzer selbst können die Funktion ausschalten. Doch das scheint unwahrscheinlich. Das ist es, was «Photos» und «Now on Tap» zu echten Google-Produkten macht: Sie zementieren Google’s Rolle als gescheitester der Giganten im Silicon Valley. Aber auch das leise Bedenken bleibt.

Nächster Artikel