Passende Foto- und Bildergebnisse durch Google
Immer das passende Foto- oder Bildergebnis durch Google zu finden ist schwer. Genauso verhält es sich mit der eigenen Website, die unter anderem durch ihre themenbezogenen Bilder auf sich aufmerksam machen soll. Das wichtigste bei der Bilderkennung sind nicht, wie vermutet, die Bilder an sich, sondern ihre Definition in Form der Bildbeschreibung. Die hier enthaltenen Wörter sind ja schließlich jene, nach denen Bilder bei der Google suche gefunden und angezeigt werden. Ausgesuchte Entwicklerteams aus den USA entwickeln derzeit ein Verfahren, das Bilder und deren Inhalte erkennt und automatisch beschreibt. Dies bringt besonders für die Google Bildersuche erhebliche Vorteile.
So ist es oft einfach, eine passende Unterschrift zu finden, während bei anderen Titeln nur die Botschaft des Bildes umschrieben wird. Somit kann es passieren, dass einige Unstimmigkeiten bei den Ergebnissen zustande kommen. Dies soll sich jedoch mit der neuen Erfindung der Amerikaner ändern. Doch was für den menschlichen Verstand ein Leichtes sein mag, ist für einen Computer eine Herausforderung. Zwei Teams arbeiten zurzeit ähnliche Konzepte aus. Eines davon gehört zu Google, das andere ist von der Stanford-Universität aus Kalifornien. Der Ansatz die Verfahren aus Bildverarbeitung und Sprachverarbeitung zu kombinieren ist jedoch bei beiden Teams Vorhanden.
Systeme verknüpfen Inhalte wie unser Gehirn
Bei der Erarbeitung der Lösung wird vor allem auf das menschliche Nervensystem zurückgegriffen. Computerprogramme sind weitestgehend vom menschlichen Gehirn inspiriert und nennen sich KNN – eine Abkürzung für künstliche neuronale Netze. Diese Systeme erlernen es, Muster zu erkennen.
Computer erkennen Bildmaterial
An dieser Stelle verwenden die Google-Entwicker ein System namens Convolutional Neural Network (CNN). Dies wurde trainiert, Objekte auf Bildern zu analysieren und nach der Erkennung an ein rückgekoppeltes neuronales Netz (RNN), welches auch für Übersetzungen genutzt wird, weiterzuleiten.
Das RNN erstellt nun eine passende Bildbeschreibung, wodurch ein Bild mit diversen Gegenständen, Tischen und Menschen und bestimmtem Licht zu einem Nachmittag auf dem gut besuchten Flohmarkt wird. Auch die Gruppe der Stanford-Forscher haben ihre Systeme zunächst angelernt, indem sie sie mit einer Anzahl von Bildern mit korrekten Beschreibungen gefüllt haben. So lernten die Algorithmen, Parallelen aus Bildobjekten und deren Beschreibungen zu finden. Daraus entstehen präzise Beschreibungen, die zur Suche von Bildern sehr effektiv sind. Wer ist zu sehen, was tut er und wie tut er es? Diese Grundfragen werden in der Beschreibung fast immer mit Schlagwörtern beantwortet.
Umsetzung von Bildern in Worte
Auch wenn ein Bild sprichwörtlich mehr sagt, als tausend Worte, sind Wörter für die Google-Suche doch am wichtigsten. Die Algorithmen werden also so lang genutzt, bis jedes Bild eine passende Beschreibung gefunden hat um sich so aufspüren zu lassen. Damit unterstützen sie zukünftig beispielsweise auch Roboter, bei der Suche nach Bildinhalten.