IT-Konzerne rüsten auf: Sie investieren in maschinelles Lernen. Schon Mitte der 60er Jahre entstand ein Hype um die lernende Maschine. Dabei verstehen wir die Algorithmen immer noch nicht richtig.

Dass es sich der Rechner einfach machte, stellten Wojciech Samek und sein Team erst nach einiger Zeit fest. Der Wissenschaftler leitet die Forschungsgruppe Maschinelles Lernen am Fraunhofer Heinrich-Hertz-Institut HHI in Berlin. Seine Gruppe analysierte ein intelligentes System, das Pferde auf Fotos erkennen sollte. Doch es erkannte die Tiere nur manchmal. Die Forscher stellten fest: Das Programm hatte sich die Bilder der Pferde gar nicht „angeschaut“. Es hielt sich stattdessen an die Schlagworte, die im Copyright der Fotos hinterlegt waren. Wenn die Angaben fehlten, konnte der Rechner nichts mit den Bildern anfangen. Er hätte ein Pferd selbst dann nicht erkannt, wenn es dasselbe Bild gewesen wäre.

Maschinelles Lernen ist ein großes Thema dieser Tage – besonders, seit die großen IT-Konzerne massiv in diese Technik investieren. Amazon erwarb 2015 die Firma Obeus mit Schwerpunkt Gesichts- und Emotionserkennung sowie Video-Indexierung. Apple kaufte Emotient, ebenfalls spezialisiert auf die Analyse von Gefühlen. Facebook erwarb das Startup Pebbles, das sich mit Gestenerkennung beschäftigt, und Google investierte unter anderem in Deep Mind Technologies. Letzteres Unternehmen machte mit dem Programm Alpha Go Furore, weil es beim Brettspiel Go einen der besten Spieler der Welt schlug. Selbst in kommerziellen Cloud-Diensten ist das maschinelle Lernen längst integriert, sei es bei Amazon Web Services, Microsoft Azure oder IBM Bluemix.

Aber wie können Unternehmen das maschinelle Lernen sinnvoll einsetzen? Ist es wirklich schon mehr als eine Spielerei? Das maschinelle Lernen lässt sich als so etwas wie die praxistaugliche Seite der künstlichen Intelligenz beschreiben. Das Thema wurde bereits in der Mitte des 20. Jahrhunderts gehypt. Damals wollten Visionäre Computer schaffen, die so „denken“ sollten wie wir Menschen. „Maschinen werden in 20 Jahren alle Arbeit übernehmen können, die ein Mensch erledigen kann,“ verkündete Mitte der 1960er Jahre der spätere Wirtschaftsnobelpreisträger Herbert Simon. Computer würden uns verstehen, hieß es, und unsere Sprache sprechen. Doch dann kam die Ernüchterung: Die Fortschritte ließen auf sich warten, die finanzielle Förderung der KI-Forschung brach ein.

Dank besserer Rechenleistung und geringeren Erwartungen erlebt die künstliche Intelligenz heute ihr Comeback, allerdings sprechen Informatiker inzwischen lieber von „Machine Learning“-Algorithmen. Es geht vor allem darum, aus Daten zu lernen, in Daten nach Mustern zu suchen und Vorhersagen zu vorher festgelegten Fragestellungen zu treffen. Statt der Maschine also vorzuschreiben, was sie machen soll, weist man sie an, aus Datenbeständen zu lernen und die eigentliche Aufgabe dann selbst zu erfüllen.

Maschinen brauchen (noch) Lehrer

Ein Beispiel dafür ist eine Software des Massachusetts Institute of Technology (IT). Eigentlich ist ein Foto eine Momentaufnahme. Doch dahinter steckt eine Geschichte. Wenn wir ein Bild sehen, können wir erraten, wie sich die Szene kurz nach der Aufnahme verändert hat: Zeigt es einen Zug kurz vorm Bahnhof? Dann können wir uns vorstellen, wie die Wagons an der Haltestelle einfahren. Eine Welle im Meer? Sie wird am Ufer brechen. Ein in die Luft springender Hund, eine ein paar Meter entfernte Frisbee? Der Hund wird sie fangen und wieder auf dem Boden landen. Die Glanzparade eines Torwarts? Endet im Gras. Wir müssen nicht lange darüber nachdenken – wir schließen es aus den im Bild angedeuteten Bewegungen.

Genau das wollten die MIT-Forscher auch Maschinen beibringen. Dafür haben sie eine Software entwickelt, die aus solchen Fotos kleine Videos macht, in denen sie die Handlung weiter spinnt. Die Videos dauern zwei bis vier Sekunden, und sie sind verschwommen, aber die Software kann trotz allem plausibel darstellen, welche Pixel sich ungefähr verändern. Die Essenz der Bewegung wird erfasst. Den Forschern gelang diese Kunst, indem sie einem neuronalen Netz 5.000 Stunden an Lernvideos zeigten: Strandszenen, Bahnhofsszenen, Szenen auf einem Golfplatz oder Babys im Krankenhaus. Aus den Videos lernte der Rechner, Bewegungen auf einzelne Fotos zu übertragen, die in der gleichen Umgebung angesiedelt sind. Die Forscher entwickelten zudem eine Software, die voraussagt, ob sich zwei Menschen in einer Szene küssen, umarmen oder die Hand reichen werden. Das kann einem System künftig ermöglichen, sich Filme anzuschauen, sie zu verstehen und die Handlung zusammenzufassen oder die Filme sinnvoll zu schneiden. Für Trailer und Schnitt eines Videos braucht es dann keinen Menschen mehr. Ein kleiner Einblick in das, was maschinelles Lernen zu leisten vermag.

Ganz selbst können die Maschinen heute aber immer noch nicht „denken“. Maschinelles Lernen braucht in der Regel menschliche Mithilfe, eine Art Mentor oder Lehrer. Ein Online-Händler will zum Beispiel, dass eine Software automatisch erkennt, ob eine neue Hose blau, schwarz oder weiß ist. Daher ordnet zunächst ein Mensch mehrere Hosen entsprechend ein. Die Maschine versucht, mit diesen Daten den Unterschied von blau, schwarz und weiß zu verstehen. Ein Mensch beaufsichtigt die ersten Bewertungen der Maschine und korrigiert sie. Der Algorithmus verfeinert die Prognose. Die manuell geprüften Daten nennen Programmierer manchmal den Gold Standard, die Grundlage des sogenannten „Supervised Learning“.

Ein Kriterium dafür sei etwa, ob eine Aufgabe besser von einem Menschen oder einer Maschine gelöst werden kann, sagt Jens Haase von der Darmstädter Firma Consetto, die Software für künstliche Intelligenz im Auftrag von Unternehmen entwickelt. Eine Firma aus der Automobilbranche wollte zum Beispiel ihre Stammdaten bereinigen. Das Unternehmen nutzte noch Daten, die vor 30 Jahren eingepflegt wurden, als die Textfelder in Datenbanken eine Zeichenbegrenzung hatten. Das führte dazu, dass Produktinformationen oft mit Abkürzungen eingepflegt wurden. Viele Daten waren zudem mit der Zeit doppelt vorhanden. Die Firma setzte zunächst Praktikanten und Studenten ein, um die Daten zu überarbeiten. Aber schnell zeigte sich, dass sie dafür Jahre gebraucht hätten. Consetto entwickelte ein Programm, das aus den menschlichen Bearbeitungen lernte und das Gelernte auf den Rest der Datenbank übertrug. Die Bereinigung dauerte wenige Wochen.

„Maschinelles Lernen kann grundsätzlich immer eingesetzt werden, wenn strukturierte Datenbanken vorhanden sind“, sagt Paul von Bünau vom Berliner Unternehmen Idalab, das ebenfalls Lösungen für künstliche Intelligenz entwickelt. „Außerdem müssen die Daten vergleichbar sein. Es wäre sinnlos, aus Daten der Vergangenheit zu lernen, wenn sich zwischenzeitlich das Geschäftsmodell, das Produkt oder die Zielgruppe geändert hat.“ Wenn die Voraussetzungen stimmen, kann maschinelles Lernen aber ein entscheidender Wettbewerbsvorteil sein.

Es gibt auch ein „Unsupervised Learning“, ein Lernen ohne Aufsicht. Dabei soll die lernende Maschine in großen Datenmengen nützliche Muster erkennen, zum Beispiel in Website-Statistiken. Ein Online-Buchhändler kann die Werke von so einem System gruppieren lassen, zum Beispiel in solche, die gerne von Teenagern gelesen werden. Zum Vergleich: Mittels „Supervised Learning“ könnte der Händler den Büchern konkrete Schlagwörter wie Krimi, Thriller oder Fantasy zuordnen lassen, aber dafür braucht er eben den manuell aufgebauten Lerndatensatz. Ein weiterer Ansatz: „Reinforcement Learning“, bei dem das Programm durch Ausprobieren Neues erlernt. Das macht etwa die Software eines Roboters, wenn dieser an einem Hindernis stecken bleibt. Er merkt sich das Objekt und passt dann automatisch seine künftige Route an.

Verwendet man bei diesen Lernprozessen ein sogenanntes neuronales Netz, spricht man von „Deep Learning“. Solche Netze simulieren das menschliche Gehirn, indem sie beim Lernen die Stärke von simulierten Neuronenverbindungen verändern. Je näher ein Schritt auf dem Lösungsweg zum gewünschten Ziel einer Aufgabe führt, desto stärker wird die entsprechende Verbindung gewichtet. Deep Learning wird vor allem in der Bild- und Spracherkennung verwendet, in der die Maschine immense Datensätze auswerten muss.

Diese Beispiele zeigen, dass das maschinelle Lernen – anders als die Science-Fiction-Vision der frühen künstlichen Intelligenz – im Alltag bereits angekommen ist. Typische Anwendungen sind auch die Spam-Erkennung, Chatbots, Empfehlungen in Online-Shops, automatisierte Antworten im Kunden-Service bis hin zu Prognosen der Vertrauenswürdigkeit eines Kunden.

Machine Learning: „Keine magische Formel“

Zu den Beispielen dafür zählt Fraud.net, eine Plattform, die Online-Betrug voraussagen soll. Die dahinter steckende KI ermittelt anhand von Website-Statistiken, wie wahrscheinlich ein neuer Kunde den Händler prellen wird. Die Software vergleicht dafür Daten wie die IP-Adresse, Geoinformation, Gerätedaten, bisheriges Surf- und Login-Verhalten des Users mit Informationen aus einer umfassenden Datenbank, die von allen beteiligten Unternehmen gefüttert wird. Fraud.net wird laut Eigenauskunft immerhin von zwei Prozent der amerikanischen Online-Händler genutzt, weshalb auch entsprechend viele Daten vorliegen. Da Betrüger ihre Strategien allerdings laufend ändern, müssen die Algorithmen ständig neu dazu lernen.

Fraud.net nutzt das Cloud-Computing-Angebot von Amazon Web Services. Dort ist Maschinelles Lernen integriert – man muss mittels eines digitalen Assistenten ein so genanntes Lernmodell aufstellen. Das hält nach verschiedenen Mustern Ausschau: Wurde die Kundenrezension von einem Menschen oder von einer Maschine verfasst? Welche Kategorie ist für einen Kunden, der ein bestimmtes Produkt gekauft hat, noch interessant? Für welchen Preis wird das Produkt am ehesten gekauft? Das sind typische Fragen, die Amazons Maschinelles Lernen beantworten kann – vorausgesetzt, es liegen Beispieldaten vor. Bei der Frage nach Kundenrezensionen müssten welche vorliegen, die manuell als „von einem Menschen verfasst“ oder „von einer Maschine verfasst“ markiert wurden. Erst dann können Algorithmen das Muster auf den größeren, unbearbeiteten Datensatz übertragen.

Die Angebote von Amazon oder auch Microsoft sind allerdings weder günstig noch sonderlich flexibel. Das sagt jedenfalls Haase. „Maschinelles Lernen ist keine magische Formel, von der jedes Unternehmen gleichermaßen profitiert“, so der Experte. Als Unternehmer müsse man sich zunächst Fragen stellen wie „Welche Daten habe ich?“ oder „Was will ich aus ihnen herauslesen oder mit ihnen machen?“. Das nähme dem Unternehmer das maschinelle Lernen allerdings nicht ab. „Erst wenn ich weiß, was ich möchte, kann ich einschätzen, ob der Einsatz der Programme für meine spezifischen Anforderungen sinnvoll ist – und meist zeigt sich, dass die Standardlösungen der Cloud-Anbieter nicht hilfreich sind.“

Idalab arbeitet zum Beispiel mit Lieferando zusammen. Der Onlinemarktplatz vermittelt Kunden an regionale Restaurants mit Lieferservice. Als Lieferando an den Start ging, wusste das Unternehmen nicht, was die Kunden eigentlich bestellten. Es leitete Aufträge weiter, ohne sie auswerten zu können. Die Kunden wiederum konnten die Suchergebnisse nicht nach verschiedenen Speisen filtern. Sie gaben lediglich die Postleitzahl ein und bekamen Restaurants aus der Umgebung angezeigt. Idalabs Aufgabe bestand darin, die inzwischen mehr als 10.000 Restaurants und ihre Gerichte so aufzubereiten, dass sie automatisch klassifiziert wurden. Die Entwickler schufen 1.600 Kategorien für Speise-Zutaten und bauten einen Trainingsdatensatz auf, um dann per maschinellem Lernen die insgesamt zehn Millionen Einträge korrekt einzuordnen. Nun kann Lieferando nicht nur Kunden anbieten, gezielt nach Gerichten zu suchen. Das Unternehmen kann aus den Bestellstatistiken auch strategische Fragen beantworten, etwa wie gut eine Region mit chinesischem Essen abgedeckt ist.

Bünau sagt, dass künftig vor allem die Zunahme an strukturierten Daten das maschinelle Lernen voranbringen werde. „Da immer mehr Firmen und Branchen datentechnisch besser aufgestellt sind, wird es mehr Möglichkeiten geben, Daten zu nutzen und Verknüpfungen herzustellen.“ Ein Beispiel wären Wikipedias Flughafendaten: Die Online-Enzyklopädie bietet seit einiger Zeit bei internationalen Flughäfen Tabellen mit häufigen Flugzielen oder jährlichen Flugbewegungen an. Solche strukturierten Daten sind ideal für Lern-Algorithmen. Damit könnte man zum Beispiel Risikoprofile von Flugregionen erstellen.

Neuronale Netze verweigern die Auskunft

Weitere Fortschritte durch maschinelles Lernen wird es bei der klassischen Suche im Netz geben. Google etwa entwickelte eine Deep-Learning-Technik namens Rankbrain, die bereits erheblichen Einfluss auf die Suchergebnisse hat. Das System wertet unter anderem die Qualität eines Suchergebnisses aus, indem es untersucht, ob der Nutzer auf einer Seite verweilt, sofort zur Suche zurückkehrt oder gar eine neue Suche startet. Diese Engagement-Werte sorgen dafür, dass nutzlose Seiten oder Clickbaiting-Angebote künftig schlechter abschneiden – ähnlich wie Facebooks Algorithmen auch Beiträge von Leuten abwerten, die bereits zuvor Beiträge mit wenig Interaktionen gepostet haben. Um in Zukunft also relevanten Content zu liefern, muss ein Anbieter seine Beiträge inhaltlich besser auf die Nutzerbedürfnisse ausrichten – und ironischerweise kann auch da maschinelles Lernen helfen. Die Systeme werden immer besser in der Lage sein, für jedes einzelne Produkt im Katalog eine individuelle, ausführliche Beschreibung automatisch aus nüchternen Produktdaten anzufertigen. Man begegnet somit dem maschinellen Lernen mit maschinellem Lernen.

Ein Problem des maschinellen Lernens mit neuronalen Netzen liegt darin, dass selbst die Programmierer nicht wissen, wie der Computer zu seinen Ergebnissen kommt. Wie lernt er? Was berücksichtigt er dabei? Für die Entwickler mag das nicht relevant sein, wenn die Ergebnisse zielführend sind. Aber als Mitte 2016 ein selbstfahrendes Auto der Firma Tesla einen Lastwagen-Anhänger mit einem Verkehrsschild verwechselte und einen tödlichen Unfall verursachte, zeigte sich, dass Maschinen eben doch manchmal katastrophal falsche Schlüsse beim Lernen ziehen.

Wie lassen sich solche Fehler vermeiden? „Wenn wir die Methoden im maschinellen Lernen verbessern wollen, ist es wichtig zu verstehen, was die Algorithmen falsch machen“, sagt Forscher Samek. „Das ist eine gewaltige Aufgabe, da im Deep Learning Millionen von Neuronen in Schichten simuliert werden – da kann man nicht einfach in die Prozesse hineinblicken.“ Das Beispiel mit den Pferdebildern verdeutlicht das nur zu gut.

Das Team vom HHI hat für die Pferdefotos mittlerweile eine Lösung gefunden: Es sorgte bei weiteren Versuchen dafür, dass die Software ihre Entscheidungsfindung visualisierte: Sie zeigte an, welche Pixel sie für die Unterscheidung heranzog. Dadurch können die Forscher heute besser verstehen, was die Software treibt. Wenn sie die gleichen Bildbereiche „sieht“, auf die auch Menschen achten, befindet sich das System auf einem guten Weg. Allerdings gehen auch Menschen bei der Foto-Wahrnehmung unterschiedlich vor. Einen idealen Weg des Lernens gibt es folglich auch für Maschinen selten. „Noch schwieriger ist es, die Analysen des maschinellen Lernens zu automatisieren“, so Samek.

Das Verständnis des maschinellen Lernens ist nicht nur bei selbstfahrenden Autos oder bei der Bildinterpretation wichtig. Auch in der Medizin will ein Arzt nicht nur, dass eine Diagnose-Software künftig anhand von verschiedenen Werten erkennt, ob ein Patient krank ist oder nicht. Den Arzt interessiert auch, wie der Rechner zu der Schlussfolgerung kommt, was also die Krankheitsanzeichen sind. Und Unternehmer, die maschinelles Lernen für Gewinnprognosen einsetzen, werden sich eine ähnliche Frage stellen: Welche Faktoren sind relevant? Lassen sich diese positiv beeinflussen?

Es ist schwer zu sagen, wie sich das maschinelle Lernen in Zukunft weiterentwickelt. Die meisten Entwickler halten sich mit Aussagen zurück, um nicht wieder falsche Erwartungen zu wecken. Zweifellos werden uns Maschinen sprachlich besser verstehen: Digitale Assistenten wie Google Now, Siri und Cortana werden Fragen genauer beantworten und routinierte Office-Aufgaben übernehmen. In Gmail gibt es einen Vorgeschmack mit dem englischsprachigen Feature „Smart Reply“: Es schlägt Antworten auf häufige E-Mail-Anfragen vor. Die Systeme werden sich aber auch in anderen Bereich weiterentwickeln. Künstliche Intelligenzen werden künftig auch eigene Algorithmen produzieren, meint zumindest Oriol Vinyl, der Deep-Learning-Experte von Google. Dann würden wir dem Rechner eine einfache Aufgabe erklären, für die wir eine App bräuchten, und er würde sie uns kurzerhand programmieren.

Das mag noch etwas futuristisch klingen. Doch die Ideen sind heute ernst zu nehmen. Das lässt sich auch daran fest machen, dass die Experten heute nicht mehr in Begeisterungsstürme ausbrechen. Maschinelles Lernen ist dafür schon viel zu sehr im Alltag angekommen.

Dieser Text erschien in t3n.