Diese Schritte werden nun wiederholt – viele tausende bis Millionen Male und nicht nur mit einem Bild, sondern mit vielen verschiedenen Bildern von Äpfeln und Birnen. Jedes Mal verändern sich die Neuronenwerte dabei ein wenig. Sie werden ein klein wenig besser darin, Äpfel und Birnen zu unterscheiden, da die Anzahl der Beispiele, die sie richtig zugeordnet haben, stetig wächst. Dieser Prozess heißt „Lernen“ und ist ungeheuer rechenaufwändig.
Am Ende dieses Prozesses sind die Neuronen dann aber so fit, dass sie Bilder von Äpfeln von denen von Birnen unterscheiden können. Und hier kommt nun die „Magie“ ins Spiel: Das neuronale Netz kann nicht nur die Bilder unterscheiden, die es bereits kennt und gelernt hat, richtig einzuordnen. Es kann dies auch bei Bildern, die es noch nie gesehen hat. Das Netz hat von den Trainingsbildern ein allgemeines Muster abstrahiert, das es nun auf neue Bilder anwenden kann.
Die Unterscheidungsmerkmale von Äpfeln und Birnen hat das KNN sich selbst im Laufe des Trainings beigebracht und sie entsprechen nicht menschlichen Maßstäben. Wir würden diese Objekte unterscheiden nach Merkmalen wie etwa „ist rund und rot“ -> Apfel, „ist länglich und grün“ -> Birne. Ein Computer kann aber mit Begriffen wie „rot“ oder „länglich“ nichts anfangen. Er findet eigene Unterscheidungsmerkmale, die vielleicht heißen könnten „hat Durchschnittlich einen Rotwert von X Prozent“ oder die sehr viel abstrakter sind. Sie stehen aber nirgendwo zum Nachlesen, sie sind implizit in der Gesamtformel enthalten, die alle Neuronen ausmachen.
Die Entscheidungswege der KI, also der Grund, warum sich die KI für „Apfel“ entscheidet, sind nicht direkt für uns nachvollziehbar, weshalb man manchmal auch von der „Black Box“ spricht, da für die menschliche Intuition nicht offensichtlich ist, wie ein KNN zu seiner Einschätzung gekommen ist (denn ein Computer denkt nicht in „länglich“ oder „grün“).
Jedoch lässt sich der Entscheidungsweg zu jedem einzelnen Bild im Nachhinein genau nachvollziehen, wenngleich sie auch durch eine sehr komplizierte mathematische Formel dargestellt wird, die durch Tausende oder Millionen von Parametern bestimmt wird.
Jedes Neuronale Netz ist nur so gut wie seine Trainingsdaten. Deshalb ist es wichtig, gut sortierte und einheitlich strukturierte Daten zu verwenden, wenn ein KNN trainiert werden soll. Und hier wird klar, warum Unternehmen wie Facebook oder Google so viele Daten sammeln: Je mehr Daten sie haben, desto besser können sie künstliche Netze auf diese loslassen, diese trainieren und auswerten. Und genau deshalb ist es wichtig für Unternehmen, viele Daten zu sammeln.
Limitationen von neuronalen Netzen
Wird das Netzwerk mit Daten gefüttert, die nicht zu der Art der Trainingsdaten passen, ist es überfordert
© WFB/Raveling