Worte wie Artificial Intelligence, KI oder Big Data sind heutzutage wohl in aller Munde – auch bei Laien. Selbst die Klassifizierung Machine Learning, Data Science oder Deep Learning ist schon weitläufig bekannt. Grund genug für uns, gemeinsam mit Martin Weber (Catalysts) eine Ebene deeper zu gehen und einen Hands-on Workshop zu Deep Learning, der Technologie hintern neuronalen Netzen, zu hosten.
Wir sprechen also über Deep Learning und bauen unser erstes neuronales Netz. Was verbirgt sich hinter der Technologie, wie funktioniert sie? Warum eignet sie sich so gut für die Erkennung von Bildern und wie macht sie das?
Martin Weber erklärt den Mikrokosmos des Deep Learning mit einem kurzen Schwenk ins Tierreich…
“Wie können Computer Schwarze von weißen Schafen unterscheiden? Das kann vermutlich aufgrund der unterschiedlichen Färbung mittels RGB-Skala noch relativ einfach durch Nullen uns Einsen dargestellt werden.”
“Wie unterscheidet ein Computer aber Schafe von Ziegen? Durch welche Merkmale? Und wie sind diese durch Einsen und Nullen quantifizierbar? Oder ist es doch einfacher, sich am menschlichen Lernen zu orientieren?
“Ein Mensch hat einen Haufen Schafe und Ziegen gesehen und erkennt die Unterschiede. Um das dem Computer beibringen, müssen wir auch dem Computer viele Schafe und Ziegen zeigen und die Möglichkeit geben, ähnliche Merkmale zu verarbeiten. Der Computer erhält also sehr sehr viele Beispiele von Ziegen und Schafe, verarbeitet diese Bilder in einem neuronalen Netz und erinnert sich nachher an die korrekte Antwort. Mit einer gewissen Wahrscheinlichkeit…”
Genauer wird in einem Neuron eine Inputfunktion mithilfe einer nichtlinearen Funktion (“Activation Function”) zu einer Outputfunktion weiterverarbeitet – und das auf verschiedenen, nacheinander gelagerten Abstraktionsebenen (“Layer”) mit vielen Neuronen. Schlussendlich erhalten wir dann einen Outputwert, dessen Korrektheit im Normalfall mit der richtigen Lösung überprüft wird (daher sind “gelabelte Daten” sehr vorteilhaft) und ein Feedback auf die Funktionen bzw. Neuronen auslöst – die Schrauben werden neu gestellt. Wir “trainieren” somit das Netzwerk und starten wieder von vorne…
Und was war daran nun der Hands-on Teil? Martin bereitete ein Beispiel vor, anhand dessen wir in der Google Cloud ein neuronales Netz programmierten, das mittels eines handgeschriebenen Datensets von Zahlen (0-9) innerhalb von nur wenigen Sekunden mit einer Erfolgswahrscheinlichkeit von 97% richtig klassifizierte.
Du kannst das Beispiel bei Klick auf das Bild selbst noch einmal durchspielen…
Alles in Allem ist Modell des Deep Learning ja schon lange bekannt und mathematisch relativ simpel. Doch warum dann dieser Hype? Durch technologische Verbesserungen aus dem Hardware-Bereich (Grafikkarten und Cloud-Lösungen) können plötzlich nie dagewesene Datenmengen schnell und effizient verarbeitet werden – Computing Power, that’s the Magic!
Auch der warme, sonnige Frühlingstag ließ die rund 30 Teilnehmer unbeeindruckt: “Trotz des schönen Wetters wollte ich den Deep Learning Workshop auf keinen Fall versäumen. Ich habe mich absolut richtig entschieden und jetzt kann jetzt immer noch die letzten Sonnenstrahlen genießen”, so eine Teilnehmerin.
Wird es weitere, ähnliche Formate geben? Wir werden sehen… die Nachfrage ist jedenfalls vorhanden!
So stay tuned…