Letztes Update:
20190424134608

Welche Anforderungen stellen Machine Learning Projekte an die Infrastruktur?

12:44
25.10.2018
Unter diesem Titel spricht nun Dr. Basil Moshous von IBM wo er als Client IT Architekt für Fokus Kunden arbeitet. Bevor Dr. Moshous zur Infrastruktur kommt, gibt er einen kurzen Einblick in neuronale Netze, den wir hier im Live-Blog unvollständig und vereinfacht wiedergeben.

„Unstrukturierte Daten würden die Hauptquelle für Informationen.“ Als Beispiel zeigt er eine Punktewolke, bei welcher erst nach längerem Hinsehen ein Teilnehmer erkennt, dass es sich bei den schwarz-weißen Punkten um eine Kuh handelt.
Die Qualität der Daten müsse nicht herausragend sein um am Ende Informationen zu entnehmen. Das was wir Menschen machen, sei auch das, was auch Algorithmen machen würde um Informationen aus Daten zu erhalten.

Mit einem prozeduralen Ansatz wie man es bislang aus der IT kennt [if/else then that] käme man hier nicht weiter.
Stattdessen verfolge man ja bereits schon eine Weile einen statistischen Ansatz. Mit (Deep) Machine Learning vertiefe man diesen Ansatz. „Wir begeben uns in einen Bereich in dem wir mit Wahrscheinlichkeiten arbeiten. Die Gesamtheit der Ergebnisse gibt mir dann am Ende recht oder nicht.“

Paul Knecht

Doch was für Hardware braucht man jetzt für KI-Anwendungen?

12:53
25.10.2018
„Sie brauchen zuerst einmal eine hohe Bandbreite um große Daten aufbereiten zu können“, erklärt Dr. Moshous.

Dafür arbeite man bei IBM mit schnellen Interface-Karten, Field Programmable Gate Arrays (FPGA), Flash-Speicher und vor allem GPUs. Anders als CPUs erlauben GPUs sehr viel mehr parallel ausführbare Rechenoperationen, was ideal für Matrixmultiplikationen sei.

Das sei aktuell der Status Quo bei IBM. Für die Zukunft arbeite man aber an Synapse Chips, eine sg. neuro-synaptische Architektur und Quanten Rechnern.

Paul Knecht