zum Hauptinhalt
Prof. Dr. Stefan Edlich

© Oliver Elsner

Prof. Dr. Stefan Edlich: Magie für die Stadt der Zukunft

Hier finden Sie den Videomitschnitt zu diesem Vortrag auf dem Digital Science Match 2015.

Heute und zukünftig müssen Analysen für Maschinelles Lernen auf immensen Datenmengen in der Cloud verarbeitet werden. Dazu braucht es fähige innovative Systeme wie das Berliner Apache Flink und auch Methoden, um Fehler im Ablauf der Analyse auf tausenden von Rechnern zu finden. Unsere Forschung konzentriert sich initial darauf, Fehler der Entwickler zu finden, die nur auf einem oder wenigen der tausenden Rechner / Cores / Threads auftreten. Dazu muss der Fehler gut lokal isoliert, und ‘debuggt’ werden können. Ein Bereich, dem sich bisher kaum Forscher und Entwickler gewidmet haben.

Weiterhin ist es das Ziel, den Rechenfluss dann so ungestört wie möglich weiter ablaufen zu lassen. Herausforderungen für die Forschung ist weiterhin, dies in bestehende führende Systeme wie Apache Flink oder Spark zu integrieren, ein generelles Framework für diese Mechanismen bereitzustellen, sowie Richtlinien für den Entwurf neuer Systeme zu definieren, die ein lokales Debugging nativ unterstützen.

Zur Person

Beuth Hochschule für Technik Berlin, Softwaretechnik und Big Data

Prof. Dr. Stefan Edlich ist Professor für Softwaretechnik und Big Data an der Beuth Hochschule für Technik Berlin. Seit 2014 ist er Mitglied des nationalen Kompetenzzentrums BBDC für Big Data. Zudem organisiert er viele Konferenzen im Bereich Big Data, verteilte Systeme und Programmiersprachen.

Links

http://prof.beuth-hochschule.de/edlich/biography/

Schlagworte

Debugging Fehlersuche Big Data Data Science Cloud Computing

Zur Startseite