Ein Gespräch mit Yauheniya Shynkevich – Muster-(Er-)Forscherin

Menschen & Ideen bei der Deutschen Börse

Erschienen am: 07.05.2018

In fast jedem Bereich spüren und erleben wir derzeit Veränderung. Dabei macht die digitale Transformation vor kaum einer Branche halt. Insbesondere etablierte Unternehmen wie die Deutsche Börse sind gefordert, ihre Geschäftsmodelle zu hinterfragen, in neue Richtungen zu denken und neue Wege zu beschreiten. Trotz aller Technik steht dabei dennoch immer der Mensch im Mittelpunkt. Denn zum einen müssen neue digitale Angebote sich immer nach den Bedürfnissen der Kunden richten. Und zum anderen geht jede technische Veränderung von uns Menschen aus. Ohne unsere kreativen Ideen, unsere Initiative und unsere Energie geht es nunmal nicht. In einer losen Serie von Interviews möchten wir Ihnen hier Menschen und Ideen vorstellen, die den Wandel in der Deutschen Börse erheblich vorantreiben.

Yauheniya Shynkevich


Eine dieser Mitarbeiterinnen ist Yauheniya Shynkevich in unserem Londoner Büro. In diesem Interview gibt sie Einblicke in ihr Wissen über künstliche Intelligenz, Mustererkennung sowie die Verarbeitung natürlicher Sprachen (Natural Language Processing, NLP) und sie erklärt, wie daraus neue Produkte und Dienstleistungen für die Gruppe Deutsche Börse entstehen.

Könnten Sie uns einen Einblick in Ihren beruflichen Hintergrund geben?

Ich bin Datenwissenschaftlerin und seit Mai 2017 im Content Lab der Deutschen Börse tätig. Nach Abschluss meiner Promotion habe ich zunächst als Beraterin gearbeitet. Mein Studium war interdisziplinär, d.h. ich habe mich schon damals mit maschinellem Lernen und Computational Intelligence-Techniken befasst. Diese Techniken habe ich auf Finanzdaten angewandt, um Vorhersagen über künftige Reaktionen der Kapitalmärkte auf Nachrichten zu treffen. Ich habe dazu die Rohdaten des Nachrichtenmaterials verwendet und musste somit auch NLP anwenden. Vor meiner Promotion war ich in der Entwicklung und Prüfung von Finanzsoftware tätig.

Was sind Ihre Aufgaben innerhalb der Gruppe Deutsche Börse?

Unser Content Lab-Team besteht aus Datenwissenschaftlern, Dateningenieuren und Use Case-Managern. Das gesamte Team beschäftigt sich mit einer ganzen Reihe von Anwendungsfällen; daher ist jeder Datenwissenschaftler in mehreren Bereichen tätig. In meinem ersten Anwendungsfall ging es ganz konkret um die prädiktive Analyse für Unternehmensanleihen. Die meisten Wertpapiere werden bereits auf elektronischem Weg gehandelt. Das gilt jedoch nicht für Unternehmensanleihen, die immer noch überwiegend außerbörslich gehandelt werden. Und da die Gruppe Deutsche Börse den Abwicklungsmarkt für europäische Unternehmensanleihen dominiert, haben wir Zugang zu extrem wertvollen Daten.

Mein Ziel war es, die historische Liquidität von Unternehmensanleihen anhand von Informationen über die Abwicklung und Verwahrung bei Clearstream, dem Zentralverwahrer der Gruppe Deutsche Börse, zu analysieren. Im Grunde habe ich die Abwicklungsdaten stellvertretend für Handelsdaten verwendet. Basierend auf diesen Daten sowie auf öffentlich zugänglichen Informationen über Anleihen konnte ich die Wahrscheinlichkeit vorhersagen, mit der eine bestimmte Anleihe in Zukunft gehandelt werden wird. Die Frage war: Wie wahrscheinlich ist es – unter Berücksichtigung aller heute verfügbaren Daten zur Anleihe – dass diese am Folgetag gehandelt wird? Zu beachten ist, dass die Deutsche Börse über eine große Menge firmeneigener, geschützter Daten verfügt, die der Öffentlichkeit nicht zugänglich sind. Wir haben Zugriff auf diese Daten und können sie nutzen, um akkurate Vorhersagen über künftige Handelstätigkeiten zu treffen. Unser Ziel ist es, einen „smarteren“ Handel aller Arten von Anleihen, nicht nur Unternehmensanleihen, zu ermöglichen; außerdem möchten wir die Liquidität auf Plattformen wie Eurex Repo steigern.

Durch die Analyse historischer Daten kann man also eine Voraussage über den Handel von Unternehmensanleihen treffen?

Ja, wir versuchen zu diesem Zweck öffentlich zugängliche Informationen und Daten, die der Deutschen Börse vorbehalten sind, zu kombinieren. Bis jetzt sind wir mit dem Ergebnis zufrieden. Zudem arbeiten wir an weiteren Entwicklungen für spezielle Analyseverfahren für Anleihen. Beispielsweise führen wir Analysen von historischen Abwicklungsdaten einer bestimmten Anleihe durch und treffen darauf basierend eine Aussage über die Wahrscheinlichkeit einer verspäteten Abwicklung. Basierend auf der Aktivität von Händlern mit einem ähnlichen Profil auf dem Anleihemarkt prüfen wir außerdem derzeit die Möglichkeit, Empfehlungen für bestimmte Anleihen an Händler auszusprechen.

Klingt ein bisschen wie bei Amazon: Kunden, die diese Anleihen gekauft haben, kauften auch…

Genau. Wir möchten den Menschen bei der Entscheidungsfindung helfen und gleichzeitig weitere Trades vorschlagen, die für sie von Interesse sein könnten – Anleihen, die sie in der Vergangenheit übersehen haben, die aber möglicherweise interessant für sie sind.

Können Sie uns noch etwas über NLP-Techniken sagen?

Die Absicht von NLP, also der Mustererkennung und Verarbeitung natürlicher Sprachen, ist es, einem Computer beizubringen, eine natürliche Sprache – so wie wir sie sprechen und schreiben – zu verstehen. Das ist schwierig, da die natürliche Sprache keiner starren Logik folgt. Sprache ist ganz einfach schwer zu verstehen.

Natural Language Processing (NLP)

ist ein Bereich der Informatik, genauer gesagt der künstlichen Intelligenz. Die Technologie dient der Interaktion zwischen Sprache gebrauchenden Personen und Sprache verarbeitenden Computern, speziell der Programmierung von Computern, um große Mengen natürlicher Sprachdaten ergebnisreich zu verarbeiten.

Die Herausforderungen in der Spracherkennung sind mehr oder weniger gebannt. Die neuesten Entwicklungen auf diesem Gebiet erlauben es uns, mit einem Computer zu sprechen, der den Klang unserer Stimme in geschriebene Worte umwandelt. Die Komplikationen treten dann auf, wenn wir Computer dazu bringen möchten, die genaue, korrekte Bedeutung eines Satzes zu verstehen oder gar eine bedeutungsvolle Unterhaltung zu führen. Dies liegt zum Teil daran, dass es so viele Arten gibt, etwas zu sagen. Wenn wir zwei sehr ähnliche Sätze sagen, in diesen aber Synonyme verwenden, so wird ein Algorithmus, der lediglich die Wörter vergleicht, die beiden Sätze als komplett verschieden ansehen. Wie können wir also einem Computer beibringen, dass die Aussage der beiden Sätze gleich ist? Denken Sie mal an Alexa oder Siri. Die sprechen und hören zu. Sie sind erfolgreiche Beispiele für „Chatbots“, textbasierte Dialogsysteme. Wir arbeiten daran, diese Technologien innerhalb der Deutschen Börse zu nutzen und an unsere Bedürfnisse anzupassen. Dabei geht es nicht um allgemeine Unterhaltungen. Wir benötigen ein hochpräzises System, das die Bedürfnisse unserer Kunden kennt und entsprechend Aufträge erfüllt.

Aufgrund dieser komplexen Ausgangssituation sind weiterhin Menschen in Arbeitsprozesse eingebunden, in denen es darauf ankommt, menschliche Sprache zu verstehen. Ein Mensch muss das entsprechende Dokument lesen und die Informationen daraus entnehmen – oder eine E-Mail lesen und klassifizieren. Denken Sie beispielsweise an eine Person, die mit E-Mails von Kunden zu tun hat. Die Person liest die E-Mail, versteht, worum es geht, und antwortet dann entweder direkt oder leitet die Nachricht an die zuständige Person weiter. Wenn ein Mensch das tun muss, ist das eine monotone Aufgabe, was ihre Ausführung wiederum anfällig für Fehler macht. Stattdessen kann sie automatisiert werden, wenn wir den Computer dazu bringen können, den Zweck jeder E-Mail zu verstehen, eine automatisierte Antwort zu generieren oder sie an die zuständige Person weiterzuleiten.

Unser Team arbeitet hier bei der Deutschen Börse derzeit an vielen Anwendungsfällen, die mit NLP im Zusammenhang stehen. Beispielsweise hat eine Abteilung uns gebeten, einen Chatbot zu entwickeln, der beim Abarbeiten wiederkehrender Kundenmails hilft, damit die Mitarbeiter sich auf komplexere Fragen konzentrieren können. Wir sollten für Aufgaben, die sich mit wenig Aufwand automatisiert erfüllen lassen, kein Personal verschwenden. So können wir Effizienz steigern und ermöglichen es Mitarbeitern, ihre Ressourcen zur Lösung anspruchsvollerer Aufgaben einzusetzen.

Woher beziehen Sie die vielen Daten, die Sie für Ihre Arbeit benötigen?

Unsere Priorität ist es, das große Datenangebot, aus dem wir bei der Deutschen Börse schöpfen können, sinnvoll zu nutzen. Das Unternehmen ist in vielen Bereichen entlang der gesamten Wertschöpfungskette tätig. Dabei wird ein großes Volumen an Daten gesammelt, das verwendet werden sollte, um neue Datenprodukte zu schaffen, die Kundenerfahrung zu verbessern und die Automatisierung von Prozessen voranzutreiben. Dennoch müssen wir stets die entsprechenden Auflagen im Auge behalten – wie unsere Pflicht, Kundendaten vertraulich zu behandeln und Compliance-Vorschriften einzuhalten. Wenn nötig, können wir Daten von externen Anbietern einkaufen, um interne Datensätze zu ergänzen. Außerdem sind sehr viele Daten öffentlich verfügbar.

Können Sie uns weitere Beispiele dafür geben, wie Mustererkennung zur Entwicklung neuer Produkte und Dienstleistungen für die Deutsche Börse führen könnte?

Die Mustererkennung befasst sich mit der Identifizierung vorhandener, aber verdeckter Muster in Daten, wie beispielsweise nichtlineare Abhängigkeiten. Unsere Datenwissenschaftler arbeiten an einer Reihe von Anwendungsfällen. Ihr Ziel ist es, Muster zu identifizieren, die uns bei der Liquiditätssteigerung helfen. Was können wir tun, um mehr Kunden zu gewinnen und das Handelsvolumen auf unserer Plattform zu erhöhen? Um Antworten auf diese Fragen zu finden, nutzt unser Team maschinelle Lernverfahren, darunter künstliche neuronale Netzwerke.

Ein weiteres Beispiel ist unser Analyseverfahren für fehlgeschlagene Abwicklungen. Dabei suchen wir nach Mustern, um vorauszusagen, bei welchen Wertpapieren Abwicklungsschwierigkeiten für unsere Kunden auftreten könnten. Wenn wir genau voraussagen können, welche Wertpapiere benötigt werden, dann können wir unsere Kunden besser beraten und gleichzeitig unsere Umsätze steigern.

Insgesamt hängt die Fähigkeit, Datenmuster zu erkennen, von der Größe der verfügbaren Datensätze ab. Für die Deutsche Börse ist es von großem Vorteil, diese Verfahren anzuwenden, um Möglichkeiten zur Umsatzsteigerung und Kostenreduktion auszuloten sowie Dienstleistungen und Produkte für unsere Kunden kontinuierlich zu verbessern.

Künstliche neuronale Netzwerke orientieren sich an biologischen neuronalen Netzwerken wie dem Gehirn. Die Systeme lernen die Ausführung von Aufgaben anhand von Beispielen und generell ohne aufgabenspezifische Programmierung. In der Bilderkennung beispielsweise lernen sie, Bilder, auf denen Katzen abgebildet sind, zu erkennen. Sie tun dies anhand der Analyse von Beispielbildern, die manuell mit „Katze“ oder „keine Katze“ gekennzeichnet wurden, sowie durch die Verwendung von Resultaten aus vorangegangenen Analysen. Dies geschieht ohne Vorkenntnisse über die Merkmale von Katzen: dass diese beispielsweise Fell, einen Schwanz, Schnurrhaare und eine typische Gesichtsform haben. Stattdessen entwickeln die Netzwerke anhand des verarbeiteten Lehrmaterials ihre eigene Reihe von Erkennungsmerkmalen.

Interview: Jürgen Pfeiffer