Top-Technologien und Zukunftstrends mit FI-TS und IBM

Am 20.06. konnte ich den zAnalytics Mainframe Workshop im IBM Client Center Böblingen miterleben, in dem FI-TS und IBM die Top-Technologien und Zukunftstrends im Mainframe-Bereich vorstellten. Dazu wurden unsere Mainframe-Kunden eingeladen, die den Vorträgen von IBM und FI-TS aufmerksam folgten.

Nach der Eröffnung durch meinen FI-TS Kollegen Dr. Thomas Cornelius, Abteilungsleiter Mainframe Datenbanken/Middleware, und Christian Daser, Manager zSystems Software Sales, IBM, startete Udo Hertz,  Director z Analytics Development, IBM, das Programm mit den „Entwicklungen und Trends in „Enterprise Analytics“ und gab Einblicke in die „z Analytics Technologien“:

Trend 1: Machine Learning

Wir alle erleben die rasanten Entwicklungen von IT Business mit, in der permanent neue, durch Technologie getriebene Geschäftsmodelle geschaffen werden. Als Beispiel erwähnte Hertz Air BnB oder Amazon –  Portale, die mit Hilfe von Machine Learning“ individuell auf die einzelne Person eingehen können und somit ein sehr wichtiges Marketingtool darstellen.

Machine Learning ist eine Technik, die einem System ermöglicht, Wissen aus Daten zu generieren. Udo HertzDas System lernt aus Beispielen und kann diese anschließend verallgemeinern. Es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten und kann somit auch unbekannte Daten beurteilen. Nicht nur Shopping Portale bauen auf Machine Learning. Auch im Finanz- und Versicherungsbereich interessieren sich Kunden immer mehr für Empfehlungen von künstlichen Systemen. So würden laut Hertz sieben von 10 Finanzkunden Empfehlungen eines Roboters annehmen.

Stimmt, denke ich. Ich habe ja auch schon Produkte über Amazon gekauft und dazu weitere für mich interessante Kaufempfehlungen erhalten. Diese dem IT System hinterlegte künstliche Intelligenz ist schon beeindruckend.

Trend 2: Stark wachsende Datentransformationen und real Time Analytics

Die auf der fortlaufenden Analyse von Daten beruhenden Geschäftsmodelle generieren ein stark wachsendes Transaktionsvolumen. Um dieses Volumen zu managen, damit Analysen zu fahren, neue Anwendungen zu probieren und nach Bedarf wieder zu entfernen (agiler Leistungsbezug) werden laut Hertz heute  standardmäßig „Hybrid Cloud Konzepte“ genutzt.

Die Daten-Analyse erfolgt heute in „real time“. Unternehmen sämtlicher Branchen dürfen sich keinen Zeitverzug mehr leisten, da dieser enorm hohe Kosten und Wettbewerbsnachteile verursachen kann. Um das zu realisieren ist der Mainframe–Ansatz, die Daten nicht mehr zu den Analyse-Systemen zu transferieren, sondern die Analysen dort durchzuführen, wo die Daten vorliegen. Bei vielen geschäftskritischen Anwendungen im Finanzbereich ist das eben der Mainframe. Mit Hilfe von HTAP Systemen können Transaktionen und Analysen parallel laufen, nicht mehr getrennt. Die Transaktionen werden nicht mehr durch riesige Reports beeinträchtigt und die Analysen laufen ohne Zeitverzögerung. Wie wichtig dies ist, zeigte Udo Hertz am Beispiel zweier europäischen Banken.

– Eine der beiden Banken erkannte durch eine Latenz von über 30 Stunden bei ihren Analysen Finanzbetrüge zu spät und erlitt dadurch Millionenverluste. Jetzt entdeckt diese Bank mit Hilfe von DB2 Analytics von IBM Betrugsszenarien in weniger als 30 Minuten und spart Millionenbeträge ein.

– Eine zweite große europäische Bank modernisierte ihr Kernbankensystem, führte IDAA (IBM DB2 Analytics Accelerator) für die Analyse ihrer Transaktionen ein und reduzierte damit ihre Datenanalysen von 24 Stunden auf fast Echtzeit. Sie verschob den Zahlungsverkehr der letzten 18 Jahre auf eine einzige Datenbank und fährt jetzt mit Hilfe des Accelerators (fast) Echtzeit-Analysen und deckt damit Finanzbetrüge erheblich schneller auf.

 Trend 3: Realisierung diverser Analytics durch mehrere Technologien

– Descriptive Analytics (was ist passiert)

– Predictive Analytics (was wird passieren)

– Prescriptive Analytics (was soll ich tun)

Basierend auf Machine Learning werden heute mehrere Technologien eingesetzt. Hier ist SQL nicht mehr die beste Wahl. Heute werden Open Source Technologien wie  Apache Spark, R, MATLAB oder scikit learn zweckmäßig genutzt.

Trend 4: „Hybrid Cloud“

Unternehmen nutzen heute immer mehr die „Hybrid Cloud“ für die stark wachsenden Datentransaktionen und für ihre real Time Analysen. Die Hybrid Cloud setzt sich aus Private Clouds und Public Clouds zusammen. Sie kombiniert das traditionelle Rechenzentrum (private Cloud) mit den skalierbaren Cloud-Diensten einer Public Cloud. Somit kann der Cloud-Kunde seine eigenen Ressourcen und Applikationen nutzen und bei Bedarf Rechenleistung oder weitere Ressourcen vom Cloud-Provider abrufen, ohne in seine eigene Infrastruktur investieren zu müssen.

Hier kommen wir – FI-TS – mit unseren Cloud Lösungen sowie den Infrastruktur- und Anwendungsservices ins Spiel.

Wir bieten unseren Kunden die dynamische, sichere und compliant Finance Cloud an, die speziell die Bedürfnisse der Finanz- und Versicherungswirtschaft abdeckt und die sich an den regulatorischen Vorgaben dieser Branche orientiert. Zudem verbindet unsere mandantenfähige FI-TS Community Cloud die Vorteile der Private Cloud mit denen der Public Cloud (Hybrid Cloud).

Für unsere Kunden stellen wir unternehmensweite IT-Infrastrukturen bereit und betreiben diese über alle Plattformen und Architekturebenen hinweg. Ferner bieten wir ein großes Spektrum innovativer Kommunikations- und Netzwerklösungen wie auch Web- und Security Services an.

Mit unseren Anwendungsservices  konzentrieren uns auf Standardanwendungen mit einem hohen Verbreitungsgrad, wie Kernbankensysteme oder Handelssysteme. Zudem betreuen wir kundenspezifische Anwendungsszenarien, wie die Koordination, Überwachung und Steuerung komplexer Betriebsabläufe.
Gemeinsam mit IBM und weiteren starken Partnern helfen wir so unseren Kunden, den rasanten Entwicklungen in der digitalen Welt Stand zu halten und sich Marktanteile wie auch -Vorteile zu sichern.

Hier erfuhren wir Neues über den Einsatz von Predictive Analytics und Open Source-Projekten für eine wirkungsvolle Analyse von UnternehmensdatenNun aber weiter zum nächsten Vortrag von Eberhard Hechler, Executive Architect, IBM, zu den: Aktuellen Trends in Machine Learning, Spark und Data Science. Hier erfuhren wir Neues über den Einsatz von Predictive Analytics und Open Source-Projekten für eine wirkungsvolle Analyse von Unternehmensdaten.

Laut Hechler lassen sich komplexe Datenanalysen auf der IBM Analytics Platform „z/OS Platform for Apache Spark (Spark on z/OS)“ schnell fahren, egal ob die großen Datenmengen strukturiert, unstrukturiert, ruhend oder aktiv sind und lokal, in der Cloud oder in heterogenen Umgebungen liegen. Die Vorteile dieser Plattform, auf der viele „Watson“-Anwendungen angeboten werden, kann man seinem Vortrag entnehmen.

Ferner glaubt er, dass wir in 3-4 Jahren vermehrt Roboter sehen, die mit uns in einen Dialog treten und führt als Beispiel die Mizuho Bank auf, die auf Watson-Technologien basierte Roboter in Ihren Filialen einsetzen, um Informationen aus der Mizuho-Website sowie kundenspezifische Informationen zu analysieren und den Kunden in natürlicher Sprache zu beraten.

 

Weiterhin stellte Eberhard Hechler IBM Machine Learning for z/OS vor, eine Lösung, mit der Unternehmen Daten schnell verarbeiten und transformieren können, um hochwertige Self-Learning-Verhaltensmodelle mit Daten von IBM z Systems sicher, automatisch und in Echtzeit zu entwickeln, zu implementieren und zu verwalten. Hiermit können Kunden- und Geschäftsanforderungen präziser vorausgesagt werden.

Insbesondere Finanzinstitute und Versicherungen, die eine Fülle von Informationen in ihren Transaktionssystemen haben,  profitieren von den Machine Learning Systemen. Mit diesen lassen sich auf den Kunden maßgeschneiderte Produkte in (fast) Echtzeit anbieten, Finanz- und Versicherungsbetrüge schneller aufdecken, Risikoanalysen- und Vorhersagen genauer realisieren  und Vorhersagen zu Umweltkatastrophen und sonstigen Schadensfällen effektiver machen.

Und als iTüpfelchen für das Management komplexer Analysen wurde uns der IBM DB2 Analytics Accelerator for z/OS vorgestellt, eine Hochleistungsappliance, die IBM Netezza- und zEnterprise-Technologien integriert. Diese Lösung stellt extrem schnelle Ergebnisse für komplexe und datenintensive DB2-Abfragen zu Data-Warehousing-, Business-Intelligence- und Analyseworkloads bereit.

Interessant fand ich auch, dass IBM im Report zum Gartner Magic Quadrant 2017  wieder als einer der Leader im Magic Quadrant für Data Integration Tools geführt wird. Laut dem Report verfügt IBM über einen großen Kundenstamm und baut ihre Kompetenz in Data Science  und maschinellen Lernfähigkeiten kontinuierlich aus. Zudem unterstützt IBM Open Source Technologien (z.B. Spark und weitere)  – eine der wichtigsten Voraussetzungen für Data Scientists – sowie eine Vielzahl an unterschiedlichen Datentypen, inklusive unstrukturierten Daten. DSx (Data Science Experience)  wird einer der wichtigsten Plattformen in Zukunft sein – modern, offen,  flexibel und für den Data Scientist wie auch für den Geschäftsmann geeignet.

Zugriff auf Host-Anwendungen

Im nächsten Vortrag berichteten Isabel Arnold, zSW TechSales for CICS, IBM, und mein Kollege Robert Recknagel, Teamleiter DB/DC-Systeme, FI-TS, über Host-Anwendungen in Mitten der API (R)Evolution.

Heute – in Zeiten web-basierter und mobiler Anwendungen – wird die Art der Interaktion zwischen Unternehmen und Systemen umgestaltet. Anstelle von proprietären Protokollen wird jetzt auf Industrie-Standards gesetzt, um auf Host-Anwendungen und Host-Daten zuzugreifen. Die „z/OS Connect Enterprise Edition“ bietet Entwicklern die Möglichkeit ihre IMS– oder CICS-Transaktionen als RESTful Services zur Verfügung zu stellen und diese ohne jegliches Mainframe-Knowhow in Web-Anwendungen oder Mobile Apps zu integrieren. Die Details dazu kann man dem Vortrag der beiden Referenten entnehmen.

IMS Innovationen mit IBM und FI-TS

Anschließend ging mein Kollege Recknagel auf die IMS-Innovationen der letzten Jahre ein und stellte die kommende IMS-Version 15 vor. Diese wird voraussichtlich Ende Oktober im Markt erscheinen und soll nach einer Testphase bis Ende des 1. Halbjahres 2018 auf die Systeme unserer Kunden migriert werden. Wo die Vorteile dieser Version liegen und wie IBM „Continous Delivery-Modelle“ dazu plant, kann man dem ausführlichen Vortrag meines Kollegen entnehmen.

Konsolidierungen der z/OS-Datenbanksysteme

In einem Parallelvortrag sprach Georg Kistenberger, Senior Technical Sales Professional, IBM, über Konsolidierungen der z/OS-Datenbanksysteme.  Unsere Kunden erfuhren, warum DB2 für z/OS als Konsolidierungsplattform die beste Wahl für den IBM Mainframe ist und wie eine Adabas Migration zu DB2 laufen kann.

Neues von CICS V5.4 und DB2 V12

Und zum Abschluss wurden uns die Neuigkeiten von CICS V5.4 und von DB2 V12 vorgestellt.

Nach dieser Vortragsreihe fühlte ich mich erstmal wie erschlagen und empfand einen großen Respekt vor meinen Mainframe-Kunden und –Kollegen. Diese wirkten im Gegensatz zu mir noch recht frisch und konzentriert. Bei einem anschließenden Snack wurde noch rege über die Inhalte der Veranstaltung gesprochen, während ich mir eine Zukunft mit Robotern vorstellte, die mir morgens meinen Kaffee ans Bett bringen, meine Aufgaben für den Tag vortragen und mir Tipps zu den Freizeitaktivitäten am Feierabend geben :-).

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Anti-Spam *