Sie haben in Ihrem Browser Javascript deaktiviert! Bitte aktivieren Sie Javascript um eine korrekte Darstellung und Funktionsweise von IT-Schulungen zu gewährleisten.
Hinweis: Durch Nutzung eines Social Login werden die zur Registrierung erhobenen Daten zwischen IT-Schulungen.com und dem gewählten Anbieter übermittelt.
Innerhalb dieses zweitägigen Events bringen New Elements und IT-Schulungen.com Hersteller, Dienstleister und Anwender von Big Data Technologien zusammen.
Anstelle von Case Studies oder Folienschlachten, die den theoretischen Nutzen von Big Data vermitteln, können Sie hier erste Praxiserfahrungen sammeln.
Auch Integratoren und Technologieanbieter wollen sich über Innovationen im Bereich Big Data austauschen und aus Praxisbeispielen lernen. Eine breite Veranstaltung kann hier den Informationsbedarf konzentriert und ausgewogen decken und gleichzeitig als Katalysator für die Nutzbarmachung von Big Data in der Region dienen.
Das Event behandelt Technologien, Praxiserfahrungen, wirtschaftliche Aspekte von Big Data, darüber hinaus auch Fragen des Datenschutzes, der Datenqualität und datenrechtliche Fragen im Zusammenhang mit Big Data. Daneben sind damit konkret verbundene Themen wie Business Analytics oder Datenintegration beinhaltet.
Das zweitätige Event teilt sich auf in 1 Konferenztag mit 2 bis 3 parallelen Vortragstracks, einer Podiumsdiskussion und einem Abendevent sowie 1 Workshop-Tag. Schwerpunkte des ersten Tages sind Anwenderberichte und technische Fachvorträge. Am zweiten Tag erleben die Teilnehmer Big Data live – nicht nur für Entscheider, sondern auch für Umsetzer und Entwickler.
Aussteller und Speaker
Prof. J.C. Freytag, Ph.D.
Big Data Lab Forum 2015
Keynote: Analyse großer Datenmengen – aber wie? Entwicklungen und Herausforderungen im Bereich BigData Analytics
Im Zeitalter der umfassenden und alle Bereiche des täglichen Lebens erreichenden Digitalisierung werden zentral und dezentral mehr und mehr Daten systematisch gesammelt, gespeichert, analysiert und verschiedenen Nutzergruppen zugänglich gemacht. Diese rasant wachsenden Datenmengen werden auf Handys, Kameras und Sensoren, durch Interaktionen zwischen ubiquitären, orts- und zeitbezogenen Systemen und Dienstleistern (Servern) sowie durch Sensoren zur Messung von orts- und zeitbezogenen Größen generiert.
Diese Daten stellen selber noch keinen Mehrwert dar – insofern ist es Ziel der Analyse großer Datenmengen, Daten in Wissen zu transformieren. Um dieses Ziel zu erreichen, werden zurzeit skalierbare Techniken der Datenanalyse entwickelt, die teilweise schon zum Einsatz kommen.
Der Vortrag wird zunächst wichtige aktuelle Entwicklungen im Bereich der Analyse großer Datenmengen vorstellen, ehe wichtige Herausforderungen und Weiterentwicklungen skizziert werden, die für effizienten Einsatz dieser Technologien notwendig sind. Dabei wird insbesondere auf das MapReduce-Compute-Paradigma eingegangen, das die parallele Ausführung datenintensiver Analysen wesentlich vereinfacht. Darüber hinaus werden anhand von Beispielen existierende Ansätze für die Analyse mit Hinweisen für den eigenen „Gebrauch“ vorgestellt. Wichtige Fragen bei der Analyse personenbezogener Daten werden ebenfalls diskutiert.
Referent: Professor Johann-Christoph Freytag, Ph.D.
Vita:
Prof. Johann-Christoph Freytag, Ph.D. (Harvard University) studierte Informatik an der Universität Hamburg (Diplom) und an der Harvard University, USA (MA, Ph.D.). Er war am IBM Almaden Research Center in den USA, am ECRC München und bei der Firma Digital Equipment tätig, ehe er 1994 zum Professor für Datenbanken und Informationssysteme an die Humboldt-Universität zu Berlin berufen wurde. Er ist weltweit für seine Forschungsarbeiten und Veröffentlichungen im Bereich Datenbanken, Privacy und Data Analytics bekannt.
Keynote: Analyse großer Datenmengen - aber wie? Entwicklungen und Herausforderungen im Bereich BigData Analytics
Olivia Klose
Microsoft Deutschland GmbH
Big Data Lab Forum 2015
Vortrag: Advanced Analytics in Microsoft Azure
Predictive Analytics oder Data Science sind in einer Zeit, in der die Menge an Daten stetig zunimmt, wertvolle Hilfsmittel. Dementsprechend gehören Data Scientists derzeit zu den begehrtesten Experten in der IT-Branche. Die Einsatzbereiche sind vielfältig und reichen von der Vorhersage von Fußballergebnissen über persönliche Kaufempfehlungen in Online-Shops bis zum Ergreifen präventiver Wartungsmaßnahmen in der industriellen Produktion.
In diesem Vortrag werden anhand eines Szenarios aus der Retail-Branche verschiedene Dienste der Azure-Datenplattform vorgestellt, mit denen aus der Datenflut hilfreiche Erkenntnisse gewonnen werden können: Azure Data Factory, HDInsight (Hadoop auf Azure), Stream Analytics und Machine Learning. Es wird u.a. erläutert, wie Erkenntnisse zum Einkaufsverhalten sowohl aus historischen Daten als auch in Echtzeit gewonnen und darauf basierend dem Kunden mithilfe von Machine Learning personalisierte Empfehlungen gegeben werden können.
Referentin: Olivia Klose, Technical Evangelist | Microsoft Deutschland GmbH
Vita:
Olivia Klose ist Technical Evangelist für Data Insights bei der Microsoft Deutschland GmbH, primär für Big Data (Hadoop/HDInsight) und Azure Machine Learning. Sie ist regelmäßige Sprecherin auf deutschen und internationalen Konferenzen (z.B. TechEd Europe, PASS Summit).Vor ihrer Microsoft-Zeit hat sie Informatik mit Mathematik (Fokus: Machine Learning) an der University of Cambridge, der TU München und dem IIT Bombay studiert.
Votrag: Advanced Analytics in Microsoft Azure
Udo Hertz
IBM Deutschland GmbH
Big Data Lab Forum 2015
Vortrag: Trends in Big Data & Analytics
Rund drei Viertel der europäischen Unternehmen erkennen die wachsende Bedeutung und den zunehmenden Bedarf von Big-Data-Analysen, doch schöpfen sie das Potenzial noch zu wenig aus.
In dem Vortrag werden wesentliche technische Voraussetzungen für eine erfolgreiche Umsetzung von Big Data sowie aktuelle Technologietrends vorgestellt, mit denen erfolgreicher agiert werden kann. Dabei werden insbesondere die Entwicklung von Data Lake Konzepten, die Rolle von Cognitive Computing in Analytics-Anwendungen sowie das Potenzial von Data & Analytics Services in der Cloud diskutiert.
Es geht um Technologien, die über das Sammeln von Daten hinaus, auch deren Qualität, die Verarbeitungsgeschwindigkeit und eine gezielte Nutzung optimieren.
Referent: Udo Hertz, Direktor IBM Analytics Entwicklung Deutschland | IBM Deutschland GmbH
Vita:
Udo Hertz ist als Direktor im IBM Entwicklungslabor in Böblingen für die Entwicklung von Information Management und Analytics Technologien verantwortlich.
Unter seiner Leitung wurden zahlreiche innovative Konzepte für Data Base Management Systeme, Datawarehousing, Predictive Analytics, Datastream Computing, Social Media Analyse und Information Governance entwickelt und von globalen Teams realisiert. So verantwortet er u.a. die Entwicklung der IBM DB2 Optimierung für SAP, des IBM DB2 Analytics Accelerators, des IBM Cloud Service dashDB und Insights for Twitter, von IBM InfoSphere Streams Lösungen und von IBM Social Media Analytics.
Zuvor leitete Udo Hertz die Entwicklung von System z Software und portierte Linux auf den Mainframe.Udo Hertz begann seine berufliche Karriere als Mainframe-Programmierer bei IBM 1983 nach seinem Studium der Mathematik und Physik an der Universität Bielefeld.
Votrag: Trends in Big Data & Analytics
David Gabel
Big Data Lab Forum 2015
Vortrag: Big Data und Datenschutz – eine schwierige Ehe?
Der ständig wachsende Pool an Daten stellt die Unternehmen nicht nur vor technische Herausforderungen. Auch aus rechtlicher Sicht stellen sich schwierige Fragen:
Welche Gesetze sind im Big Data Umfeld anzuwenden?
Welche Daten darf ich erheben?
Gibt es Einschränkungen bezüglich der Auswertung der Daten?
Gibt es gesetzliche Vorgaben zum Schutz der Daten?
Wie können die gesetzlichen Anforderungen an Berichtigung, Sperrung und Löschung von Daten in Big Data Anwendungen umgesetzt werden? Der Vortrag gibt einen Einblick in die Anwendung der Datenschutzgesetze im Kontext Big Data. Anhand von praktischen Beispielen wird erläutert, wie der Datenschutz anzuwenden ist und mit welchen Mitteln sich Konflikte mit dem Gesetz vermeiden lassen.
Referent: David Gabel
Vita:
David Gabel ist selbständiger Berater für Datenschutz- und Informationssicherheitsmanagement. Als fachkundlich geprüfter Datenschutzbeauftragter und TÜV PROFI CERT Auditor für ISO 27001 vereint er zwei wesentliche Kompetenzen auf diesem Gebiet. Dazu kommen 14 Jahre Erfahrung im Management von IT-Infrastrukturen im Bereich CRM, Retail und Call Center.
Vortrag: Big Data und Datenschutz - eine schwierige Ehe?
Marko Grothkopp
Trevisto GmbH
Big Data Lab Forum 2015
Vortrag: Keine Angst vor Big Data!
Big Data ist eines der wohl am meisten strapazierten Business Buzz-Words. Würde man darauf die 3 Thesen des Gorgias adaptieren, könnten sie vielleicht lauten: 1.) Big Data gibt es nicht. 2.) Wenn es Big Data gibt, kann es niemand verstehen. 3.) Wenn es jemand versteht, findet er keine Anwendungsmöglichkeiten.
Im allgemeinverständlichen und spannenden Vortrag von Marko Grothkopp werden grundlegende Facetten des Big Data-Ansatzes erläutert. Anschließend dienen einige Fragen und Thesen dazu, die Möglichkeiten und Grenzen der Technologie aufzuzeigen. Z.B.:
Big Data ist keine Revolution!
Best of Big Data – Wie finde ich für mein Unternehmen den richtigen Teil?
Gibt es Big Data im „Kleinen“?
Ich habe noch kein Problem für Big Data – was nun?
Mit der Frage „Führt Big Data zu Big BI?“ wird zum Abschluss noch die Integration von Big Data in eine bestehende IT-Landschaft und das Zusammenwirken mit einem Data Warehouse betrachtet.
Alle Ausführungen zielen auf eine lösungsorientierte und anforderungsbezogene Vorgehensweise ab und sind toolunabhängig.
Referent: Marko Grothkopp, Principal Managing Consultant | TREvisto GmbH
Vita:
Herr Grothkopp ist seit über 15 Jahren in den Bereichen Anwendungsentwicklung und Data Warehousing unterwegs. Sein Tätigkeitsbereich geht von der Geschäftsprozessoptimierung über das Datenmanagement bis hin zur Architekturberatung. Durch seine Historie und Engagement im verteilten Rechnen ist er mit den Technologien, auf denen Big Data basiert, seit Langem vertraut.
Vortrag: Keine Angst vor Big Data!
Patrick Cato
Big Data Lab Forum 2015
Vortrag: Wertschöpfungspotenziale und Herausforderungen von Big Data
Unternehmen können Big Data Technologien auf vielfältiger Weise zur Steigerung der Wertschöpfung nutzen. Szenarien für Wertschöpfung sind Optimierung und Erweiterung bestehender Geschäftsprozesse/-modelle oder die Erschließung neuer Geschäftsfelder. Abhängig von Wertschöpfungsszenario des Big Data Ansatzes ergeben sich daraus unterschiedliche Anforderungen im Hinblick auf Organisation und Vorgehensmodelle. Da bereits viele Unternehmen Big Data Initiativen gestartet haben und erste Lernkurven durchlaufen haben, lassen sich aus den Projekterfahrungen Erfolgsfaktoren sowie idealtypische Vorgehensmodelle ableiten. Hierbei zeichnet sich ab, dass Big Data Projekte neue Herangehensweisen erforderlich machen. In diesem Beitrag werden anhand von Beispielen die verschiedenen Wertschöpfungsszenarien verdeutlicht und deren Erfolgsfaktoren herausgearbeitet.
Referenten: Patrick Cato, M.Sc. Dipl.-Ing. Philipp Gölzer
Vita Patrick Cato: 2007-2010 Studium Wirtschaftsinformatik, DHBW Stuttgart 2007-2010 Dualer Student, Hewlett-Packard, Böblingen 2010-2013 Master-Studium internationale Wirtschaftsinformatik, Nürnberg ab 2013 Doktorand am Lehrstuhl für Wirtschaftsinformatik, Nürnberg
Vita Philipp Gölzer: 1991-1998 Studium Maschinenbau, Friedrich-Alexander-Universität Erlangen-Nürnberg 1999-2005 Berechnungsingenieur/Softwareentwickler, Schaeffler, Herzogenaurach 2005-2008 Spezialist Digitale Fabrik, Schaeffler, Herzogenaurach 2009-2012 Leiter Digitale Fabrik, Schaeffler, Herzogenaurach ab 2013 Doktorand am Lehrstuhl für Wirtschaftsinformatik, Nürnberg
Vortrag: Wertschöpfungspotenziale von Big Data und deren Herausforderungen
Co-Referent: Philipp Gölzer
Vortrag: Wertschöpfungspotenziale von Big Data und deren Herausforderungen
Dr. Christian Winkler
MGM Technology Partners
Big Data Lab Forum 2015
Vortrag: Exploration von geospatialen Automotive-Daten
Bei der Entwicklung von Fahrerassistenz-Funktionen lässt sich durch die Auswertung von sensorbezogenen Messwerten Einblick in das Systemverhalten gewinnen. Insbesondere die Analyse von geospatialen Daten liefert Erkenntnisse über die Umgebungsbedingungen des Fahrzeugs.
Durch die steigende Anzahl an Fahrzeugsensoren und deren Komplexität in der Signalverarbeitung fallen in Fahrzeugversuchen Millionen von Datensätzen an. Die Exploration dieser Daten ist der erste Schritt zur Informationsgewinnung. Um aus der Menge an Rohdaten Wissen zu generieren, ist zunächst die Bewertung der Abdeckung, Häufigkeit und weiterer statistischer Eigenschaften notwendig.
Wir haben eine Anwendung entwickelt, die die visuelle Exploration von geospatialen Sensordaten aus Flottenversuchen unterstützt. Unterschiedliche Darstellungformen erlauben die intuitive Analyse der geografischen Verteilung und Wertebereiche der Daten. Die mit Leaflet und D3.js erzeugten Heatmaps und Clusteransichten sowie ein OpenStreetMap-Karten-Overlay stellen die Daten in einen räumlichen Bezug und verschaffen dem Anwender einen schnellen Überblick der selektierten Datensätze. Die Integration von Datenabfragen und visueller Darstellung als Webanwendung wurde mit Angular JS umgesetzt.
Durch Facettierung der Daten mit Apache Solr werden schnelle Drill-Downs ermöglicht. Eine sukzessive Detaillierung der Ansicht wird durch die Zooming-Funktionalität erreicht. Sie wird so lange durchgeführt, bis sich die Auflösung der Daten für eine Einzelwertdarstellung eignet. Die gewählten Wertebereiche können als Listen oder Histogramme dargestellt werden. Die Kombination von mehreren Filterkriterien lassen Zusammenhänge zwischen Sensoren und Umgebungsparametern erkennen. Durch die Verwendung von Geohashes wird die Ansicht schnell aktualisiert, um eine flüssige Interaktion mit den Daten zu ermöglichen. Dies erlaubt die schnelle Auffindbarkeit relevanter Georegionen, Zeiträume und Wertebereiche. Die Exploration der Daten wird durch statistische Kenngrößen ergänzt, die für die selektierten Samples berechnet werden können.
Der Einsatz von Open Source-Technologien gewährleistet eine hohe Flexibilität der Schnittstellen zur Datenhaltung und Machine Learning-Anwendungen. Dadurch wird das entwickelte Explorationstool zu einem leistungsfähigen, erweiterbaren Baustein in einem Datenanalyse-Framework.
Insgesamt unterstützt die hier konzipierte Anwendung die interaktive Sichtung großer Datenmengen geospatialer Sensordaten. Das Tool ermöglicht die Identifikation von Einflussgrößen für die Entwicklung von kontextsensitiven, vorausschauenden Fahrerassistenz-Systemen. Außerdem lassen sich mit dieser Anwendung Muster in Datenbeständen erkennen und Annahmen über Eigenschaften sensorbezogener Systeme verifizieren.
Referent: Dr. Christian Winkler, Enterprise Architect | mgm technology partners GmbH
Vita:
Dr. Christian Winkler gründete während seiner Promotion ein eigenes Unternehmen und arbeitet daher seit 20 Jahren mit Internet-Technologien. Dabei reizen ihn besonders der Umgang mit sehr großen Datenmengen oder sehr vielen Nutzern.
Durch das Aufkommen von BigData-Lösungen in den letzten Jahren gibt es hier ein großes Betätigungsfeld. Nachdem Daten nicht nur persistiert, sondern auch verrechnet und durchsuchbar gemacht werden müssen, können viele intelligente Algorithmen aus dem Bereich des maschinellen Lernens angewendet werden und ermöglichen einen völlig neuen Blick auf die Daten bzw. deren Interpretation. Oft ist dies nur durch eine geeignete Visualisierung erkennbar, weswegen diese Techniken auch in seinen Fokus gerückt sind.
Vortrag: Exploration von geospatialen Automotive-Daten
Andreas Tönne
NovaTec Solutions GmbH
Big Data Lab Forum 2015
Vortrag: Fachliche Anforderungen im Spannungsfeld von traditioneller Java EE Architektur und Big Data - Ein Projektbericht
Dieser Vortrag beschäftigt sich mit den für die Fachabteilungen und andere Business Stakeholder oft überraschenden Konsequenzen einer Big Data Strategie auf ihre fachlichen Anforderungen. Neben typischen Big Data Lösungen wie Data Science oder Streaming-Analytics gibt es in Unternehmen das Bestreben, Probleme mit großen Datenmengen mithilfe von Big Data Architekturen zu lösen. Klassische Unternehmensanwendungen stehen heutzutage unter großem Druck, den wachsenden Anforderungen an immer größer werdende Datenmengen zu bewältigen. Enterprise 2.0, Industrie 4.0 und das Internet of Things werden relevant für klassische Unternehmensanwendungen und überfordern ihre Architektur deutlich. Für viele Stakeholder scheint "dann machen wir das mit Big Data" eine folgerichtige Strategie zu sein.
Wir wollen in diesem Vortrag, primär an den Konsequenzen von hochgradig verteilten Anwendungs- und Datenbankarchitekturen, aufzeigen, welchen Herausforderungen an die Anforderungen und Abnahmekriterien sich eine Fachabteilung stellen muss. Die Fachabteilungen sind seit vielen Jahren darauf trainiert, dass Atomizität von Geschäftslogik und möglichst umfangreiche Constraints akzeptable Anforderungen für Unternehmensanwendungen sind. Diese Anwendungen aufgrund der neuen Datenanforderungen auf eine Big Data Architektur zu migrieren löst einen Konflikt zwischen Konsistenz und (horizontaler) Skalierbarkeit oder zwischen ACID und CAP aus. Die Mitarbeiter der Fachabteilungen (und auch viele Entwickler) sind auf diesen Konflikt in der Regel schlecht vorbereitet. Dies insbesondere auch, weil verteilte Anwendungsabläufe höchst unanschaulich sind und ihre Konsequenzen nur für Spezialisten hinreichend vollständig ermittelbar sind.
Wir demonstrieren in diesem Vortrag anhand von Projektbeispielen, dass die beste Strategie ist, nicht bestehende Anwendungen auf Big Data zu migrieren sondern den geschäftlichen Zweck zu migrieren und seine neuen Anforderungen mit Big Data-Architekturen zu implementieren.
Referent: Andreas Tönne, CTO | NovaTec Solutions GmbH
Vita:
Andreas Tönne hat sich nach dem Studium der Informatik an der Universität Dortmund und Tätigkeit als Wissenschaftlicher Mitarbeiter des Max-Instituts für Informatik der Beratung bei der Entwicklung von Unternehmensanwendungen verschrieben. In 18 Jahren als international tätiger Berater hat er Technologieeinführungen, Produktentwicklung und zahlreiche Industrieprojekte begleitet.
Vortrag: Fachliche Anforderungen im Spannungsfeld von traditioneller Java EE Architektur und Big Data - Ein Projektbericht
Prof. Dr. Jens Albrecht
Big Data Lab Forum 2015
Vortrag: SQL on Hadoop: Möglichkeiten und Grenzen
Hadoop hat sich in den letzten Jahren als Standard für die kostengünstige Haltung großer Datenmengen etabliert. Um diese Daten möglichst einfach analysieren zu können, sind einfache und effiziente Abfragesprachen erforderlich. Inzwischen gibt es daher eine ganze Reihe von Produkten, die den Zugriff auf Daten in Hadoop per SQL ermöglichen.
Anders als bei einem relationalen Data Warehouse müssen die Daten aber nicht vorab integriert und in ein tabellenorientiertes Format transformiert werden; sie können in Quellformat verbleiben. Die Interpretation als relationale Tabelle erfolgt erst zur Laufzeit der Anfrage (Schema-on-Read).
Der Vortrag gibt einen Überblick über die verschiedenen Architekturansätze und klassifiziert die wichtigsten am Markt verfügbaren Werkzeuge, wie bspw. Apache Hive, Cloudera Impala, Pivotal HAWQ und andere. Darüber hinaus wird darauf eingegangen, wie die großen klassischen Datenbank-Anbieter Oracle, IBM und Microsoft in diesem Umfeld aufgestellt sind.
Referent: Prof. Dr. Jens Albrecht
Vita:
Jens Albrecht ist seit 2014 Professor für Datenbanken und Big Data an der Technischen Hochschule Nürnberg, nachdem er bereits zwei Jahre an der Hochschule Würzburg-Schweinfurt eine Professur innehatte. Zuvor war er als Berater bei Oracle und als DWH-Architekt in der GfK in Nürnberg tätig. Sein besonderes Interesse gilt Technologien zur Aufbereitung und Analyse großer Datenmengen.
Vortrag: SQL on Hadoop: Möglichkeiten und Grenzen
Rüdiger Karl
SAP Deutschland SE & Co. KG
Big Data Lab Forum 2015
Vortrag: In-Memory Processing with Big Data – Challenges and Opportunities
Die Umwandlung von Daten in entscheidungsrelevante Informationen ist das gemeinsame Ziel aller Big-Data Lösungen. In den meisten Anwendungsfällen ist eine Echtzeitanalyse der Daten zwingend erforderlich, um Datenänderungen unmittelbar in die Verarbeitung einfließen zu lassen.
In-Memory Datenbanken bieten die dafür notwendige Performance und sind mittlerweile der bevorzugte Lösungsansatz. Doch wie lassen sich große Datenaufkommen mit verschiedenen Formaten und Inhalten aus den unterschiedlichsten Datenquellen integrieren und im Hauptspeicher verarbeiten? Wie können Vorhersagen oder Trends in Echtzeit errechnet und visualisiert werden, um Entscheidungen zu optimieren? Und wie lassen sich in-memory Datenbanken mit anderen Big-Data Architekturen, wie z.B. Hadoop, integrieren, um die Stärken beider Lösungen zu kombinieren?
Anhand dieser Fragestellung und bezugnehmend auf SAP HANA gibt der Vortrag dazu Ein- und Ausblicke auf den aktuellen Stand der Entwicklungen.
Darüber hinaus wird anhand von konkreten Anwendungsbeispielen gezeigt, welches Potential in der Echtzeitanalyse von Big Data steckt.
Referent: Rüdiger Karl | SAP Deutschland SE & Co. KG
Vita:
Hr. Karl ist bei der SAP in Walldorf in der HANA Datenbankentwicklung tätig und beschäftigt sich dort mit den Themen HANA core engine, event streaming, scalability und Big Data.
Vortrag: In-Memory Processing with Big Data - Challenges an Oppertunities
Michael Deinhard
Geschäftsführer New Elements GmbH
Big Data Lab Forum 2015
Vortrag: Der Brückenschlag zwischen klassischer Data Warehouse Technologie und „Big Data“ – Utopie oder Notwendigkeit?
Mit hadoop wird die Datenwelt endlich erwachsen und aus unnötigen Zwängen befreit. Schenkt man den Auguren des Hypes um „Big Data“ Glauben, so steht das unmittelbare Ende der klassischen Datenbank-Technologien bevor. Die relationale Engine ist reif für den Bit-Schrottplatz und die Revolution findet alsbald statt.
Eine solche Vorstellung würde natürlich jedem IT-Verantwortlichen den Angstschweiß auf die Stirn treiben. Aber die Revolution wird nicht stattfinden. In einem evolutionären Prozess werden klassische Datenbank-Technologien und „Big Data“ zusammen wachsen und das Beste aus beiden Welten vereinen.
Dieser Vortrag zeigt Ansätze auf, wie dieser evolutionäre Weg beschritten werden kann und wie man die Vorzüge von „Big Data“ mit denen eines Data Warehouse-Ansatzes kombinieren kann.
Referent: Michael Deinhard | Geschäftsführer New Elements GmbH
Co-Referent: Dr. Ulrich Plogas
Vita: Dr. Ulrich Plogas war für verschiedene global agierende Unternehmen der IT-Branche in unterschiedlichen Rollen.
Vortrag: Der Brückenschlag zwischen klassischer Data Warehouse Technologie und "Big Data" - Utopie oder Notwendigkeit?
Dr. Ulrich Plogas
Big Data Lab Forum 2015
Vortrag: Der Brückenschlag zwischen klassischer Data Warehouse Technologie und „Big Data“ – Utopie oder Notwendigkeit?
Details des Vortrags sehen Sie bei Michael Deinhard
Vortrag: Der Brückenschlag zwischen klassischer Data Warehouse Technologie und "Big Data" - Utopie oder Notwendigkeit?
Prof. Dr. Michael Ponader
Big Data Lab Forum 2015
Vortrag: Näher am Kunden mit Digital Intelligence"Schnellere AHA-Effekte aus Small Data. Big Data. All Data - Online wie Offline"
Siehe Vortrag v. Atasoy Altinci
Atasoy Altinci
Geschäftsführer New Elements GmbH
Big Data Lab Forum 2015
Vortrag: Näher am Kunden mit Digital Intelligence"Schnellere AHA-Effekte aus Small Data. Big Data. All Data - Online wie Offline"
Das Internet ist für viele Unternehmen längst zu einem strategischen Standbein geworden. Sei es zur Generierung von Verkaufs-Chancen, zur Steigerung des Umsatzes, zur Erschließung neuer Märkte oder zur Erhöhung des Bekanntheitsgrades. Wer in dynamischen und in hart umkämpften Branchen länderübergreifend der Konkurrenz einen Schritt in Sachen Verkauf, Conversion, Service und Wissen voraus sein will, benötigt neue Konzepte, Lösungen und Strategieänsätze, um dem veränderten Informations- und Kaufverhalten der Kunden gerecht zu werden.
Innovative Technologien bieten dazu ungeahnte Möglichkeiten. Lassen Sie sich in unserer Live-Präsentation überraschen, was noch alles geht!
Das erwartet Sie:
Business Intelligence trifft Digital Analytics
Real time tracking
Data Driven Marketing & Predictive Analytics
Big Data – Online & Offline
Microsoft Azure – Intelligente Plattform
Referent: Atasoy Altinci, Geschäftsführer | New Elements GmbH
Vita:
Herr Altinci, Gründer und geschäftsführender Gesellschafter der New Elements GmbH, berät seit 15 Jahren Unternehmen, um das Internet strategisch als Vertriebs- und Kommunikationsplattform zu nutzen. Die Verknüpfung neuer Technologien wie Big Data und Cloud sieht er als einen zukunftsträchtigen Lösungsansatz, um die digitale Transformation für die Unternehmen zu ermöglich.
Dazu hat Herr Altinci innovative und mehrfach prämierte Digital Intelligence-Lösungen entwickelt, die über klassische Webtracking-Technologien hinausgehen und Online- und Offline-Welt verbindet. Einzigartig ist dabei die Verbindung von Geschäftsdaten und Kundenkommunikation.Diese ermöglichen Unternehmen ganz neue Geschäftsmodelle aufzubauen.
Co-Referent:
Prof. Dr. Michael Ponader | Technische Hochschule Deggendorf
Vita:
Prof. Dr. Michael Ponader, lehrt seit Oktober 2000 an der Technischen Hochschule Deggendorf. Die inhaltlichen Schwerpunkte seiner Lehrveranstaltungen liegen in den Bereichen Electronic Customer Care, Internet-Marketing, Website-Measurement und –Analyse, IT-Projektmanagement sowie Allgemeine BWL. Neben seiner Lehrtätigkeit leitete er mehrere Forschungsprojekte auf den Gebieten Website-Controlling/–Optimierung und Usability Engineering. Darüber hinaus berät er freiberuflich zu E-Business- und Projektmanagement-Themen. Vor dieser Zeit war er sieben Jahre bei der DATEV eG, und hatte dort verschiedene Linienführungspositionen inne. Darüber hinaus sammelte er in Projektleitungsfunktionen bei großen, unternehmensweiten Projekten umfangreiche Führungserfahrung im Projektmanagement. Aus inhaltlicher Sicht beschäftigte er sich in diesen Linien- und Projektfunktionen seit 1995 mit der Internet-Thematik (von der strategischen Bewertung der Geschäftspotentiale bis zur Einführung von Internet-Anwendungen).
Vortrag: Näher am Kunden mit Digital Analytics - „Schnellere AHA-Effekte aus Small Data. Big Data. All Data - Online wie Offline”
Prof. Dr. Cai-Nicolas Ziegler
XING Events GmbH
Big Data Lab Forum 2015
Vortrag: Mit digitalen Empfehlungen analoge Events aufwerten
Digitale Medien bieten neue Möglichkeiten, um Events aus Sicht des Teilnehmers werthaltiger zu gestalten. Insbesondere mobile Anwendungen, soziale Netzwerke und Empfehlungssysteme bieten in ihrer Kombination ein noch besseres Ausschöpfen der Möglichkeiten, beispielsweise des gezielten Networkings von Besuchern.
Auf XING können (potentielle) Teilnehmer von Events durch zwei Arten von Empfehlungen profitieren: Zum einen durch Empfehlungen von Events, zum anderen durch Empfehlungen von anderen (potentiellen) Teilnehmern dieser Events.
Die Berechnung dieser Empfehlungen, sowie der zahlreichen anderen Empfehlungen im XING-Netzwerk, bringt eine hohe Komplexität mit sich. Die Qualität der Empfehlungen steht und fällt – neben der Qualität der Empfehlungssysteme an sich – durch Faktoren wie beispielsweise die Qualität der Daten.
Referent: Prof. Dr. Cai-Nicolas Ziegler, CEO | XING EVENTS GmbH
Vita: Cai-Nicolas Ziegler ist seit April 2014 CEO der XING EVENTS GmbH, dem Marktführer in Europa im Bereich Eventmanagement Software. Davor leitete er das globale digitale Product Management von PAYBACK und war mehrere Jahre als Strategieberater bei der Boston Consulting Group tätig, zuletzt als Project Leader. Herr Ziegler hat in Informatik über Recommender Systeme promoviert, und sich über NLP habilitiert. Seit Februar 2015 ist er Professor an der Universität Freiburg, Fakultät für Technische Wissenschaften.
Vortrag: Mit digitalen Empfehlungen analoge Events aufwerten
Arne Roßmann
Capgemini Deutschland GmbH
Big Data Lab Forum 2015
Vortrag: Connected Car – Auf dem Weg zum intelligenten Auto
Ian Roberts von BMW sagt „The Auto industry will see more change in the next five years than in the previous 100 years“ und meint damit vor allem die fortschreitende Digitalisierung der Fahrzeuge. In der heutigen Zeit sind die Fahrzeuge nicht mehr nur dafür da, um von A nach B zu gelangen. Neben den Wünschen und Möglichkeiten nach mobiler Freiheit, sind die Fahrzeuge heute fahrende Hochleistungscomputer. Zum einen sind sehr viele Sensoren in den Fahrzeugen verbaut, die zur Erhöhung der Sicherheit beitragen (z.B. Abstands-, Reifendruck-, Airbag-, Ölstandsensoren). Diese sorgen dafür, dass wir heute deutlich sicherer auf den Straßen fahren können als noch vor 20 Jahren. Die Verknüpfung der Sensoren mit der entsprechenden Aktion wie Warnen oder automatischen „Eingreifen“ (wie beim Abstandshaltetempomat) erfordert immer mehr Rechenleistung.
Aber auch die Kommunikation der Fahrzeuge mit den Zentralen der Fahrzeughersteller und zwischen den Fahrzeugen selbst ist in heutigen Fahrzeugen schon (zum Teil) Bestandteil der Serienausstattung. So verfügen die meisten Fahrzeuge über eine Möglichkeit zum automatischen Aufspielen von Softwareupdates oder zur Kommunikation mit GPS-und Routen-Systemen. Dadurch bekommen wir die aktuellen Stauinformationen auf das Display gespielt oder eine alternative Route vorgeschlagen.
Dieser Trend wird sich beschleunigen. Der Wunsch der Menschen nach ständiger Erreichbarkeit, „intelligenter Unterstützung“ beim Fahren (Abstand oder Spur halten, Stauumfahrung inkl. Einberechnung von anderen Verkehrsteilnehmern, …) und Individualität wird für immer mehr Vernetzung in den Fahrzeugen sorgen. Dieses bietet aber neben den Sicherheitsaspekten auch eine Reihe an intelligenten und nützlichen Diensten, welche die Fahrzeughersteller den Fahrern anbieten können.
Immer mehr Sensoren, Informationen und Vernetzungen schaffen aber auch immer mehr Daten. Um mit diesen vielen Daten aber auch einen Mehrwert sowohl für die Fahrzeughersteller als auch für die Insassen des Fahrzeugs schaffen zu können, müssen diese gesamthaft betrachtet, analysiert und verknüpft werden.
Um diese vernetzte Intelligenz herstellen zu können, kommen die „klassischen“ BI-Systeme mit Data Warehouses an ihre Grenzen. Millionen Fahrzeuge, hunderte Sensoren pro Fahrzeug und immer mehr Kommunikationskanäle mit dem Kunden bergen zwar einen riesigen „Datenschatz“, müssen aber auch verarbeitet und gespeichert werden. Hierfür eignen sich kombinierte Architekturansätze wie der Enterprise Data Hub sehr gut, da er die bestehenden DWH-Landschaften mit den Möglichkeiten der kostengünstigen Speicherung und Verarbeitung auf Hadoop-Systemen kombiniert. Darauf lassen sich BI- und Predictive-Systeme aufsetzen, die eine 360°-Sicht auf den Kunden ermöglichen und die Basis für weitere Dienstleistungen legen. Das dies einer der wichtigsten Aspekte für die Automobilindustrie ist, hat Dieter Zetzsche bekräftigt: „We want to listen to the consumer and learn“.
Referent: Arne Roßmann, Senior Consultant Insight & Data | Capgemini Deutschland GmbH
Vortrag: Connected Car – Auf dem Weg zum intelligenten Auto
Alexander von Gemünden
Capgemini Deutschland GmbH
Big Data Lab Forum 2015
Vortrag: Enterprise Data Hub
Klassische Data Warehouse- und Business Intelligence-Lösungen stoßen an ihre technischen und wirtschaftlichen Leistungsgrenzen. Dies ist zum einen durch die fortschreitende Digitalisierung und dem damit wachsenden Datenmengen zuzu-schreiben. Zum anderen müssen Unternehmen auf die Veränderungen in Ihrem Um-feld immer schneller reagieren und dementsprechend ihre Geschäftsprozesse an-passen, wodurch sich auch der damit verbundene Informationsbedarf stetig ändert. Dabei ist es möglich mit neuen Technologien, die unter dem Begriff Big Data sub-summiert werden, auf diese Herausforderungen zu reagieren und Lösungen bereit-zustellen, die die gesteigerten Informationsbedürfnisse abdecken können. Dazu muss eine Verbindung zwischen bestehenden Systemen und Big Data-Lösungen ge-baut werden. Die Enterprise Data Hub Architektur bietet dazu eine Grundlage.
Der Vortrag adressiert das Themengebiet „Big Data im Zusammenspiel mit beste-henden BI-Infrastrukturen“. Es wird mit der Einführung des Begriffes des Enterprise Data Hub (EDH) und den zu Grunde liegenden Technologien begonnen. Danach wird auf die Probleme der klassischen Data Warehouse und BI-Systeme eingegangen und es wird aufgezeigt, welche Lösungen sich mit dem EDH ergeben. Zur Verbin-dung von bestehenden Data Warehouse und BI-Lösungen wird die EDH-Referenzarchitektur mit den dazugehörigen Prozessen und einsetzbaren Technolo-gien vorgestellt.
Referent: Alexander von Gemünden - Software Engineer Lead | Capgemini Deutschland GmbH
Vortrag: Enterprise Data Hub
Ralf Klinkenberg
RapidMiner GmbH
Big Data Lab Forum 2015
Vortrag: Predictive Big Data Analytics: Mehrwerte aus Big Data generieren durch individuelle Prognosen, vorausschauende Handlungsempfehlungen und Automatisierung
Daten entstehen in immer größerer Vielfalt (Variety) in immer größerer Menge (Volume) und in immer größerer Geschwindigkeit (Velocity). Doch Big Data alleine stellt noch keinen Mehrwert dar, sondern erst die intelligente Analyse und Nutzung dieser Daten. Predictive Big Data Analytics ermöglicht die automatische Analyse größter Datenmengen, wahlweise offline (z.B. via Hadoop, HDFS, Hive, Mahout, SPARK, ML Lib) oder online (z.B. Sensor-Datenstrom-Auswertung in Echtzeit in Storm), Modellierung und Modellanwendung zur Ableitung von Erkenntnissen, Prognosen und Handlungsempfehlungen, um den maximalen Mehrwert aus den Daten aller Art zu generieren.
Der Vortrag stellt neben Systemarchitekturen und Softwarelösungen für Predictive Big Data Analytics zahlreiche Anwendungen und Success Stories vor:
Real-Time-Datenstromanalyse des Klickverhaltens von Millionen von Fernsehzuschauern für personalisierte Programmempfehlungen und zielgruppen-orientierte Werbung;
Umsatz- und Gewinnsteigerung durch Optimierung von Direkt-Marketing-Kampagnen;
Kunden-Feedback- und Stimmungsanalyse (Voice of the Customer Analytics) für Service- und Produkt-Verbesserungen, Steigerung der Kundenzufriedenheit und -bindung und Kündigerprävention (Churn Prevention);
Social Media Monitoring und Brand Monitoring;
Predictive Maintenance: automatische Vorhersage und Vermeidung von Maschinenausfällen und maschinen-individuelle Wartungsoptimierung;
Industrie 4.0 und Internet of Things (IoT): Online-Auswertung von Maschinendaten für die Optimierung von Design-, Planung-, Produktions-, Montage- und Wartungs-prozessen.
RapidMiner ist die am leichtesten zu bedienende und umfangreichste Modern Analytics Plattform, kann Daten aus allen möglichen Datenquellen integrieren und wahlweise in-Memory, in-Database, in-Hadoop oder in-Stream verarbeiten und modellieren. Die grafische RapidMiner-Benutzeroberfläche (GUI) ist leicht zu bedienen und erfordert keinerlei Programmierung, sondern ermöglicht visuelles Data Mining Prozess Design und integriert SQL- und NoSQL-Datenbanken, Cloud- und Web-Datenquellen, Social Media, Hadoop, Spark und Storm nahtlos. Analysen können wahlweise offline oder online erfolgen. RapidMiner wurde von Data Scientists für Data Scientist und Data Mining Experten ebenso wie für Business Analysts und Fachanwender entwickelt. Dank vorgefertigter Anwendungs-Templates (Application Wizards, Accelerator) können auch Nicht-Experten mit wenigen Mausklicks Anwendungen wie Direkt-Marketing-Kampagnen-Optimierung, Kündigerprävention (Churn Prevention), Text- und Stimmungsanalysen (Text Analytics und Sentiment Analysis) und prädiktive Wartung (Predictive Maintenance), d.h. die Vorhersage und Vermeidung von Maschinenausfällen mit RapidMiner realisieren. Auch fortgeschrittene Anwender erreichen ihr Ziel schneller dank automatisch generierter Empfehlungen auf Basis der gesammelten Erfahrung der mehr als 250.000 aktive Nutzer umfassenden RapidMiner-Anwender-Community (Wisdom of Crowds).
Referent: Ralf Klinkenberg, Founder & General Manager | RapidMiner GmbH
Vita: Ralf Klinkenberg ist Gründer und Geschäftsführer des Predictive Analytics Softwareanbieters RapidMiner. Er verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Data Mining, Text Mining, Predictive Analytics, maschinelles Lernen, Big Data und ihren Anwendungen in zahlreichen Branchen. 2001 gründete er mit Dr. Ingo Mierswa und Dr. Simon Fischer das Open-Source-Projekt RapidMiner und 2007 gründete er mit Dr. Ingo Mierswa das Unternehmen RapidMiner.
Vortrag: Predictive Big Data Analytics: Mehrwerte aus Big Data generieren durch individuelle Prognosen, vorausschauende Handlungsempfehlungen und Automatisierung
Johannes F. Knauf
Ancud IT-Beratung GmbH
Big Data Lab Forum 2015
Vortrag: Big Data im Portalbereich eines Automobilherstellers
Der Vortrag behandelt den Auswahlprozess und die Umsetzung einer Big Data Strategie bei einem Automobilhersteller.
Referent: Johannes Knauf, Consultant Data Science | Ancud IT-Beratung GmbH
Vita: Johannes Knauf ist Consultant für Data Science bei der Ancud IT-Beratung GmbH. Er unterstützt Firmen durch Beratung und Entwicklung dabei, dass der Sprung ins Big-Data-Zeitalter erfolgreich gelingt. Seine Leidenschaft gehört der Erschließung großer Datenberge und der Gestaltung eleganter Big-Data-Architekturen. Die Flexibilität von Open Source Software hilft ihm seit seiner Jugend bei der Lösung aller Herausforderungen.
Vortrag: Big Data im Portalbereich eines Automobilherstellers
Johannes Knauf
Ancud IT-Beratung GmbH
Big Data Lab Forum 2015
Vortrag: Big Data Analytics mit EXASOL und Pentaho (Workshop)
Von den operativen Quellsystemen über einen real/near-time Beladungsprozess über blitzschnelle Auswertungen und Hochgeschwindigkeitsabfragen auf riesige Datenmengen, interaktive und optische ansprechende Reports in, Self-Service-Analyse, schicke Management-Dashboards und dabei immer korrekte Zahlen: Das sind keine vollmundigen Marketing-Versprechungen, sondern realistische Anforderungen an eine moderne BI-Lösung.
Das zeigen EXASOL und die Ancud IT-Beratung GmbH in diesem Workshop. Am “lebenden Beispiel” wird demonstriert, wie ein geeigneter Lösungsstack mit der Exasolution und Pentaho Business Analytics aussieht und wie ein solches BI-Projekt Ende-zu-Ende mit wenig Aufwand umgesetzt werden kann.
Referent: Johannes Knauf, Consultant Data Science | Ancud IT-Beratung GmbHh Vita:
Johannes Knauf ist Consultant für Data Science bei der Ancud IT-Beratung GmbH. Er unterstützt Firmen durch Beratung und Entwicklung dabei, dass der Sprung ins Big-Data-Zeitalter erfolgreich gelingt. Seine Leidenschaft gehört der Erschließung großer Datenberge und der Gestaltung eleganter Big-Data-Architekturen. Die Flexibilität von Open Source Software hilft ihm seit seiner Jugend bei der Lösung aller Herausforderungen.
Co-Referent:
Thomas Scholz, Head of Solution Engineering (Leiter Presales & Consulting) | EXASOL AG
Vortrag: Big Data Analytics mit EXASOL und Pentaho (Workshop)
Thomas Scholz
Exasol AG
Vortrag: Big Data Analytics mit EXASOL und Pentaho (Workshop)
Prof. Dr. Bernd Heesen
Big Data Lab Forum 2015
Vortrag: Big Data Management – Stand der Innovationsadoption
Big Data Management ist heutzutage in fast allen Organisationen ein Gesprächsthema. Was genau sich dahinter verbirgt, welcher Nutzen sich dahinter verbirgt, aber auch welche Voraussetzungen dazu erfüllt sein müssen, soll im Rahmen des Vortrages geklärt werden.
Darüber hinaus stellt sich die Frage, in welchem Ausmaß Unternehmen analytische Applikationen aktuell nutzen, um ihre Strategien effizient umzusetzen. Beteiligen sie sich im Vorfeld bereits an dem entsprechenden Survey http://www.prescient.pro/index.php/prescient-research und reflektieren sie, wo sie noch Optimierungsmöglichkeiten besitzen, sich mit Big Data Analytics Wettbewerbsvorteile schaffen können und vieles mehr…
Referent: Bernd Heesen, Professor für Wirtschaftsinformatik
Vita:2004 – aktuell, Professor, Hochschule Ansbach und selbständiger Berater2002-2004, Direktor Executive MBA, Hochschule Furtwangen2001-2002, President, SAP SI America1998-2001, President Prescient Consulting
Vortrag: Big Data Management – Stand der Innovationsadoption
Stephan Krauß
Ancud IT-Beratung GmbH
Big Data Lab Forum 2015
Vortrag: Solr vs. Elasticsearch – Skalierbare Big-Data-Suche mit Open Source
Zwei Open Source Platzhirsche dominieren den Markt für skalierbare Suchframeworks: Apache Solr und Elasticsearch. Beide basieren auf Apache Lucene. Aber worin unterscheiden Sie sich?
Der Vortrag gibt Entscheidungshilfen über Vor- und Nachteile der beiden Technologien für verschiedene Einsatzszenarien. Er zeigt, wie leistungsfähige Suche in klassische Enterprise-Anwendungen und in Big-Data-Stacks integriert werden kann und wagt einen Blick über den Tellerrand in das jeweilige Tool-Umfeld.
Referent: Stephan Krauß, Senior Consultant | Ancud IT-Beratung GmbH
Vita: Stephan Krauß ist Senior Consultant für Portal-Integration, E-Commerce-Plattformen und Enterprise Suchtechnologien bei der Ancud IT-Beratung GmbH. Seit über 10 Jahren trägt er Open Source Technologien in Unternehmen aller Branchen hinein und bringt sie zum Fliegen.
Co-Referent:
Thomas Scholz | EXASOL AG
Vortrag: Solr vs. Elasticsearch - Skalierbare Big-Data-Suche mit Open Source
Norbert Barnikel
usability interactive GmbH
Big Data Lab Forum 2015
Vortrag: Big Data & Smart Data in Agenturen & Marketing Departments
Die Digitale Transformation beeinflusst Agenturen und Marketing Abteilungen zunehmend. Welche Tools & Netzwerke nutzen und bespielen wir? Genau, "die Großen und Bekannten". Warum? Weil es einfach ist.
Aber! Nur in der westlichen digitalen Hemisphäre sprechen wir aber über weit mehr als 10.000 erfolgreiche Apps, Tools und Communities. Und nahezu täglich tauchen neue Plattformen & Einstiegspunkte auf oder bestehende erweitern ihr Portfolio. Hinzu zeichnet sich mit dem Internet of Things eine wahre Flut an neuer "connected" Hardware wie Z.B. Wearable Devices, und damit Touchpoints ab.
Unser tägliches Arbeiten als Marketers muss dem Schritt halten. Kreativität und ManPower reichen längst nicht mehr. Neue Berufsbilder wie der Growth Hacker zeigen: Ohne die Erfahrungen aus Big Data & Smart Data und deren effizienten Einsatz, machen wir Marketing des letzten Jahrtausends.
Worauf sich Agenturen & Marketing Departments einstellen und welche Lösungsansätze es gibt zeigt die Session aus Praxis und Trendforschung.
Seit 20 Jahren begleitet Barnikel Deutschlands führende Marketing Professionals als Berater, Dozent und Gutachter bei Digital Transformation & Digital Leadership. Strategisches und operatives Digital Marketing mit seinen vielen, sich schnell verändernden, Facetten ist seine Passion. Und diese lebt der Wegbereiter der Digital Native Generation, auch in Beratung, Seminar, Hörsaal.
Vortrag: Big Data & Smart Data in Agenturen & Marketing Departments
Peter Pauthner
IBM Deutschland GmbH
Big Data Lab Forum 2015
Vom Hype zum Business Nutzen – Big Data geht an die Arbeit
Big Data in der Automobilindustrie – Vorstellung von zwei Big Data Projekten bei Daimler und BMW
Daimler steigert die Produktivität in der Zylinderkopffertigung mit Predictive Analytics um 25% Ziel des Projektes war es die qualitätsbestimmenden Einflußfaktoren in einer Vielzahl von Meßdaten zu finden und durch optimal eingestellte Prozessparameter die Ausbringung zu maximieren.
BMW nutzt Predictive Analytics zur Senkung von Wiederholreparaturen.Täglich werden weltweit ca. 10 GB an Diagnosedaten aus den BMW Betriebsstätten gesammelt. Durch Anwendung von Assoziationsanalysen und Anomalieerkennungen kann ein Großteil der Wiederholteilreparaturen erfolgreich verhindert werden.
Referent: Peter Pauthner, Big Data & Analytics Midmarket Business Development | IBM Deutschland GmbH
Vita: Dipl.-Wirtschaftsingenieur (FH). Über 25 Jahre Erfahrung bei der Einführung von PLM- und ERP-Lösungen in mittelständischen Unternehmen. Seit 2014 Business Development für Big Data & Analytics im Mittelstand. Schwerpunkte Fertigungsindustrie, Industrie 4.0.
Vortrag: Vom Hype zum Business Nutzen – Big Data geht an die Arbeit
Stephan Grotz
Cloudera GmbH
Big Data Lab Forum 2015
Power BI, Cloudera Impala and Azure – A winning combination!
Microsoft Power BI, in kombination mit Cloudera Impala und das alles innerhalb Microsoft Azure. In diesem Talk werden wir unter die Haube von Cloudera’s Distribution für Hadoop, in Verbindung mit Impala und Microsoft Power BI werfen. Parallele Datenverteilung, mit Anschluss an einen parallele SQL Engine bringen Power BI zu neuen Möglichkeiten.
Referent: Stephan Grotz, Senior Sales Engineer – DACH & CE | Cloudera GmbH
Vita: Senior Sales Engineer bei Cloudera Deutschland. Seit zig Jahren im IT Umfeld tätig – jetzt mit Vorliebe für Big Data.
Vortrag: Power BI, Cloudera Impala and Azure – A winning combination!
Stefan Gerstung
MIOsoft Deutschland GmbH
Big Data Lab Forum 2015
Kontextbildung als Katalysator smarter Business-Entscheidungen!
Im Zuge der Industrie 4.0 und vieler neuer Datenquellen wie Sensordaten, Social-Media-Daten, externen Datenserviceanbietern, aber auch Open-Data aus der Verwaltung entstehen neue Wissensschätze, die Entscheidungen in Unternehmen maßgeblich beeinflussen können – und sollten! Die Kosten für Fehlentscheidungen sind heute höher als je zuvor. Und nie zuvor war es so einfach möglich, bessere Entscheidungsvorlagen zu erstellen oder, bei einfacheren Problemen, Entscheidungen automatisch und nachvollziehbar für alle treffen zu lassen.
Die unterschiedlichen Daten (extern wie intern) mit bestehenden Unternehmensdaten in einen relevanten Kontext zu setzen, ist die Hauptaufgabe einer Context-Broker-Architektur. Sie ermöglicht es, aus dem Datenheuhaufen die Nadel der richtigen Information zur richtigen Zeit zu finden.
Context-Broker grenzen sich insbesondere durch Ihre Variabilität in der Bildung von Kontexten, in dem Ansatz der ganzheitlichen Verarbeitung von modellierten und nicht modellierten Daten, der schnelleren Adaptionsfähigkeit und der Fähigkeit, wirklich große Datenmengen zu verarbeiten, von herkömmlichen DWH-Architekturen ab.
Context-Broker vereinheitlichen dabei verteilte und heterogene Systemansätze für die verschiedenen Aufgaben der Datenintegration und –qualität, CEP (complex event processing), Analysen, Vorhersagen und Entscheidungsfindung.
MIOsofts Werkzeuge ermöglichen eine schnelle, visuelle und interaktive Investigation von Roh- und kontextstrukturierten Daten. Mittels Cluster-Technologien können Sie dabei Verbindungen zwischen Daten entdecken, die Sie heute noch nicht sehen – wir bilden den Kontext für Ihre Daten und helfen Ihnen dabei smarte Entscheidungen zu treffen
Referent: Stefan Gerstung – Partner Account Manager | MIOsoft Deutschland GmbH
Vita: Stefan Gerstung ist verantwortlich für die Entwicklung des Partner Ecosystems der MIOsoft Deutschland GmbH. Gleichzeitig betreut er in der Rolle als Enterprise Account Manager Kunden der MIOsoft Deutschland GmbH. Zuvor war er in verschiedensten Positionen bei großen und kleinen Beratungshäusern tätig.
Co-Referent:
Helmut Wimmer – Lead Architekt und Head of Development | MIOsoft Deutschland GmbH
Vita: Helmut Wimmer verantwortet seit über 10 Jahren die Architektur und Konzeption von BigData Architekturen auf Basis der MIOsoft Technologien.
Vortrag: Kontextbildung als Katalysator smarter Business-Entscheidungen!
Jörg Neumann
Consorsbank
Vortrag: Automatisierte Analytik und selbstlernendes Recommendation Management – das passende Angebot für jeden Kunden finden
Zielgruppe
Alle Mitarbeiter eines Unternehmens, die sich mit dem Thema Big Data auseinandersetzen möchten
Termin und Ort
14. - 15. April 2015
New Elements GmbH / IT-Schulungen.com Thurn-und-Taxis-Straße 10 90411 Nürnberg
Analyse großer Datenmengen - aber wie? Entwicklungen und Herausforderungen im Bereich Big Data Analytics (Prof. J. C. Freytag, Ph.D.)
10:30 - 11:00
Kaffeepause
1. Stock Raum Penzias
3. Stock
11:00 - 11:45
Prof. Dr. Bernd Heesen Big Data Management - Stand der Innovationsadoption
Rüdiger Karl - SAP Deutschland SE & Co. KG In-Memory Processing with Big Data - Challenges and Opportunities
11:45 - 12:30
Dr. Ulrich Plogas / Michael Deinhard - New Elements GmbH Der Brückenschlag zwischen klassischer Data Warehouse Technologie und "Big Data" - Utopie oder Notwendigkeit?
Jörg Neumann - Consorsbank Automatisierte Analytik und selbstlernendes Recommendation Management – das passende Angebot für jeden Kunden finden.
12:30 - 13:30
Mittagspause
13:30 - 14:15
Andreas Tönne - NovaTec Consulting GmbH Fachliche Anforderungen im Spannungsfeld von traditioneller Java EE Architektur und Big Data - Ein Projektbericht
Peter Pauthner - IBM Deutschland GmbH Vom Hype zum Business Nutzen - Big Data geht an die Arbeit
14:15 - 15:00
Prof. Dr. Michael Ponader / Atasoy Altinci - New Elements GmbH Näher am Kunden mit Digital Analytics - "Schnellere AHA-Effekte aus Small Data. Big Data. All Data - Online wie Offline"
Johannes F. Knauf - Ancud IT-Beratung GmbH Big Data im Portalbereich eines Automobilherstellers
15:00 - 15:30
Kaffeepause
15:30 - 16:15
Patrick Cato / Philipp Gölzer Wertschöpfungspotenziale von Big Data und deren Herausforderungen
Arne Roßmann - Capgemini Deutschland GmbH Connected Car - Auf dem Weg zum intelligenten Auto
16:15 - 17:00
Marko Grothkopp - TREvisto GmbH Keine Angst vor Big Data!
Dr. Ralf Klingenberg - RapidMiner GmbH Mehrwerte aus Big Data generieren durch individuelle Prognosen, vorausschauende Handlungsempfehlungen und Automatisierungen
17:00 - 17:45
Olivia Klose - Microsoft Deutschland GmbH Advanced Analytics in Microsoft Azure
Norbert Barnikel - usability interactive GmbH Big Data und Smart Data in Agenturen & Marketing Departments
ab 18:00
Get-together
Herzliche Einladung zur Abendveranstaltung im VIP Center
15.04.2015
Session Anbieter
3. Stock
Lab 1
1. Stock, Raum Neptun
Lab 2
1. Stock, Raum Pluto
Uhrzeit
Referent - Vortrag
08:30 - 09:00
Begrüßung
09:00 - 10:00
Udo Hertz - IBM Deutschland GmbH Trends in Big Data & Analytics
Microsoft Big Data (Teil 1) Grundlagen einer Big Data Umgebung in Microsoft Azure (Marc-David Militz – New Elements)
Self Service BI mit Big Data und Power BI (Teil 1) Datenanalyse mit Power Pivot (Stefan Bechtloff – New Elements)
10:00 - 10:30
Stephan Krauß - Ancud IT-Beratung GmbH Solr vs. Elasticsearch - Skalierbare Big-Data-Suche mit Open Source
Microsoft Big Data (Teil 2) Big Data Bausteine und Tools
Self Service BI mit Big Data und Power BI (Teil 2) ETL mit Power Query (Stefan Bechtloff – New Elements)
10:30 - 11:00
Kaffeepause
11:00 - 11:30
Prof. Dr. Cai-Nicolas Ziegler - XING Events GmbH Mit digitalen Empfehlungen analoge Events aufwerten
Microsoft Big Data (Teil 3) Provisionieren eines HDInsight Clusters (Marc-David Militz – New Elements)
Self Service BI mit Big Data und Power BI (Teil 3) Visualisieren und präsentieren mit Power View (Stefan Bechtloff – New Elements)
11:30 - 12:00
Oracle Deutschland B.V. & Co. KG Zwei Herausforderungen in Big Data Szenarien
Microsoft Big Data mit Hive HDInsight, Hive Hands-On (Marc-David Militz – New Elements)
Self Service BI mit Big Data und Power BI (Teil 4) Visualisierung von Geodaten mit Power Map (Stefan Bechtloff – New Elements)
12:00 - 12:30
Big Data, Analytics und Performance – Kein Widerspruch dank innovativer Software Made In Germany Thomas Scholz- Exasol AG
Microsoft Big Data mit Pig HDInsight, Pig Jobs Hands-On (Marc-David Militz – New Elements)
Self Service BI mit Big Data und Power BI (Teil 5) mit Microsoft Office 365 (Stefan Bechtloff – New Elements)
12:30 - 13:30
Mittagspause
13:30 - 14:00
Entdecken Sie Ihre Kunden von morgen! Generierung von relevanten Leads mit Hilfe von Predictive Analytics (Andreas Schwarzkopf - Lot Internet)
Microsoft Big Data mit Data Factory ETL-Prozesse mit Data Factory (Marc-David Militz – New Elements)
Self Service BI mit Big Data und Power BI (Teil 6) mit Big Data-Infrastruktur (Stefan Bechtloff – New Elements)
14:00 - 14:30
Power BI, Cloudera Impala and Azure – A winning combination! (Stephan Grotz – Cloudera)
360 Grad Kundenbetrachtung Architektur eine Big Data Umgebung mit Microsoft-Technologien zur Integration von Online- und Offline-Daten (Marc-David Militz – New Elements; Stefan Roth)
Self Service BI mit Big Data und Power BI Überblick über PowerPivot, Power Query, Power Map bis Big Data (Stefan Bechtloff – New Elements)
14:30 - 15:00
Enterprise Data Hub (Alexander von Gemünden - Capgemini)
2. Microsoft Azure Big Data Bausteine und Tools
Self Service BI mit Big Data und Power BI Überblick über PowerPivot, Power Query, Power Map bis Big Data (Stefan Bechtloff – New Elements)
15:00 - 15:30
Kaffeepause
15:30 - 16:00
Exploration von geospatialen Automotive-Daten (Dr. Christian Winkler - MGM Technology Partners)
Pentaho Data Integration (Johannes Deschl - Ancud IT)
Individualisierte Empfehlungen durch Big Data Predictive Analytics für Cross-Selling und Up-Selling für Umsatz- und Gewinnsteigerung (Ralf Klinkenberg - RapidMiner)
16:00 - 16:30
Big Data und Datenschutz - eine schwierige Ehe? Big Data und Datenschutz - eine schwierige Ehe?
Mit Predictive Maintenance Maschinenausfälle vorhersehen und vermeiden (Ralf Klinkenberg - RapidMiner)
16:30 - 17:00
Kontextbildung als Katalysator smarter Business-Entscheidungen (Stefan Gerstung – MIOsoft Deutschland)
RapidMiner Predictive Analytics mit RapidMiner (Johannes Knauf – Ancud IT)
360 Grad Kundenbetrachtung Architektur eine Big Data Umgebung mit Microsoft-Technologien zur Integration von Online- und Offline-Daten (Marc-David Militz – New Elements; Stefan Roth)
17:00 - 17:30
SQL on Hadoop: Möglichkeiten und Grenzen (Prof. Dr. Jens Albrecht)