In diesem Workshop lernen Sie, eine Datenpipeline-Lösung zu entwerfen, die Cosmos DB sowohl für die skalierbare Aufnahme von Streaming-Daten als auch für die global verteilte Bereitstellung von vorab gespeicherten Daten und Modellen des maschinellen Lernens nutzt. Die Lösung nutzt den Cosmos DB Change Data Feed in Verbindung mit dem Azure Databricks Delta, um eine moderne Data Warehouse-Lösung zu ermöglichen, mit der Risikominderungslösungen für die Bewertung von Transaktionen für Betrug in einem Offline-, Batch-Ansatz und in einem Request/Response-Ansatz in nahezu Echtzeit erstellt werden können.
Am Ende dieses Seminars können Sie Lösungen implementieren, die die Stärken von Cosmos DB zur Unterstützung fortschrittlicher Analyselösungen nutzen, die einen hohen Datendurchsatz, eine geringe Latenzzeit und globale Skalierbarkeit in Kombination mit skalierbarem maschinellem Lernen, großen Datenmengen und Echtzeitverarbeitungsfunktionen erfordern.
IT-Profis mit fortgeschrittenen Kenntnissen in Cloud-Technologien.
Dieser Workshop richtet sich an Cloud-Architekten und IT-Profis, die über architektonische Expertise im Bereich Infrastruktur- und Lösungsdesign in Cloud-Technologien verfügen und mehr über Azure und Azure-Dienste erfahren möchten. Die Teilnehmer dieses Workshops sollten mit anderen Nicht-Microsoft-Cloud-Technologien vertraut sein.