Die Erwartungshaltung an digitale Prozesse und vollständig integrierte Echtzeitabläufe passt nicht mit Daten- und Infrastruktur-Silos zusammen. Daten müssen über das komplette Unternehmen hinweg kontinuierlich gesammelt, verarbeitet und in Applikationen reaktiv genutzt werden. Mit anderen Worten: Wenn ein Unternehmen oder eine Behörde zunehmend software-definiert wird, braucht es eine Datenplattform, die primär für „Data in Motion” ausgelegt ist und weniger für „Data at Rest”. Als de-facto Standard für “Data in Motion” und Event-Streaming hat sich Apache Kafka etabliert und wird von über 80% der Fortune-100-Unternehmen genutzt, um Datenarchitekturen zu modernisieren und Echtzeitanwendungen zu erstellen. Event Streaming mit Apache Kafka bietet die einzigartige Möglichkeit, eine einzige Technologie über Edge- und Hybrid-Cloud-Architekturen hinweg für die Echtzeit-Datenintegration und -verarbeitung für die nationale Sicherheit zu nutzen. Sogar abgekoppelte oder abgeschirmte Umgebungen werden unterstützt.
Hierfür haben wir im Vortrag drei Beispiele vorbereitet:
Im Anschluss an die Theorie gehen wir direkt in die Praxis und zeigen in einer kurzen Live-Demo, wie Daten skalierbar in Bewegung gesetzt werden und “data-driven” unkompliziert umgesetzt werden kann