SPDR Sektordaten in Microsoft Fabric laden – Low-Code Anleitung

Neue Pipeline in Fabric anlegen

Wechsle in deinen Fabric-Arbeitsbereich und erstelle ein neues Element vom Typ Data Pipeline.

  • Klicke auf „Neu“ → „Data Pipeline“
  • Vergib einen aussagekräftigen Namen (z. B. SPDR Sector 5D Performance)

Nach der Erstellung öffnet sich die Pipeline-Oberfläche. Dort kannst du direkt mit dem ersten Baustein beginnen.

Data Pipeline über die Kachel auswählen and Namen vergeben.

Quelle einrichten: SPDR API anbinden

Ziehe den Baustein „Daten kopieren“ in die Pipeline. Bei den Konfigurationen ist unter Quelle die API Verbindung anzugeben

URL der SPDR-API ein: https://www.sectorspdrs.com/api/cms/sector-overview?period=5D

Wähle als Quelle die Option Web / REST API

👉 Tipp: Falls die API später andere Zeiträume haben soll (z. B. 1D, 1M, YTD), kannst du diesen Parameter flexibel ändern.

3. Ziel definieren: OneLake als Speicher

  1. Klicke auf “Daten speichern”.
  2. Ziel: OneLake Data Lakehouse

4. Automatisierung

  • Plane die Aktualisierung direkt in Fabric: “Zeitplan” → täglich / stündlich.
  • So hast du immer die aktuellen 5-Tages-Daten im Lake.
  • Optional: Alerts aktivieren, wenn die Pipeline fehlschlägt.

5. Nutzung in Power BI oder Fabric Notebooks

  • In Power BI kannst du den Lakehouse/Table direkt anbinden.
  • Typische Visualisierungen:
    • Heatmap der Sektorperformance
    • Vergleich Top vs. Flop Sektoren
    • Historische Entwicklung (wenn du mehrere Läufe speicherst)

Vorteile des Low-Code-Ansatzes

  • Kein Python, keine SDKs, keine Service Principals → schneller Einstieg.
  • Alles läuft innerhalb von Fabric, mit einfachem Monitoring.
  • Leicht für Analysten und Fachbereiche zu pflegen.
  • Trotzdem sauber strukturiert (Parquet/Delta + Partitionierung).