Azure AI Foundry ist Microsofts zentrales Portal, um KI-Modelle in Anwendungen zu integrieren. Anders als die klassischen Azure-Services richtet es sich stark an Entwickler*innen, die Pro-Code-Szenarien umsetzen wollen.
Von Chatbots über Dokumenten-Workflows bis hin zu Bild- oder Fehleranalysen in Produktionsumgebungen.
In unserer aktuellen Podcast-Folge geben wir einen praxisnahen Überblick:
Was brauchst du, um loszulegen?
Welche Deployment-Modelle gibt es?
Und worauf musst du achten, damit Kosten, Performance und Governance stimmen?
Hub, Projekte und Governance
Der Einstieg in Azure AI Foundry beginnt mit der Entscheidung: Hub oder direkt ein Projekt.
Hub: Zentrale Stelle für Netzwerkanbindung, Governance und Quotas. Vergleichbar mit Hub-&-Spoke in der klassischen Infrastruktur.
Projekte: Ideal für Tests oder kleinere Szenarien, wenn man noch keine zentrale Steuerung benötigt.
Governance im Hub: Hier lassen sich zentrale Quotas, Security-Einstellungen und Modellkataloge für alle Projekte vorgeben.
Das Hub-Konzept erleichtert es, KI-Anwendungen skalierbar und kontrolliert einzuführen, ohne jedes Projekt einzeln konfigurieren zu müssen.
Quelle: Microsoft Docs – Azure AI Foundry overview
Auswahl und Deployment von Modellen
Ein Highlight ist die riesige Modellbibliothek mit über 1.800 Sprachmodellen.
Neben OpenAI-Modellen wie GPT-4o gibt es Branchenspezifische Varianten für Finance, Produktion oder Healthcare.
Modelle können über ein Vergleichsportal nach Kosten und Qualität geprüft werden.
Deployment erfolgt regionsspezifisch (z. B. Sweden Central für nachhaltige Rechenzentren).
Datenverarbeitung lässt sich eng auf Regionen oder ganze Data Zones (EU/USA) eingrenzen.
Diese Flexibilität macht Foundry interessant für Unternehmen mit Compliance-Anforderungen.
Kosten und Deployment-Optionen
Die Abrechnung basiert auf Tokens (≈ 4 Zeichen ≈ 1 Token). Dabei gibt es unterschiedliche Modelle:
Standard (Pay-as-you-go): Klassisches Verbrauchsmodell.
Batch: Günstige Variante, bei der Anfragen in Queues verarbeitet werden – ideal für Poststellen- oder Dokumenten-Workflows.
Throughput Units (TPUs): Reservierung von Kapazitäten für planbare Lasten, z. B. bei produktiven Anwendungen.
Tipp: Starte mit Pay-as-you-go, sammle Erfahrungswerte und wechsle später auf TPUs. So verhinderst du unnötige Mehrkosten.
Quelle: Azure AI Pricing Models
Praktische Anwendung: Agenten & Prompt Flows
Ein spannender Teil der Folge sind die ersten Experimente mit Agenten:
Nutzung von Prompt Flows direkt in Foundry (Low-Code-Ansatz, ähnlich Power Automate).
Integration mit Semantic Kernel1 (C#, Python) für Pro-Code-Szenarien.
Alternative Tools wie n8n für Drag-&-Drop-basierte KI-Flows.
Diese Ansätze zeigen, wie sich KI schrittweise in bestehende Prozesse integrieren lässt, von Social-Media-Content über interne Automatisierung bis hin zu branchenspezifischen Use Cases.
Die Angesprochene Infos von Chris zu Anthropic Modellen wie z.B. Claude findest du hier: Connect to Anthropic's AI models
Und wie versprochen, die Podcast Sonderfolge mit Dominic von Proeck:
Fazit
Azure AI Foundry bietet einen schnellen, kontrollierten Einstieg in KI.
Von der Auswahl geeigneter Modelle über flexible Deployment-Optionen bis hin zu Governance und Kostenkontrolle.
Die Empfehlung aus unserer Praxis:
Klein starten (Pay-as-you-go, einzelne Projekte).
Governance von Anfang an implementieren (Hub-Setup, Quotas, Regionen).
Experimentieren mit Agenten und Prompt Flows, um passende Use Cases für dein Unternehmen zu identifizieren.
So gelingt ein solider Start, ohne sich gleich in Komplexität oder Kosten zu verlieren.
Und wer Azure AI Foundary kostenlos Testen möchte, kann das über den GitHub Marketplace tun: https://github.com/marketplace
Danke fürs Zuhören und Lesen ♥️
Chris & Matthias
Die Cloud Optimizer
PS: Folge uns auf LinkedIn und tausche dich mit uns aus
Christian: LinkedIn-Profil
Matthias: LinkedIn-Profil
Der semantische Kernel ist ein einfaches Open-Source-Entwicklungskit, mit dem Du KI-Agents ganz einfach erstellen und die neuesten KI-Modelle in Ihre C#-, Python- oder Java-Codebasis integrieren können. Es dient als effiziente Middleware, die eine schnelle Bereitstellung von Lösungen auf Unternehmensniveau ermöglicht.