PCG logo
Artikel

Nutzung von öffentlichen Cloud-Plattformen für GenAI

Einführung

Willkommen zurück zu unserer Serie über Generative AI! Im letzten Artikel haben wir einen Rahmen für die Auswahl des richtigen KI-Foundationmodells vorgestellt. In diesem Artikel werden wir untersuchen, wie öffentliche Cloud-Plattformen bei Generative AI helfen können, indem wir die Angebote der drei führenden Cloud-Anbieter untersuchen: Amazon Web Services (AWS), Google Cloud und Microsoft Azure.

Wie können öffentliche Cloud-Plattformen bei GenAI helfen?

Mit dem Aufstieg von Generative AI bieten die führenden Hyperscaler - Amazon Web Services (AWS), Google Cloud und Microsoft Azure - umfassende Lösungen zur Unterstützung von KI-Initiativen. Schauen wir uns die Angebote der einzelnen Cloud-Anbieter in den drei Hauptschichten von Generative AI-Stacks an: Infrastruktur, Modellzugriff/Entwicklung und Anwendungen.

AWS Generative AI Stack:

1. Infrastruktur-Schicht:

  • Amazon SageMaker (JumpStart): Ein umfassender Service, der alle Tools für maschinelles Lernen (ML) bereitstellt, die zum Erstellen, Trainieren und Bereitstellen von ML-Modellen für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows erforderlich sind.
  • Amazon EC2: Amazon EC2-Instanzen mit spezialisierten GPUs und kundenspezifischen KI-Chips (Trainium, Inferentia).

2. Modellzugriff/Entwicklungsschicht:

  • Amazon Bedrock: Ein Service, der Basismodelle von führenden KI-Startups und Amazon über eine API zur Verfügung stellt. Dadurch können Sie auf eine Reihe leistungsstarker Modelle zugreifen und diese anpassen.
  • Modellvielfalt und Auswahl: Unterstützung für Modelle von Anthropic, Stability AI, Meta, Cohere, AI21 und Amazons eigene Titan-Modelle.

3. Anwendungsschicht:

  • Amazon Q: Ein Frage- und Antwortdienst in natürlicher Sprache, der es einfach macht, Geschäftsfragen in natürlicher Sprache zu stellen und schnell präzise Antworten zu erhalten.
  • CodeWhisperer: Ein KI-gestützter Code-Vervollständigungs- und -Generierungsdienst, der Entwicklern dabei helfen soll, Code effizienter und genauer zu schreiben.

Azure Generative AI Stack:

1. Infrastruktur-Schicht:

  • Azure GPU-fähige virtuelle Maschinen: Leistungsstarke virtuelle Maschinen, die für KI-Arbeitslasten optimiert sind.
  • Azure Machine Learning: Eine End-to-End-ML-Plattform, die Tools und Dienste für die Erstellung, das Training und die Bereitstellung von ML-Modellen bietet. Dazu gehören automatisiertes maschinelles Lernen, MLOps und benutzerdefinierte Modellbereitstellungen.

2. Modellzugriff/Entwicklungsschicht:

  • Azure OpenAI Service: Bietet über eine API Zugriff auf die leistungsstarken GPT-4- und andere Modelle von OpenAI, um verschiedene Anwendungsfälle wie Texterstellung, Übersetzungen und Chatbots zu unterstützen.
  • Azure AI Studio: Eine umfassende Plattform für die Entwicklung und den Einsatz von KI-Lösungen auf Unternehmensebene. Sie ermöglicht es Entwicklern, generative KI-Anwendungen zu erstellen, KI-Lösungen zu erforschen und bereitzustellen, sicher zusammenzuarbeiten, KI-Innovationen zu skalieren und verantwortungsvolle KI-Praktiken zu integrieren.

3. Anwendungsschicht:

  • Microsoft 365 Copilot: Ein in Microsoft 365 integrierter KI-Assistent, der Nutzer bei Aufgaben und Produktivität unterstützt.
  • GitHub Copilot: Ein KI-gestütztes Tool zur Code-Vervollständigung, das Entwicklern hilft, Code schneller und genauer zu schreiben.

Google Cloud Generative AI Stack:

1. Infrastruktur-Schicht:

  • Google Cloud GPUs und TPUs: Leistungsstarke Hardware für das Training und die Bereitstellung von KI-Modellen.
  • Vertex AI: Eine einheitliche Plattform für die Entwicklung, das Training und den Einsatz von ML-Modellen. Vertex AI kombiniert verschiedene Tools und Dienste zur Verwaltung und Optimierung des gesamten ML-Lebenszyklus.

2. Modellzugriff/Entwicklungsschicht:

  • Vertex AI PaLM API: Ermöglicht den Zugriff auf die leistungsstarken Grundmodelle von Google.
  • Model Garden: Bietet Zugang zu verschiedenen Open-Source- und Drittanbieter-Modellen.

3. Anwendungsschicht:

  • Gemini Code Assist (früher Duet AI) für Google Workspace und Google Cloud: KI-gesteuerte Erweiterungen für Produktivität und Zusammenarbeit in Google Workspace und Cloud-Diensten.
  • Verschiedene KI-gestützte Lösungen: Integration von KI-Funktionen in mehrere Google Cloud-Dienste zur Verbesserung von Funktionalität und Leistung.

Wesentliche Unterschiede und Gemeinsamkeiten:

  • Modellvielfalt: Alle drei Cloud-Anbieter bieten eine breite Palette von Modellen an. AWS unterstützt Modelle von Drittanbietern über Bedrock, Azure konzentriert sich auf Modelle wie die GPT-Serie von OpenAI, und Google Cloud bietet Zugang zu seinen PaLM-Modellen und anderen Open-Source-Optionen.
  • Infrastruktur: Jeder Anbieter bietet spezielle Hardware für KI-Workloads. AWS verfügt über benutzerdefinierte KI-Chips (Trainium, Inferentia), Azure bietet GPU-fähige VMs, und Google Cloud bietet Hochleistungs-GPUs und TPUs.
  • Entwicklungstools: Jede Plattform verfügt über robuste Tools für die Modellentwicklung und -bereitstellung. AWS verwendet SageMaker, Azure bietet Azure AI Studio, und Google Cloud verwendet Vertex AI, die alle End-to-End-ML-Workflows unterstützen.
  • Anwendungen: Die Integration von KI-Assistenten ist ein gängiges Merkmal. AWS verfügt über Amazon Q und CodeWhisperer, Azure umfasst Microsoft 365 Copilot und GitHub Copilot, während Google Cloud Gemini Code Assist (früher Duet AI) und verschiedene andere KI-gesteuerte Lösungen anbietet.
  • Sicherheit und Governance: Bei allen Plattformen liegt der Schwerpunkt auf Sicherheit und Governance auf Unternehmensniveau, um Compliance, Datenschutz und zuverlässige Leistung für KI-Anwendungen zu gewährleisten.

Schlussfolgerung

Die Auswahl des richtigen KI-Modells ist entscheidend für die Optimierung von Geschäftsergebnissen. AWS, Azure und Google Cloud bieten spezialisierte generative KI-Stacks, die jeweils einzigartige Tools und Services für unterschiedliche Anforderungen bereitstellen. Diese Plattformen ermöglichen es Unternehmen, die besten Basismodelle zu finden, zu testen und zu bewerten, um Flexibilität und Skalierbarkeit für KI-Initiativen zu gewährleisten. Eine Partnerschaft mit PCG kann Unternehmen bei der Cloud-basierten KI-Bereitstellung helfen und die Nutzung dieser Tools maximieren. Der letzte Artikel der Serie über generative KI wird sich damit befassen, wie man KI-Modelle operationalisiert, um optimale Ergebnisse zu erzielen. Bleiben Sie dran für weitere Einblicke.


Genutzte Services

Weiterlesen

Artikel
KI
Unternehmenswachstum mit Prompt Engineering Techniken vorantreiben

Entdecken Sie, wie Prompt Engineering Unternehmenswachstum und Innovation fördert.

Mehr erfahren
Artikel
2024: Das Jahr der KI-Agenten

Der Artikel „2024: Das Jahr der KI-Agenten“ behandelt die Weiterentwicklung von KI-Systemen hin zu modularen, zusammengesetzten Systemen, die komplexe Aufgaben effizienter lösen können.

Mehr erfahren
Artikel
Ein Framework für die Auswahl des richtigen KI Foundationmodells

Erfahren Sie, wie Sie das beste KI Foundationmodell für Ihre spezifischen Anforderungen auswählen können, mit einem schrittweisen Rahmen, Bewertungsfaktoren und einem Ansatz mit mehreren Modellen.

Mehr erfahren
Artikel
Foundation Models in AI: Herausforderungen bei der Auswahl meistern

Foundation Models in AI, ihre Herausforderungen und Beispiele. Erfahren Sie, wie Sie das richtige Modell für Ihre Bedürfnisse auswählen.

Mehr erfahren
Alles sehen

Gemeinsam durchstarten

United Kingdom
Arrow Down