Amazon Bedrock angetestet

07.03.2024
Von 
Martin Heller schreibt als freier Autor für die Schwesterpublikation InfoWorld.
Mit Bedrock will Amazon Web Services es Ihnen erleichtern, GenAI-Anwendungen auf die Beine zu stellen. Lesen Sie, wie das in der Praxis klappt.
Amazon Bedrock verspricht eine vielschichtige, vollständig gemanagte Generative-AI-Grundlage. Lesen Sie, ob dieses Versprechen eingelöst wird.
Amazon Bedrock verspricht eine vielschichtige, vollständig gemanagte Generative-AI-Grundlage. Lesen Sie, ob dieses Versprechen eingelöst wird.
Foto: thoron | shutterstock.com

Wenn Sie vom Generative-AI-Hype überfordert sind, hat Amazon Web Services (AWS) etwas für Sie: Bedrock. Dieser Browser-basierte Managed Service ergänzt die knapp 30 anderen verfügbaren Dienstleistungsangebote von AWS im Bereich Machine Learning.

Was ist Amazon Bedrock?

Bei Amazon Bedrock handelt es sich um einen vollständig gemanagten Service, um Generative-AI-Anwendungen zu entwickeln, bereitzustellen und zu erweitern. Dazu bietet Bedrock einen Katalog mit verschiedenen KI-Basismodellen diverser Anbieter, implementiert Retrieval Augmented Generation (RAG) sowie Vektoreinbettungen, hostet Wissensdatenbanken und ermöglicht fortlaufende Pretraining-Sessions - unter anderem. Aktuell verfügt Amazon Bedrock über sechs Hauptfunktionen:

  • Mit verschiedenen KI-Modellen experimentieren.

  • Externe Datenquellen integrieren.

  • Kundensupport-Anwendungen entwickeln.

  • Modelle anpassen.

  • Anwendungseffizienz optimieren.

  • Das jeweils optimale KI-Modell finden.

Zu den wichtigsten Konkurrenzangeboten zu Bedrock gehören:

Amazon Bedrock einrichten

Was das Setup angeht, gibt es Handlungsbedarf in zwei Bereichen - den KI-Modellen und der Bedrock-API.

  1. KI-Modelle: Bevor Sie die Modelle in Bedrock verwenden können, müssen Sie den Zugriff darauf (jeweils einzeln) beantragen. Wenn Sie das AWS-Kommandozeilen-Interface oder eines der -SDKs verwenden möchten, müssen Sie auch diese installieren und entsprechend konfigurieren. Das Formular für den Modellzugriff auszufüllen, gestaltete sich im Test simpler als erwartet, die Wartezeit auf den Zugriff blieb in den meisten Fällen sehr überschaubar.

  2. Bedrock-API: Da wir uns in unserem Test auf die Konsolennutzung fokussieren, haben wir uns nicht mit diesem Punkt befasst. Eine zielführende Anleitung zum API-Setup-Prozess finden Sie hier.

Vor der Nutzung müssen Sie KI-Modelle in Amazon Bedrock erst einmal "freischalten". Die Freigabe erfolgte im Test bei den meisten Anbietern nahezu unverzüglich. Einzelne Anbieter - etwa Anthropic - holen bei dieser Gelegenheit Angaben zur geplanten Nutzung ein.
Vor der Nutzung müssen Sie KI-Modelle in Amazon Bedrock erst einmal "freischalten". Die Freigabe erfolgte im Test bei den meisten Anbietern nahezu unverzüglich. Einzelne Anbieter - etwa Anthropic - holen bei dieser Gelegenheit Angaben zur geplanten Nutzung ein.
Foto: Martin Heller | IDG

Bedrocks Modell-Inferenz-Parameter

Um die Antworten der KI-Modelle zu steuern, nutzt Amazon Bedrock etwas andere Parameter als beispielsweise OpenAI. Der Service steuert Randomness und Diversity über die "Temperature" der Wahrscheinlichkeitsverteilung sowie "Top K" und "Top P" - die Länge des Outputs über die Antwortlänge, Penalties und Stop-Sequenzen. Im Folgenden gehen wir auf die einzelnen Elemente näher ein.

  • Die Temperature moduliert die Wahrscheinlichkeit für das nächste Token. Eine niedrigere Temperatur führt zu mehr deterministischen Antworten, eine höhere zu mehr zufälligen. Eine hohe Temperatur würde beispielsweise ermöglichen, dass bei der Vervollständigung des Satzes "Ich höre den Hufschlag von…" auch unwahrscheinliche Antworten wie "Einhörner" eingeschlossen sind. Eine niedrigere Temperatur würde hingegen den Fokus auf wahrscheinlichere Antworten wie "Pferde" verlagern.

  • Top K ist die Anzahl der wahrscheinlichsten "Kandidaten", die das Modell für das nächste Token berücksichtigt.

  • Top P ist der Prozentsatz der wahrscheinlichsten Kandidaten, die das Modell für das nächste Token in Betracht zieht.

  • Die Antwortlänge steuert die Anzahl der Token in der generierten Antwort.

  • Penalties (Strafen) können für die Länge, wiederholte Token, die Häufigkeit von Token und die Art der Token in einer Antwort gelten.

  • Stop-Sequenzen sind Zeichenfolgen, die das Modell daran hindern, weitere Token zu erzeugen.