xAI Grok Code Fast 1 (Neu)

Das xAI Grok Code Fast 1-Modell ist ein kodierungsorientiertes KI-Modell, das sich durch gängige, großvolumige Codierungsaufgaben wie Debugging und Bearbeitung auszeichnet und speziell für agentenbasierte Codierungsworkflows entwickelt wurde. Mit seiner Geschwindigkeit, Effizienz und niedrigen Kosten ist dieses Modell vielseitig im gesamten Softwareentwicklungsstack einsetzbar und beherrscht TypeScript, Python, Java, Rust, C++ und Go. Verwenden Sie dieses Modell zum Erstellen von Null-zu-Eins-Projekten, Beantworten von Codebase-Fragen, Durchführen von Bugfixes und Agentic Coding.

In diesen Regionen verfügbar

  • US East (Ashburn) (nur bei Bedarf)
  • Mittlerer Westen der USA (Chicago) (nur bei Bedarf)
  • US West (Phoenix) (nur bei Bedarf)
Wichtig

Externe Aufrufe

Die xAI Grok-Modelle werden in einem OCI-Data Center in einem Mandanten gehostet, der für xAI bereitgestellt wird. Die xAI Grok-Modelle, auf die über den OCI Generative AI-Service zugegriffen werden kann, werden von xAI verwaltet.

Wichtige Features

  • Modellname in OCI Generative AI: xai.grok-code-fast-1
  • On-Demand verfügbar: Greifen Sie auf dieses Modell On-Demand über den Playground der Konsole oder die API zu.
  • Nur Textmodus: Geben Sie die Texteingabe ein, und rufen Sie die Textausgabe ab. Bilder und Dateieingaben wie Audio-, Video- und Dokumentdateien werden nicht unterstützt.
  • Wissen: Verfügt über umfassende Kenntnisse in den Bereichen Finanzen, Gesundheitswesen, Recht und Wissenschaft.
  • Kontextlänge: 256.000 Token (maximale Prompt- und Antwortlänge beträgt 256.000 Token, um den Kontext beizubehalten). Im Playground wird die Antwortlänge für jede Ausführung auf 16.000 Token begrenzt, der Kontext bleibt jedoch 256.000 Token.
  • Excels in diesen Anwendungsfällen: Agentische Codierung
  • Funktionsaufruf: Ja, über die API.
  • Strukturierte Ausgaben: Ja.
  • Hat Argumentation: Nein.
  • Gecachte Eingabetoken: Ja

    Wichtiger Hinweis: Die Eingabefunktion im Cache ist sowohl im Playground als auch in der API verfügbar. Diese Informationen können jedoch nur über die API abgerufen werden.

  • Wissensstichtag: Kein bekanntes Stichtag

Wichtige Featuredetails finden Sie in der Dokumentation zu Grok Code Fast 1 und der Modellkarte.

Bedarfsgesteuerter Modus

Sie können die vortrainierten Basismodelle in generativer KI über zwei Modi erreichen: On-Demand und dediziert.

Hinweis

Die Grok-Modelle sind nur im On-Demand-Modus verfügbar.

Im Folgenden werden die wichtigsten Features für den On-Demand-Modus aufgeführt:

  • Sie zahlen unterwegs für jeden Inferenzaufruf, wenn Sie die Modelle im Playground verwenden oder die Modelle über die API aufrufen.

  • Geringe Barriere für den Einsatz generativer KI.
  • Ideal für Experimente, Proof of Concept und Modellauswertung.
  • Verfügbar für die vortrainierten Modelle in Regionen, die nicht als (nur dediziertes KI-Cluster) aufgeführt sind.
Modellname OCI-Modellname Preisfindungsseite - Produktname
xAI Grok Code Fast 1 xai.grok-code-fast-1 xAI – Grok-Code-Fast-1
Preise sind aufgeführt für:
  • Eingabetoken
  • Ausgabetoken
  • Zwischengespeicherte Eingabetoken

Freigabedatum

Modell Veröffentlichungsdatum der allgemeinen Verfügbarkeit Abgangsdatum bei Bedarf Abgangsdatum im dedizierten Modus
xai.grok-code-fast-1 2025-10-01 Vorbehalt Dieses Modell ist für den dedizierten Modus nicht verfügbar.
Wichtig

Eine Liste aller Modellzeitpositionen und Abgangsdetails finden Sie unter Ablauf der Modelle.

Modellparameter

Um die Modellantworten zu ändern, können Sie die Werte der folgenden Parameter im Playground oder in der API ändern.

Maximale Ausgabetoken

Die maximale Anzahl an Token, die das Modell für jede Antwort generieren soll. Schätzen Sie vier Zeichen pro Token. Da Sie ein Chatmodell anfordern, hängt die Antwort von der Eingabeaufforderung ab, und jede Antwort verwendet nicht unbedingt die maximal zugewiesenen Token. Die maximale Länge für Prompt + Ausgabe beträgt 256.000 Token für jede Ausführung.

Tipp

Legen Sie für große Eingaben mit schwierigen Problemen einen hohen Wert für den Parameter "Maximale Ausgabetoken" fest.
Temperatur

Der Grad der Zufälligkeit, mit dem der Ausgabetext generiert wird. Min.: 0, Max.: 2

Tipp

Stellen Sie die Temperatur auf 0 oder weniger als eins ein, und erhöhen Sie die Temperatur, wenn Sie die Prompts für eine kreativere Ausgabe neu generieren. Hohe Temperaturen können Halluzinationen und sachlich falsche Informationen verursachen.
Top p

Eine Samplingmethode, mit der die kumulative Wahrscheinlichkeit der Top-Token gesteuert wird, die für das nächste Token zu berücksichtigen sind. Weisen Sie p eine Dezimalzahl zwischen 0 und 1 für die Wahrscheinlichkeit zu. Beispiel: Geben Sie 0,75 für die Top 75 Prozent ein, die berücksichtigt werden sollen. Setzen Sie p auf 1, um alle Token zu berücksichtigen.