モデル

AIクイック処理でモデル・エクスプローラについて学習します。

「モデル」の下には、AIクイック・アクションでサポートされているすべての基礎モデルおよびファインチューニング・モデルを表示するモデル・エクスプローラがあります。モデル・カードには、モデルでサポートされているシェイプのファミリを示すタグが含まれています。「モデルの検索およびフィルタ」テキスト・ボックスにテキストを入力して、リスト内のモデルを検索します。または、テキスト・ボックスを選択し、モデルのリストをフィルタするオプションを選択します。「マイ・モデル」の下には、サービス・キャッシュされた基盤モデル、登録可能なモデルおよび登録済のモデルがあります。サービス・キャッシュ・モデルは、構成がデータ・サイエンス・チームによって検証され、モデル・アーティファクトをダウンロードせずにすぐに使用できるモデルです。すぐに登録できるモデルは、構成がデータ・サイエンス・チームによって検証され、モデル登録プロセスを通じてAIクイック・アクションに取り込むことができるモデルです。「ファインチューニング・モデル」の下には、ファインチューニングしたモデルがあります。

サービス・キャッシュ・モデル

サービス・キャッシュ・モデルはデータ・サイエンスによってテストされ、モデル・アーティファクトはサービスのオブジェクト・ストレージのバケットにダウンロードされます。使用する準備ができています。

使用可能なサービス・キャッシュ・モデルは次のとおりです。
  • コーデラマ-34b-instruct-hf
  • コーデラマ-13b-instruct-hf
  • コーデラマ-7b-instruct-hf
  • ミストラライ/ミクストラル-8x7b-v0.1

  • ミストラライ/ミストラル-7b-Instruct-v0.3

  • mixral-8x7b-instruct-v0.1
  • mistral-7b-instruct-v0.2
  • ミストラル7b-v0.1
  • mistral-7b-instruct-v0.1
  • ファルコン7b
  • PHI-2
  • falcon-40bインストラクター
  • マイクロソフト/Phi-3-vision-128k-instruct
  • マイクロソフト/Phi-3-mini-128k-instruct
  • マイクロソフト/Phi-3-mini-4k-instruct
  • マイクロソフト/Phi-3-mini-4k-instruct-gguf-fp16
  • マイクロソフト/Phi-3-mini-4k-instruct-gguf-q4
  • meta-llama/Meta-Llama-3.1-8B
  • meta-llama/Meta-Llama-3.1-8B-Instruct
  • meta-llama/Meta-Llama-3.1-70B
  • meta-llama/Meta-Llama-3.1-70B-Instruct
  • meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
  • meta-llama/Meta-Llama-3.1-405B-FP8

登録準備完了モデル

すぐに登録できるモデルは、データ・サイエンスによってテストされており、モデル登録プロセスを通じてAIクイック・アクションで使用できます。

すぐに登録できるモデルは次のとおりです。
  • core42/jais-13bチャット
  • core42/jais-13b
  • llama-3-70b-instructor
  • llama-3-8b-instruct
  • meta-llama/Llama-3.2-1B
  • meta-llama/Llama-3.2-1B- インストラクター
  • meta-llama/Llama-3.2-3B
  • meta-llama/Llama-3.2-3B- インストラクター
  • meta-llama/Llama-3.2-11B-Vision
  • meta-llama/Llama-3.2-90B-Vision
  • meta-llama/Llama-3.2-11B-Vision-Instruct
  • meta-llama/Llama-3.2-90B-Vision-Instruct
  • メタラマ3-8b
  • メタラマ-3-70b
  • エリザ/ELYZA-japanese-Llama-2-13b-instruct
  • エリザ/ELYZA-japanese-Llama-2-7b-instruct
  • エリザ/エリザ- 日本語-Llama-2-13b
  • エリザ/エリザジャパニーズLlama-2-7b
  • グーグル/gemma-1.1-7b-it
  • グーグル/ジェマ2b-it
  • グーグル/ジェマ2b
  • グーグル/gemma-7b
  • google/codegemma 2b
  • google/codegemma-1.1-7b-it
  • google/codegemma-1.1-2b
  • グーグル/コードジェマ7b
  • intfloat/e5-mistral-7b-instruct
ノート

meta-llama/Meta-Llama-3.1およびmeta-llama/Llama-3.2モデルは、EUリージョンでは使用できません。

マルチモーダル・モデルの操作

AI Quick Actionsは、マルチモーダル・モデルのデプロイメントをサポートします。マルチモーダル・モデルのデプロイおよびテストの例は、GitHubのデータ・サイエンスの項のAIクイック・アクションのサンプルを参照してください。

イメージ・ペイロードおよびマルチモーダル・モデルを操作するには、モデル・デプロイメントの作成時に、「拡張オプション」で、推論モードとして/v1/chat/completionsを選択します。