モデル
AIクイック処理でモデル・エクスプローラについて学習します。
「モデル」の下には、AIクイック・アクションでサポートされているすべての基礎モデルおよびファインチューニング・モデルを表示するモデル・エクスプローラがあります。モデル・カードには、モデルでサポートされているシェイプのファミリを示すタグが含まれています。「モデルの検索およびフィルタ」テキスト・ボックスにテキストを入力して、リスト内のモデルを検索します。または、テキスト・ボックスを選択し、モデルのリストをフィルタするオプションを選択します。「マイ・モデル」の下には、サービス・キャッシュされた基盤モデル、登録可能なモデルおよび登録済のモデルがあります。サービス・キャッシュ・モデルは、構成がデータ・サイエンス・チームによって検証され、モデル・アーティファクトをダウンロードせずにすぐに使用できるモデルです。すぐに登録できるモデルは、構成がデータ・サイエンス・チームによって検証され、モデル登録プロセスを通じてAIクイック・アクションに取り込むことができるモデルです。「ファインチューニング・モデル」の下には、ファインチューニングしたモデルがあります。
サービス・キャッシュ・モデル
サービス・キャッシュ・モデルはデータ・サイエンスによってテストされ、モデル・アーティファクトはサービスのオブジェクト・ストレージのバケットにダウンロードされます。使用する準備ができています。
- コーデラマ-34b-instruct-hf
- コーデラマ-13b-instruct-hf
- コーデラマ-7b-instruct-hf
-
ミストラライ/ミクストラル-8x7b-v0.1
-
ミストラライ/ミストラル-7b-Instruct-v0.3
- mixral-8x7b-instruct-v0.1
- mistral-7b-instruct-v0.2
- ミストラル7b-v0.1
- mistral-7b-instruct-v0.1
- ファルコン7b
- PHI-2
- falcon-40bインストラクター
- マイクロソフト/Phi-3-vision-128k-instruct
- マイクロソフト/Phi-3-mini-128k-instruct
- マイクロソフト/Phi-3-mini-4k-instruct
- マイクロソフト/Phi-3-mini-4k-instruct-gguf-fp16
- マイクロソフト/Phi-3-mini-4k-instruct-gguf-q4
- meta-llama/Meta-Llama-3.1-8B
- meta-llama/Meta-Llama-3.1-8B-Instruct
- meta-llama/Meta-Llama-3.1-70B
- meta-llama/Meta-Llama-3.1-70B-Instruct
- meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
- meta-llama/Meta-Llama-3.1-405B-FP8
登録準備完了モデル
すぐに登録できるモデルは、データ・サイエンスによってテストされており、モデル登録プロセスを通じてAIクイック・アクションで使用できます。
- core42/jais-13bチャット
- core42/jais-13b
- llama-3-70b-instructor
- llama-3-8b-instruct
- meta-llama/Llama-3.2-1B
- meta-llama/Llama-3.2-1B- インストラクター
- meta-llama/Llama-3.2-3B
- meta-llama/Llama-3.2-3B- インストラクター
- meta-llama/Llama-3.2-11B-Vision
- meta-llama/Llama-3.2-90B-Vision
- meta-llama/Llama-3.2-11B-Vision-Instruct
- meta-llama/Llama-3.2-90B-Vision-Instruct
- メタラマ3-8b
- メタラマ-3-70b
- エリザ/ELYZA-japanese-Llama-2-13b-instruct
- エリザ/ELYZA-japanese-Llama-2-7b-instruct
- エリザ/エリザ- 日本語-Llama-2-13b
- エリザ/エリザジャパニーズLlama-2-7b
- グーグル/gemma-1.1-7b-it
- グーグル/ジェマ2b-it
- グーグル/ジェマ2b
- グーグル/gemma-7b
- google/codegemma 2b
- google/codegemma-1.1-7b-it
- google/codegemma-1.1-2b
- グーグル/コードジェマ7b
- intfloat/e5-mistral-7b-instruct
meta-llama/Meta-Llama-3.1およびmeta-llama/Llama-3.2モデルは、EUリージョンでは使用できません。
マルチモーダル・モデルの操作
AI Quick Actionsは、マルチモーダル・モデルのデプロイメントをサポートします。マルチモーダル・モデルのデプロイおよびテストの例は、GitHubのデータ・サイエンスの項のAIクイック・アクションのサンプルを参照してください。
イメージ・ペイロードおよびマルチモーダル・モデルを操作するには、モデル・デプロイメントの作成時に、「拡張オプション」で、推論モードとして/v1/chat/completions
を選択します。