生成AIでのモデルの制限事項
OCI生成AIカスタム・モデルとベース・モデルの次のモデル要件を確認し、モデルを最大限に活用してください。
ベース・モデルのクラスタへの照合
次のセクションを展開して、各基礎モデルに一致する専用AIクラスタのユニット・サイズおよびユニットを確認します。
専用サービス・モードでサポートされている一部のOCI生成AI基礎事前トレーニング済ベース・モデルは非推奨になり、1番目の置換モデルのリリース後6か月以内に廃止されます。ベース・モデルをホストするか、ベース・モデルをファインチューニングして、ベース・モデルが廃止されるまで、専用AIクラスタ(専用サービング・モード)でファインチューニング・モデルをホストできます。専用サービング・モード・リタイア日については、モデルのリタイアを参照してください。
ベース・モデル | クラスタのファインチューニング | ホスティング・クラスタ | 価格設定ページ情報 | クラスタ制限増加のリクエスト |
---|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
微調整に使用できません |
|
|
|
|
微調整に使用できません |
|
|
|
|
微調整に使用できません |
|
|
|
|
微調整に使用できません |
|
|
|
|
|
|
|
|
|
微調整に使用できません |
|
|
|
|
|
|
|
|
次のリソースを使用するには、制限の引上げをリクエストする必要があります:
Meta Llamaファミリ
-
Meta Llama 3.2 11B Vision モデルをホストするには、
dedicated-unit-llama2-70-count
を1ずつ増やすようにリクエストする必要があります。 -
Meta Llama 3.2 90B Vision モデルをホストするには、
dedicated-unit-llama2-70-count
に2ずつ増やすようにリクエストする必要があります。 -
Meta Llama 3.1 (70B)モデルをホストするには、
dedicated-unit-llama2-70-count
に2ずつ増やすようにリクエストする必要があります。 -
Meta Llama 3.1 (70B)モデルを微調整するには、
dedicated-unit-llama2-70-count
をリクエストして4増やす必要があります。 -
Meta Llama 3.1 (405B)モデルをホストするには、
dedicated-unit-llama2-70-count
をリクエストして8増やす必要があります。
Cohere Command Rファミリ
-
Cohere Command R (非推奨)モデルをホストするには、
dedicated-unit-small-cohere-count
に1ずつ増やすようにリクエストする必要があります。 -
Cohere Command R (非推奨)モデルを微調整するには、
dedicated-unit-small-cohere-count
をリクエストして8増やす必要があります。 -
Cohere Command R 08-2024モデルをホストするには、
dedicated-unit-small-cohere-count
を1ずつ増やすようにリクエストする必要があります。 -
Cohere Command R 08-2024モデルを微調整するには、
dedicated-unit-small-cohere-count
をリクエストして8増やす必要があります。 -
Cohere Command R+ (非推奨)モデルをホストするには、
dedicated-unit-large-cohere-count
に2ずつ増やすようにリクエストする必要があります。 -
Cohere Command R+ 08-2024モデルをホストするには、
dedicated-unit-large-cohere-count
に2ずつ増やすようにリクエストする必要があります。
参照: 生成AIのサービス制限およびリクエスト・クラスタ制限の引上げ
ベース・モデル | クラスタのファインチューニング | ホスティング・クラスタ | 価格設定ページ製品名 | クラスタ制限の増加のリクエスト |
---|---|---|---|---|
|
微調整に使用できません |
|
|
|
|
微調整に使用できません |
|
|
|
|
微調整に使用できません |
|
|
|
|
微調整に使用できません |
|
|
|
- オンデマンドで使用不可:テキスト生成および集計API (プレイグラウンドを含む)を使用するオンデマンド・サービング・モードでサポートされているすべてのOCI生成AI基礎事前トレーニング済モデルが廃止されました。かわりにチャット・モデルを使用することをお薦めします。
- クラスタでホスト可能:専用AIクラスタ(専用サービス・モード)で集計または
cohere.command
などの生成モデルをホストする場合、そのモデルが廃止されるまで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。廃止日と定義については、モデルの廃止を参照してください。
ベース・モデル | クラスタのファインチューニング | ホスティング・クラスタ | 価格設定ページ製品名 | クラスタ制限の増加のリクエスト |
---|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
微調整に使用できません |
|
|
|
オンデマンド・サービング・モードでサポートされている
cohere.command
モデルが廃止され、このモデルは専用サービング・モードでは非推奨になりました。cohere.command
を専用AIクラスタ(専用サービス・モード)でホストして集計する場合、このホスト・モデル・レプリカは、専用サービス・モードのcohere.command
モデルretiresまで、集計APIおよびプレイグラウンドで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。廃止日と定義については、モデルの廃止を参照してください。かわりにチャット・モデルを使用することをお薦めします。チャット・モデルでは、サマリーの長さやスタイルの管理など、同じ要約機能が提供されます。ベース・モデル | クラスタのファインチューニング | ホスティング・クラスタ | 価格設定ページ製品名 | クラスタ制限の増加のリクエスト |
---|---|---|---|---|
|
微調整に使用できません |
|
|
|
- クラスタを微調整するための単位
- ファインチューニング専用AIクラスタを作成すると、ベース・モデルに基づいて固定ユニット数が自動的にプロビジョニングされます。
cohere.command-r-16k
の場合は8ユニット、他のモデルの場合は2ユニットです。この数値は変更できませんが、同じクラスタを使用して複数のモデルを微調整できます。 - ホスト・クラスタの単位
-
- クラスタの作成時に、デフォルトで、選択したベース・モデルに対して1つのユニットが作成されます。
- モデル・レプリカを追加することで、スループットまたは1分当たりのリクエスト(RPM)を増やすことができます。たとえば、2つのレプリカには2つのユニットが必要です。ホスティング・クラスタを作成または編集するときに、モデル・レプリカを追加できます。
- 同じクラスタで最大50個のモデルをホストします。次の制限があります。
- 同じクラスタでファインチューニング・モデルまたは事前トレーニング済モデルの同じバージョンを最大50個ホストします。
cohere.command
およびcohere.command-light
ベース・モデルにT-FEW
ファインチューニング・メソッドを使用する場合にのみ、同じベース・モデルの異なるバージョンをホストします。
専用AIクラスタにコミットするかわりに、オンデマンド推論を行うときに支払うことができます。オンデマンド推論では、コンソール、プレイグラウンドまたはAPIを介して基礎モデルに到達します。オンデマンド機能については、生成AIでのコストの計算を参照してください。
ホスティング・クラスタへのエンドポイントの追加
ホスティング専用AIクラスタで推論のモデルをホストするには、そのモデルのエンドポイントを作成する必要があります。次に、カスタム・モデルまたは事前トレーニング済の基礎モデルをそのエンドポイントに追加できます。
エンドポイント別名およびスタック・サービスについて
ホスティング専用AIクラスタには、最大50のエンドポイントを含めることができます。これらのエンドポイントは、次のユースケースに使用します。
- エンドポイント別名の作成
-
多数のエンドポイントを含む別名を作成します。これらの50のエンドポイントは、同じベース・モデルまたはカスタム・モデルの同じバージョンを指す必要があります。同じモデルを指すエンドポイントを多数作成すると、エンドポイントの管理が容易になります。これは、エンドポイントを異なるユーザーまたは異なる目的に使用できるためです。
- スタック・サービング
-
1つのクラスタで複数のバージョンのカスタム・モデルをホストします。これは、
T-Few
トレーニング・メソッドで微調整されたcohere.command
およびcohere.command-light
モデルに適用されます。ファインチューニング・モデルの様々なバージョンをホストすると、様々なユース・ケースのカスタム・モデルの評価に役立ちます。
ホスティング・クラスタでサポートされているコール・ボリュームを増やすには、インスタンス数を増やすことができます。
次の項を展開して、同じクラスタでモデルをホストするための要件を確認します。
専用サービス・モードでサポートされている一部のOCI生成AI基礎事前トレーニング済ベース・モデルは非推奨になり、1番目の置換モデルのリリース後6か月以内に廃止されます。ベース・モデルをホストするか、ベース・モデルをファインチューニングして、ベース・モデルが廃止されるまで、専用AIクラスタ(専用サービング・モード)でファインチューニング・モデルをホストできます。専用サービング・モード・リタイア日については、モデルのリタイアを参照してください。
事前トレーニング済ベース・チャット・モデルをホストする場合、またはホスティング専用AIクラスタでファインチューニング・チャット・モデルをホストする場合は、各ベース・モデルに一致する次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。
ホスティング・クラスタ・ユニット・サイズ | 一致ルール |
---|---|
ベース・モデルの場合はSmall Generic V2、meta.llama-3.2-11b-vision-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はLarge Generic、meta.llama-3.1-70b-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで複数のカスタム・モデルをホストするには:
|
ベース・モデルの場合はLarge Generic、meta.llama-3-70b-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで複数のカスタム・モデルをホストするには:
|
ベース・モデルの場合はLarge Generic V2、meta.llama-3.2-90b-vision-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はLarge Generic 4、meta.llama-3.1-405b-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はSmall Cohere V2、cohere.command-r-16k (非推奨) |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで複数のカスタム・モデルをホストするには:
スタック・サービングがサポートされていないため、同じクラスタ上の |
ベース・モデルの場合はSmall Cohere V2、cohere.command-r-08-2024 |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで複数のカスタム・モデルをホストするには:
スタック・サービングがサポートされていないため、同じクラスタ上の |
ベース・モデルの場合はLarge Cohere V2_2、cohere.command-r-plus (非推奨) |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はLarge Cohere V2_2、cohere.command-r-plus-08-2024 |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ホスティング専用AIクラスタに埋込みモデルをホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。
ホスティング・クラスタ・ユニット・サイズ | 一致ルール |
---|---|
ベース・モデルcohere.embed.english-light-v3.0 、cohere.embed.english-v3.0 、cohere.embed.multilingual-light-v3.0 およびcohere.embed.multilingual-v3.0 の場合は、Embed Cohere |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング Cohere Embedモデルではファインチューニングを使用できません。 |
- オンデマンドで使用不可:テキスト生成および集計API (プレイグラウンドを含む)を使用するオンデマンド・サービング・モードでサポートされているすべてのOCI生成AI基礎事前トレーニング済モデルが廃止されました。かわりにチャット・モデルを使用することをお薦めします。
- クラスタでホスト可能:専用AIクラスタ(専用サービス・モード)で集計または
cohere.command
などの生成モデルをホストする場合、そのモデルが廃止されるまで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。廃止日と定義については、モデルの廃止を参照してください。
ホスティング専用AIクラスタでテキスト生成モデルをホストするには、ベース・モデルに一致する次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。
ホスティング・クラスタ・ユニット・サイズ | 一致ルール |
---|---|
ベース・モデルの場合はSmall Cohere、cohere.command-light |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで異なるカスタム・モデルをホストするには:
|
ベース・モデルの場合はLarge Cohere、cohere.command |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで異なるカスタム・モデルをホストするには:
|
ベース・モデルの場合はLlama2 70、meta.llama-2-70b-chat |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
|
オンデマンド・サービング・モードでサポートされている
cohere.command
モデルが廃止され、このモデルは専用サービング・モードでは非推奨になりました。cohere.command
を専用AIクラスタ(専用サービス・モード)でホストして集計する場合、このホスト・モデル・レプリカは、専用サービス・モードのcohere.command
モデルretiresまで、集計APIおよびプレイグラウンドで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。廃止日と定義については、モデルの廃止を参照してください。かわりにチャット・モデルを使用することをお薦めします。チャット・モデルでは、サマリーの長さやスタイルの管理など、同じ要約機能が提供されます。事前トレーニング済cohere.command
サマリー・モデルをホスト専用AIクラスタにホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。
ホスティング・クラスタ・ユニット・サイズ | 一致ルール |
---|---|
ベース・モデルの場合はLarge Cohere、cohere.command |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで異なるカスタム・モデルをホストするには:
|
トレーニング・データ
カスタム・モデルをトレーニングするためのデータセットには、次の要件があります。
- カスタム・モデルごとに最大1つのファインチューニング・データセットが許可されます。このデータセットは、トレーニングおよび検証用に80:20の比率にランダムに分割されます。
- 各ファイルには、少なくとも32のプロンプト/完了ペアの例が必要です。
- ファイル形式は
JSONL
です。 JSONL
ファイルの各行の形式は次のとおりです。{"prompt": "<a prompt>", "completion": "<expected response given the prompt>"}\n
- ファイルはOCIオブジェクト・ストレージ・バケットに格納する必要があります。
生成AIでのトレーニング・データ要件について学習します。
テキスト埋込みの入力データ
テキスト埋込みを作成するための入力データには、次の要件があります。
- 埋込み用の文、フレーズまたは段落は、一度に1つのフレーズを追加するか、ファイルをアップロードして追加できます。
.txt
拡張子のファイルのみが許可されます。- 入力ファイルを使用する場合は、ファイル内の各入力文、フレーズまたは段落を改行文字で区切る必要があります。
- 実行ごとに最大96個の入力が許可されます。
- 各入力のトークン数は512未満である必要があります。入力が長すぎる場合は、「切捨て」パラメータを「開始」または「終了」に設定して、トークン制限内に収まるようにテキストの開始または終了を切り取るかどうかを選択します。入力が512トークンの制限を超え、「切捨て」パラメータが「なし」に設定されている場合、エラー・メッセージが表示されます。
OCI生成AIでのテキスト埋込みの作成について学習します。