生成AIでのモデルの制限事項

OCI生成AIカスタム・モデルとベース・モデルの次のモデル要件を確認し、モデルを最大限に活用してください。

ノート

事前トレーニング済ベース・モデルの主な機能については、生成AIでの事前トレーニング済基盤モデルを参照してください。

ベース・モデルのクラスタへの照合

次のセクションを展開して、各基礎モデルに一致する専用AIクラスタのユニット・サイズおよびユニットを確認します。

チャット
重要

専用サービス・モードでサポートされている一部のOCI生成AI基礎事前トレーニング済ベース・モデルは非推奨になり、1番目の置換モデルのリリース後6か月以内に廃止されます。ベース・モデルをホストするか、ベース・モデルをファインチューニングして、ベース・モデルが廃止されるまで、専用AIクラスタ(専用サービング・モード)でファインチューニング・モデルをホストできます。専用サービング・モード・リタイア日については、モデルのリタイアを参照してください。
ベース・モデル クラスタのファインチューニング ホスティング・クラスタ 価格設定ページ情報 クラスタ制限増加のリクエスト
  • モデル名: Cohere Command R
  • OCIモデル名: cohere.command-r-16k (非推奨)
  • 単位サイズ: Small Cohere V2
  • 必須ユニット: 8
  • 単位サイズ: Small Cohere V2
  • 必須ユニット: 1
  • 価格設定ページ製品名: Small Cohere - Dedicated
  • ファインチューニングの場合の単価の乗算: x8
  • 制限名: dedicated-unit-small-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
  • ファインチューニングの場合のリクエスト制限の引上げ: 8
  • モデル名: Command R 08-2024
  • OCIモデル名: cohere.command-r-08-2024
  • 単位サイズ: Small Cohere V2
  • 必要ユニット数: 8
  • 単位サイズ: Small Cohere V2
  • 必須ユニット: 1
  • 価格設定ページ製品名: Small Cohere - Dedicated
  • ファインチューニングの場合の単価の乗算: x8
  • 制限名: dedicated-unit-small-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
  • ファインチューニングの場合のリクエスト制限の引上げ: 8
  • モデル名: Cohere Command R+
  • OCIモデル名: cohere.command-r-plus (非推奨)
微調整に使用できません
  • 単位サイズ: Large Cohere V2_2
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します。 x2
  • 制限名: dedicated-unit-large-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 2
  • モデル名: Command R+ 08-2024
  • OCIモデル名: cohere.command-r-plus-08-2024
微調整に使用できません
  • 単位サイズ: Large Cohere V2_2
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します。 x2
  • 制限名: dedicated-unit-large-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 2
  • モデル名: Meta Llama 3.2 11B Vision
  • OCIモデル名: meta.llama-3.2-11b-vision-instruct
微調整に使用できません
  • 単位サイズ: Small Generic V2
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Meta - Dedicated
  • ホスティングの場合、単価を乗算: x(0.5)
  • 制限名: dedicated-unit-llama2-70-count
  • ホスティングの場合、リクエスト制限の引上げ:1
  • モデル名: Meta Llama 3.2 90B Vision
  • OCIモデル名: meta.llama-3.2-90b-vision-instruct
微調整に使用できません
  • 単位サイズ: Large Generic V2
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Meta - Dedicated
  • ホスティングの場合は、単価を乗算します。 x2
  • 制限名: dedicated-unit-llama2-70-count
  • ホスティングの場合、リクエスト制限の引上げ: 2
  • モデル名: Meta Llama 3.1 (70B)
  • OCIモデル名: meta.llama-3.1-70b-instruct
  • 単位サイズ: Large Generic
  • 必須ユニット: 2
  • 単位サイズ: Large Generic
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Meta - Dedicated
  • ホスティングの場合は、単価を乗算します。 x2
  • ファインチューニングの場合の単価の乗算: x4
  • 制限名: dedicated-unit-llama2-70-count
  • ホスティングの場合、リクエスト制限の引上げ: 2
  • ファインチューニングの場合のリクエスト制限の引上げ: 4
  • モデル名: Meta Llama 3.1 (405B)
  • OCIモデル名: meta.llama-3.1-405b-instruct
微調整に使用できません
  • 単位サイズ: Large Generic 4
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Meta - Dedicated
  • ホスティングの場合は、単価を乗算します。 x8
  • 制限名: dedicated-unit-llama2-70-count
  • ホスティングの場合、リクエスト制限の引上げ: 8
  • モデル名: Meta Llama 3
  • OCIモデル名: meta.llama-3-70b-instruct (非推奨)
  • 単位サイズ: Large Generic
  • 必須ユニット: 2
  • 単位サイズ: Large Generic
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Meta - Dedicated
  • ホスティングの場合は、単価を乗算します。 x2
  • ファインチューニングの場合の単価の乗算: x4
  • 制限名: dedicated-unit-llama2-70-count
  • ホスティングの場合、リクエスト制限の引上げ: 2
  • ファインチューニングの場合のリクエスト制限の引上げ: 4
重要

次のリソースを使用するには、制限の引上げをリクエストする必要があります:

Meta Llamaファミリ

  • Meta Llama 3.2 11B Vision モデルをホストするには、dedicated-unit-llama2-70-countを1ずつ増やすようにリクエストする必要があります。

  • Meta Llama 3.2 90B Vision モデルをホストするには、dedicated-unit-llama2-70-countに2ずつ増やすようにリクエストする必要があります。

  • Meta Llama 3.1 (70B)モデルをホストするには、dedicated-unit-llama2-70-countに2ずつ増やすようにリクエストする必要があります。

  • Meta Llama 3.1 (70B)モデルを微調整するには、dedicated-unit-llama2-70-countをリクエストして4増やす必要があります。

  • Meta Llama 3.1 (405B)モデルをホストするには、dedicated-unit-llama2-70-countをリクエストして8増やす必要があります。

Cohere Command Rファミリ

  • Cohere Command R (非推奨)モデルをホストするには、dedicated-unit-small-cohere-countに1ずつ増やすようにリクエストする必要があります。

  • Cohere Command R (非推奨)モデルを微調整するには、dedicated-unit-small-cohere-countをリクエストして8増やす必要があります。

  • Cohere Command R 08-2024モデルをホストするには、dedicated-unit-small-cohere-countを1ずつ増やすようにリクエストする必要があります。

  • Cohere Command R 08-2024モデルを微調整するには、dedicated-unit-small-cohere-countをリクエストして8増やす必要があります。

  • Cohere Command R+ (非推奨)モデルをホストするには、dedicated-unit-large-cohere-countに2ずつ増やすようにリクエストする必要があります。

  • Cohere Command R+ 08-2024モデルをホストするには、dedicated-unit-large-cohere-countに2ずつ増やすようにリクエストする必要があります。

参照: 生成AIのサービス制限およびリクエスト・クラスタ制限の引上げ

埋込み
ベース・モデル クラスタのファインチューニング ホスティング・クラスタ 価格設定ページ製品名 クラスタ制限の増加のリクエスト
  • モデル名: Cohere English Embed V3
  • OCIモデル名: cohere.embed-english-v3.0
微調整に使用できません
  • 単位サイズ: Embed Cohere
  • 必須ユニット: 1
  • 価格設定ページ製品名: Embed Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します。 x1
  • 制限名: dedicated-unit-embed-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
  • モデル名: Cohere Multilingual Embed V3
  • OCIモデル名: cohere.embed-multilingual-v3.0
微調整に使用できません
  • 単位サイズ: Embed Cohere
  • 必須ユニット: 1
  • 価格設定ページ製品名: Embed Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します。 x1
  • 制限名: dedicated-unit-embed-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
  • モデル名: Cohere English Light Embed V3
  • OCIモデル名: cohere.embed-english-light-v3.0
微調整に使用できません
  • 単位サイズ: Embed Cohere
  • 必須ユニット: 1
  • 価格設定ページ製品名: Embed Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します。 x1
  • 制限名: dedicated-unit-embed-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
  • モデル名: Cohere Multilingual Light Embed V3
  • OCIモデル名: cohere.embed-multilingual-light-v3.0
微調整に使用できません
  • 単位サイズ: Embed Cohere
  • 必須ユニット: 1
  • 価格設定ページ製品名: Embed Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します。 x1
  • 制限名: dedicated-unit-embed-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
テキスト生成(非推奨)
重要

  • オンデマンドで使用不可:テキスト生成および集計API (プレイグラウンドを含む)を使用するオンデマンド・サービング・モードでサポートされているすべてのOCI生成AI基礎事前トレーニング済モデルが廃止されました。かわりにチャット・モデルを使用することをお薦めします。
  • クラスタでホスト可能:専用AIクラスタ(専用サービス・モード)で集計またはcohere.commandなどの生成モデルをホストする場合、そのモデルが廃止されるまで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。廃止日と定義については、モデルの廃止を参照してください。
ベース・モデル クラスタのファインチューニング ホスティング・クラスタ 価格設定ページ製品名 クラスタ制限の増加のリクエスト
  • モデル名: Cohere Command XL (52B)
  • OCIモデル名: cohere.command (非推奨)
  • 単位サイズ: Large Cohere
  • 必須ユニット: 2
  • 単位サイズ: Large Cohere
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します。 x1
  • ファインチューニングの場合の単価の乗算: x2
  • 制限名: dedicated-unit-large-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
  • ファインチューニングの場合のリクエスト制限の引上げ: 2
  • モデル名: Cohere Command Light (6B)
  • OCIモデル名: cohere.command-light (非推奨)
  • 単位サイズ: Small Cohere
  • 必須ユニット: 2
  • 単位サイズ: Small Cohere
  • 必須ユニット: 1
  • 価格設定ページ製品名: Small Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します。 x1
  • ファインチューニングの場合の単価の乗算: x2
  • 制限名: dedicated-unit-small-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
  • ファインチューニングの場合のリクエスト制限の引上げ: 2
  • モデル名: Meta Llama 2
  • OCIモデル名: meta.llama-2-70b-chat (非推奨)
微調整に使用できません
  • 単位サイズ: Llama2 70
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Meta - Dedicated
  • ホスティングの場合は、単価を乗算します。 x1
  • 制限名: dedicated-unit-llama2-70-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
集計(非推奨)
重要

オンデマンド・サービング・モードでサポートされているcohere.commandモデルが廃止され、このモデルは専用サービング・モードでは非推奨になりました。cohere.commandを専用AIクラスタ(専用サービス・モード)でホストして集計する場合、このホスト・モデル・レプリカは、専用サービス・モードcohere.commandモデルretiresまで、集計APIおよびプレイグラウンドで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。廃止日と定義については、モデルの廃止を参照してください。かわりにチャット・モデルを使用することをお薦めします。チャット・モデルでは、サマリーの長さやスタイルの管理など、同じ要約機能が提供されます。
ベース・モデル クラスタのファインチューニング ホスティング・クラスタ 価格設定ページ製品名 クラスタ制限の増加のリクエスト
  • モデル名: Cohere Command XL (52B)
  • OCIモデル名: cohere.command (非推奨)
微調整に使用できません
  • 単位サイズ: Large Cohere
  • 必須ユニット: 1
  • 価格設定ページ製品名: Large Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します。 x1
  • 制限名: dedicated-unit-large-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ: 1
クラスタを微調整するための単位
ファインチューニング専用AIクラスタを作成すると、ベース・モデルに基づいて固定ユニット数が自動的にプロビジョニングされます。cohere.command-r-16kの場合は8ユニット、他のモデルの場合は2ユニットです。この数値は変更できませんが、同じクラスタを使用して複数のモデルを微調整できます。
ホスト・クラスタの単位
  • クラスタの作成時に、デフォルトで、選択したベース・モデルに対して1つのユニットが作成されます。
  • モデル・レプリカを追加することで、スループットまたは1分当たりのリクエスト(RPM)を増やすことができます。たとえば、2つのレプリカには2つのユニットが必要です。ホスティング・クラスタを作成または編集するときに、モデル・レプリカを追加できます。
  • 同じクラスタで最大50個のモデルをホストします。次の制限があります。
    • 同じクラスタでファインチューニング・モデルまたは事前トレーニング済モデルの同じバージョンを最大50個ホストします。
    • cohere.commandおよびcohere.command-lightベース・モデルにT-FEWファインチューニング・メソッドを使用する場合にのみ、同じベース・モデルの異なるバージョンをホストします。
ノート

専用AIクラスタにコミットするかわりに、オンデマンド推論を行うときに支払うことができます。オンデマンド推論では、コンソール、プレイグラウンドまたはAPIを介して基礎モデルに到達します。オンデマンド機能については、生成AIでのコストの計算を参照してください。

ホスティング・クラスタへのエンドポイントの追加

ホスティング専用AIクラスタで推論のモデルをホストするには、そのモデルのエンドポイントを作成する必要があります。次に、カスタム・モデルまたは事前トレーニング済の基礎モデルをそのエンドポイントに追加できます。

エンドポイント別名およびスタック・サービスについて

ホスティング専用AIクラスタには、最大50のエンドポイントを含めることができます。これらのエンドポイントは、次のユースケースに使用します。

エンドポイント別名の作成

多数のエンドポイントを含む別名を作成します。これらの50のエンドポイントは、同じベース・モデルまたはカスタム・モデルの同じバージョンを指す必要があります。同じモデルを指すエンドポイントを多数作成すると、エンドポイントの管理が容易になります。これは、エンドポイントを異なるユーザーまたは異なる目的に使用できるためです。

スタック・サービング

1つのクラスタで複数のバージョンのカスタム・モデルをホストします。これは、T-Fewトレーニング・メソッドで微調整されたcohere.commandおよびcohere.command-lightモデルに適用されます。ファインチューニング・モデルの様々なバージョンをホストすると、様々なユース・ケースのカスタム・モデルの評価に役立ちます。

ヒント

ホスティング・クラスタでサポートされているコール・ボリュームを増やすには、インスタンス数を増やすことができます。

次の項を展開して、同じクラスタでモデルをホストするための要件を確認します。

チャット
重要

専用サービス・モードでサポートされている一部のOCI生成AI基礎事前トレーニング済ベース・モデルは非推奨になり、1番目の置換モデルのリリース後6か月以内に廃止されます。ベース・モデルをホストするか、ベース・モデルをファインチューニングして、ベース・モデルが廃止されるまで、専用AIクラスタ(専用サービング・モード)でファインチューニング・モデルをホストできます。専用サービング・モード・リタイア日については、モデルのリタイアを参照してください。

事前トレーニング済ベース・チャット・モデルをホストする場合、またはホスティング専用AIクラスタでファインチューニング・チャット・モデルをホストする場合は、各ベース・モデルに一致する次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。

ホスティング・クラスタ・ユニット・サイズ 一致ルール
ベース・モデルの場合はSmall Generic V2meta.llama-3.2-11b-vision-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3.2-11b-vision-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

meta.llama-3.2-11b-vision-instructモデルではファインチューニングを使用できません。

ベース・モデルの場合はLarge Genericmeta.llama-3.1-70b-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3.1-70b-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで複数のカスタム・モデルをホストするには:

  • LoRAトレーニング・メソッドを使用して1つのモデルを微調整します。
  • ベースとしてmeta.llama-3.1-70b-instructモデルを使用します。
  • カスタム・モデル(同じバージョン)に必要な数のエンドポイントを作成します。
ベース・モデルの場合はLarge Genericmeta.llama-3-70b-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3-70b-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで複数のカスタム・モデルをホストするには:

  • LoRAトレーニング・メソッドを使用して1つのモデルを微調整します。
  • ベースとしてmeta.llama-3-70b-instructモデルを使用します。
  • カスタム・モデル(同じバージョン)に必要な数のエンドポイントを作成します。
ベース・モデルの場合はLarge Generic V2meta.llama-3.2-90b-vision-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3.2-90b-vision-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

meta.llama-3.2-90b-vision-instructモデルではファインチューニングを使用できません。

ベース・モデルの場合はLarge Generic 4meta.llama-3.1-405b-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3.1-405b-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

meta.llama-3.1-405b-instructモデルではファインチューニングを使用できません。

ベース・モデルの場合はSmall Cohere V2cohere.command-r-16k (非推奨)

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.command-r-16kモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで複数のカスタム・モデルをホストするには:

  • T-FewまたはVanillaトレーニング・メソッドを使用して1つのモデルを微調整します。
  • ベースとしてcohere.command-r-16kモデルを使用します。
  • カスタム・モデル(同じバージョン)に必要な数のエンドポイントを作成します。

スタック・サービングがサポートされていないため、同じクラスタ上のcohere.command-r-16kベース・モデルでトレーニングされたカスタム・モデルの異なるバージョンをホストすることはできません。

ベース・モデルの場合はSmall Cohere V2cohere.command-r-08-2024

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.command-r-08-2024モデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで複数のカスタム・モデルをホストするには:

  • T-FewまたはVanillaトレーニング・メソッドを使用して1つのモデルを微調整します。
  • ベースとしてcohere.command-r-08-2024モデルを使用します。
  • カスタム・モデル(同じバージョン)に必要な数のエンドポイントを作成します。

スタック・サービングがサポートされていないため、同じクラスタ上のcohere.command-r-16kベース・モデルでトレーニングされたカスタム・モデルの異なるバージョンをホストすることはできません。

ベース・モデルの場合はLarge Cohere V2_2cohere.command-r-plus (非推奨)

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.command-r-plusモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

cohere.command-r-plusモデルではファインチューニングを使用できません。

ベース・モデルの場合はLarge Cohere V2_2cohere.command-r-plus-08-2024

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.command-r-plus-08-2024モデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

cohere.command-r-plus-08-2024モデルではファインチューニングを使用できません。

埋込み

ホスティング専用AIクラスタに埋込みモデルをホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。

ホスティング・クラスタ・ユニット・サイズ 一致ルール
ベース・モデルcohere.embed.english-light-v3.0cohere.embed.english-v3.0cohere.embed.multilingual-light-v3.0およびcohere.embed.multilingual-v3.0の場合は、Embed Cohere

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタ上の事前トレーニング済Cohere Embedモデルの1つに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

Cohere Embedモデルではファインチューニングを使用できません。

テキスト生成(非推奨)
重要

  • オンデマンドで使用不可:テキスト生成および集計API (プレイグラウンドを含む)を使用するオンデマンド・サービング・モードでサポートされているすべてのOCI生成AI基礎事前トレーニング済モデルが廃止されました。かわりにチャット・モデルを使用することをお薦めします。
  • クラスタでホスト可能:専用AIクラスタ(専用サービス・モード)で集計またはcohere.commandなどの生成モデルをホストする場合、そのモデルが廃止されるまで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。廃止日と定義については、モデルの廃止を参照してください。

ホスティング専用AIクラスタでテキスト生成モデルをホストするには、ベース・モデルに一致する次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。

ホスティング・クラスタ・ユニット・サイズ 一致ルール
ベース・モデルの場合はSmall Coherecohere.command-light

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
  • 同じホスティング・クラスタで、cohere.command-lightモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで異なるカスタム・モデルをホストするには:

  • T-Fewトレーニング・メソッドを使用して、すべてのモデルを微調整します。
  • ベースとしてcohere.command-lightモデルを使用します。
  • すべてのベース・モデルのバージョンが同じであることを確認します。
  • 同じホスティング・クラスタ上の各モデルのエンドポイントを作成します。
ベース・モデルの場合はLarge Coherecohere.command

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで同じバージョンのcohere.commandモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで異なるカスタム・モデルをホストするには:

  • T-Fewトレーニング・メソッドを使用して、すべてのモデルを微調整します。
  • ベースとしてcohere.commandモデルを使用します。
  • すべてのベース・モデルのバージョンが同じであることを確認します。
  • 各モデルのホスティング・クラスタにエンドポイントを追加します。
ベース・モデルの場合はLlama2 70meta.llama-2-70b-chat

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
  • 同じホスティング・クラスタで、meta.llama-2-70b-chatモデルに必要な数のエンドポイントを作成します。
集計(非推奨)
重要

オンデマンド・サービング・モードでサポートされているcohere.commandモデルが廃止され、このモデルは専用サービング・モードでは非推奨になりました。cohere.commandを専用AIクラスタ(専用サービス・モード)でホストして集計する場合、このホスト・モデル・レプリカは、専用サービス・モードcohere.commandモデルretiresまで、集計APIおよびプレイグラウンドで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。廃止日と定義については、モデルの廃止を参照してください。かわりにチャット・モデルを使用することをお薦めします。チャット・モデルでは、サマリーの長さやスタイルの管理など、同じ要約機能が提供されます。

事前トレーニング済cohere.commandサマリー・モデルをホスト専用AIクラスタにホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。

ホスティング・クラスタ・ユニット・サイズ 一致ルール
ベース・モデルの場合はLarge Coherecohere.command

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで同じバージョンのcohere.commandモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで異なるカスタム・モデルをホストするには:

  • T-Fewトレーニング・メソッドを使用して、すべてのモデルを微調整します。
  • ベースとしてcohere.commandモデルを使用します。
  • すべてのベース・モデルのバージョンが同じであることを確認します。
  • 各モデルのホスティング・クラスタにエンドポイントを追加します。

トレーニング・データ

カスタム・モデルをトレーニングするためのデータセットには、次の要件があります。

  • カスタム・モデルごとに最大1つのファインチューニング・データセットが許可されます。このデータセットは、トレーニングおよび検証用に80:20の比率にランダムに分割されます。
  • 各ファイルには、少なくとも32のプロンプト/完了ペアの例が必要です。
  • ファイル形式はJSONLです。
  • JSONLファイルの各行の形式は次のとおりです。

    {"prompt": "<a prompt>", "completion": "<expected response given the prompt>"}\n

  • ファイルはOCIオブジェクト・ストレージ・バケットに格納する必要があります。

生成AIでのトレーニング・データ要件について学習します。

テキスト埋込みの入力データ

テキスト埋込みを作成するための入力データには、次の要件があります。

  • 埋込み用の文、フレーズまたは段落は、一度に1つのフレーズを追加するか、ファイルをアップロードして追加できます。
  • .txt拡張子のファイルのみが許可されます。
  • 入力ファイルを使用する場合は、ファイル内の各入力文、フレーズまたは段落を改行文字で区切る必要があります。
  • 実行ごとに最大96個の入力が許可されます。
  • 各入力のトークン数は512未満である必要があります。入力が長すぎる場合は、「切捨て」パラメータを「開始」または「終了」に設定して、トークン制限内に収まるようにテキストの開始または終了を切り取るかどうかを選択します。入力が512トークンの制限を超え、「切捨て」パラメータが「なし」に設定されている場合、エラー・メッセージが表示されます。

OCI生成AIでのテキスト埋込みの作成について学習します。