生成AIの生成モデルについて

生成モデルにプロンプトを表示してテキストを生成できます。次に、テキスト生成モデルのユースケースの例を示します。

  • コピー生成:マーケティング・コピー、Eメール、ブログ投稿、製品の説明、ドキュメントなどの下書きを作成します。
  • 質問する:モデルに質問して、概念の説明、アイデアのブレーンストーミング、問題の解決、およびモデルがトレーニングされた情報に関する質問への回答を行います。
  • スタイル変換:テキストを編集するか、別のスタイルまたは言語でコンテンツをリライトします。
重要

  • オンデマンドで使用不可:テキスト生成および集計API (プレイグラウンドを含む)を使用するオンデマンド・サービング・モードでサポートされているすべてのOCI生成AI基礎事前トレーニング済モデルが廃止されました。かわりにチャット・モデルを使用することをお薦めします。
  • クラスタでホスト可能:専用AIクラスタ(専用サービス・モード)で集計またはcohere.commandなどの生成モデルをホストする場合、そのモデルが廃止されるまで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。廃止日と定義については、モデルの廃止を参照してください。

世代モデルの選択

専用AIクラスタでホストした生成モデルを選択し、モデル・サイズ、プロジェクト目標、コストおよびモデルの応答に基づいてテキストを生成します。

cohere.command (非推奨)

500億個のパラメータと世界に関する優れた一般的な知識を備えた高性能な世代モデル。ブレーンストーミングのこのモデルを使用して、テキスト抽出やセンチメント分析などの正確性を最適化し、複雑な指示に従ってマーケティング・コピー、電子メール、ブログ投稿および製品説明を作成してからレビューおよび使用します。

cohere.command-light (非推奨)

迅速で軽量な生成モデル。このモデルは、スピードとコストが重要な場合に、世界の基本的な知識と簡単な指示を必要とするタスクに使用します。最良の結果を得るには、モデルに明確な指示を与える必要があります。プロンプトが細かくなるほど、このモデルのパフォーマンスが向上します。たとえば、"What is the following tone?"というプロンプトのかわりに、"What is the tone of this product review?正または負のいずれかの単語で答えます。」と記述します。

meta.llama-2-70b-chat (非推奨)

この700億のパラメータ・モデルは、インターネット、書籍、その他のソースからのテキストを含む1.2兆トークンのデータセットでトレーニングされました。このモデルは、テキスト生成、言語翻訳、要約、特定のテキストまたはトピックのコンテンツに基づく質問回答、および記事、ブログ投稿、ソーシャル・メディア更新などのコンテンツ生成に使用します。

生成モデル・パラメータ

生成モデルを使用する場合、次のパラメータを変更して出力を変更できます。

最大出力トークン

レスポンスごとにモデルで生成するトークンの最大数。トークンごとに4文字を推定します。

温度

出力テキストの生成に使用されるランダム性のレベル。

ヒント

0以下に設定された温度で開始し、よりクリエイティブな出力のプロンプトを再生成するときに温度を上げます。高温は幻覚と事実上間違った情報をもたらす可能性があります。
上位K

モデルがtop kの最も可能性の高いトークンから次のトークンをランダムに選択するサンプリング・メソッド。kの値を大きくすると、より多くのランダム出力が生成され、出力テキストがより自然な印象になります。kのデフォルト値は、commandモデルの場合は0、Llamaモデルの場合は-1です。これは、モデルがすべてのトークンを考慮し、このメソッドを使用しないことを意味します。

上位P

次のトークンで考慮する上位トークンの累積確率を制御するサンプリング方法。確率に0から1までの小数をpに割り当てます。たとえば、考慮する上位75パーセントに0.75と入力します。すべてのトークンを考慮するには、pを1に設定します。

ストップ・シーケンス

生成された出力を停止するタイミングをモデルに指示する、一連の文字(単語、フレーズ、改行(\n)、ピリオドなど)。複数の停止シーケンスがある場合、これらのシーケンスのいずれかに達すると、モデルは停止します。

頻度ペナルティ

トークンが頻繁に表示される場合にトークンに割り当てられるペナルティ。高いペナルティにより、繰り返されるトークンが少なくなり、よりランダムな出力が生成されます。

存在ペナルティ

出力に表示された各トークンに割り当てられ、使用されていないトークンを使用した出力の生成を促すペナルティ。

尤度の表示

新しいトークンが生成されるたびに、-15から0までの数値がすべてのトークンに割り当てられ、この数値が大きいトークンは、現在のトークンの後に続く可能性が高くなります。たとえば、単語favoriteの後には単語zebraではなく単語foodまたはbookが続く可能性が高いです。このパラメータは、cohereモデルでのみ使用できます。