生成AIの概念
OCI生成AIの開発を支援するには、サービスに関連するいくつかの概念および用語を確認してください。
生成AIモデル
これまで見たことのない入力を取得し、新しいコンテンツを生成する大量のデータに対してトレーニングされたAIモデル。
Retrieval-Augmented Generation (RAG)
特定のソースからデータを取得し、指定された情報で大規模言語モデル(LLM)レスポンスを拡張してアースされたレスポンスを生成するプログラム。
プロンプトおよびプロンプト・エンジニアリング
- プロンプト
- 大規模言語モデルへの情報の指示または抽出に使用される自然言語のテキスト文字列。たとえば、
- 夏至とは何ですか。
- 風に揺れる木についての詩を書いてください。
- 前のテキストをより明るく書き直してください。
- プロンプト・エンジニアリング
- 大規模言語モデル(LLM)から最適化されたプロンプトを抽出するために自然言語で特定のリクエストを作成する反復プロセス。使用される正確な言語に基づいて、プロンプト・エンジニアは、より優れた、または異なる出力を提供するようにLLMをガイドできます。
推論
プロンプトでユーザーが提供した指示およびコンテキストに基づいて応答を生成する大規模言語モデル(LLM)の機能。LLMは、明示的にプログラムされることなく、学習したパターンとトレーニング・データ内の関係に基づいて、新しいデータを生成したり、予測を行ったり、結論を導き出すことができます。
推論は、質問への回答、テキストの要約、翻訳などの自然言語処理(NLP)タスクの重要な機能です。生成AIの基礎モデルを推論に使用できます。
ストリーミング
大規模言語モデル(LLM)によるコンテンツの生成。ユーザーは、レスポンスをユーザーに返す前に完全なレスポンスが生成されるのを待機するのではなく、一度に生成されたトークンを表示できます。
埋込み
テキストの意味を保持するプロパティを持つ数値表現。このテキストには、フレーズ、文または1つ以上の段落を指定できます。生成AI埋込みモデルは、入力した各フレーズ、文または段落を、選択した埋込みモデルに応じて384または1024個の数値を持つ配列に変換します。これらの埋込みを使用して、コンテキストまたはカテゴリが類似したフレーズでの類似性を検索できます。埋込みは、通常、ベクトル・データベースに格納されます。埋込みは、キーワードに基づいて結果を検索するのではなく、検索機能が検索するテキストの意味に重点を置いたセマンティック検索に使用されます。埋込みを作成するには、フレーズを英語および他の言語で入力できます。
プレイグラウンド
ホストされた事前トレーニング済モデルおよびカスタム・モデルの調査を、コードを記述することなく行うためのOracle Cloudコンソールのインタフェース。プレイグラウンドを使用してユース・ケースをテストし、プロンプトとパラメータを改良します。結果に満足したら、生成されたコードをコピーするか、モデルのエンドポイントを使用して生成AIをアプリケーションに統合します。
カスタム・モデル
事前トレーニング済モデルをベースとして使用し、独自のデータセットを使用してそのモデルをファインチューニングして作成するモデル。
トークン
トークンは、単語、単語の一部または句読点です。たとえば、appleは1つのトークンで、friendshipは2つのトークン(friendとship)で、don'tは2つのトークン(donと't)です。プレイグラウンドでモデルを実行する場合、出力トークンの最大数を設定できます。トークンごとに4文字を推定します。
温度
出力テキストの生成に使用されるランダム性のレベル。プロンプトを実行するたびにプロンプトに対して同様の出力を生成するには、0を使用します。そのプロンプトに対してランダムな新しいテキストを生成するには、温度を大きくします。
温度の設定を0で開始し、出力を改良するためにプロンプトを再生成するときに温度を上げます。高温は幻覚と事実上間違った情報をもたらす可能性があります。繰り返されるリクエストに対して同じ結果を取得するには、
seed
パラメータを使用します。シード・パラメータについて学習します。上位k
モデルがtop k
の最も可能性の高いトークンから次のトークンをランダムに選択するサンプリング・メソッド。k
の値を大きくすると、より多くのランダム出力が生成され、出力テキストがより自然な印象になります。kのデフォルト値は、command
モデルの場合は0、Llama
モデルの場合は-1です。これは、モデルがすべてのトークンを考慮し、このメソッドを使用しないことを意味します。
上位P
次のトークンで考慮する上位トークンの累積確率を制御するサンプリング方法。確率に0から1までの小数をp
に割り当てます。たとえば、考慮する上位75パーセントに0.75と入力します。すべてのトークンを考慮するには、p
を1に設定します。
頻度ペナルティ
トークンが頻繁に表示される場合にトークンに割り当てられるペナルティ。高いペナルティにより、繰り返されるトークンが少なくなり、よりランダムな出力が生成されます。
プレゼンス・ペナルティ
出力に表示された各トークンに割り当てられ、使用されていないトークンを使用した出力の生成を促すペナルティ。
尤度
大規模言語モデル(LLM)の出力において、あるトークンが現在の生成済トークンの後に続く可能性の程度。LLMが出力テキストの新しいトークンを生成すると、発生の可能性がすべてのトークンに割り当てられ、この場合、発生の可能性が高いトークンが現在のトークンの後に続く可能性が高くなります。たとえば、単語favoriteの後には単語zebraではなく単語foodまたはbookが続く可能性が高いです。発生の可能性は、-15
から0
までの数値で定義され、負の数が多いほど、トークンが現在のトークンに従う可能性は低くなります。
プリアンブル
チャット・モデルの初期コンテキストまたはガイド・メッセージ。チャット・モデルにプリアンブルを指定しない場合、そのモデルのデフォルトのプリアンブルが使用されます。cohere.command-r-plus
およびcohere.command-r-16k
モデルのデフォルトのプリアンブルは次のとおりです。
You are Command.
You are an extremely capable large language model built by Cohere.
You are given instructions programmatically via an API that you follow to the best of your ability.
プリアンブルを与えることは任意です。最適な結果を得るために独自のプリアンブルを使用する場合は、モデル・コンテキスト、指示および会話スタイルを指定します。いくつかの例を示します。
- あなたは、消費者の行動と市場動向を深く理解している熟練したマーケティング専門家です。わかりやすく有益なトーンで回答し、業界のインサイトとベスト・プラクティスを共有します。
- あなたは楽しい活動に焦点を当てた旅行アドバイザーです。ユーモアのセンスと海賊のトーンで答えます。
また、チャット会話にプリアンブルを含め、モデルに特定の方法で回答するよう直接依頼することもできます。たとえば、「マーケティング・トーンで次の質問に回答します。「セーリングに行くのに最適な場所はどこですか?」
モデル・エンドポイント
大規模言語モデル(LLM)がユーザー・リクエストを受け入れ、モデルの生成されたテキストなどのレスポンスを返信できる専用AIクラスタ上の指定ポイント。
OCI生成AIでは、すぐに使用できる事前トレーニング済モデルおよびカスタム・モデルのエンドポイントを作成できます。これらのエンドポイントは、モデルのテストのためにプレイグラウンドにリストされます。アプリケーションでこれらのエンドポイントを参照することもできます。
コンテンツ・モデレーション
- アイデンティティ攻撃、侮辱、暴力の脅威、性的攻撃などの憎悪とハラスメント
- 自己傷害および摂食障害の昇進のような自己感染の害、
- 過激主義、テロリズム、組織犯罪、誤情報などのイデオロギー的な害
- 詐欺や性的虐待などの搾取
デフォルトでは、OCI生成AIは、すぐに使用できる事前トレーニング済モデルの上にコンテンツ・モデレーション・レイヤーを追加しません。ただし、事前トレーニング済モデルには、出力レスポンスをフィルタするコンテンツ・モデレーションのレベルがあります。コンテンツ・モデレーションをモデルに組み込むには、事前トレーニング済モデルまたはファインチューニング・モデルのエンドポイントを作成するときに、コンテンツ・モデレーションを有効にする必要があります。生成AIでのエンドポイントの作成を参照してください。
専用AIクラスタ
カスタム・モデルの罰則化、または事前トレーニング済およびカスタム・モデルのエンドポイントのホスティングに使用できるコンピュート・リソース。クラスタは自分のモデル専用であり、他の顧客と共有されません。
廃止および非推奨のモデル
- 退職
- モデルがリタイアされると、生成AIサービスで使用できなくなります。
- 非推奨
- モデルが非推奨になった場合、生成AIサービスでは引き続き使用できますが、廃止される前に使用できる時間は定義されています。
詳細は、モデルのリタイアを参照してください。