カスタム・モデルを使用したストアド・ビデオの分析
シーンベースのフィーチャとオブジェクトを識別し、ビデオ解析カスタム モデルをコールして、ビデオ内の面とラベル フレームを検出します。
各ビデオの最大サイズと継続時間は、「制限」セクションに表示されます。
ビデオ分析の詳細は、「ストアド・ビデオ分析」の項を参照してください。
データセットの作成
Visionカスタム・モデルは、データ・サイエンスの背景がないユーザーを対象としています。データセットを作成し、データセットに基づいてモデルをトレーニングするようVisionに指示することで、シナリオに適したカスタム・モデルを作成できます。
データ・ラベル付けは、ドキュメント、テキスト、イメージなどのレコードのプロパティを識別し、それらのプロパティを識別するためのラベルを付加するプロセスです。イメージのキャプションとイメージ内のオブジェクトの識別は、両方ともデータ・ラベルの例です。Oracle Cloud Infrastructure Data Labelingを使用して、データ・ラベル付けを行うことができます。詳細は、データ・ラベリング・サービス・ガイドを参照してください。次に、実行するステップの概要を示します。
- 目的のアプリケーションの配布に一致するイメージを十分に収集します。
データセットに必要なイメージの数を選択する場合は、トレーニング・データセットでできるだけ多くのイメージを使用します。検出するラベルごとに、ラベルに少なくとも10個のイメージを指定します。ラベルごとに50以上のイメージを提供するのが理想的です。イメージが多いほど、検出の堅牢性と精度が向上します。堅牢性は、視野角や背景などの新しい条件に一般化する機能です。
- いくつかの種類の他の画像を収集して、異なるカメラのキャプチャ角度、照明条件、背景などをキャプチャできます。
トレーニング済モデルを適用する問題および領域を表すデータセットを収集します。他のドメインからのデータは動作する可能性がありますが、同じ目的のデバイス、環境、および使用条件から生成されたデータセットは、ほかのどのドメインよりも優れています。
モデルは注釈を使用して何が正しいかを学習するだけでなく、何が間違っているかを学習するための背景も使用するため、イメージに十分なパースペクティブを提供します。たとえば、検出されたオブジェクトの異なる側面から、異なる照明条件、異なるイメージ・キャプチャ・デバイスからのビューなどを提供します。 - ソース・データセットで発生するオブジェクトのすべてのインスタンスにラベルを付けます。ラベルの整合性を保ちます。多くのリンゴに1つのリンゴとしてラベルを付ける場合は、各イメージで一貫してラベルを付けます。オブジェクトと境界ボックスの間にスペースを入れないでください。境界ボックスは、ラベル付けされたオブジェクトと厳密に一致する必要があります。重要
これらの各注釈は、モデルのパフォーマンスにとって重要であるため、検証します。
カスタム・モデルの構築 🔗
Visionでカスタム・モデルを構築し、データ・サイエンティストを必要とせずにイメージからインサイトを抽出します。
- Oracle Cloud Infrastructureの有料テナンシ・アカウント。
- Oracle Cloud Infrastructure Object Storageについて理解します。
- 正しい政策
コンソールを使用して、Visionプロジェクトの作成方法、およびイメージ分類とオブジェクト検出モデルのトレーニング方法を学習します。
プロジェクトを作成するには、createコマンドと必要なパラメータを使用します:
oci ai-vision project create [OPTIONS]
モデルを作成するには、createコマンドと必要なパラメータを使用します:
CLIコマンドのフラグおよび変数オプションの完全なリストは、CLIコマンドライン・リファレンスを参照してください。oci ai-vision model create [OPTIONS]
まず、CreateProject操作を実行してプロジェクトを作成します。
次に、CreateModel操作を実行してモデルを作成します。
カスタム・モデルのトレーニング 🔗
データセットを作成したら、カスタム・モデルをトレーニングできます。
- 推奨トレーニング: Visionは、最適なモデルを作成するためのトレーニング期間を自動的に選択します。トレーニングには24時間かかる場合があります。
- クイック・トレーニング: このオプションは、完全に最適化されていないが約1時間で利用できるモデルを生成します。
- カスタム期間: このオプションを使用すると、独自の最大研修期間を設定できます。
最適なトレーニング期間は、検出問題の複雑さ、イメージ内のオブジェクト数、解像度およびその他の要因によって異なります。これらのニーズを考慮し、トレーニングの複雑さが増すにつれて、より多くの時間を割り当てます。推奨トレーニング時間の最小値は30分です。トレーニング時間が長くなると精度が向上しますが、時間の経過とともにリターンが減少します。クイック・トレーニング・モードを使用して、合理的なパフォーマンスを提供するモデルの取得にかかる最小限の時間を把握します。ベース最適化モデルを取得するには、推奨モードを使用します。より良い結果を得たい場合は、トレーニング時間を増やしてください。
カスタム・モデルの呼出し 🔗
カスタム・モデルは、事前トレーニング済モデルと呼ぶ場合と同じようにコールできます。
イメージを分類するには、analyze-videoコマンドと必要なパラメータを使用します。
CLIコマンドのフラグおよび変数オプションの完全なリストは、CLIコマンドライン・リファレンスを参照してください。oci ai-vision analyze-video [OPTIONS]
AnalyzeVideo操作を実行してイメージを分析します。
カスタム・モデル・メトリック 🔗
Visionのカスタム・モデルには、次のメトリックが用意されています。
- mAP@0.5スコア
- 平均精度(mAP)スコア(しきい値が0.5)は、カスタム・オブジェクト検出モデルに対してのみ提供されます。平均精度をすべてのクラスに対して取得して計算されます。0.0 から1.0の範囲で、1.0が最良の結果です。
- 精度
- 取得されたインスタンス間の関連インスタンスの割合。
- 再現
- 取得された関連インスタンスの割合。
- しきい値
- メトリックのクラス予測を行う決定しきい値。
- 合計イメージ
- トレーニングおよびテストに使用されるイメージの合計数。
- テスト・イメージ
- テストに使用され、トレーニングに使用されなかったデータセットからのイメージの数。
- トレーニング期間
- モデルがトレーニングされた時間の長さ(時間単位)。