models
もくじ
トップレベルの models セクションは AI モデルを宣言するものであり、Compose アプリケーションにおいて利用されます。
このモデルは通常 ACI アーティファクトとしてプルされて、モデルランナーによって実行されます。
またサービスコンテナーとして利用できる API として公開されます。
サービスがモデルにアクセスできるのは、トップレベル要素 services 内の models 属性 によって明示的に許可された場合のみです。
例
例1
services:
app:
image: app
models:
- ai_model
models:
ai_model:
model: ai/modelこの基本的な例は以下を示しています。
- app サービスが
ai_modelを利用します。 ai_modelは OCI アーティファクト (ai/model) として定義されます。 これはモデルランナーによってプルされて提供されます。- Docker Compose は
AI_MODEL_URLといった接続情報をコンテナーに設定します。
例2
services:
app:
image: app
models:
my_model:
endpoint_var: MODEL_URL
models:
my_model:
model: ai/model
context_size: 1024
runtime_flags:
- "--a-flag"
- "--another-flag=42"この応用的な設定は以下を示しています。
- サービス app は長い文法形式を使って
my_modelを参照しています。 - Compose は環境変数
MODEL_URLに示されるモデルランナーの URL を設定しています。
属性
model(必須): モデルに対する OCI アーティファクト識別子。 これにより Compose がモデルランナーを通じてプルと実行を行います。context_size: モデル用のトークンコンテキストの最大サイズを定義します。runtime_flags: モデルが起動した際に推論エンジンに受け渡されるコマンドラインフラグのリストです。
さらなる情報
model の利用例や詳しい情報については Compose における AI モデルの利用 を参照してください。