Skip to content

大モデルの接続

「インタラクションテスト」を使用して大モデルとの対話中にMCPツールの性能をテストする場合、まずOpenMCPで大モデルを設定する必要があります。

プロトコル互換性に関する警告

現在OpenMCPはOpenAIインターフェース仕様に準拠した大モデルサービスのみをサポートしています。他の大モデルを呼び出す必要がある場合は、newApiを介して転送するか、独自に実装してください。

現在市場で主流の以下のモデルはすべてサポートしています。大モデルの接続に問題が発生した場合は、いつでもお問い合わせください

「設定」-「API」で大モデルの接続設定画面に入ることができます。

デフォルトでサポートされているモデル

OpenMCPはデフォルトで市場で一般的な大モデルを事前に設定しています。以下はサポートされているモデルです。

大モデル名プロバイダーbaseUrlデフォルトモデル
DeepSeekDeepSeekhttps://api.deepseek.com/v1deepseek-chat
OpenAIOpenAIhttps://api.openai.com/v1gpt-4-turbo
通義千問 QwenAlibabahttps://dashscope.aliyuncs.com/compatible-mode/v1qwen-plus
豆包 SeedByteDancehttps://ark.cn-beijing.volces.com/api/v3doubao-1.5-pro-32k
GeminiGooglehttps://generativelanguage.googleapis.com/v1beta/openai/gemini-2.0-flash
GrokxAIhttps://api.x.ai/v1grok-3-mini
MistralMistral AIhttps://api.mistral.ai/v1mistral-tiny
GroqGroqhttps://api.groq.com/openai/v1mixtral-8x7b-32768
PerplexityPerplexity AIhttps://api.perplexity.ai/v1pplx-7b-online
Kimi Chat月の暗面 (Moonshot AI)https://api.moonshot.cn/v1moonshot-v1-8k

大モデルの設定

対応するサービスプロバイダーのapiTokenをopenmcpに入力するだけです。その後「テスト」をクリックし、以下の応答が表示されれば接続成功です。インタラクションテストで大モデルを使用できるようになります!

WARNING

一部のユーザーはアクセスできない問題に遭遇する可能性があります。baseUrlが正しく入力されていることを確認してください。国内でGeminiやOpenAIなどの国外プロバイダーのサービスを使用する場合、ネットワーク環境がこれらのサービスにアクセスできることを確認してください。「設定」-「一般」でプロキシサーバーを設定できます。

モデルの追加

使用したい特定のプロバイダーのモデルがデフォルトでサポートされていない場合、2つの方法で追加できます。

方法1:モデルリストの更新

ここでは通義千問を例にします。apitokenが正しく入力されていることを確認した上で、「モデルリストを更新」をクリックします。プロバイダーがOpenAI標準を厳密に実装していれば、すべての更新されたモデルが表示されます。

方法2:手動でのモデル追加

サーバーがOpenAI標準をサポートしていない場合、「方法1」を使用できません。このように手動でモデルリストを追加できます。ここではGrokを例にします。プロバイダーリストからgrokを探し、図に示す編集をクリックします。

モデルをクリックし、モデル名を入力してEnterキーを押し、確認をクリックします:

APIページに戻り、保存をクリックします。

サービスの追加

リストにないプロバイダーサービス(クラウドプロバイダーのサービスや自分でデプロイしたサービス)を使用する場合、「サービスの追加」ボタンでカスタムモデルを追加できます。使用方法は「モデルの追加」「方法2:手動でのモデル追加」と同様なので、ここでは繰り返しません。

Contributors

Changelog