在 ConsoleX AI 中使用自定义模型
ConsoleX AI 允许你集成自己的 AI 模型端点,本指南介绍了如何设置和使用自定义模型端点。
支持的模型类型
ConsoleX AI 支持集成以下模型提供商和云服务商提供的模型端点:
- OpenAI
- Azure OpenAI
- Anthropic
- Google AI Studio
- Google Vertex AI
- AWS Bedrock
- Ollama
- DeepSeek
- xAI
- Groq AI
- Qwen
- OpenRouter
- Mistral
- 任何兼容 OpenAI API 的端点
设置自定义模型的步骤
要集成您自己的模型端点,请按照以下步骤操作:
- 点击页面左下角的“模型中心”(Model Hub)链接。
- 点击页面右上角的“添加私有端点”(Add Custom Model)按钮。
- 从列表中选择一个模型提供商。
- 输入模型端点的必要信息,例如 API 密钥、基础 URL 等。
- 点击“保存”(Save)按钮。
使用限制
- 使用自定义的私有模型端点时,无需消耗ConsoleX AI上的余额。
- 免费用户可以集成最多3个私有模型,付费订阅用户可以不限量集成自己的私有模型端点。
缓存应用
用户在调用自定义模型端点时,ConsoleX AI在每次发起调用时会尽量携带缓存请求参数,帮助用户使用缓存来节省调用成本。