跳到主要内容

Ollama 模型

ConsoleX 支持集成和调用通过 Ollama 部署的任何模型,为用户提供了极大的灵活性和可能性。无论您使用的是本地部署的模型还是远程服务器上的模型,ConsoleX 都可以与其无缝集成。

准备工作

  1. 确保您已部署了一个可以通过网络访问的 Ollama 模型端点。
  2. 如果您的模型是本地部署的,您需要通过隧道解决方案将端点映射到公共互联网。您可以选择使用 Cloudflare 的 Tunnels, Ngrok 或其他技术解决方案。

在 ConsoleX 上集成 Ollama 模型

在模型管理部分,点击“添加新的集成”,选择 Ollama 作为供应商,并在弹出的界面中进行以下设置:

  • 模型名称:输入 Ollama 模型的名称。
  • Base URL:输入端点 URL。

添加完成后,您可以测试模型的连接性以验证是否成功添加。

参考资料