帮助中心

如果没有找到你需要的问题,随时联系我们

帮助中心

服务器搭建的DeepSeek如何与Chatbox进行对接?2025/4/27 11:35:24
 

Linux服务器远程搭建的DeepSeek如何与Chatbox进行对接?

如果您在服务器通过Linux部署好了DeepSeek大模型,默认是只能在字符界面进行对话的。

如下图:

为了获得更好的交互体验,可以安装 Chatbox 作为 GUI 界面。

下载地址:https://chatboxai.app/zh#download

下载后直接双击后即可。

安装完成后,进行以下配置:

在“配置 API 模型”选项中选择 Ollama API。

假如您的服务器IP是:192.63.63.63

那么这里设置 API 主机为:http://192.63.63.63:11434

选择 DeepSeek R1 作为默认模型。

保存设置。

 

请注意:默认安装好的 Ollama 服务是不对外开放的,如何配置远程 Ollama 服务?

默认情况下,Ollama 服务仅在本地运行,不对外提供服务。要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:

如果 Ollama 作为 systemd 服务运行,应使用 systemctl 设置环境变量:

  1. 调用 systemctl edit ollama.service 编辑 systemd 服务配置。这将打开一个编辑器。
  2. 在 [Service] 部分下为每个环境变量添加一行 Environment:[Service] Environment="OLLAMA_HOST=0.0.0.0" Environment="OLLAMA_ORIGINS=*"
  3. 按Ctrl+X退出,再按Y保存并退出
  4. 重新加载 systemd 并重启 Ollama:
systemctl daemon-reload
systemctl restart ollama

此时打开Chatbox ,选择对接好的DeepSeek ,即可正常对话。






 
             

联系方式

全国热线:

0745-4651672

客服QQ: