Mac版Chatbox连接本地Ollama服务找不到模型

2025-02-12  本文已影响0人  樂幽

问题描述


Ollama和本地模型确认正常安装,并且用命令行启动可以正常使用

命令行可以正常使用

安装Chatbox后,设置模型提供方为OLLAMA API,模型的下拉选项为空:

配置都正确,但是无法读取本地模型

将本地Ollama服务配置成远程Ollama服务后,就可以加载出来了:

但问题是,Chatbox的教程里说,不用配置远程服务,就可以直接读取本地服务啊!!!
虽然现在也能用,但是我不想配置成远端,我就想作为本地服务用!!!

解决方案


经过我的不懈努力,终于找到了问题所在!
安装Chatbox,一定不要通过AppStore安装,要去官网自行下载安装包进行安装,官网的包不会出现这个问题!

问题解决~

上一篇 下一篇

猜你喜欢

热点阅读