我在云服务器上部署lobechat时,想要和ollama集成时遇到了问题。 #3121
Unanswered
hollegjx
asked this question in
Development Question | 开发问题
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
ollama是这样部署的:
docker run -d -v ollama:/root/.ollama -p 11434:11434 -e OLLAMA_HOST=0.0.0.0 -e OLLAMA_ORIGINS=* --name ollama ollama/ollama
lobechat是这样部署的:
docker run -d -p 3210:3210
-e "OPENAI_API_KEY=我的API"
-e "ACCESS_CODE=我的密码"
-e "OPENAI_PROXY_URL=我的中转站"
-e "OLLAMA_PROXY_URL=http://我的服务器IP:11434/v1"
##事实上我不清楚这里该怎么填,但是当我输入网址:我的服务器IP:11434时,可以访问到Ollama is running的字样。
-e "DEFAULT_AGENT_CONFIG=model=gpt-4-turbo;plugins=search-engine,lobe-image-designer
--name lobe-chat
lobehub/lobe-chat
部署好后我的lobechat界面上的所有东西都可以正常使用,但是使用到olloma模型时便会显示:Ollama 服务连接失败,请检查 Ollama 是否运行正常,或是否正确设置 Ollama 的跨域配置。
请问我应该如何正确部署?
Beta Was this translation helpful? Give feedback.
All reactions