复制
收藏
提问
简洁
ollama如何把模型运行在某个端口上
2个月前
全网
文档
学术
百科
知识库
回答简洁模式
深入研究一些
Ollama 可以通过设置环境变量来指定模型运行的端口。在 macOS 上,可以使用 launchctl
来设置环境变量,例如使用命令 launchctl setenv OLLAMA_HOST "0.0.0.0"
来设置主机地址,并重启 Ollama 应用程序4。对于 Windows 系统,可以通过 Open WebUI 结合 cpolar 内网穿透软件来实现公网访问本地模型运行环境,但具体端口设置方法在提供的资料中没有明确说明236。如果需要通过 API 调用模型,Ollama 默认的 API 端口是 11434,可以通过访问 http://localhost:11434
来使用 API 功能8。
你觉得结果怎么样?