Ollama在MacOS、Linux本地部署千问大模型及实现WEB UI访问
# 安装Ollama
pip install ollama
# 初始化Ollama配置文件
ollama init
# 修改配置文件,设置你的WEB UI端口和大模型路径
nano ~/.config/ollama/config.yaml
# 启动Ollama服务,默认情况下WEB UI将在端口5000上运行
ollama start
# 如果你想要使用其他端口,可以这样指定
ollama start --port 8000
# 现在你可以通过浏览器访问Ollama WEB UI,例如 http://localhost:5000
以上是一个简化版的部署指南,它提供了如何在MacOS和Linux系统上快速部署Ollama并通过WEB UI进行访问的步骤。在实际部署时,你需要确保所有的依赖项都已经安装,并且你可能需要根据你的具体环境对配置文件进行相应的调整。
评论已关闭