AIGC 实战:如何使用 Docker 在 Ollama 上离线运行大模型(LLM)
# 使用官方的CUDA镜像作为基础镜像
FROM nvcr.io/nvidia/cuda:11.8.0-cudnn8-runtime-ubuntu20.04
# 安装Python和必要的依赖
ENV PYTHON_VERSION 3.10.6
RUN apt-get update && \
apt-get install -y --no-install-recommends python3="$(< /usr/lib/python3/DISTUTILS_USE_SDK>)" python3-distutils && \
apt-get clean && rm -rf /var/lib/apt/lists/* && \
python3 -m pip install --no-cache-dir --upgrade pip && \
python3 -m pip install --no-cache-dir setuptools wheel
# 安装PyTorch
ENV TORCH_VERSION 1.13.0+cu118
RUN python3 -m pip install --no-cache-dir torch==$TORCH_VERSION+${CUDA_VERSION}-cp${PYTHON_VERSION}-cp${PYTHON_VERSION}-linux_x86_64.whl
# 安装transformers和gradio
RUN python3 -m pip install --no-cache-dir transformers gradio
# 复制当前目录下的所有文件到容器内的/app目录
COPY . /app
# 设置容器启动时运行的命令
ENTRYPOINT ["python3"]
CMD ["/app/app.py"]
这个Dockerfile为构建一个可以在Ollama上运行大型语言模型的Docker镜像提供了一个基本的框架。它首先从官方的CUDA镜像开始,安装了Python和必要的系统依赖,然后安装了PyTorch,transformers和gradio库,并最终复制应用代码到镜像中,设置了启动命令。这为离线运行大型语言模型提供了一个可能的基础环境。
评论已关闭