支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Windows WSL 安装 RAGFlow 详细教程

发布日期:2025-04-11 07:17:43 浏览次数: 1587 作者:AI应用之旅
推荐语

掌握WSL环境下RAGFlow的安装技巧,提高开发效率。

核心内容:
1. 环境准备与WSL更新至Ubuntu-22.04
2. GPU环境配置及CUDA Toolkit安装
3. Docker GPU支持配置与nvidia-container-toolkit安装

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

一、环境准备

  1. 启用WSL GPU支持

  • 确保Windows主机已安装NVIDIA驱动516.40或更高版本
  • 在PowerShell执行:
    wsl --update
    wsl --set-version Ubuntu-22.04 2
  • 系统基础配置

    sudo apt update && sudo apt full-upgrade -y
    sudo apt install build-essential git curl -y
  • 二、GPU环境配置

    1. 安装CUDA Toolkit

      wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
      sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
      sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/3bf863cc.pub
      sudo add-apt-repository "deb https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/ /"
      sudo apt install cuda-toolkit-12-2

      验证安装:nvidia-smi应显示GPU信息

    2. 配置Docker GPU支持

      curl -fsSL https://get.docker.com | sh
      sudo groupadd docker
      sudo usermod -aG docker $USER
      newgrp docker
      sudo systemctl enable docker

      # 安装nvidia-container-toolkit
      distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
      curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
      curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
      sudo apt update && sudo apt install -y nvidia-container-toolkit
      sudo systemctl restart docker

      验证GPU支持:docker run --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi

    三、部署RAGFlow

    1. 获取项目源码

      git clone https://github.com/infiniflow/ragflow.git
      cd ragflow

      建议提前安装Git LFS处理大文件

    2. 优化系统参数

      sudo sysctl -w vm.max_map_count=262144
      echo "vm.max_map_count=262144" | sudo tee -a /etc/sysctl.conf
    3. 启动服务

      docker compose -f docker-compose.yml up -d

      容器包含预配置的GPU支持

    4. 验证部署

      docker logs ragflow-web -f  # 监控实时日志
      curl http://localhost:8501  # 验证服务状态

    四、Ollama模型部署

    1. 安装与配置

      curl -fsSL https://ollama.com/install.sh | sh
      ollama pull deepseek-chat
    2. GPU异常处理遇到OOM错误时执行:

      sudo systemctl stop ollama
      sudo rmmod nvidia_uvm
      sudo modprobe nvidia_uvm
      sudo systemctl start ollama

      该操作可重置GPU内存分配模块

    五、常见问题排查

    1. 容器启动失败

    • 检查端口冲突:netstat -tuln | grep 8501
    • 查看详细日志:docker compose logs --tail=100
  • GPU未识别

    docker run --gpus all -it ubuntu nvidia-smi  # 验证Docker GPU支持
    nvidia-container-cli --version  # 应≥v1.12.0
  • WSL内存限制%UserProfile%\.wslconfig中添加:

    [wsl2]
    memory=16GB
    processors=8
  • 完成部署后可通过http://localhost:8501访问RAGFlow界面

    ---------------------------------------------------------------------

    如镜像源无法使用,添加下述配置:

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询