跳到主要内容

Stable Diffusion-TPU

Stable Diffusion 是一个可以根据文本/图片生成相应场景照片的生成式大模型,目前使用 StableDiffusion 1.5 开源模型通过 sophon SDK 移植到 SG2300X 芯片系列产品上进行本地 TPU 硬件加速推理,可以结合 LCM Lora 加速模块与风格 LoRa 实现快速推理生成特色风格图片,并使用 Gradio 实现用户交互

应用部署

  • 克隆仓库并切换成 radxa_v0.3.0 分支

    git clone https://github.com/zifeng-radxa/SD-lcm-tpu.git -b radxa_v0.3.0
  • 下载 radxa 提供的 Stable Diffusion models 压缩包

    目前提供的预编译 bmodel 有:

    用户也可通过参考 模型转换 编译任何 stable_diffusion v1.5 checkpoints

    cd SD-lcm-tpu
    mkdir -p models/basic && cd models/basic

    # AbsoluteReality bmodels
    wget https://github.com/radxa-edge/TPU-Edge-AI/releases/download/sd_v3/tar_downloader.sh
    bash tar_downloader.sh
    tar -xvf AbsoluteReality_v1.8.1_sd15_original.tar.gz

    # Controlnet
    cd SD-lcm-tpu
    mkdir -p models/controlnet && cd models/controlnet
    wget https://github.com/radxa-edge/TPU-Edge-AI/releases/download/sd_v3/canny_multize.bmodel
  • 配置环境

    必须创建虚拟环境,否则可能会影响其他应用的正常运行, 虚拟环境使用请参考这里

    cd SD-lcm-tpu
    python3 -m virtualenv .venv
    source .venv/bin/activate
  • 安装依赖

    pip3 install --upgrade pip
    pip3 install -r requirements.txt
  • 启动 Web 服务

    bash run.sh
  • 浏览器访问 Airbox ip 地址的 8999 端口

应用展示

Text-to-Image

Prompt

upper body photo, fashion photography of cute Hatsune Miku,
very long turquoise pigtails and a school uniform-like outfit.
She has teal eyes and very long pigtails held with black and
red square-shaped ribbons that have become a signature of her design,
moonlight passing through hair.

Image-to-Image

Prompt

1girl, ponytail ,white hair, purple eyes, medium breasts, collarbone,
flowers and petals, landscape, background, rose, abstract

模型转换

用户可以参考这部分内容自行转换任何 stable diffusion 1.5 的模型,用户可以前往 civital 下载模型

目前有两种转换模式可以选择,命令行模式转换webUI交互模式

环境准备

  • x86工作站环境准备

    请参考 TPU-MLIR 安装 配置 TPU-MLIR 环境

    创建 docker 容器

    docker run --privileged --name myname -p 8088:7860 -v $PWD:/workspace -it sophgo/tpuc_dev:latest
  • 配置环境

    克隆项目仓库

     git clone https://github.com/zifeng-radxa/SD-lcm-tpu.git -b radxa_v0.3.0

    在工作目录中从 Huggingface 下载 lcm-lora-sdv1-5 Lora 模型文件

    git clone https://huggingface.co/latent-consistency/lcm-lora-sdv1-5

    安装依赖库

    cd SD-lcm-tpu/model_export
    pip3 install upgrade pip
    pip3 install https://github.com/radxa-edge/TPU-Edge-AI/releases/download/v0.1.0/tpu_mlir-1.6.502-py3-none-any.whl
    pip3 install -r requirements.txt

命令行模式转换

  • 将模型从 safetensor 转为 pt/onnx

    python3 export_from_safetensor_sd15_cli_wrapper.py -u xxxxx/model.safetensor -l xxxx/lora.safetensor -c xxxx/controlnet.safetensor -b 1 -o xxxxx/name

    -u: 要转换模型的 safetensors 文件路径

    -l:(可选)lora 文件路径

    -c:(可选)controlnet 文件路径

    如果需要使用LCM减少生成高质量图像所需扩散次数加快出图,要指定 -l 参数 lcm-lora-sdv1-5 文件夹路径,否则生成的模型大约需要 20 step才能同等质量的图像。

    模型最后保存到 -o 指定的目录里面

    .
    ├── text_encoder
    │ └── text_encoder.onnx
    ├── unet
    │ └── unet_fuse_1.pt
    ├── vae_decoder
    │ └── vae_decoder.pt
    └── vae_encoder
    └── vae_encoder.pt
  • 将 pt/onnx 转为 bmodel

    python3 convert_bmodel_cli_wrapper.py -n xxxxx/name -o xxxxx -s 512 512 768 512 512 768 -b 1 -v sd15

    -n 第一步生成的文件夹路径

    -s 输入尺寸, 支持多尺寸 latent

    -o (可选)目标文件家路径

    得到的 bmodel 在 -o xxxxx 的目录里面

    .
    ├── sdv15_text.bmodel
    ├── sdv15_unet_multisize.bmodel
    ├── sdv15_vd_multisize.bmodel
    └── sdv15_ve_multisize.bmodel

    将这个文件夹复制到 Airbox 上的 SD-lcm-tpu/models/basic 文件夹下即可

webUI 交互模式转换

在docker中启动模型转换器服务,然后使用浏览器访问运行此 docker 容器 Host 的 8088 端口

python3 gr_docker.py
  • 步骤1:转换 safetensor 至 onnx/pt 格式模型

    • 支持浏览器上传

    • 支持选择容器内文件

    • 支持 URL 自动下载 (参考这里获取 civital api token)

  • 步骤2:转换 onnx/pt 格式模型至 bmodel

    • 刷新页面

    • 选择步骤 1 中生成的文件夹路径,onnx/pt 模型的父目录