完整指南:如何使用 Stable Diffusion API
import os
from huggingface_hub.utils import login_to_huggingface_hub
from stable_diffusion.api import StableDiffusionPipeline
# 登录到 Hugging Face Hub
login_to_huggingface_hub()
# 设置Stable Diffusion模型的路径
model_id = "CompVis/stable-diffusion-v1-4"
# 加载模型
sd_pipeline = StableDiffusionPipeline.from_pretrained(model_id)
# 设置图像生成的提示词
prompt = "a photo of a woman wearing a red dress"
# 设置图像生成的 seed 值
seed = 1234
# 设置图像生成的步骤数
steps = 50
# 设置图像生成的输出分辨率
height = 768
width = 1024
# 设置图像生成的加性噪声的标准差
noise_std = 0.
# 设置图像生成的清晰度
clr_img_std = 10.
# 设置图像生成的保存路径
save_path = "output.png"
# 生成图像
image_generation = sd_pipeline(prompt=prompt, seed=seed, steps=steps, height=height, width=width, noise_std=noise_std, clr_img_std=clr_img_std)
# 保存图像
image_generation.save(save_path)
这段代码展示了如何使用Stable Diffusion API进行图像生成。首先,通过login_to_huggingface_hub
登录到Hugging Face Hub,然后加载预先训练好的Stable Diffusion模型。接着,设置了图像生成所需的各种参数,并调用模型生成了一张图像,最后将生成的图像保存到本地。这是一个简单的例子,展示了如何使用Stable Diffusion进行基本的图像生成任务。
评论已关闭