超全 Stable Diffusion 常用模型推荐(含网盘下载链接)
标签搜索
侧边栏壁纸
  • 累计撰写 5 篇文章
  • 累计收到 1 条评论

超全 Stable Diffusion 常用模型推荐(含网盘下载链接)

i-kan
2026-05-15 / 0 评论 / 0 阅读 / 正在检测是否收录...

推荐模型适用于Stable Diffusion webUI 、ComfyUI、 ForgeUI

文章中推荐的所有模型,全部亲自用过。整理不易,如果对你有帮助,帮忙点个赞。

所有模型演示与实操落地均可在以下两门课程中学习

Stable Diffusion视频教程

StableDiffusion Comfyui视频教程

一、checkpoints大模型

1、SD1.5版本大模型

  1. SD1.5官方基础大模型:v1-5-pruned-emaonly.safetensors

出图效果差,一般不用来作图。主要用来模型训练、模型融合,出图演示。

  1. SD1.5官方基础大模型:v1-5-pruned.ckpt
  2. SD1.5官方基础修复大模型:sd-v1-5-inpainting.ckpt
  3. 写实大模型:

realisticVisionV51\_v51VAE.safetensors

Realistic\_Vision\_V5.1-inpainting.safetensors 修复版本

较火的写实模型,制作真是照片效果。

  1. 适合动漫风格的大模型:revAnimated\_v122EOL.safetensors

  1. 国风大模型:3Guofeng3\_v34.safetensors

  1. Dreamshape LCM大模型:LCM\_Dreamshaper\_v7\_4k.safetensors

LCM全称Latent Consistency Models(潜在一致性模型),可以通过几步推理合成高分辨率图像。

  1. 迪士尼皮克斯风格大模型:disneyPixarCartoon\_v10.safetensors

  1. 麦橘写实大模型:majicmixRealistic\_v7.safetensors

适合制作亚洲漂亮女孩图片。

  1. 美娜混合大模型:meinamix\_meinaV11.safetensors

  1. 虚幻写实大模型:dreamshaper\_8.safetensors

  1. 万象熔炉大模型:AnythingXL\_v50.safetensors

适合制作二次元图像。

2、SDXL版本大模型

  1. SDXL1.0官方基础模型:sd\_xl\_base\_1.0.safetensors

出图效果差,一般不用来作图。主要用来模型训练、模型融合,出图演示。

  1. SDXL1.0官方refiner模型:sd\_xl\_refiner\_1.0.safetensors

官方sd\_xl\_base\_1.0.safetensors模型配套的refiner,主要用来演示操作。后续的SDXL基本不需要使用refiner模型。

  1. SDXL写实大模型:realvisxlV40\_v40Bakedvae.safetensors

  1. SDXL turbo模型:sd\_xl\_turbo\_1.0\_fp16.safetensors

Turbo模型 是一种快速生成文本到图像的模型。

  1. SDXL lightning模型:sdxl\_lightning\_4step.safetensors

SDXL-Lightning 是一种闪电般快速的文本到图像生成模型。它可以通过几个步骤生成高质量的 1024px 图像。

  1. 巨无霸写实模型V8:juggernautXL\_v8Rundiffusion.safetensors

巨无霸写实模型V9:juggernautXL\_v9Rundiffusionphoto2.safetensors

  1. 亚洲人像模型:sdxl10ArienmixxlAsian\_v45Pruned.safetensors

  1. 动漫主题模型:animagineXLV31\_v31.safetensors

  1. 虚幻写实大模型:dreamshaperXL\_lightningDPMSDE.safetensors

dreamshaperXL\_alpha2Xl10.safetensors

3、SD3.0版本大模型

  1. 官方SD3大模型:sd3\_medium.safetensors

不含文本编码器,仅包含 MMDiT 和 VAE 权重,SD.Next 将根据需要自动加载 CLiP 模型

4、SD Audio版本模型

音频生成模型

1 .:https://pan.baidu.com/s/1EhB6QE4epY-NgzyTiYjUFg?pwd=3jif

5、FLUX版本大模型

  1. FLUX dev 压缩版本:flux1-dev-fp8.safetensors

  1. flux-2-klein-base-4b-fp8.safetensors:超强AI图片编辑:ComfyUI Flux.2 Klein部署教程(含模型与工作流)
  2. flux2\_dev\_fp8mixed.safetensors:这次真的要告别PS了:一篇文章讲清楚如何在ComfyUI中使用FLUX.2模型

二、Unet模型

1、SD1.5版本Unet模型

2、SDXL版本Unet模型

3、FLUX版本Unet模型

  1. flux1-dev.safetensors
  2. flux1-fill-dev.safetensors
  3. :flux1-kontext-dev.safetensors 模型下载与使用看此文章:ComfyUI Flux Kontext Dev模型使用教程
  4. :flux1-krea-dev.safetensors 模型下载与使用看此文章:FLUX.1-Krea-dev模型Comfyui最强文生图模型

三、VAE模型

1、SD1.5版本VAE模型

  1. vae-ft-ema-560000-ema-pruned.ckpt
  2. vae-ft-mse-840000-ema-pruned.ckpt
  3. color101VAE\_v1.safetensors
  4. vae-original.ckpt
  5. 适合漫画风格的VAE:kl-f8-anime2.ckpt

2、SDXL版本VAE模型

  1. SDXL官方配套VAE模型:sdxl\_vae.safetensors
  2. vae\_transparent\_decoder.safetensors

3、FLUX版本VAE模型

  1. ae.safetensors 安装路径:ComfyUI/models/vae/

4、其他VAE模型

  1. wan\_2.1\_vae.safetensors 通义万相WAN模型配套VAE

四、Clip文本编码模型

  1. stableDiffusion3SD3\_textEncoderClipG.safetensors
  2. stableDiffusion3SD3\_textEncoderClipL.safetensors
  3. stableDiffusion3SD3\_textEncoderT5E4m3fn.safetensors
  4. t5\_base.safetensors
  5. clip\_l.safetensors 安装路径:ComfyUI/models/clip/
  6. t5xxl\_fp8\_e4m3fn.safetensors
  7. clip-vit-large-patch14.safetensors.safetensors
  8. t5xxl\_fp16.safetensors 安装路径:ComfyUI\models\clip
  9. umt5\_xxl\_fp8\_e4m3fn\_scaled.safetensors

五、clip\_vision图像编码模型

  1. CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors
  2. CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
  3. sigclip\_vision\_patch14\_384.safetensors
  4. clip\_vision\_h.safetensors

六、LoRA模型

1、SD1.5版本LoRA模型

  1. 工笔画风格LoRA:MoXinV1.safetensors
  2. 盲盒风格LoRA:blindbox\_v1\_mix.safetensors
  3. 汉服风格LoRA:https://pan.baidu.com/s/1zIcU8nRzD8ffye4trM0lBA?pwd=i4ey
  4. 添加细节LoRA:more\_details.safetensors
  5. 霓虹效果LoRA:CyberPunkAI.safetensors
  6. 龙元素LoRA:dragon\_real\_base\_V1.safetensors
  7. 科幻风格LoRA:XSArchi\_127.safetensors
  8. 宫崎骏风格LoRA:Miyazaki.safetensors
  9. 快速生成LoRA:pcm\_sd15\_smallcfg\_2step\_converted.safetensors

2、SDXL版本LoRA模型

  1. lightningLoRA模型:sdxl\_lightning\_4step\_lora.safetensors

SDXL-Lightning 是一种闪电般快速的文本到图像生成模型。它可以通过几个步骤生成高质量的 1024px 图像

  1. neo\_icon.safetensors
  2. cutedoodle\_XL-000012.safetensors
  3. outdoor-product-photography-SDXL.safetensors
  4. xl\_more\_art-full\_v1.safetensors
  5. Designer\_BlindBox-000015.safetensors
  6. detailed.safetensors

3、FLUX版本LoRA模型

  1. Brand\_Marks\_-\_Logo\_Icon\_Symbol.safetensors
  2. cartoon\_logo\_flux\_lora.safetensors
  3. CuteLogoMaker.safetensors
  4. Graffiti\_Logo\_Style\_Flux.safetensors
  5. logomaker1024-000008.safetensors
  6. VibrantTech3D\_v1.safetensors
  7. CharacterDesign-FluxV2.safetensors
  8. FluxMythP0rtr4itStyle.safetensors
  9. aidmaRealisticPeoplePhotograph-FLUX-V0.2.safetensors
  10. OB拍立得人像摄影Instant camera portrait photography V2.0.safetensors
  11. zyd232\_Hanfu\_Flux1D\_Ming\_PiFeng\_v1\_0.safetensors

七、IC-LoRA模型

In-Context LoRA(IC-LoRA)的核心概念是将条件图像和目标图像拼接成一张合成图像,同时使用自然语言来定义任务。这种方法可以无缝适应各种应用。

1、SD1.5版本IC-LoRA模型

2、SDXL版本IC-LoRA模型

3、FLUX版本IC-LoRA模型

  1. Migration\_Lora\_cloth.safetensors 功能:持续的衣物迁移 高精度地在参考图像之间传递服装风格。

八、LyCORIS模型

1、SD1.5版本LyCORIS模型

  1. 微缩世界LyCORIS模型:miniature\_V1.safetensors

九、Embedding嵌入式模型

1、SD1.5版本Embedding模型

  1. 负嵌入Embedding:EasyNegative.safetensors

使用率极高的一款负面提示词 embedding 模型,可以有效提升画面的精细度。适合动漫大模型。

  1. 负嵌入Embedding:ng\_deepnegative\_v1\_75t.pt

适合实写大模型

  1. 正嵌入年龄滑块Embedding:

AS-Adult.pt

AS-Adult-neg.pt

AS-Elderly.pt

AS-MidAged.pt

AS-YoungerV2.pt

AS-YoungestV2.pt

AS-YoungV2.pt

AS-YoungV2-neg.pt

十、Hypernetwork超网络模型

1、SD1.5版本Hypernetwork模型

  1. 可爱图标:Toru8pWavenChibi\_wavenchibiV10b.pt

十一、Controlnet模型

1、SD1.5版本Controlnet模型

  1. 重上色Controlnet模型:ioclab\_sd15\_recolor.safetensors
  2. ip-adapter Controlnet模型:ip-adapter\_sd15.pth
  3. t2iadapterControlnet模型:

t2iadapter\_color\_sd14v1.pth

t2iadapter\_sketch\_sd15v2.pth

t2iadapter\_style\_sd14v1.pth

  1. control\_v11e\_sd15\_ip2p.pth
  2. control\_v11e\_sd15\_shuffle.pth
  3. control\_v11f1e\_sd15\_tile.pth
  4. control\_v11f1p\_sd15\_depth.pth
  5. control\_v11p\_sd15\_canny.pth
  6. control\_v11p\_sd15\_inpaint.pth
  7. control\_v11p\_sd15\_lineart.pth
  8. control\_v11p\_sd15\_mlsd.pth
  9. control\_v11p\_sd15\_normalbae.pth
  10. control\_v11p\_sd15\_openpose.pth
  11. control\_v11p\_sd15\_scribble.pth
  12. control\_v11p\_sd15\_seg.pth
  13. control\_v11p\_sd15\_softedge.pth
  14. control\_v11p\_sd15s2\_lineart\_anime.pth

2、SDXL版本Controlnet模型

  1. control\_instant\_id\_sdxl.safetensors
  2. ip-adapter\_instant\_id\_sdxl.bin
  3. xinsircontrolnet-openpose-sdxl-1.0.safetensors
  4. control-lora-canny-rank256-SDXL.safetensors
  5. control-lora-depth-rank256-SDXL.safetensors
  6. control-lora-recolor-rank256-SDXL.safetensors
  7. control-lora-sketch-rank256-SDXL.safetensors
  8. t2i-adapter-canny-sdxl-1.0.safetensors
  9. t2i-adapter-depth-midas-sdxl-1.0.safetensors
  10. t2i-adapter-depth-zoe-sdxl-1.0.safetensors
  11. t2i-adapter-lineart-sdxl-1.0.safetensors
  12. t2i-adapter-openpose-sdxl-1.0.safetensors
  13. t2i-adapter-sketch-sdxl-1.0.safetensors
  14. ip-adapter-plus\_sdxl\_vit-h.safetensors
  15. ip-adapter\_sdxl.safetensors
  16. CN-anytest\_v4-marged.safetensors

3、FLUX版本Controlnet模型

  1. ip\_adapter.safetensors
  2. flux-canny-controlnet-v3.safetensors
  3. FLUX.1-dev-Controlnet-Inpainting-Betal.safetensors
  4. flux\_dev\_openpose\_controlnet.safetensors

十二、sam模型

1、sam模型

  1. sam\_vit\_b\_01ec64.pth
  2. sam\_vit\_h\_4b8939.pth
  3. sam\_vit\_l\_0b3195.pth

2、sam2模型

Segment Anything Model 2 (SAM 2)是解决图像和视频中可提示的视觉分割问题的基础模型。

  1. sam2.1\_hiera\_large-fp16.safetensors

十三、其他语义分割模型

  1. parsing\_parsenet.pth

一个与图像解析或语义分割相关的模型文件,通常用于人体解析、场景解析等任务。它可能是基于 ParseNet 或其他类似架构的预训练模型。

十四、groundingdino模型

  1. groundingdino\_swinb\_cogcoor.pth
  2. groundingdino\_swint\_ogc.pth

十五、GFPGAN模型

1.GFPGANv1.4.pth

  1. codeformer-v0.1.0.pth
  2. GFPGANv1.3.pth
  3. GPEN-BFR-512.onnx
  4. GPEN-BFR-1024.onnx
  5. GPEN-BFR-2048.onnx

十六、Codeformer

  1. codeformer-v0.1.0.pth

十七、面部检测模型

  1. detection\_Resnet50\_Final.pth

十八、SVD模型

Stable Video Diffusion (SVD) 模型系列,是由 Stability AI 开发的一种基于扩散模型(Diffusion Model)的视频生成模型,能够从单张图像生成高质量的视频。

  1. svd\_xt.safetensors
  2. stable-video-diffusion-img2vid-xt-1-1 huggingface项目文件包

十九、Zero123模型

Stable Zero123 是由 Stability AI 开发的一种基于 Zero123 技术的图像生成模型,专门用于从单张图像生成高质量的多视角 3D 物体视图

  1. stable\_zero123\_c.ckpt

二十、layerdiffuse模型

1、SD1.5版本layerdiffuse模型

  1. layer\_sd15\_fg2bg.safetensors
  2. layer\_sd15\_joint.safetensors
  3. layer\_sd15\_vae\_transparent\_decoder.safetensors

2、SDXL版本layerdiffuse模型

  1. layer\_xl\_bg2ble.safetensors
  2. layer\_xl\_bgble2fg.safetensors
  3. layer\_xl\_fg2ble.safetensors
  4. layer\_xl\_fgble2bg.safetensors
  5. layer\_xl\_transparent\_attn.safetensors
  6. layer\_xl\_transparent\_conv.safetensors

二十一、antelopev2模型

  1. 1k3d68.onnx
  2. 2d106det.onnx
  3. genderage.onnx
  4. glintr100.onnx
  5. scrfd\_10g\_bnkps.onnx

二十二、brushnet模型

BrushNet 是一种基于扩散的文本引导图像修复模型,可以即插即用地加入任何预训练的扩散模型中。

  1. random\_mask.safetensors
  2. segmentation\_mask.safetensors
  3. diffusion\_pytorch\_model.safetensors 对应的配置文件:config.json

二十三、Fooocus模型

  1. fooocus\_inpaint\_head.pth
  2. inpaint\_v26.fooocus.patch

二十四、IPAdapter模型

1、SD1.5版本IPAdapter模型

  1. ip-adapter\_sd15.safetensors
  2. ip-adapter\_sd15\_light\_v11.bin
  3. ip-adapter\_sd15\_vit-G.safetensors
  4. ip-adapter-full-face\_sd15.safetensors
  5. ip-adapter-plus\_sd15.safetensors
  6. ip-adapter-plus-face\_sd15.safetensors

2、SDXL版本IPAdapter模型

  1. ip-adapter\_sdxl.safetensors
  2. ip-adapter\_sdxl\_vit-h.safetensors
  3. ip-adapter-plus\_sdxl\_vit-h.safetensors
  4. ip-adapter-plus-face\_sdxl\_vit-h.safetensors

3、FLUX版本IPAdapter模型

二十五、LaMa模型

基于傅里叶卷积的分辨率稳健大型掩模修复

  1. big-lama.pt

二十六、MAT模型

  1. Places\_512\_FullData\_G.pth

二十七、Gligen模型

GLIGEN 在现有的预训练文本到图像扩散模型的基础上构建并扩展其功能,使其能够根据参考输入进行条件生成。

  1. gligen\_sd14\_textbox\_pruned.safetensors

二十八、UnCLIP模型

UnCLIP 的主要功能是通过文本描述生成高质量的图像。它结合了 CLIP 的文本-图像对齐能力和扩散模型(Diffusion Model)的图像生成能力,能够生成与文本描述高度匹配的图像

  1. sd21-unclip-h.ckpt

二十九、llava模型

  1. ggml-model-q4\_k.gguf
  2. mmproj-model-f16.gguf

三十、wd-v1-4模型与模型字典

  1. wd-v1-4-convnextv2-tagger-v2.onnx
  2. wd-v1-4-convnextv2-tagger-v2.csv 字典
  3. wd-v1-4-moat-tagger-v2.onnx
  4. wd-v1-4-moat-tagger-v2.csv 字典

三十一、TripoSR模型

TripoSR 是由 Stability AI 和 Tripo AI 合作开发的快速前馈 3D 生成模型。

1.:TripoSR-model.ckpt

三十二、AnimateDiff模型

1、Motion modules模型

  1. v3\_sd15\_mm.ckpt

2、Motion LoRAs模型

  1. v2\_lora\_PanLeft.ckpt
  2. v2\_lora\_PanRight.ckpt
  3. v2\_lora\_RollingAnticlockwise.ckpt
  4. v2\_lora\_RollingClockwise.ckpt
  5. v2\_lora\_TiltDown.ckpt
  6. v2\_lora\_TiltUp.ckpt
  7. v2\_lora\_ZoomIn.ckpt
  8. v2\_lora\_ZoomOut.ckpt

三十三、InsightFace模型

InsightFace是一个开源的2D&3D深度人脸分析工具箱,主要基于PyTorch和MXNet。

1、inswapper模型

  1. inswapper\_128.onnx

2、buffalo\_l模型

InsightFace 发布的 buffalo\_l 面部检测和识别模型

  1. 1k3d68.onnx
  2. 2d106det.onnx
  3. det\_10g.onnx
  4. genderage.onnx
  5. w600k\_r50.onnx

三十四、IC-Light模型

IC-Light全称“Imposing Consistent Light”,是一个操纵图像照明的项目

  1. iclight\_sd15\_fbc.safetensors
  2. iclight\_sd15\_fc.safetensors

三十五、RMBG 模型

RMBG 是我们最先进的背景去除模型,旨在有效地将各种类别和图像类型的前景与背景分开。

  1. briaai\_rmbg\_v1.4.pth

三十六、SUPIR模型

  1. SUPIR-v0F.ckpt

模型实操案例:ComfyUI 模糊图像变清晰

三十七、BiRefNet模型

目前较好用的开源可商用背景抠除模型

  1. COD.safetensors 一种用于隐蔽目标检测(COD)的预训练模型。
  2. DIS.safetensors 一种用于二分图像分割(DIS)的预训练模型。
  3. DIS-TR\_TEs.safetensor.safetensors 具有大量数据集的预训练模型。
  4. General.safetensors 用于一般用例的预训练模型。
  5. General-Lite.safetensors 用于一般用例的轻量级预训练模型。
  6. General-Lite-2K.safetensors 用于一般用例的轻量级预训练模型,适用于高分辨率图像。 (最佳分辨率2560x1440).
  7. HRSOD.safetensors 一种用于高分辨率显著目标检测(HRSOD)的预训练模型。
  8. Matting.safetensors 一种使用无trimap matting的预训练模型。
  9. Portrait.safetensors 人物肖像预训练模型。
  10. birefnet-v1-lite.onnx

模型实操案例:ComfyUI 一键抠图

三十八、CatVTON模型

  1. CatVTON

模型实操案例:ComfyUI 一键换装

三十九、Redux模型

FLUX Redux 是用于生成图像变化的所有 FLUX基础模型的适配器。给定一个输入图像,FLUX Redux 可以重现略有变化的图像,从而可以细化给定的图像。

  1. flux1-redux-dev.safetensors

模型实操案例:ComfyUI 一键换装

四十、MODNet模型

MODNet 是一个仅使用 RGB 图像输入的实时人像抠图模型

  1. hivision\_modnet.onnx
  2. modnet\_photographic\_portrait\_matting.onnx

模型实操案例:ComfyUI 证件照制作

四十一、retinaface模型

离线人脸检测模型

  1. retinaface-resnet50.onnx

四十二、PuLID模型

面部保持技术。Pure and Lightning ID Customization via Contrastive Alignment(通过对比对齐实现 Pure 和 Lightning ID 定制)

1、SD1.5版本PuLID模型

2、SDXL版本PuLID模型

  1. ip-adapter\_pulid\_sdxl\_fp16.safetensors

3、FLUX版本PuLID模型

  1. pulid\_flux\_v0.9.0.safetensors

模型实操案例:ComfyUI 制作个人头像

四十三、facexlib模型

facexlib是一个基于 pytorch 的面部相关功能库,例如检测、对齐、识别、跟踪、面部恢复工具等。它仅提供推理(不提供训练)。

  1. detection\_Resnet50\_Final.pth
  2. parsing\_bisenet.pth
  3. parsing\_parsenet.pth

模型实操案例:ComfyUI 制作个人头像

四十四、BOPBTL 模型

老照片修复技术

_1._:BOPBTL checkpoints模型

  1. BOPBTL VAE模型

模型实操案例:ComfyUI 老照片修复

四十五、Florence-2模型

Florence-2 是一种先进的视觉基础模型,它使用基于提示的方法来处理各种视觉和视觉语言任务。Florence-2 可以解释简单的文本提示来执行字幕、对象检测和分割等任务。

  1. Florence-2模型

四十六、Dlib模型

人脸检测模型

  1. shape\_predictor\_68\_face\_landmarks.dat

四十七、Makeup模型

美妆迁移模型

  1. mobilenet0.25\_Final.pth
  2. pytorch\_model.bin
  3. pytorch\_model\_1.bin
  4. pytorch\_model\_2.bin

5.:resnet50.pth

  1. spiga\_300wpublic.pt

模型实操案例:ComfyUI 美妆迁移

四十八、LTX-Video 视频模型

LTX-Video 是第一个基于 DiT 的视频生成模型,能够实时生成高质量视频。它以 768x512 的分辨率生成 24 FPS 的视频,速度比观看速度更快。该模型在包含各种视频的大规模数据集上进行训练,可生成内容逼真、内容多样的高分辨率视频。我们为文本转视频以及图像+文本转视频用例提供了模型

  1. ltx-video-2b-v0.9.5.safetensors

模型实操案例:4-39 ComfyUI 文生视频与图生视频

四十九、WAN 视频模型

阿里巴巴旗下开源视频生成模型通义万相模型

  1. wan2.1\_i2v\_720p\_14B\_fp8\_e4m3fn.safetensors
  2. wan2.1\_t2v\_14B\_fp8\_e4m3fn.safetensors

模型实操案例:4-39 ComfyUI 文生视频与图生视频

五十、Depth-Anything-V2模型

  1. depth\_anything\_v2\_vits.pth
  2. depth\_anything\_v2\_vitb.pth
  3. depth\_anything\_v2\_vitl.pth
  4. depth\_anything\_v2\_vitg.pth

五十一、MimicMotion模型

  1. : MimicMotionMergedUnet\_1-1-fp16.safetensors

模型实操案例:4-42 MimicMotion 小姐姐跳舞视频制作

五十二、DWPose模型

  1. dw-ll\_ucoco\_384\_bs5.torchscript.pt
  2. yolox\_l.torchscript.pt

模型实操案例:4-42 MimicMotion 小姐姐跳舞视频制作

五十三、sonic模型

  1. :模型安装包:sonic模型

下载链接包含以下文件

模型实操案例:4-43 ComfyUI 数字人制作

五十四、TopazVideoAI模型

TopazVideoAI模型是用在TopazVideoAI软件中对视频进行放大、细节添加、帧差值等相关视频处理的模型

  1. :模型安装包:TopazVideoAI模型

模型实操案例:4-44 ComfyUI 视频放大

五十五、RVM模型

RVM 专为鲁棒的人体视频抠图而设计。与将帧作为独立图像处理的现有神经模型不同,RVM 使用循环神经网络来处理具有时间记忆的视频。RVM 可以在任何视频上实时执行抠图,而无需额外输入。

  1. rvm\_mobilenetv3\_fp16.torchscript
  2. rvm\_resnet50\_fp16.torchscript

模型实操案例:4-45 ComfyUI 视频抠图

五十六、ProPainter模型

ProPainter:改进视频修复的传播和变换器

  1. ProPainter.pth
  2. raft-things.pth
  3. recurrent\_flow\_completion.pth

模型实操案例:4-46 ComfyUI 视频去水印与物体抹除

持续更新中……

原文来源:https://zhuanlan.zhihu.com/p/28932301846

更多Stable Diffusion教程请看以下视频:

Stable Diffusion视频教程

StableDiffusion Comfyui视频教程

0

评论 (0)

取消