MochiDiffusion可在Mac上原生运行StableDiffusion,本应用内置 Apple的CoreMLStableDiffusion框架 ,以实现在搭载Apple芯片的Mac上用极低的内存占用发挥出最优性能。
功能极致性能和极低内存占用(使用神经网络引擎时~150MB)在所有搭载Apple芯片的Mac上充分发挥神经网络引擎的优势生成图像时无需联网图像转图像(也被称为Image2Image)在图像的EXIF信息中存储所有的关键词(在访达的“显示简介”窗口中查看)使用RealESRGAN放大生成的图像自动保存&恢复图像自定义StableDiffusionCoreML模型无需担心损坏的模型使用macOS原生框架SwiftUI开发下载在 发行 页面下载最新版本。运行在初次运行模型时,神经网络引擎可能需要约2分钟编译缓存,后续运行速度会显著提高。计算单元CPU和神经网络引擎 能很好地平衡性能和内存占用CPU和GPU 在M1Max/Ultra及后续型号上可能更快,但会占用更多内存你需要根据不同的计算单元选择对应的模型(详情见模型部分)。模型需要自行转换或下载CoreML模型以使用MochiDiffusion。这里上传了几个已经转换好的模型转换 或下载CoreML模型split_einsum 版本适用于包括神经网络引擎在内的所有计算单元original 版本仅适用于 CPU和GPU默认情况下,应用程序的模型文件夹将创建在您的主目录下。可以在“设置”下自定义此位置在模型文件夹中,你可以新建一个文件夹,用自己想在应用内显示的名字为其重命名,再将转换好的模型放到文件夹中你的文件夹路径应该像这样:<主目录>/└──MochiDiffusion/└──models/├──stable-diffusion-2-1_split-einsum_compiled/│├──merges.txt│├──TextEncoder.mlmodelc│├──Unet.mlmodelc│├──VAEDecoder.mlmodelc│├──VAEEncoder.mlmodelc│└──vocab.json├──...└──...兼容性Apple芯片的Mac(M1及后续)macOSVentura13.1以上Xcode14.2(自行构建)隐私所有计算均在本地完成并绝对不会上传任何数据。点击空白处退出提示
评论