材料集合

B站进口:
www.bilibili.com/video/BV1sc…

文档: github.com/godly-devot…

下载: github.com/godly-devot…

模型: huggingface.co/coreml#mode…

模型在网盘:pan.baidu.com/s/1fpZ0gIgp… 提取码: 1024

pan.baidu.com/s/1f8e0zbxP… 提取码: 1024

兼容性:Mac (M1 及后续)、macOS Ventura 13.1 以上

介绍

image.png

简介

运用内置 Apple 的 Core ML Stable Diffusion 结构 以实现在搭载 Apple 芯片的 Mac 上用极低的内存占用发挥出最优功能。

功能

  • 极致功能和极低内存占用 (运用神经网络引擎时 ~150MB)
  • 在所有搭载 Apple 芯片的 Mac 上充分发挥神经网络引擎的优势
  • 生成图画时无需联网
  • 图画转图画(也被称为 Image2Image)
  • 在图画的 EXIF 信息中存储所有的关键词(在访达的“显示简介”窗口中查看)
  • 运用 RealESRGAN 扩大生成的图画
  • 主动保存 & 康复图画
  • 自界说 Stable Diffusion Core ML 模型
  • 无需担心损坏的模型
  • 运用 macOS 原生结构 SwiftUI 开发

下载

在 发行 页面下载最新版别。

运行

在初次运行模型时, 神经网络引擎可能需求约2分钟编译缓存,后续运行速度会明显进步。

计算单元

  • CPU 和神经网络引擎 能很好地平衡功能和内存占用
  • CPU 和 GPU 在 M1 Max/Ultra 及后续型号上可能更快,但会占用更多内存

你需求根据不同的计算单元挑选对应的模型 (详情见模型部分)。

模型

你需求自行转化或下载 Core ML 模型以运用 Mochi Diffusion。

这里 上传了几个现已转化好的模型

  1. 转化 或下载 Core ML 模型

    • split_einsum 版别适用于包括神经网络引擎在内的所有计算单元
    • original 版别仅适用于 CPU 和 GPU
  2. 默许情况下,运用程序的模型文件夹将创建在您的主目录下。 能够在“设置”下自界说此位置

  3. 在模型文件夹中,你能够新建一个文件夹,用自己想在运用内显示的姓名为其重命名,再将转化好的模型放到文件夹中

  4. 你的文件夹途径应该像这样:

<主目录>/
└── MochiDiffusion/
    └── models/
        ├── stable-diffusion-2-1_split-einsum_compiled/
        │   ├── merges.txt
        │   ├── TextEncoder.mlmodelc
        │   ├── Unet.mlmodelc
        │   ├── VAEDecoder.mlmodelc
        │   ├── VAEEncoder.mlmodelc
        │   └── vocab.json
        ├── ...
        └── ...

兼容性

  • Apple 芯片的 Mac (M1 及后续)
  • macOS Ventura 13.1 以上
  • Xcode 14.3 (自行构建)

开端装置

装置

image.png

装置真的很省心,下载dmg文件,拖拽到Application

image.png

装置完成后是不能进行生成,因为没有model,需求经过上面的链接下载model,或许去C站下载。

image.png

image.png

civitai.com/

image.png

初始化模型

在你的访达根目录,找到MochiDiffusion文件夹,在文件夹中新建models。

image.png

将下载的模型复制到models中。

下载之后的模型需求解压放到models文件夹中。

image.png

生成的第一张图

image.png