Mac을 위한 Stable Diffusion
이 앱은 Apple Core ML Stable Diffusion을 사용하여 메모리 요구 사항을 줄이면서 Apple Silicon Mac에서 최대 성능과 속도를 달성합니다.
- 매우 빠르고 메모리 효율적 (Neural Engine을 사용해서 ~150MB)
- 모든 Apple Silicon Mac에 잘 실행됨
- 본인의 Mac에서 완전히 오프라인으로 이미지 생성
- 생성된 이미지는 메타데이터 내에 프롬프트 정보가 함께 저장됩
- 생성된 이미지를 고화질로 변환할수 있는 기능 (RealESRGAN 사용)
- 사용자 지정으로 원하는 Stable Diffusion Core ML 모델 사용 가능
- 피클된 모델 걱정 없음
- SwiftUI을 사용해서 macOS을 위해 만듬
Releases 페이지에서 최신 버전을 다운로드 하실수 있습니다.
모델을 처음 사용하는 경우 Neural Engine이 캐시된 버전을 만드는데 최대한 2분 정도 걸릴 수 있습니다. 이후에는 이미지 생산이 훨씬 빨라질 것입니다.
CPU & Neural Engine
는 빠른 속도와 낮은 메모리 사용량 간의 적절한 균형을 제공CPU & GPU
는 M1 Max, Ultra에서 더 빠를 수 있지만 더 많은 메모리를 사용
선택한 옵션에 따라 적절한 모델 버전을 사용해야 합니다 (자세한 내용은 모델 섹션 참조).
Mochi Diffusion을 사용하려면 모델 파일을 Core ML 포맷으로 변환하거나 다운로드해야 합니다.
몇 가지 모델을 변환하여 여기에 업로드 해놨습니다.
- Core ML 모델로 변환 하거나 다운
split_einsum
버전은 Neural Engine을 포함한 모든 Compute Unit 옵션과 사용 가능original
버전은CPU & GPU
옵션과만 사용 가능
- 기본 앱 모델 폴더는 홈 디렉토리 아래에 생성됩니다. 이 위치는 설정에서 변경 할 수 있습니다
- 모델 폴더에서 앱에 표시할 이름으로 새 폴더를 만든 다음 변환된 모델을 여기로 이동하거나 추출함
- 폴더 디렉토리는 다음과 같아야 합니다:
<사용자 홈 폴더>/
└── MochiDiffusion/
└── models/
├── stable-diffusion-2-1_split-einsum_compiled/
│ ├── merges.txt
│ ├── TextEncoder.mlmodelc
│ ├── Unet.mlmodelc
│ ├── VAEDecoder.mlmodelc
│ ├── VAEEncoder.mlmodelc
│ └── vocab.json
├── ...
└── ...
- Apple Silicon칩 (M1와 이후 모델)
- macOS Sonoma 14.0 와 이후 버전
- Xcode 15.2 (to build)
모든 생성은 본인의 맥에서 발생하며 클라우드로 전송되는 것은 전혀 없습니다.
Mochi Diffusion은 버그 보고서, 코드 또는 새로운 번역을 통해서든 항상 기여를 찾고 있습니다.
-
버그를 발견했거나 새로운 기능이나 개선 사항을 제안하고 싶다면 문제를 먼저 검색해 보세요. 중복을 방지하는 데 도움이 됩니다. 문제를 찾을 수 없으면 새 문제를 생성하세요.
-
코드를 제공하고 싶다면 언제든지 새 Pull Request를 열 수 있습니다.