Stable Diffusion

Stable Diffusion

생성 AI를 민주화한 선구적인 오픈 소스 AI 이미지 생성기입니다. 수천 개의 커뮤니티 모델, LoRA, ControlNet 및 확장을 통해 완전히 사용자 정의할 수 있으며 자체 하드웨어에서 로컬로 실행됩니다.

FreeOpen SourceLocalCustomizableControlNet

회사

Stability AI

라이선스

Open Source

커뮤니티 모델

Thousands

최소 VRAM

6GB (SD 1.5)

출시일

August 2022

비용

Free (local)

소개

Stability AI가 CompVis 및 Runway 연구원들과 협력하여 개발한 Stable Diffusion은 2022년 출시 당시 AI 이미지 생성을 민주화한 오픈 소스 모델입니다. 사용자를 구독 서비스에 가두는 독점 대안과 달리 Stable Diffusion의 가중치는 무료로 사용할 수 있으므로 누구나 기술을 다운로드, 실행, 수정 및 구축할 수 있습니다. 이는 전체 분야를 변화시키는 대규모 혁신 생태계를 촉발합니다.

Stable Diffusion을 독특하게 만드는 것은 접근성과 무한한 유연성의 조합입니다. 이 모델은 소비자 하드웨어(6~12GB VRAM을 갖춘 GPU)에서 실행될 수 있으므로 구독료나 이미지당 비용 없이 무제한 무료 생성이 가능합니다. 더 중요한 것은 개방형 특성으로 인해 단일 폐쇄형 플랫폼이 제공할 수 있는 것 이상으로 기능을 확장하는 수천 개의 미세 조정 모델, LoRA 적응, ControlNet 구현, 사용자 정의 확장 및 여러 사용자 인터페이스가 생성되었다는 것입니다.

Stable Diffusion 생태계는 여러 세대를 거쳐 발전해 왔습니다. SD 1.5는 방대한 모델 라이브러리와 낮은 하드웨어 요구 사항을 위해 여전히 널리 사용되고 있으며, SDXL은 더 높은 해상도(1024px)에서 크게 향상된 품질을 제공하며, SD3/SD3.5는 더 나은 즉각적인 이해와 구성을 갖춘 최신 아키텍처를 나타냅니다. 생태계는 단편화되어 있지만 이러한 다양성은 도구와 작업 흐름을 배우는 데 시간을 투자하려는 사용자에게 비교할 수 없는 창의적인 제어 기능을 제공합니다.

장점

  • +구독이나 제한 없이 로컬에서 완전히 무료로 사용할 수 있습니다.
  • +커뮤니티 모델, LoRA 및 확장으로 구성된 대규모 생태계
  • +ControlNet은 생성에 대한 탁월한 구조적 제어 기능을 제공합니다.
  • +완전한 개인 정보 보호 - 모든 처리는 로컬 하드웨어에 유지됩니다.
  • +콘텐츠 제한 없음(사용자 책임)
  • +모든 스타일, 장르 또는 사용 사례에 맞게 고도로 맞춤화 가능
  • +도구와 기술을 지속적으로 개선하는 활동적인 커뮤니티
  • +다양한 기술 수준을 위한 다양한 인터페이스 옵션

단점

  • -GPU 하드웨어 투자 필요(지원 카드의 경우 $200-500+)
  • -최적의 결과를 위한 상당한 학습 곡선
  • -비-NVIDIA 하드웨어에서는 특히 설치가 복잡할 수 있습니다.
  • -출력 품질은 모델 및 설정 지식에 따라 크게 달라집니다.
  • -다양한 탐색 옵션이 있는 단편화된 생태계
  • -Flux나 Midjourney보다 훨씬 나쁜 텍스트 렌더링

주요 기능

오픈 소스 및 무료

허용 라이센스에 따라 모델 가중치를 무료로 사용할 수 있습니다. 구독료, API 비용 또는 사용 제한 없이 무제한 세대 동안 로컬에서 실행

대규모 모델 생태계

애니메이션, 포토리얼리즘, 컨셉 아트, 픽셀 아트, 유화 및 수많은 틈새 미학 등 상상할 수 있는 모든 스타일을 포괄하는 Civitai 및 Hugging Face의 수천 개의 미세 조정 모델

LoRA 지원

전체 모델을 재교육하지 않고도 특정 캐릭터, 스타일, 컨셉 또는 개체에 대한 경량 조정입니다. 고유한 결과를 위해 여러 LoRA를 조정 가능한 가중치와 혼합 및 결합

컨트롤넷

깊이 맵, 가장자리 감지(Canny), 포즈 뼈대(OpenPose), 분할 마스크 등을 사용한 정밀한 구조 제어. 구성 제어를 통한 혁신적인 유도 생성

인페인팅 및 아웃페인팅

주변 콘텐츠를 유지하면서 이미지의 특정 영역을 편집합니다. 어떤 방향으로든 원래 경계를 넘어 이미지를 원활하게 확장

이미지 대 이미지

텍스트 프롬프트와 조정 가능한 노이즈 제거 강도를 사용하여 기존 이미지를 변환합니다. 스타일 이전, 반복적인 개선, 대략적인 스케치의 컨셉 진화에 적합합니다.

다중 사용자 인터페이스

Automatic1111(다양한 기능), ComfyUI(노드 기반 워크플로), Fooocus(단순), Forge(최적화) 등 중에서 선택하세요. 각각은 다양한 기술 수준과 사용 사례에 적합합니다.

텍스트 반전

단 몇 개의 토큰으로 특정 개념, 스타일 또는 주제를 캡처하도록 사용자 정의 임베딩을 훈련합니다. 간단한 개념 학습을 위한 LoRA의 경량 대안

완벽한 개인 정보 보호

모든 처리는 하드웨어에서 로컬로 수행됩니다. 클라우드 서버로 데이터가 전송되지 않고, 사용량이 추적되지 않으며, 생성하고 저장하는 내용을 완벽하게 제어할 수 있습니다.

버전 유연성

SD 1.5(광범위한 생태계, 낮은 요구 사항), SDXL(1024px의 높은 품질) 또는 SD3/3.5(향상된 텍스트 및 구성을 갖춘 최신 아키텍처) 중에서 선택하세요.

추천 대상

무제한의 창의적 탐색

크레딧, 토큰 또는 구독 비용에 대한 걱정 없이 원하는 만큼 이미지를 생성하세요. 로컬 설정은 다양한 모델, LoRA, 프롬프트 및 설정을 끝없이 실험하여 재정적 제약 없이 독특한 시각적 스타일을 발견할 수 있음을 의미합니다.

애호가, 디지털 아티스트, 창의적인 실험가

맞춤형 모델 및 스타일 개발

일관된 캐릭터, 브랜드 아이덴티티 또는 예술적 스타일을 만들기 위해 자신의 이미지로 LoRA를 훈련하세요. 개방형 생태계는 커뮤니티 도구를 사용하여 완전한 미세 조정, 텍스트 반전 및 LoRA 교육을 지원합니다. 폐쇄형 플랫폼에서는 불가능한 효과를 위해 여러 훈련된 모델을 결합합니다.

AI 아티스트, 캐릭터 디자이너, 크리에이티브 스튜디오

생산 자산 파이프라인

ComfyUI 노드 기반 파이프라인으로 자동화된 이미지 생성 워크플로를 구축하세요. 정밀한 구조 제어, 수백 개의 이미지 일괄 처리, API를 통해 생산 파이프라인에 통합을 위해 ControlNet을 사용하십시오. 완벽한 개인 정보 보호로 인해 민감한 상업 작업이 사내에 유지됩니다.

스튜디오, 제작팀, 기술 아티스트

개인 정보 보호에 민감한 이미지 생성

서버로 데이터가 전송되지 않고 완전히 로컬로 이미지를 생성합니다. 엄격한 데이터 정책, HIPAA 요구 사항, 군사/정부 용도가 있는 조직 또는 생성된 콘텐츠를 완벽하게 제어하려는 모든 사람에게 필수적입니다.

기업, 정부 기관, 개인 정보 보호에 민감한 전문가

요금제

추천

Local Installation

$0/forever
  • 한도가 없는 무제한 세대
  • 완전한 맞춤화 및 제어
  • 모든 커뮤니티 모델 및 LoRA
  • 완전한 개인정보 보호(로컬 처리)
  • GPU 필요(최소 6GB+ VRAM)
  • 기술 설정 필요(30~60분)

DreamStudio

$10/for 1,000 credits

공식 Stability AI 클라우드 서비스

  • 설정이나 하드웨어가 필요하지 않습니다.
  • 최신 공식 SD 모델
  • 간단한 웹 기반 인터페이스
  • 이미지당 최대 5크레딧(이미지 최대 200개)
  • 제한된 사용자 정의 옵션
  • LoRA 또는 ControlNet 지원 없음

Cloud GPU Rental

$0.30-1.00+/per GPU hour

RunPod, Vast.ai, Google Colab 등

  • 로컬 GPU 하드웨어가 필요하지 않습니다.
  • 로컬 설정과 같은 전체 사용자 정의
  • 모든 UI, 모델 또는 워크플로 실행
  • 실제 사용시간에 대해서만 비용 지불
  • 일부 기술 설정이 필요함
  • VRAM은 인스턴스 유형에 따라 다릅니다.

Third-Party Platforms

Varies/subscription or credits

레오나르도, 치비타이, 나이트카페 등

  • 사전 구성된 웹 인터페이스
  • 선별된 모델 라이브러리
  • 커뮤니티 기능 및 공유
  • 로컬 설정보다 쉬움
  • 추가 도구가 포함될 수 있습니다.
  • 플랫폼별 제한 사항이 적용됩니다.

비교

Stable Diffusion vs FLUX

Stable Diffusion과 Flux는 모두 로컬에서 사용할 수 있지만 서로 다른 절충안을 나타냅니다. Flux는 훨씬 더 나은 기본 품질, 텍스트 렌더링 및 사실감을 제공합니다. Stable Diffusion은 커뮤니티 모델, LoRA 및 도구로 구성된 훨씬 더 큰 생태계를 갖추고 있으며 훨씬 저렴한 하드웨어(6GB VRAM의 SD 1.5)에서 실행됩니다.

Stable Diffusion이(가) 뛰어난 점

  • +커뮤니티 모델과 LoRA로 구성된 훨씬 더 큰 생태계
  • +훨씬 낮은 수준의 하드웨어(SD 1.5의 경우 6GB VRAM)에서 실행됩니다.
  • +더 많은 ControlNet 변형 및 확장 옵션
  • +더 많은 튜토리얼과 리소스를 갖춘 대규모 커뮤니티

FLUX이(가) 뛰어난 점

  • +Flux는 훨씬 더 나은 텍스트 렌더링을 제공합니다.
  • +Flux는 조정 없이 더 높은 기본 품질을 생성합니다.
  • +Flux는 더 빠른 접착력과 사실적인 느낌을 제공합니다.
  • +Flux 아키텍처는 계산적으로 더 효율적입니다.

Stable Diffusion vs Midjourney

Stable Diffusion과 Midjourney는 근본적으로 다른 사용자 프로필을 제공합니다. Midjourney는 최소한의 노력으로 아름다운 이미지를 만들어내는 세련된 서비스입니다. Stable Diffusion에는 기술 설정과 지식이 필요하지만 무제한 무료 생성, 완전한 사용자 정의, 완전한 개인 정보 보호 및 콘텐츠 제한이 없습니다.

Stable Diffusion이(가) 뛰어난 점

  • +구독이 필요 없이 완전 무료
  • +사용량 제한이 없는 무제한 세대
  • +완전한 개인 정보 보호 - 모든 처리가 로컬로 유지됩니다.
  • +어떤 스타일에도 어울리는 수천 개의 커뮤니티 모델
  • +콘텐츠 제한 없음(사용자 책임)
  • +ControlNet은 비교할 수 없는 구조적 제어 기능을 제공합니다.

Midjourney이(가) 뛰어난 점

  • +Midjourney는 미학적으로 더욱 세련된 결과를 제공합니다.
  • +Midjourney에는 기술 설정이 필요하지 않습니다.
  • +Midjourney는 간단한 프롬프트로 더 나은 기본 품질을 제공합니다.
  • +중간 스타일/문자 참조가 사용하기 더 쉽습니다.

1. 인터페이스 선택

설치하기 전에 필요에 맞는 인터페이스를 결정하십시오. **Automatic1111 WebUI**: 가장 인기 있는 선택입니다. 광범위한 확장 생태계로 기능이 풍부합니다. 기존 웹 인터페이스에서 포괄적인 기능을 원하는 초보자에게 가장 적합합니다. **ComfyUI**: 노드 기반 워크플로 편집기. 학습 곡선은 더 가파르지만 복잡하고 반복 가능한 생성 파이프라인에서는 훨씬 더 강력합니다. 고급 사용자 및 생산 워크플로를 위한 표준입니다. **Fooocus**: Midjourney의 사용 편의성에서 영감을 받아 단순화된 인터페이스입니다. 자동 최적화를 통한 최소 설정. 학습 곡선 없이 빠르고 쉽게 생성하려는 사용자에게 가장 적합합니다. **Forge**: 속도와 메모리 효율성에 최적화된 Auto1111의 포크입니다. A1111 기능 세트를 원하는 저가형 GPU(8~12GB VRAM) 사용자에게 권장됩니다. 단순함을 원하시면 Fooocus를, 포괄적인 기능을 원하시면 Auto1111을, 고급 워크플로를 원하시면 ComfyUI를, 제한된 하드웨어에서의 성능을 원하시면 Forge를 선택하세요.

2. 로컬 설치(Automatic1111)

**하드웨어 요구 사항:** - 최소 6GB 이상의 VRAM을 갖춘 NVIDIA GPU(편안한 사용을 위해서는 8GB 이상 권장) - Python 3.10.x 설치됨 - Windows, Linux 또는 macOS(MPS를 통해 지원되는 Apple Silicon) **설치 단계:** 1. Python 3.10 및 Git 설치 2. 저장소를 복제하십시오: `git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui` 3. 모델 체크포인트 다운로드(예: Hugging Face의 SDXL 베이스 또는 Civitai의 커뮤니티 모델) 4. .safetensors 모델 파일을 `models/Stable-diffusion/`에 배치합니다. 5. `webui.bat`(Windows) 또는 `webui.sh`(Linux/Mac)를 실행합니다. 6. 브라우저에서 `localhost:7860`을 엽니다. 처음 실행하면 종속 항목이 자동으로 다운로드되며 10~20분 정도 걸릴 수 있습니다. 후속 실행은 훨씬 더 빠릅니다(1분 미만).

3. LoRA 및 커뮤니티 모델 사용

**모델 및 LoRA 찾기:** Civitai.com에서 수천 개의 커뮤니티 제작 모델과 LoRA를 찾아보세요. 기본 모델 호환성(SD 1.5 또는 SDXL), 스타일 카테고리, 인기도별로 필터링합니다. 권장 설정에 대해서는 모델 페이지를 주의 깊게 읽으십시오. **모델 설치:** 1. Civitai 또는 Hugging Face에서 .safetensors 파일을 다운로드합니다. 2. Place checkpoint models in `models/Stable-diffusion/` 3. `models/Lora/`에 LoRA 파일을 배치합니다. 4. UI에서 모델 목록 새로 고침(다시 시작할 필요 없음) **프롬프트에서 LoRA 사용:** 프롬프트에 LoRA 유발 단어와 강도를 추가하세요: `<lora:character_name:0.8>` 숫자는 영향 강도를 제어합니다(대부분의 LoRA에서는 0.5-1.0이 일반적임). **여러 LoRA 결합:** 여러 LoRA를 쌓을 수 있지만 충돌과 품질 저하를 주의하세요. 낮은 가중치(0.3~0.5)로 시작하여 점차적으로 늘립니다. 두 개의 LoRA는 일반적으로 안전합니다. 3개 이상은 세심한 조정이 필요할 수 있습니다.

4. 구조 제어를 위한 ControlNet

ControlNet을 사용하면 참조 이미지를 사용하여 이미지 구조를 정밀하게 제어할 수 있습니다. **컨트롤 유형:** - **Canny/Edge**: 참조 이미지에서 가장자리 윤곽선을 유지합니다. - **깊이**: 3D 공간 관계 및 거리 유지 - **OpenPose**: 인체 포즈 및 제스처 복사 - **스크리블**: 대략적인 손으로 그린 스케치로 가이드 생성 - **세분화**: 의미 지도를 사용하여 지역 콘텐츠 제어 **Automatic1111에서 설정:** 1. 확장 탭에서 ControlNet 확장을 설치합니다. 2. SD 버전(sd15 또는 sdxl)과 일치하는 제어 모델을 다운로드하세요. 3. 'models/ControlNet/' 또는 확장 프로그램의 모델 폴더에 모델 파일을 배치합니다. **기본 작업 흐름:** 참조 이미지 업로드 > 적절한 전처리기 선택(예: 가장자리용 Canny) > 일치하는 제어 모델 선택 > 제어 가중치 조정(0.5-1.0) > 생성 ControlNet은 스타일을 완전히 변경하고, 캐릭터 간에 포즈를 전송하거나, 일련의 이미지에서 일관된 레이아웃을 생성하는 동시에 구성을 유지하는 데 혁신적입니다.

자주 묻는 질문

기본 설정에서 SD 1.5의 경우 최소 6GB VRAM(GTX 1060 6GB). 매일 편안하게 사용하려면 8GB 이상을 권장합니다. SDXL 및 ControlNet에 이상적인 12GB+ VRAM(RTX 3060 12GB, RTX 4070). AMD GPU는 작동하지만 더 복잡한 설정이 필요합니다. Apple Silicon Mac은 MPS 백엔드를 통해 지원됩니다.
SD 1.5: 가장 큰 모델/LoRA 생태계, 저가형 하드웨어에서 실행되며 대부분의 튜토리얼을 사용할 수 있습니다. SDXL: 1024px 해상도에서 훨씬 더 나은 품질, 성장하는 생태계, 12GB+ VRAM을 사용하는 대부분의 신규 사용자에게 권장됩니다. SD3/3.5: 보다 신속한 이해를 제공하는 최신 아키텍처이지만 생태계가 더 작고 라이선스 조건이 다릅니다.
SD 1.5 및 SDXL은 합리적인 제한(불법 콘텐츠 금지, 면책 조항 없는 의학적 조언 등)으로 상업적 사용을 허용하는 CreativeML Open RAIL-M 라이선스를 사용합니다. SD3에는 일부 용도에 대해 상용 라이센스가 필요한 보다 제한적인 라이센스가 있습니다. 사용자 정의 커뮤니티 모델에는 고유한 용어가 있을 수 있습니다. 항상 확인하세요.
예. LoRA 교육에는 피사체에 대한 10~50개의 이미지가 필요하며 Kohya_ss와 같은 도구를 사용하여 소비자 GPU(8GB+ VRAM 권장)에서 수행할 수 있습니다. 교육에는 설정에 따라 30~120분이 소요됩니다. 많은 튜토리얼에서는 훈련 캐릭터, 스타일, 개념 및 개체를 다루고 있습니다.
결과는 사용된 정확한 모델 버전, 적용된 LoRA, 샘플러 선택(Euler, DPM++ 등), CFG 규모, 걸음 수, 시드 값 및 프롬프트 문구에 따라 크게 달라집니다. 권장 설정은 항상 Civitai의 모델 페이지를 확인하세요. 작은 매개변수 변경은 출력 품질과 스타일에 큰 영향을 미칠 수 있습니다.
해결을 위해 업스케일러(ESRGAN, Real-ESRGAN)를 사용하십시오. 기본 고해상도 생성을 위해 Automatic1111에서 Hires.fix를 활성화합니다. 인물 사진에 얼굴 복원(GFPGAN, CodeFormer)을 적용합니다. 반복적인 개선을 위해서는 img2img를 사용하세요. 더 높은 품질의 모델을 사용해 보고, 디테일이 강화된 LoRA를 추가하고, 샘플러 설정을 실험해 보세요.
구형 GPU도 작동할 수 있습니다. SD 1.5는 6GB VRAM 카드에서 실행됩니다. 유능한 GPU가 부족한 경우 클라우드 GPU 서비스(RunPod, Vast.ai, Google Colab 무료 등급)를 사용하거나, 더 나은 메모리 효율성을 위해 Forge UI를 사용하거나, CPU 전용 생성(매우 느리지만 기능적)을 살펴보세요. LCM/Turbo 변형은 제한된 하드웨어에서 더 빠르게 생성됩니다.
부정적인 프롬프트는 생성을 피해야 할 항목을 모델에 알려줍니다. 일반적인 단점: "흐릿함, 낮은 품질, 변형된 손, 여분의 손가락, 나쁜 해부학적 구조, 워터마크." "EasyNegative"와 같은 네거티브 임베딩은 많은 품질 개선 사항을 단일 토큰에 묶습니다. 거의 모든 세대가 기본적인 부정적인 프롬프트로부터 이익을 얻습니다.
Midjourney는 사용하기 쉽고 최소한의 노력으로 더욱 세련된 결과를 제공합니다. Stable Diffusion은 무료이며 무제한이며 완전히 사용자 정의가 가능하며 비공개입니다. SD에는 더 많은 기술 지식이 필요하지만 커뮤니티 모델, ControlNet 및 LoRA를 통해 훨씬 더 많은 유연성을 제공합니다. 많은 진지한 제작자는 두 가지를 모두 사용합니다.
SD 1.5와 SDXL은 텍스트 렌더링 성능이 매우 좋지 않습니다. SD3는 텍스트 처리를 개선했지만 Flux 및 Ideogram보다 여전히 뒤떨어져 있습니다. 이미지의 텍스트를 안정적으로 유지하려면 Flux(최상의 텍스트 렌더링) 또는 Ideogram을 사용하거나 디자인 소프트웨어를 사용하여 후처리에 텍스트를 추가하는 것이 좋습니다.