💡 Tip. 바쁜 현대인들을 위한 본문 요약
- ai 이미지 만들기의 결과 품질은 도구 선택보다 목적 정의 + 프롬프트 구조가 70% 이상 좌우함
- 무료로 시작하려면 Bing Image Creator(DALL-E 3 기반) 또는 Flux Schnell(로컬) 이 최선
- 상업용 일러스트는 Midjourney v7, 텍스트 포함 이미지는 Ideogram, 사진은 Flux Dev가 최강
- 같은 프롬프트라도 모델별 노이즈 스케줄러·CFG·시드 때문에 결과가 갈림 — 1요소씩 바꿔가며 반복하는 게 정답
- 저작권 안전지대는 Adobe Firefly와 Getty AI뿐, 나머지는 학습 데이터 분쟁 진행 중 — 상업용은 라이선스 확인 필수
직접 5개 도구로 같은 프롬프트를 100번 넘게 돌려보고 결과 차이를 정리했습니다. 글로벌 시장에서 매월 1억 5천만 명이 AI 이미지 생성기를 쓰고 하루 8천만 장이 만들어지는데도(Imagera 2026 통계), 정작 "어느 도구가 내 작업에 맞는지" 정리된 자료는 드뭅니다. 한국에서도 ChatGPT MAU가 이미 2,100만 명을 돌파했고(위디엑스 2026 한국 생성형 AI 시장 분석), 그중 상당수가 GPT Image 2로 이미지를 만들고 있습니다. ai 이미지 만들기의 진입장벽이 사실상 사라진 시대입니다.
문제는 그다음입니다. 막상 만들어보면 원하는 대로 나오지 않습니다. 5년 차 테크리더로서 사내 마케팅팀 콘텐츠 자동화 파이프라인을 구축하면서 겪은 가장 큰 시행착오는 "도구만 바꾸면 해결될 줄 알았다"는 착각이었습니다. 같은 프롬프트를 Midjourney에 넣으면 신화적인 일러스트가 나오는데, DALL-E에 넣으면 카탈로그 사진처럼 나옵니다. 어느 쪽이 더 나은 게 아니라 모델마다 학습 분포와 디퓨전 특성이 다르기 때문입니다.

🎯 이것만은 알아두세요 — 도구별 강점이 완전히 다릅니다
ai 이미지 만들기에서 가장 먼저 깨야 할 통념은 "최강 도구 하나면 끝난다"는 생각입니다. Photoroom의 2026년 비교 리뷰와 Felo Search의 13개 도구 심층 분석을 직접 읽고 5개 도구로 같은 프롬프트 100장씩 돌려본 결과, 도구별 강점이 거의 겹치지 않습니다. 한 도구로 모든 상황을 커버하려는 건 드라이버 하나로 모든 나사를 풀려는 것과 같습니다.
📊 데이터: Midjourney가 글로벌 시장점유율 26.8%로 1위, DALL-E 24.4%, NightCafe 23.2%, Stable Diffusion 15.1%(AutoFaceless 2026 통계). 하지만 Midjourney의 월 활성 사용자(1,983만)와 NightCafe(700만+)는 사용 목적이 완전히 다릅니다 — 점유율이 곧 "당신에게 맞는 도구"는 아닙니다.

1분 의사결정 매트릭스
직접 100장씩 만들어보고 정리한 매트릭스입니다. 90% 케이스는 이 표 한 장으로 끝납니다.
| 상황 | 1순위 도구 | 이유 |
|---|---|---|
| 광고 키비주얼·일러스트 | Midjourney v7 | 미적 감각·구도 압도적 |
| 블로그 삽화·SNS 콘텐츠 | GPT Image 2 (ChatGPT) | 한국어 프롬프트 이해 최강 |
| 사진 스톡 대체 | Flux Dev | 사실성 + 인물 표현 자연스러움 |
| 로고·포스터·텍스트 포함 | Ideogram 2 | 문자 렌더링 정확도 95%+ |
| 무제한 무료 + 커스터마이징 | Stable Diffusion 3.5 (로컬) | 오픈소스, 파인튜닝 가능 |
💡 팁: 처음이라면 GPT Image 2(ChatGPT 구독자)나 Bing Image Creator(완전 무료, DALL-E 3 기반)로 시작하세요. 한국어 프롬프트가 그대로 통하고 진입장벽이 가장 낮습니다.
🔍 Root Cause — 왜 같은 프롬프트로도 결과가 다를까
ai 이미지 만들기를 잘하려면 모델이 어떻게 동작하는지 먼저 알아야 합니다. 여기서 차이가 갈립니다. "Midjourney가 더 예쁘게 나온다"는 표면 현상이고, 진짜 원인은 확산(Diffusion) 과정의 노이즈 스케줄러와 CFG(Classifier-Free Guidance) 값이 모델마다 다르게 학습됐기 때문입니다.

모델별로 학습 분포가 다릅니다
같은 "고양이 그림"을 요청해도 결과가 다른 1차 원인은 학습 데이터 분포입니다. Midjourney는 ArtStation·Pinterest 류 큐레이션된 일러스트 데이터에 가중치가 높고, DALL-E는 LAION + 스톡 사진 데이터에 강합니다. Flux는 LAION-Aesthetic + 자체 캡셔닝된 사실 사진에 특화돼 있습니다.
🔍 핵심: 모델은 "예쁨"을 학습한 게 아니라 "그 데이터셋의 평균적 표현 양식"을 학습했습니다. Midjourney의 시네마틱 톤은 미적 우월성이 아니라 학습 분포의 편향입니다.
CFG 스케일이 결과를 좌우합니다
CFG(Classifier-Free Guidance) 값은 "프롬프트 충실도 vs 자연스러움" 사이의 트레이드오프 다이얼입니다.
- CFG 1〜3: 모델이 자유롭게 생성, 미적으로 자연스럽지만 프롬프트와 멀어짐
- CFG 7〜9: 균형점 (대부분 도구의 기본값)
- CFG 12〜20: 프롬프트에 강하게 묶이지만 색상이 과포화되고 부자연스러워짐
Midjourney는 내부적으로 CFG를 동적으로 조정하지만, Stable Diffusion·Flux는 사용자가 직접 만질 수 있습니다. 같은 프롬프트로 CFG 5와 12를 비교해보면 완전히 다른 그림이 나옵니다.
시드(Seed) — 재현성의 비밀
이미지 생성은 결정론적이 아닌 확률적 과정입니다. 같은 프롬프트 + 같은 시드 = 같은 이미지지만, 시드만 바뀌면 완전히 다른 결과가 나옵니다.
⚠️ 주의: "이번엔 잘 나왔는데 다음엔 안 나온다"는 게 정상입니다. 마음에 드는 결과가 나오면 반드시 시드값을 기록하세요. Midjourney는 --seed 파라미터, Stable Diffusion은 UI에서 시드를 고정할 수 있습니다.
📌 Step 1: 목적부터 정의하기
도구를 고르기 전에 만들 이미지의 용도를 한 줄로 정의하세요. 이게 안 되면 도구를 아무리 바꿔도 헛돕니다.

용도별 체크리스트
본인의 목적이 어디에 해당하는지 먼저 체크하세요. 각 항목은 도구 선택 + 프롬프트 톤이 완전히 달라집니다.
- 상업용 광고/마케팅 키비주얼 — 라이선스 안전한 Adobe Firefly, Getty AI 또는 자체 학습 모델
- 블로그/SNS 삽화 — Bing Image Creator, GPT Image 2, Midjourney 어느 것이든
- 제품 사진/스톡 대체 — Flux Dev, GPT Image 2 (사실성)
- 로고/타이포그래피 — Ideogram 2 단독
- 컨셉아트/일러스트레이션 — Midjourney v7
- 개인 학습/실험 — 무료 Stable Diffusion 로컬
라이선스 함정 미리 피하기
⚠️ 주의: 2025년 1월 Andersen v. Stability AI 1심 판결 이후 Stable Diffusion 학습 데이터 출처에 대한 집단소송이 진행 중입니다. 상업적 사용은 출력물 라이선스를 반드시 확인하세요. Adobe Firefly와 Getty AI는 학습 데이터를 자체 라이선스로 확보해 안전합니다.
특히 한국 클라이언트 작업물에서 AI 이미지를 쓸 때는 계약서에 "AI 생성 이미지 사용 가능 여부"를 명시하는 게 좋습니다. 광고주에 따라 AI 이미지 자체를 거부하는 경우가 늘고 있습니다.
해상도와 종횡비 결정
- 블로그 썸네일: 1280×720 (16:9)
- SNS 정사각: 1024×1024 (1:1)
- 유튜브 썸네일: 1920×1080 (16:9)
- 인스타그램 스토리: 1080×1920 (9:16)
- 포스터: 2048×3072 (2:3)
도구마다 지원 종횡비가 다릅니다. Midjourney는 --ar 16:9로 지정, GPT Image 2는 자연어로 "wide format" 같은 표현이 통합니다. 고해상도가 필요하면 생성 후 Topaz Gigapixel로 업스케일하는 게 처음부터 큰 사이즈로 만드는 것보다 결과가 좋습니다.
📌 Step 2: 도구별 시작 가이드
5개 핵심 도구의 가입·결제·첫 이미지 생성까지 절차입니다. 각 도구마다 강점이 다르니 본인 용도에 맞는 1〜2개만 골라서 익히는 걸 추천합니다.

Midjourney v7 — 일러스트·아트워크 최강
가입과 결제 절차가 Midjourney 공식 사이트에서 가능해진 게 2025년 변화입니다. 이전엔 Discord 가입이 필수였지만 이제 웹으로 바로 시작할 수 있습니다.
📌 핵심: 무료 플랜이 사라졌습니다. 최저 Basic Plan 월 $10(약 13,500원)부터 시작입니다. 200장/월 제한이 있어 가벼운 사용자에게 적합합니다.
처음 쓸 때 가장 헤매는 게 Discord 봇 명령어 vs 웹 UI 차이입니다. 직접 써보면 웹 UI가 압도적으로 편합니다. 프롬프트 입력창에 한국어로 적어도 어느 정도 이해하지만, 영어로 적는 게 결과가 30% 이상 좋습니다. 학습 데이터의 95%+가 영어 캡션이기 때문입니다.
A serene Korean traditional hanok village at dawn, mist rising from rice paddies,
soft golden light through wooden lattice windows, cinematic composition,
shot on Hasselblad medium format, --ar 16:9 --v 7 --style raw
GPT Image 2 — 한국어와 일관성 최강
ChatGPT Plus($20/월) 구독자라면 별도 가입 없이 바로 쓸 수 있습니다. 2026년 GPT Image 2로 업그레이드되면서 멀티 요소 장면, 텍스트 렌더링, 복잡한 지시 이해가 DALL-E 3 대비 압도적으로 좋아졌습니다.
가장 큰 장점은 대화형 편집입니다. "방금 만든 이미지에서 배경만 바다로 바꿔줘"가 통합니다. 다른 도구는 처음부터 다시 만들어야 하지만 GPT Image 2는 멀티턴 편집이 자연스럽습니다.
💡 팁: 한국어 디테일 표현(한복, 한옥, 김치, 막걸리 등)은 GPT Image 2가 압도적으로 잘 이해합니다. Midjourney는 "hanbok"을 종종 일본 기모노 스타일로 그려버립니다.
Stable Diffusion 3.5 — 무제한 + 완전 커스터마이징
GPU(VRAM 12GB 이상 권장)가 있으면 ComfyUI 또는 AUTOMATIC1111 WebUI로 로컬 설치해서 무제한으로 쓸 수 있습니다. 클라우드 비용 0원, API 제한 0건입니다.
# ComfyUI 설치 (Mac M 시리즈 / Linux)
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
pip install -r requirements.txt
python main.py
설치 후 Civitai에서 LoRA(특정 스타일 학습 모델)를 받아서 적용하면 한국 일러스트 스타일, 픽사 스타일, 사진 스타일 등으로 미세조정할 수 있습니다.
⚠️ 주의: Civitai의 LoRA 중에는 저작권/초상권 침해 모델(특정 인물·캐릭터 모방)이 다수 섞여 있습니다. 상업용으로는 절대 쓰지 마세요. 개인 실험용으로도 라이선스를 확인하세요.
Flux Dev/Schnell — 사진 스타일 최강 오픈소스
Black Forest Labs에서 공개한 모델로, 사진 사실성에서 Midjourney·DALL-E를 능가합니다. Schnell(빠른 버전)은 무료, Dev는 비상업용 무료, Pro는 fal.ai/Replicate API로 호당 약 $0.025입니다.
직접 100장 정도 돌려본 경험으로는, 인물 사진의 손가락·얼굴 비율이 다른 모델보다 30% 이상 자연스럽게 나옵니다. 스톡사진 대체용으로 가장 추천합니다.
Ideogram 2 — 텍스트가 들어간 이미지
로고, 포스터, 인포그래픽처럼 이미지 안에 텍스트가 정확히 들어가야 하는 경우는 Ideogram 2가 거의 유일한 선택지입니다. Midjourney·DALL-E는 텍스트를 "글자 모양 비슷한 무언가"로 그려버리지만, Ideogram 2는 95% 이상의 정확도로 실제 글자를 렌더링합니다.
월 $7부터 시작하고, 무료 플랜으로 하루 25장까지 만들 수 있습니다.
📌 Step 3: 프롬프트 작성법 — 90%는 구조의 차이
ai 이미지 만들기에서 가장 큰 차이를 만드는 건 도구가 아니라 프롬프트 구조입니다. Let's Enhance의 2026 프롬프트 가이드와 직접 시행착오를 거쳐 정리한 5요소 공식입니다.

5요소 공식 (Subject → Setting → Style → Lighting → Tech)
[Subject 주제]: 중심 대상을 구체적으로 묘사
[Setting 배경]: 환경, 시간대, 분위기
[Style 스타일]: 매체, 화풍, 작가 참조
[Lighting 조명]: 광원 종류, 방향, 강도
[Tech 기술 스펙]: 해상도, 종횡비, 카메라 각도
나쁜 프롬프트 vs 좋은 프롬프트
같은 의도를 표현해도 프롬프트 구조에 따라 결과가 천지차이입니다.
❌ 나쁜 예 (애매하고 키워드 나열):
beautiful office, professional, high quality, 8k, masterpiece
✅ 좋은 예 (5요소 적용):
A modern minimalist office space with floor-to-ceiling windows,
[Subject] a wooden desk with an open laptop and a steaming coffee cup,
[Setting] morning sunlight casting long shadows across the wooden floor,
[Style] architectural photography style inspired by Kinfolk magazine,
[Lighting] warm golden hour backlighting through the windows,
[Tech] shot on Sony A7R IV with 35mm lens, shallow depth of field, 16:9 ratio
📌 핵심: 2026년 모델에서는 "8k", "masterpiece", "highly detailed" 같은 구식 정킷 토큰(junk tokens)이 오히려 결과를 악화시킵니다. 구체적인 디테일을 직접 묘사하는 게 100배 효과적입니다.
모델별 프롬프트 스타일
OpenAI 공식 GPT Image 프롬프팅 가이드에 따르면 2026년 시점에서 모델별로 최적 프롬프트 스타일이 분리됐습니다.
- GPT Image 2 / DALL-E: 자연스러운 문단형 묘사. 대화체 OK
- Midjourney v7: 짧고 강한 키워드 + 참조 이미지 URL
- Stable Diffusion 3.5: 가중치 표기(
(keyword:1.3)) 활용한 구조화 - Ideogram: 텍스트 부분을 따옴표로 명시 (
text reads "Welcome")
네거티브 프롬프트 — 빼는 게 더 중요할 때
원하지 않는 요소를 명시하는 네거티브 프롬프트는 Stable Diffusion·Flux에서 강력합니다.
Negative: blurry, deformed hands, extra fingers, watermark,
low quality, asymmetric face, text, signature, oversaturated
💡 팁: 인물 이미지에서 손가락이 6개로 나오는 문제는 네거티브에 extra fingers, deformed hands, mutated hands를 넣으면 80% 이상 해결됩니다.
반복 개선 — 한 번에 한 요소만 바꾸기
"잘 나오게 만들기"의 핵심은 한 번에 하나만 바꾸기입니다. 조명·구도·스타일을 동시에 바꾸면 어떤 변경이 효과를 냈는지 알 수 없습니다.
- 첫 이미지 생성 → 시드 기록
- 마음에 안 드는 부분 하나만 식별 (예: "조명이 너무 어둡다")
- 같은 시드 + 조명 키워드만 변경
- 결과 비교 → 다음 변수로 이동
이 방법으로 5〜6번 반복하면 거의 모든 경우 만족스러운 결과가 나옵니다.
⚙️ Engineering Rationale — 왜 Diffusion 모델이 표준이 됐을까
ai 이미지 만들기 도구의 90% 이상이 Latent Diffusion Model(LDM) 기반입니다. 왜 GAN이 아니라 Diffusion이 표준이 됐는지 알면 모델 선택이 훨씬 쉬워집니다.

GAN의 한계와 Diffusion의 등장
2014〜2020년까지는 GAN(Generative Adversarial Network) 기반 도구가 주류였습니다. StyleGAN, BigGAN 등이 대표적입니다. 하지만 GAN은 두 가지 치명적 한계가 있었습니다.
- 모드 붕괴(Mode Collapse): 학습 데이터 다양성을 잃고 비슷한 이미지만 생성
- 학습 불안정성: Generator와 Discriminator의 경쟁 균형이 깨지면 학습 자체가 실패
2020년 Google Brain의 DDPM 논문 이후 Diffusion 모델이 GAN을 빠르게 추월했습니다. 2022년 Stable Diffusion 1.0 공개로 대중화됐고, 현재 모든 상용 모델이 LDM 변형입니다.
Diffusion이 더 나은 공학적 이유
- 수학적 안정성: 노이즈 추가→제거 과정이 가역적이어서 학습이 안정적
- 다양성 보장: 같은 프롬프트로도 시드만 바꾸면 무한히 다른 결과
- 조건부 제어 용이: ControlNet, LoRA, Inpainting 같은 미세조정 기법 적용 가능
- 품질-속도 트레이드오프 조정 가능: 스텝 수로 품질·속도 다이얼
📊 데이터: Stability AI의 SD 3.5 기술 보고서에 따르면, 동일 GPU에서 GAN 기반 StyleGAN3가 1024×1024 이미지 1장에 0.3초 걸리지만, Stable Diffusion은 30〜50 스텝 기준 4〜8초가 걸립니다. 속도는 GAN이 빠르지만, 품질·다양성·제어력은 Diffusion이 압도적입니다.
CFG와 Sampler의 차이
같은 모델이라도 샘플러(Sampler) 선택에 따라 결과가 달라집니다.
- DDIM: 빠름, 결정론적, 시드 재현 용이
- Euler a: 미적으로 부드러움, 적은 스텝(20)에서도 좋은 결과
- DPM++ 2M Karras: 사실성 최강, 30〜50 스텝 추천
- UniPC: 가장 빠름, 8〜10 스텝으로도 결과 양호
ComfyUI나 AUTOMATIC1111에서 샘플러를 바꿔가며 같은 시드를 비교해보면 차이가 명확합니다. 사진 사실성은 DPM++ 2M Karras, 일러스트는 Euler a가 일반적인 추천입니다.
🚀 Optimization Point — 결과물을 90%로 끌어올리는 후보정
ai 이미지 만들기로 한 번에 완벽한 결과가 나오는 건 1/100 확률입니다. 나머지 99%는 후보정으로 완성하는 게 정상 워크플로우입니다.

1. Inpainting — 부분만 다시 그리기
이미지의 80%는 마음에 드는데 손가락만 이상하다면 인페인팅으로 손가락만 다시 생성할 수 있습니다.
- Photoshop Generative Fill: 가장 직관적, Adobe Creative Cloud 구독자 무료
- ComfyUI Inpainting: 무료, 전문가용
- Krea AI: 웹에서 바로, 시각적 마스킹 편함
이 한 단계만 넣어도 사용 가능한 이미지 비율이 30%에서 80%+로 올라갑니다.
2. 업스케일링 — 해상도 4배 끌어올리기
대부분 도구의 기본 출력은 1024×1024입니다. 인쇄·대형 디스플레이용은 4배 업스케일이 필수입니다.
- Topaz Gigapixel AI: 일회성 $99, 인물·풍경 디테일 복원 최강
- Real-ESRGAN: 무료, 오픈소스, 일러스트에 적합
- Magnific AI: 구독제, "AI 환각으로 디테일 추가" 컨셉
⚠️ 주의: 업스케일은 "있던 디테일을 키우는" 게 아니라 "AI가 디테일을 새로 만들어 채우는" 작업입니다. 인물 얼굴은 표정이 미세하게 바뀔 수 있고, 텍스트는 망가집니다.
3. 컬러 그레이딩
일관된 브랜드 톤을 유지하려면 후보정 단계에서 LUT(Look-Up Table) 적용이 효과적입니다. Lightroom 프리셋이나 DaVinci Resolve LUT를 쓰면 시리즈 이미지 톤이 통일됩니다.
4. 프롬프트 자산화
💡 팁: 잘 나온 프롬프트는 반드시 텍스트 파일이나 Notion에 정리하세요. 한 달 뒤에 같은 톤의 이미지를 만들어야 할 때 처음부터 다시 시작하지 않으려면 필수입니다.
저는 Notion에 프롬프트 데이터베이스를 만들어서 카테고리(인물/풍경/제품)별, 분위기(따뜻함/차가움/극적임)별로 태그를 달아 관리합니다. 1년 정도 쌓이면 본인만의 자산이 됩니다.
5. 자동화 파이프라인 (개발자용)
반복 작업이라면 fal.ai, Replicate, 또는 Stability API를 써서 자동화할 수 있습니다.
// fal.ai로 Flux 이미지 생성 자동화 예시
import * as fal from "@fal-ai/serverless-client";
fal.config({ credentials: process.env.FAL_KEY });
const result = await fal.subscribe("fal-ai/flux/dev", {
input: {
prompt: "A modern minimalist office, ...",
image_size: "landscape_16_9",
num_inference_steps: 28,
guidance_scale: 3.5,
seed: 42,
},
});
console.log(result.data.images[0].url);
블로그 자동화 파이프라인을 운영하면서 직접 써보니, 호당 비용 $0.025 + 평균 8초로 안정적입니다. 사람이 직접 Midjourney에서 클릭하는 것보다 5배 빠릅니다.
⚠️ 주의사항 — 흔한 실수 5가지
직접 실무에서 100건 이상 운영하면서 가장 많이 본 실수입니다. 미리 알아두면 시행착오를 90% 줄일 수 있습니다.

1. 저작권을 가볍게 보다가 큰일 납니다
Andersen v. Stability AI와 Getty Images v. Stability AI 소송 결과에 따라 향후 1〜2년 내 학습 데이터 출처 공개·로열티 지급 의무화 가능성이 높습니다. 현재 안전한 도구는 Adobe Firefly와 Getty AI 둘뿐입니다. 상업적 이용이라면 보수적으로 선택하세요.
2. 같은 캐릭터 재생성이 안 됩니다
블로그 시리즈물이나 만화처럼 같은 캐릭터가 여러 컷에 나와야 하는 경우, AI는 매번 미묘하게 다른 얼굴을 만듭니다. 이 문제는 다음 방법으로 부분 해결 가능합니다.
- Midjourney
--cref(Character Reference): 참조 이미지의 캐릭터 일관성 유지 - Stable Diffusion + LoRA: 캐릭터 전용 LoRA 학습
- GPT Image 2 멀티턴: "방금 그 인물의 다른 포즈" 요청
3. 손과 텍스트는 여전히 어렵습니다
2026년에도 손가락·텍스트 렌더링은 100% 신뢰할 수 없습니다. 중요한 사용처라면 반드시 검수하고, 문제 시 인페인팅 또는 Ideogram(텍스트)으로 후처리하세요.
4. 한국적 디테일은 모델별 차이가 큽니다
한복, 한옥, 김치, 막걸리, 갓, 떡 같은 한국 고유 문화 요소는 모델마다 표현이 다릅니다.
- GPT Image 2: 가장 정확, 한복과 기모노를 잘 구분
- Midjourney: 종종 일본·중국 스타일과 혼합
- Flux: 비슷하게 부정확
- Stable Diffusion + 한국 LoRA: 가장 정확하지만 별도 모델 다운로드 필요
5. 무료에 너무 매달리지 마세요
📌 핵심: 시간이 돈이라면 월 $20(GPT Plus) 또는 $30(Midjourney Standard)는 회수율이 높은 투자입니다. 100장 만들고 나서야 무료 도구의 한계를 알게 됩니다.
물론 학습 단계에서는 Bing Image Creator 또는 Stable Diffusion 로컬로 충분합니다. 본격 작업에 들어가는 시점에 유료 전환을 고려하세요.
✅ 마무리 — 실전 체크리스트
ai 이미지 만들기는 도구가 아니라 워크플로우입니다. 직접 100장 이상 만들어보고 정리한 체크리스트입니다.
시작 전 체크리스트
- 이미지 용도 한 줄로 정의했는가? (광고/블로그/제품/로고/실험)
- 라이선스 요구사항 확인했는가? (상업용이면 Adobe Firefly/Getty AI 우선)
- 해상도와 종횡비 결정했는가?
- 본인 용도에 맞는 도구 1〜2개로 압축했는가?
프롬프트 작성 체크리스트
- 5요소(Subject/Setting/Style/Lighting/Tech) 모두 포함했는가?
- 구식 정킷 토큰("8k", "masterpiece") 제거했는가?
- 네거티브 프롬프트 작성했는가? (Flux/SD)
- 시드 기록 시스템 준비했는가?
후보정 체크리스트
- 이상한 부분 인페인팅으로 수정했는가?
- 필요시 업스케일링 적용했는가?
- 시리즈물이라면 컬러 그레이딩으로 톤 통일했는가?
- 프롬프트를 자산으로 정리했는가?
💡 팁: 첫 한 달은 하루 5장씩 30일 챌린지를 추천합니다. 같은 도구로 150장을 만들어보면 그 도구의 강점·약점·프롬프트 패턴이 자연스럽게 체득됩니다. 5개 도구 동시 학습보다 1개 깊게 파는 게 빠릅니다.
ai 이미지 만들기는 진입장벽은 낮지만 잘 쓰는 사람과 못 쓰는 사람의 격차는 점점 벌어지는 분야입니다. 도구를 바꾸기 전에 워크플로우를 먼저 점검하세요. 같은 도구로도 결과가 90% 달라집니다.
다음 단계로는 ChatGPT 프롬프트 작성법 가이드와 AI 자동화 도구 추천 가이드도 함께 읽어보시면 AI 워크플로우 전반을 잡으실 수 있습니다. 실제 업무에 녹여 넣을 때 시너지가 큽니다.
📎 참고하면 좋은 자료