월 300만 원의 콘텐츠 외주를 AI 에이전트 파이프라인으로 대체한 콘텐츠 마케팅 자동화 프로젝트
B2B 다이렉트 소싱 사업의 리드 제너레이션을 위해 월 300만 원 이상 외주비를 쓰고도 월 5-10건이 최대. 역성장 국면에서 예산을 늘리기 어려운데 인간 외주는 건당 비용 구조라 수량 증가가 비용에 비례하는 한계
내부 온톨로지와 Slack/Notion 데이터에 자유롭게 접근 가능한 AI는 건당 비용 없이 원하는 만큼 빠르게 생산 가능. 발행 건수 증가와 SEO/GEO 검색 유입 확대가 목표
4단계 콘텐츠 파이프라인 구축. content-monitor(Slack/Notion/경쟁사 스캔→스코어링) → content-draft(온톨로지+키워드 전략 기반 SEO/GEO 초안+humanizer) → content-publish(Ghost CMS API 발행) → distributor(LinkedIn/뉴스레터/네이버/브런치/페이스북/블라인드 6채널 자동 배포)
월 300만 원 이상 외주 비용 완전 제거. 발행량 월 10건 유지하되 투입 시간 약 1/10로 단축. 6개 채널 멀티 배포까지 자동화
외주와의 결정적 차이는 내부 데이터 접근. 기존 블로그 학습, Slack/Notion 암묵지의 라이브 데이터 추출, 외부 데이터 조인을 통한 소재 발굴이 핵심. AI native로 성장하는 주요 학습 과정
문제 정의
서치라이트 AI는 B2B 다이렉트 소싱 사업의 리드 제너레이션을 위해 블로그 콘텐츠를 외주로 운영하고 있었다. 월 300만 원 이상을 지출하고 있었지만 실제 발행량은 월 5~10건이 최대였고, 건당 30~60만 원의 비용 구조가 고착된 상태였다. 3분기 연속 역성장 국면에서 콘텐츠 마케팅 예산을 더 늘리기는 어려웠다. 인간 외주는 수량을 늘리면 비용이 비례해서 증가하는 구조적 한계를 갖고 있었기 때문에, 예산을 동결한 채 발행량을 올리는 것은 원천적으로 불가능했다. 비용 대비 효용의 구조적 천장이 핵심 문제였고, 이 구조를 깨지 않는 한 B2B 리드 제너레이션에 필요한 콘텐츠 수량을 확보할 수 없었다.
가설 수립
물론 내부 마케터 채용이나 외주 업체 교체도 고려했으나, 두 가지 모두 건당 비용 구조의 한계를 벗어나지 못한다고 판단했다. 역성장 국면에서 인건비를 고정비로 전환하는 채용은 비현실적이었고, 외주 업체를 바꿔도 도메인 맥락 부족 문제는 반복될 수밖에 없었다. AI는 이 두 가지 제약을 동시에 해결할 수 있었다. 기업 온톨로지와 Slack, Notion 등 내부 소스에 자유롭게 접근할 수 있어 외주보다 파악 가능한 정보량이 압도적이었고, 건당 비용 없이 원하는 만큼 빠르게 생산할 수 있다는 점이 소규모 회사에서는 직원 인건비 대비 큰 메리트였다. 1차 목표는 발행 건수 확보, 2차 목표는 SEO/GEO 에이전트를 통한 검색 유입 확대로 설정했다.
솔루션 도출
콘텐츠 파이프라인을 4단계로 설계했다. 첫 번째, content-monitor가 Slack과 Notion의 내부 대화, 경쟁사 콘텐츠, 업계 뉴스를 스캔하고 스코어링하여 소재를 자동 발굴한다. 두 번째, content-draft가 기업 온톨로지와 키워드 전략을 기반으로 SEO/GEO 최적화된 초안을 작성하고 humanizer로 AI 톤을 제거한다. 세 번째, content-publish가 Ghost CMS Admin API로 직접 발행한다. 네 번째, distributor가 발행된 블로그 URL을 입력받아 LinkedIn, 뉴스레터, 네이버 블로그, 브런치, 페이스북, 블라인드까지 6개 채널에 최적화된 콘텐츠를 자동 생성한다. 핵심 설계 판단은 기존 블로그 콘텐츠를 학습시키고, Slack과 Notion에서 암묵지를 라이브 데이터로 추출하며, 외부 데이터를 조인하여 소재를 발굴하는 구조에 있었다.
결과 & 배운 점
월 300만 원 이상의 외주 비용을 완전히 제거하면서 발행량은 월 10건을 유지했고, 투입 시간은 약 1/10로 단축했다. 더 많이 발행하는 것이 아니라 콘텐츠 하나의 도달 범위를 극대화하는 쪽으로 전략을 잡았다. 수량을 늘리면 노이즈가 되기 때문에, 같은 콘텐츠를 6개 채널에 자동 배포하여 도달 범위를 넓히는 판단이었다.
외주와의 결정적 차이는 내부 데이터 접근에 있었다. 기존 블로그 콘텐츠를 학습시키고, Slack과 Notion에서 팀의 암묵지를 라이브 데이터로 추출하고, 외부 데이터를 조인하여 소재를 발굴하는 것이 이 파이프라인의 핵심 경쟁력이었다. 외주는 도메인 맥락이 없어 검수에 더 많은 시간이 들었지만, 내부 데이터를 학습한 AI는 검수 부담 자체를 줄여주었다. 이 프로젝트는 AX가 단순한 효율화가 아니라 비용 구조 자체를 전환하는 경험이었고, AI native로 성장하는 주요한 학습 과정이었다.
에서의 다른 경험도 살펴보기
Claude Code 세션이 매번 잃어버리는 의사결정 맥락을 자산화하기 위해 5계층 LLM 위키와 의미 검색 레이어를 직접 설계·구축한 1인 인프라 프로젝트
AI 빌더의 프로젝트 포트폴리오와 기업의 AI 인재 탐색을 연결하는 투사이드 플랫폼 기획·설계 프로젝트
WordPress/Ghost VPS 2대를 Claude Code 에이전트로 SSH 관리하는 서버 운영 시스템 — 외주 의존 서버 관리를 내재화