AI가 나를 대신할 수 없는 이유: 온톨로지와 문제 정의
같은 AI를 써도 결과가 다른 이유, 그리고 PM이 쌓아야 할 진짜 해자
전술과 전략을 혼동하지 말 것
AI를 가장 잘 쓰는 사람은 AI에 대해 가장 많이 아는 사람이 아니다. 어떤 문제를 풀어야 하는지 가장 명확하게 아는 사람이다. 이 역설이 불편하게 느껴진다면, 아마 지금까지 도구에 집중해왔기 때문일 것이다. Claude를 쓸지 GPT를 쓸지, Cursor가 나은지 Windsurf가 나은지. 그 선택들이 중요하지 않다는 게 아니다. 다만 그것들은 전술이고, 전략은 다른 곳에 있다. 도구를 잘 고르는 것과 무엇을 만들어야 하는지 아는 것은 전혀 다른 능력이다.
매번 처음부터 설명해야 하는 AI
AI와 일하다 보면 반복되는 불편함이 있다. 세션이 끝나면 맥락이 사라진다. 다음 날 다시 열면 어제 했던 이야기를 처음부터 다시 해야 한다. "우리 회사가 뭐 하는 곳이에요?" "이 고객이 누구예요?" "우리 팀 용어는요?" 이건 AI의 결함이 아니다. 구조적 특성이다. LLM은 컨텍스트 윈도우 안에 있는 것만 참조한다. 세션이 닫히면 그 안에 있던 모든 것이 사라진다. Claude의 컨텍스트 윈도우가 200K 토큰, A4 약 500장 분량이라고 해도, 세션이 끝나면 그 500장은 없어진다.
여기서 온톨로지라는 개념이 등장한다. 온톨로지는 "개념·관계·규칙을 구조적으로 정의한 지식의 지도"다. 단순한 메모나 문서가 아니라, 무엇이 무엇과 어떻게 연결되어 있는가를 기계가 읽을 수 있는 형태로 정의한 것이다. 맥락은 매번 넣어줘야 하지만, 온톨로지는 한 번 구조화하면 에이전트가 스스로 참조하는 영구적인 지식 기반이 된다. 온톨로지 없는 AI는 매번 처음부터 가르쳐야 하는 직원이다. 온톨로지를 갖춘 AI는 맥락을 내재화한 전문 어시스턴트다. 같은 Claude를 쓰더라도, 회사 구조·제품·고객·용어·관계·규칙이 이미 구조화되어 있으면 지시만 하면 된다.
온톨로지를 구성하는 요소는 네 가지다. 개체(Entity), 관계(Relation), 속성(Attribute), 규칙(Rule). 브랜드 디자인 실무를 예로 들면, 브랜드·디자인팀·캠페인·고객이 개체고, "디자인팀은 브랜드를 관리한다"가 관계고, 브랜드 컬러와 톤앤매너가 속성이고, "파스텔 컬러 금지"와 "발행 전 승인 필수"가 규칙이다. AI가 이 그래프를 알면 "배너 만들어줘" 한 마디로 브랜드 컬러·톤·금지 규칙을 모두 자동 반영한다. 물론 온톨로지를 처음부터 완벽하게 설계하려 하면 시작 못 한다. 구조는 설계하는 게 아니라 쓰면서 드러나는 것이다. 일단 쌓기 시작하면 쓸수록 촘촘해진다.
AI에게 기억을 주는 방법: RAG
온톨로지를 구축했다고 해서 AI가 자동으로 그것을 참조하지는 않는다. 연결이 필요하다. 그 연결 방식이 RAG다. RAG(Retrieval-Augmented Generation)는 검색과 생성의 결합이다. LLM의 가장 큰 약점은 학습 데이터 이후의 정보를 모른다는 것이다. 내 회사 내부 문서, 개인 메모, 최신 자료는 처음부터 학습된 적이 없다. RAG는 이 문제를 이렇게 해결한다. 질문이 들어오면 먼저 관련 문서를 벡터DB에서 검색해서 컨텍스트에 넣고, 그 내용을 바탕으로 답변을 생성한다. RAG 없는 AI는 학습된 것만 안다. RAG 있는 AI는 내 문서를 실시간으로 검색해서 답변하고, 출처도 함께 제시한다. 온톨로지로 구조화하고, 벡터DB에 저장하고, RAG로 검색하면 내 지식이 AI의 장기기억이 된다.
이 구조에서 Obsidian이 주목받는 이유가 있다. 모든 노트가 마크다운 파일로 저장되고, [[링크]]로 노트끼리 연결하면 지식 그래프가 자동으로 만들어진다. Notion은 API로 변환해야 AI가 읽을 수 있지만, Obsidian은 파일 시스템에서 직접 접근 가능하다. LLM이 가장 잘 이해하는 포맷이 마크다운이기 때문이다. [[고객사A]]에서 [[프로젝트X]]로 링크를 걸면, AI가 "고객사A는 프로젝트X와 연결됨"을 자동으로 파악한다. 온톨로지의 관계(Relation)가 링크 하나로 정의된다. 별도 스키마 설계 없이 쌓이는 구조다. 링크를 따라가며 관련 노트를 연쇄 검색하고, 온톨로지가 촘촘할수록 답변 품질이 올라간다.
어쩌면 Notion이 더 편하다고 느낄 수도 있다. 팀 협업과 프로젝트 관리에는 Notion이 강하다. 다만 개인 지식 축적과 AI RAG 연동에는 Obsidian이 강하다. 둘 다 쓰는 것도 좋은 전략이다. Notion으로 팀 작업하고, Obsidian에 나만의 온톨로지를 쌓는 방식이다.
모델은 상향 평준화된다: RLHF에서 RLVR로
지금 AI 학습 패러다임에 중요한 전환이 일어나고 있다. RLHF(Reinforcement Learning from Human Feedback)는 사람이 AI 출력물을 보고 "이게 더 좋다"고 선택하면 그 선호를 학습하는 방식이다. ChatGPT와 Claude 초기 학습의 핵심이었다. 한계는 명확하다. 사람의 주관에 의존하고, 느리고 비싸고, 검증 기준이 모호하다. RLVR(Reinforcement Learning from Verifiable Rewards)은 다르다. 검증 가능한 결과로 학습한다. 코드가 실제로 실행되는지, 수학 답이 맞는지, 테스트를 통과하는지. 객관적 기준으로 자동 평가한다. DeepSeek·o1·Gemini 2.5의 급격한 추론 능력 향상이 이 방식의 결과다. 사람 없이도 대규모 자기개선이 가능해졌다.
RLVR 기반 모델은 범용 능력이 빠르게 상향 평준화된다. 누구나 같은 Claude, 같은 GPT를 쓴다. 그러나 같은 모델에 어떤 컨텍스트·온톨로지를 결합하느냐는 완전히 다른 결과를 만들고, 이 차이는 시간이 지날수록 복리로 벌어진다. 모델은 공유된다. 온톨로지는 나만의 것이다. 같은 AI를 써도 결과가 다른 이유가 여기 있다. 잘 구축된 온톨로지는 조직의 암묵지를 명시지로 전환하는 작업이기도 하다. AI가 없어도 가치 있고, AI와 결합하면 레버리지가 극대화된다. 에이전트가 틀릴 때마다 온톨로지를 갱신하면 같은 실수를 반복하지 않는다. RLVR이 모델을 자동 개선하듯, 이 피드백 루프가 나의 AI를 개선한다.
Wharton의 Ethan Mollick 교수는 이것을 "조직 학습 속도(Organizational Learning Velocity)"라고 부른다. 실험-실패-개선 사이클을 얼마나 빠르게 돌리느냐가 6개월 후의 격차를 만든다. 도구는 공유되지만 학습 속도는 공유되지 않는다.
결국, 도구가 아니라 문제 정의다
AI 능력 자체는 해자가 아니다. 전문가들이 공통으로 동의하는 것이 이것이다. Sequoia와 a16z는 독점 데이터와 네트워크 효과를 말하고, Peter Thiel은 경쟁하지 않는 독점을 말하고, Marc Andreessen은 배포 능력을 말하고, Sam Altman은 신뢰와 관계를 말한다. 표현은 다르지만 핵심은 같다. AI를 잘 쓰는 것 자체는 해자가 되지 않는다. 그렇다면 무엇이 남는가.
PM으로서 AI를 쓰는 이유를 생각해보면 답이 보인다. 가설 검증 속도다. 좋은 문제 정의가 좋은 프롬프트를 만들고, 좋은 프롬프트가 좋은 결과를 만든다. 반대로 잘못 정의된 문제를 빠르게 푸는 것은 오히려 더 빠르게 잘못된 방향으로 가는 것이다. AI는 주어진 문제를 잘 푼다. 하지만 어떤 문제를 풀어야 하는지는 사람이 정해야 한다. 문제 정의 능력은 도메인 전문성과 사용자 공감, 현실 감각의 합이다. 수년의 경험에서 나오는 것이고, AI가 대체할 수 없다. "더 빠른 마차"가 아니라 "자동차"를 상상하는 것이 문제 정의다.
도구는 바뀐다. 6개월 전에 개발자만 할 수 있던 일을 지금은 비개발자도 한다. 6개월 후에는 더 많은 사람이 한다. 빠르게 만드는 능력 자체는 곧 차별점이 되지 않는다. 온톨로지가 해자가 되려면 남이 접근 못하는 데이터·경험·관계와 결합될 때다. 그리고 그 데이터와 경험과 관계는 결국 어떤 문제를 어떻게 정의했느냐에서 나온다. AI 시대의 경쟁 우위란 더 좋은 도구를 먼저 쓰는 것이 아니라, 더 좋은 질문을 먼저 던지는 것이다.