AI 플러그인 덕분에 옵시디언이 다시 주목받고 있습니다. 그런데 저는 반대로 생각합니다. AI가 옵시디언을 완성시킨 게 아니라, 옵시디언이 왜 필요한지를 없애버렸습니다.
옵시디언의 원형은 독일의 제텔카스텐입니다. 종이쪼가리에 메모를 하고 상자에 분류해 쌓아두는, PC 이전의 지식 관리법이죠. 파편화된 정보들이 쌓이면 메모 간의 연결고리가 생기고, 그 네트워크에서 통찰을 뽑아낸다는 개념입니다.
옵시디언 그래프 뷰를 처음 켰을 때의 쾌감은 상당합니다. 배경화면으로 쓰기엔 정말 예쁘죠.
문제는 그다음부터입니다.
연결고리는 자동으로 생기지 않습니다. 키워드마다 [[]]를 직접 감싸줘야 비로소 연결이 됩니다. 철자 하나, 폰트 하나 달라도 다른 단어로 인식되기 때문에 서식 통일에 늘 신경을 써야 하죠. 메모를 생성하는 시간보다 관리하는 시간이 더 많이 듭니다. 이쯤 되면 지식을 쌓는 건지 서식을 쌓는 건지 헷갈립니다.
그래서 AI 플러그인이 구원처럼 등장했습니다. 자동으로 노드와 링크를 만들어주고, 요약해주고, 관련 메모를 찾아줍니다. 커뮤니티는 열광했죠. 드디어 옵시디언이 완성됐다고.
그래서 저도 오랜만에 옵시디언으로 돌아왔습니다. AI를 사용해서 효율적인 지식관리를 할 수 있지 않을까 하는 마음에 말이죠.
그러나 얼마 지나지 않아 치명적인 문제가 존재함을 발견했습니다.
AI가 채운 노드는 출처 검증을 거치지 않습니다. 할루시네이션이 일상적인 도구에게 지식 아카이브 구축을 맡기는 셈이죠. 최선의 선택도 선택지 전체가 부실하면 의미가 없습니다. 썩은 사과들 중 가장 그럴듯한 연결을 찾아봤자, 그나마 덜 썩은 것을 고르는 것과 다르지 않습니다.
노드가 충분히 많으면 오차가 상쇄되지 않겠냐고 물을 수 있습니다. 그런데 옵시디언 노드는 원본의 열화판입니다. 읽고, 요약하고, 링크를 다는 과정에서 맥락이 빠지고 오류가 끼어듭니다. 원본이 100이라면 노드는 아무리 잘 써도 그보다 적습니다. AI가 그 노드를 다시 처리하면 한 번 더 열화되죠. 게다가 오차가 상쇄되려면 그 오차가 무작위로 분포해야 합니다. AI 할루시네이션과 사용자의 관심사 편향은 무작위가 아닙니다. 데이터가 늘어도 상쇄되지 않고 같은 방향으로 누적됩니다.
그러면 보기에 그럴듯한 네트워크가 만들어집니다. 그래프는 촘촘하고 링크는 많습니다. 그런데 보기에 그럴듯한 것과 믿을 수 있는 것은 다릅니다. 검증되지 않은 노드들로 가득 찬 네트워크는 지식을 반영하는 게 아니라 지식의 외형을 흉내 낼 뿐입니다. 옵시디언의 존재 이유가 의사결정 보조라면, 오염된 네트워크는 도움이 아니라 해가 됩니다. 자신감만 높아진 잘못된 판단이 가장 나쁜 종류의 실수니까요.
설령 노드의 질을 지킨다 해도 문제는 남습니다. 옵시디언 노트는 대부분 쓰고 나서 다시 보지 않습니다. 보지 않는 노트의 네트워크에서 무슨 통찰이 나오겠습니까. PC와 스마트폰 연동도 안 되니, 대중교통에서 카페에서 노트북을 매번 펼치라는 말인가요.
사실 옵시디언이 하려는 것을 이미 더 잘 하는 게 있습니다. 생성형 AI입니다.
옵시디언은 손으로 그린 지도입니다. 공들일수록 정교해지지만, 그리는 사람의 시야 밖은 영원히 공백으로 남습니다. AI는 위성사진입니다. 내가 가본 적 없는 곳도 이미 찍혀 있죠. [[경제학]]과 [[심리학]]을 연결하려면 옵시디언에서는 사용자가 직접 링크를 만들어야 하지만, AI는 그 연결이 학습 과정에서 이미 가중치로 내장되어 있습니다. 행동경제학이라는 단어를 꺼내지 않아도요.
규모도 다릅니다. LLM은 원본 텍스트를 직접, 수천억 개 토큰 단위로 학습합니다. 열화 단계가 없습니다. 통계적 신뢰도는 학습 규모에서 나옵니다. 수천 개의 열화판 노드와 수천억 개의 원본 텍스트, 어느 쪽이 더 믿을 만한 지식 네트워크일까요?
옵시디언에 AI를 붙이는 순간, 사람들은 AI가 옵시디언을 강화한다고 생각합니다. 실제로는 AI가 옵시디언의 역할을 조용히 흡수해버립니다. 옵시디언은 AI가 자동으로 하는 일을 사람이 손으로 흉내 내던 도구였으니까요.
물론 예상되는 반론이 있습니다.
AI는 이미 알려진 길만 보여주는 반면 내가 직접 건너둔 엉성한 링크 [[]] 사이에서 예기치 못한 통찰이 튀어나올 수 있다고 반박할 수 있습니다.
하지만 엉성한 연결에서 통찰이 나온다는 건 낭만적인 착각에 가깝습니다. 대다수가 통찰이라고 믿는 것은 사실 도약에 가깝죠. 통찰은 현상과 상관관계가 있어야 합니다. 전혀 상관없는 두 아이템 사이에서 구조적인 유사성을 찾는 것은 논리적 비약입니다. 진짜 창의적인 연결은 파편을 쌓아둔다고 생기는 게 아니라, 장문의 글처럼 하나의 논리를 완성하려 고군분투하는 과정에서 뇌가 강제로 연결고리를 찾아낼 때 발생합니다.
옵시디언은 학습에 도움이 된다는 것도 또다른 반론이 될 수 있겠습니다. 내가 직접 읽고 요약하고 링크를 거는 그 '중노동'을 통해 지식이 내 장기 기억으로 전이된다는 논지죠.
그러나 학습이 목적이라면 노트 관리가 아니라 글쓰기를 해야 합니다. 색깔 볼펜으로 노트를 꾸미는 것은 성적과 직결되지 않는 것처럼요. 이미 연결과 요약은 AI가 인간보다 월등하게 잘 합니다. 차라리 AI가 긁어온 자료를 바탕으로 생각하고 문장으로 녹여내는(블로그 발행 같은) 과정이 진짜 공부 아닐까요?
"AI도 결국 틀린다"는 말은 맞습니다. 그런데 AI의 오류는 질문을 바꿔가며 교차검증이 가능합니다. 옵시디언의 잘못된 노드는 링크를 타고 전파되면서 조용히 굳어집니다. 오류가 드러나는 구조와 오류가 숨는 구조는 다릅니다.
그래서 저는 블로그가 낫다고 생각합니다.
뭐, 블로그도 쓰레기 같은 글을 발행하면 얼마든지 할 수 있지만, 그것은 개인의 양심에 달린 일이니 넘어가겠습니다.
블로그 글은 완결성이 있고, 공적인 장에 발행하는 것인 만큼 남의 피드백에 노출됩니다. 옵시디언은 철저히 개인용이고 파편화된 글의 집합체라 누군가 오류를 지적해줄 수 없습니다. 설령 오류를 뜯어고친다 해도 연결된 글 전체를 손봐야 하죠. 중노동입니다.
게다가 블로그 글을 구글드라이브에 백업해 두면 AI에게 명령해서 관련 글을 언제든 찾을 수 있습니다. 동기화 문제도 없고, 서식 통일도 필요 없습니다.
지식 관리의 핵심은 도구가 아니라 글의 질입니다. AI가 옵시디언을 완성시켰다는 말은 틀렸습니다. AI는 옵시디언이 풀려던 문제를, 옵시디언 없이도 더 잘 풀 수 있다는 걸 드러냈을 뿐입니다.
'AI,Tech,Sci' 카테고리의 다른 글
| 인공지능의 발전이 만드는 불편한 진실: 무엇을 하든 자산격차는 벌어진다 (0) | 2026.05.12 |
|---|---|
| [검역실 #06] 효능은 제로, 선동은 강력. 맨발 걷기 뒤에 숨은 유사과학의 민낯 (0) | 2026.05.08 |
| 넥스테라 에너지: 빅테크가 구걸하는 전력망, 정책과 수요를 한 몸에 안다 (0) | 2026.05.08 |
| AI 전력 인프라의 삽과 곡괭이, 콴타 서비시스(PWR) 없이는 데이터센터 운영도 없다 (0) | 2026.05.08 |
| 팔란티어 FY26 Q1: 뉴스는 말 안해주는 SEC 공시 속 숫자 읽기 (0) | 2026.05.07 |