본문 바로가기
etc.

세계가 자본과 노동을 물을 때, 한국 인문학은 인간다움을 묻는다 (칭찬 X)

by pragma 2026. 5. 15.

몇 년 전까지만 해도 인공지능(AI)이 단순 서비스업이나 육체노동을 대체할 것이라는 전망이 지배적이었다. 하지만 거대한 자본과 연산 능력이 결합한 생성형 AI는 변호사, 회계사, 소프트웨어 개발자 같은 고임금 지식노동자의 목전까지 칼날을 들이밀고 있다. 상황이 이쯤 되자, 어김없이 ‘인문학 구원투수론’이 고개를 든다. 기술만능주의의 폐해를 진단하고, AI가 흉내 내지 못하는 인간 고유의 가치를 지켜내는 역할을 인문학이 맡을 것이라는 안일한 낙관론이다.
 
과연 그럴까? 결론부터 말하자면 나는 동의할 수 없다. 오늘날 인문학이 AI 시대에 직면한 위기는 AI가 너무 뛰어나서가 아니다. 인문학 스스로가 시대의 변화 앞에서 제 할 일을 전혀 못 하고 있기 때문이다.
 


AI를 논하려면 AI를 알아야 한다


국내 인문학 담론에서 AI를 다루는 방식을 보면 의구심이 생긴다. 매번 지겹도록 반복되는 언어가 있다. "인간다움", "공감", "창의성". AI는 이것들이 없으니 인간은 안전하다는 논리로 귀결된다. 수년 전에도 그랬고, 지금도 그렇다.
 
문제는 이 언어들이 AI가 실제로 무엇인지에 대한 이해 위에서 나온 것이 아니라는 점이다. LLM이 어떤 방식으로 작동하고, 어디서 실패하고, 어떤 종류의 인지적 작업을 대체하는지는 논의에 없다. 기술 이해 없이 기술을 비판하는 것이다.
 
가장 흔한 패착은 존 설(John Searle)의 ‘중국어 방 논증’을 전가의 보도처럼 소환하는 것이다. 이것은 1980년에 발표된 논문으로, 당시 타깃은 명시된 규칙에 따라 기호를 조작하는 ‘기호주의 AI(Symbolic AI)’였다. 오늘날 통계적 확률로 다음 단어를 예측하는 LLM은 그런 방식으로 작동하지 않는다. 비판 대상이 무엇인지도 모른 채 40년 전 논증을 결론으로 삼는 셈이다. 국제 철학계는 이 논증이 LLM에 적용 가능한지 자체를 논쟁하고 있다. 논증을 출발점으로 쓰는 것과 결론으로 쓰는 것의 차이다.
 
더 근본적인 문제는 ‘인간 대 AI’라는 프레임 자체가 잘못되었다는 점이다. LLM은 인간과 같은 링에 오른 권투 선수가 아니다. 인문학이 진짜 물었어야 할 질문은 따로 있다. 이 기술을 누가 소유하고 통제하는가. 훈련 데이터를 만든 정당한 노동의 대가는 누구에게 돌아갔는가. 기술에 내포된 편향은 누구에게 불리한가. 이것이 지식의 생산과 유통 구조를 어떻게 바꾸는가. 즉, 자본과 권력의 문제다. 그러나 지금의 인문학은 현대 사회를 움직이는 축인 자본주의와 과학기술을 참 모른다.


왜 안 바뀌나 — 구조의 문제


개인을 탓하기 전에 구조를 봐야 한다. 게으름이 퇴출되지 않도록 설계된 구조가 문제다.

 
인문사회 R&D 예산은 2026년 기준 전체의 0.93%로 역대 최저치를 찍었다. 경제적 압박은 지도교수 의존을 강화하고, 기존 문법 이탈을 더 어렵게 만든다. 필요 이상으로 긴 박사 양성 기간도 같은 방향으로 작용한다. 수년간 지도교수에게 경제적·제도적으로 묶여 있는 구조에서 기존 패러다임에 정면으로 도전하는 것은 생존과 거리가 멀다. 도발적인 주장을 가진 신진 학자가 등장하기 전에 걸러지는 것이다.
 
대중과의 소통 구조 역시 처참하다. 과학계는 전문 지식을 갖춘 커뮤니케이터 생태계가 탄탄히 형성되어 대중의 눈높이를 끌어올리고 있다. 반면 인문학 쪽은 역사를 제외하면 철학·미학·문학 이론을 다루는 대중적 채널이 사실상 전무하다. 대중 소통 노력이 학계 내에서 전혀 경력 자산이 되지 못하는 폐쇄적 구조 때문이다.
 
이러한 풍토는 공론장에서 부메랑으로 돌아온다. 학계가 가진 권위는 장식이 아니라 사실 관계와 어긋난 주장이나 엄밀하지 못한 방법론을 꼬집으라고 있는 것이다. 그러나 자기 분야와 자기 주제 밖에는 눈길이 닿지 않으니, 검증이 안 되고, 퇴출이 없고, 사이비가 살아남는다. 도전적이지만 근거에 기반한 논증을 하는 사람이 오히려 사라진다. 악화가 양화를 구축하는 것이다.


세계는 다른 질문을 하고 있다


국내 최상위 대학 인문사회계 교수들의 AI 관련 작업을 훑어보면 윤리 원칙 제안과 거버넌스 논의가 주를 이룬다. 훈련 데이터가 누구의 노동으로 만들어졌는지, 모델이 어떤 편향을 어떻게 증폭하는지를 실증적으로 파고드는 작업은 보이지 않는다. 글로벌 수준에서 논의되는 비판적 AI 연구의 핵심 어휘가 많이 부족하다.

 
그 어휘가 무엇인지는 바로 다음에서 확인된다.
 
언어학자 Emily Bender 등이 2021년 발표한 On the Dangers of Stochastic Parrots는 LLM의 훈련 데이터 구성, 환경 비용, 편향 증폭 메커니즘을 기술적으로 분석하고 사회적 함의를 도출했다. 언어학자가 AI를 논하면서 아키텍처부터 파고든 것이다. 질문의 출발점 자체가 달랐다.
 
Kate Crawford의 Atlas of AI(Yale University Press, 2021)는 AI를 리튬 광산, 냉각수 소비, RLHF 노동자의 착취, 감시 인프라로부터 분석했다. "AI는 인공적이지도 않고 특별히 지능적이지도 않다"는 이 책의 첫 문장은 기술을 직접 해부한 뒤 나온 결론이다.
 
Safiya Noble의 Algorithms of Oppression(NYU Press, 2018)은 구글 검색 알고리즘이 유색 여성에게 불리한 결과를 생성하는 방식을 실증적으로 추적했다. Ruha Benjamin의 Race After Technology(Polity, 2019)는 알고리즘이 인종 차별을 어떻게 자동화하는지를 "뉴 짐 코드"라는 개념으로 분석했다. Joy Buolamwini의 Unmasking AI(Random House, 2023)는 얼굴인식 AI의 인종·성별 편향을 직접 측정해 빅테크를 상대로 검증 가능한 비판을 제기했다.
 
Virginia Eubanks의 Automating Inequality(St. Martin's Press, 2018)는 복지행정 AI가 빈곤층을 어떻게 처벌하는지 현장 조사로 보여줬다. Cathy O'Neil의 Weapons of Math Destruction(Crown, 2016)은 교육·사법·금융 알고리즘의 구조적 불평등을 수학적으로 분석했다.
 
Shoshana Zuboff의 The Age of Surveillance Capitalism(PublicAffairs, 2019)은 데이터 추출을 새로운 자본축적 방식으로 경제학적으로 분석했다.
 
Timnit Gebru와 Émile Torres가 2024년 First Monday에 발표한 "The TESCREAL Bundle"은 AGI 추구의 이데올로기적 뿌리를 우생학까지 역추적했다. 컴퓨터 과학자와 철학자가 협업해 기술 담론의 사상적 계보를 해체한 것이다.
 
이 저자들의 배경이 언어학, 미디어학, 사회학, 정치학, 수학, 정보학, 경영학, 철학으로 모두 다르다. 공통점은 하나다. 기술이 실제로 어떻게 작동하는지 알고 비판한다는 것이다. 그리고 영미권의 활발한 피어 리뷰 덕에 어설픈 이해는 순식간에 간파된다.
 
같은 시기 국내 인문학 담론에서는 무슨 말이 나왔나. "AI는 도구일 뿐"이라는 문장이 2023년에도, 2024년에도, 2025년에도 전문가 발언 형태로 매체에 등장했다. LLM을 "미리 정해진 규칙에 따라 데이터를 처리하는 알고리즘"으로 묘사한 발언이 2024년에도 나왔다. 인공지능에게 "너는 어떻게 설계되었니?"라고 단 한 번이라도 물어보지 않았음이 분명하다. 적어도 기술의 아키텍처에 대해서는 AI가 거짓말을 할 확률이 게으른 학자들의 뇌피셜보다 훨씬 낮기 때문이다.


외부에서 이미 시작됐다


2026년 Thomas Metcalf가 Philosophy & Technology에 발표한 "AI-Produced Humanities Research: On the Dangers of Technical Incrementalism"은 LLM이 생성한 원고가 인문학 학술지에 이미 투고되고 있다는 사실을 문제로 제기했다. 인문학 내부에서 나온 자기비판이다. 학계 외부에서 LLM으로 충분한 수준의 인문학 텍스트를 생산할 수 있게 되는 날, 아카데미 인문학의 존재 이유는 근본적으로 흔들린다. 

 
인문학의 위기 중심에 똬리를 틀고 있는 문제는 AI가 아니다. AI를 모른 채 AI를 논하고, 자본을 모른 채 자본주의를 비판하고, 세계와 단절된 채 세계를 논하는 구조가 문제다. 그 구조가 바뀌지 않는다면, 인문학은 AI 시대의 희생자가 아니라 자업자득의 결과물이 될 것이다.

반응형