본문으로 건너뛰기

AI가 "공부 없이도 시험을 통과"하게 해준다면, 대학에는 무엇이 남는가?

AI 보조

대학생의 90%가 AI를 사용하고 있지만, 이는 표면적인 현상일 뿐입니다. 진짜 문제는 AI가 교육 체계의 근본적인 모순을 드러내고 있다는 것입니다. 지식이 더 이상 희소하지 않고, 기술로 시험을 우회할 수 있다면, 배움 자체의 의미는 무엇일까요?

캠퍼스의 AI
Anthropic · 네 명의 대학생이 전하는 AI 사용 실록YouTube

Anthropic은 최근 프린스턴, 버클리, 런던정치경제대학(LSE), 애리조나주립대학교 출신 학생 네 명을 초청해 캠퍼스 내 AI의 실제 현황에 대한 인터뷰를 진행했습니다. 약 40분간 이어진 이 인터뷰에는 홍보성 문구가 없었습니다. 오직 진솔한 혼란과 불안, 그리고 깊은 사유만이 담겨 있었습니다.

이 인터뷰는 보다 근본적인 문제를 드러냅니다. AI는 단순히 학습 방식을 바꾸는 것이 아니라, 교육 체계 전체의 기저 논리를 해체하고 있습니다.


외면할 수 없는 현실

인터뷰 시작 부분에서 진행자는 직접적인 질문을 던집니다. 현재 캠퍼스에서 AI에 대한 분위기는 어떠한가?

답은 명확했습니다. 학생의 90%가 AI를 사용하고 있습니다. 가끔 사용하는 것이 아니라, 일상적인 워크플로의 일부로서 말입니다. 강의 노트 요약, 문제지 풀기, 과제 피드백 받기, 비즈니스 케이스 분석, 시장 조사, 재무 연구 수행 등 다양한 용도로 활용되고 있습니다. 심지어 일부 학생들은 퀴즈를 완성하는 데도 AI를 사용하는데, 그 이유는 매우 현실적입니다. 대학원생으로서 여러 개의 아르바이트를 병행할 때는 항상 충분한 시간이 있지 않기 때문입니다.

더욱 흥미로운 점은, 거의 모든 학생이 AI를 사용하고 있음에도 불구하고 아무도 규칙이 무엇인지 명확히 알지 못한다는 사실입니다. 일부 수업은 AI 사용을 명시적으로 금지하고, 일부는 적극적으로 장려하며, 대부분은 모호한 회색 지대에 있습니다. 학생들은 경계가 어디에 있는지 모르고, 교수들도 어떻게 관리해야 할지 모릅니다. 이러한 상태를 "회색 지대"라고 합니다. 사용하고 싶지만 규정 위반이 두렵고, 사용하지 않으면 뒤처지는 것 같은 느낌이 드는 상황입니다.

이 회색 지대에서 가장 위험한 점은 학생들이 규정을 위반할 수 있다는 것이 아닙니다. 진정으로 가치 있는 논의가 이루어지지 못하도록 막는다는 것입니다. 학생들은 AI 활용 모범 사례를 공개적으로 공유할 수 없고, 교수들은 학생들에게 책임감 있는 도구 사용법을 지도할 수 없습니다. 학술 공동체 전체가 표면적으로는 금지하면서 이면에서는 사용하는 어색한 상태에 빠져 있습니다.

규칙이 효과적으로 집행될 수 없을 때, 그것은 "잘 위장하는 사람"과 "그렇지 못한 사람"을 가르는 도구로 전락합니다. 명시적으로 금지하면서도 이면에서 광범위하게 사용되는 상황은 학생들의 AI 사용을 막는 것이 아니라, 더 나은 사용 방법에 대한 공개적인 논의를 막을 뿐입니다.


AI는 거울이다

인터뷰 중 한 가지 통찰이 특히 날카롭게 와닿았습니다. 인공지능, 특히 학생들이 인공지능을 어떻게 사용하는가는 그 동기를 매우 잘 드러낸다는 것입니다.

이 발언의 핵심 통찰은 이것입니다. AI는 거울이 되어, 당신이 대학에 다니는 진짜 목적을 비춥니다.

인터뷰에서는 대학의 목표를 세 가지로 분류했습니다. 첫째, 전공 지식을 깊이 학습하고 특정 분야에 대한 심층적인 이해를 습득하는 것. 둘째, 취업을 준비하고 좋은 직장을 얻으며 직업 네트워크를 구축하는 것. 셋째, 인맥을 넓히고 사교 생활을 즐기며 대학 문화를 경험하는 것. 각 학생마다 이 세 가지 목표의 비중이 다르며, AI 사용 방식은 그 비중을 정확하게 드러냅니다.

"시험 통과"와 "학위 취득"만을 목표로 한다면, AI의 출력을 그대로 과제로 제출할 것입니다. 이것은 도덕적 판단이 아니라 현실입니다. 기술이 최소한의 비용으로 목표를 달성할 수 있게 해준다면, 굳이 먼 길을 돌아갈 이유가 있을까요? 학위를 취득하고 취업하는 것이 목표라면, AI로 과제를 완성하는 것은 완전히 합리적인 선택입니다.

하지만 진정으로 배우고 싶고 특정 분야를 깊이 이해하고 싶다면, AI를 대화 파트너로 활용할 것입니다. AI에게 질문을 던지고, 개념을 설명해 달라고 요청하고, 자신의 말로 다시 표현합니다. AI가 초안 코드를 작성하게 한 뒤 직접 리팩토링하고 최적화합니다. 그리고 모든 단계에서 자신이 무슨 일이 일어나고 있는지 진정으로 이해하고 있는지 확인합니다.

이러한 분화는 학생들 간에만 존재하는 것이 아니라, 전공 간에도 나타납니다. 인문계 학생들은 종종 AI를 멀리하는 경향이 있습니다. 그들의 학습은 정독, 즉 원문을 꼼꼼히 읽고, 언어의 세부 사항을 음미하며, 저자의 의도를 이해하는 과정을 필요로 하기 때문입니다. AI는 이 과정을 방해합니다. AI가 제공하는 것은 요약과 번역이지, 원문을 직접 경험하는 것이 아니기 때문입니다. 반면 공학과 경영학 학생들은 AI를 대량으로 활용합니다. AI가 기술적 장벽을 낮춰 컴퓨터 배경지식이 없는 사람도 코드를 작성하고, 웹사이트를 구축하고, 데이터를 분석할 수 있게 해주기 때문입니다.

이러한 양극화는 본질적으로 "무엇이 배울 가치가 있는가"에 대한 서로 다른 이해를 반영합니다. 인문계 학생들에게는 셰익스피어 원문을 읽는 경험 자체가 학습입니다. 공학 학생들에게는 문제를 해결할 수 있는가 여부가 중요하지, 모든 코드를 직접 작성하는 것이 중요한 것이 아닙니다. AI는 이러한 차이를 더욱 뚜렷하게 만들고 있습니다.


도구인가 목발인가? 간단한 판단 기준

인터뷰에서 핵심적인 질문이 제기되었습니다. AI가 도구인지 목발인지를 어떻게 구분할 수 있는가?

학생들의 답변은 놀라울 정도로 일치했습니다. 설명할 수 있는가의 여부입니다.

자신이 만든 것을 설명할 수 없고, AI가 그 과정에서 어떤 역할을 했는지 말할 수 없다면, 그것은 목발입니다. 초등학생에게 설명하듯 명확하게 설명할 수 있고, 저수준 및 고수준 설명을 모두 제시할 수 있다면, 그것은 도구입니다.

이 기준은 단순해 보이지만, 학습의 본질을 건드립니다. 파인만 학습법의 핵심 논리는 이것입니다. 어떤 개념을 쉬운 언어로 설명할 수 없다면, 아직 그것을 진정으로 이해하지 못한 것입니다. AI 시대의 학습도 마찬가지입니다. AI가 해준 일을 설명할 수 없다면, "사고를 외주화"하는 것이지 "사고를 강화"하는 것이 아닙니다.

인터뷰에서 흥미로운 사례가 소개되었습니다. 어떤 학생은 강의 슬라이드를 입력하면 AI가 각 슬라이드 옆에 교수의 주석과 유사한 설명을 생성해 주는 도구를 개발했습니다. 이 학생은 이렇게 말했습니다. "이것이 유용한 이유는 제가 AI에게 제가 알고 싶은 것이 무엇인지 이미 프롬프트로 알려줬기 때문입니다. 슬라이드의 특정 내용에 대한 정의 같은 것들 말이죠. 슬라이드는 때로 추상적이고 맥락이 부족해서 옆에 컨텍스트를 추가해야 합니다."

핵심은 "제가 AI에게 제가 알고 싶은 것을 이미 알려줬다"는 부분입니다. 이 학생은 자신의 지식 공백이 어디에 있는지 알고, 어떤 도움이 필요한지 알며, 그 도움을 제공하도록 AI를 능동적으로 이끌었습니다. 이것이 도구입니다. 반면 슬라이드를 그냥 AI에게 던져 "이 수업을 요약해줘"라고 한 뒤 그대로 암기한다면, 그것은 목발입니다.

차이는 능동성과 이해에 있습니다. 도구를 사용하는 사람은 자신이 무엇을 하고 있는지 알고, 전체 과정을 주도합니다. 목발을 사용하는 사람은 기술에 통제권을 넘기고 스스로는 수동적인 수신자가 됩니다.


학교의 지체는 대응이 느린 것이 아니라, 본질적으로 대응할 수 없는 것이다

인터뷰에서는 몇몇 학교의 시도도 언급되었습니다. LSE의 한 필수 과목은 학생들에게 Claude 사용법을 지도하기 시작했습니다. Claude와 대화하고, 다양한 역할을 부여하고, 학생들이 AI와 어떻게 상호작용하는지 확인하기 위해 대화 기록을 제출하도록 요구합니다. 애리조나주립대학교의 커리어 관리 센터는 다양한 시나리오에 대한 프롬프트 템플릿을 제공하는 프롬프트 라이브러리를 구축했습니다. 이러한 시도들은 좋은 방향입니다. 핵심 아이디어는 AI를 금지하는 것이 아니라, 학생들에게 책임감 있는 사용법을 가르치는 것입니다.

하지만 이것은 소수의 사례에 불과합니다. 대부분의 학교는 여전히 "학생들이 AI를 사용해도 되는가"를 논의 중입니다. 일부 교수는 사용해도 되지만 과제에 사용 방식을 명기해야 한다고 하고, 일부 수업은 직접 금지하며, 또 일부는 아예 언급하지 않고 학생들이 사용하지 않을 것이라고 가정합니다. 통합적인 프레임워크도 없고, 통일된 기준도 없으며, 전체 체계가 혼란 상태에 있습니다.

더 깊은 문제는 이것입니다. 이 문제는 본질적으로 규정과 제도만으로는 해결할 수 없습니다.

전통적인 교육의 관리 논리는 이러합니다. 학교가 규칙을 설정하고, 학생은 규칙을 따르며, 위반자는 처벌을 받습니다. 이 논리가 성립하는 전제는 "위반 행위가 탐지될 수 있다"는 것입니다. 그러나 AI는 이 전제를 무너뜨렸습니다.

학생들이 과제를 제출할 때 AI를 사용하는 것을 금지할 수 있지만, 학생들이 사고 과정에서 AI를 사용했는지 감시할 수는 없습니다. AI 탐지 도구를 사용할 수 있지만, 이러한 도구의 정확도는 처벌 근거로 사용할 수 있는 수준에 훨씬 못 미칩니다. 오판율이 너무 높고, 학생들은 금방 탐지를 우회하는 방법을 배웁니다. 더 중요한 것은, 근본적으로 "AI 도움으로 완성된 고품질 과제"와 "학생이 독립적으로 완성한 고품질 과제"를 구별할 수 없다는 점입니다. 좋은 AI 활용은 원래 원활하게 이루어져야 하기 때문입니다.

인터뷰에서 이런 말이 직접적으로 나왔습니다. 근본적으로, 어떤 규정도 학생들이 AI를 사용하는 방식을 바꿀 수 없습니다. 책임은 학생의 손에 있습니다. 이것은 책임을 회피하는 것이 아니라 현실입니다.

기술이 "공부하지 않고도 시험을 통과"하는 것을 가능하게 만들 때, 학교가 직면하는 것은 관리 문제가 아니라 존재론적 문제입니다. 시험이 학습을 증명할 수 없다면, 학교의 존재 의미는 무엇인가?


교육 체계의 기저 논리가 무너졌다

이 문제는 교육 체계의 근본적인 모순을 건드립니다.

전통적인 교육은 몇 가지 핵심 가정 위에 세워져 있습니다. 첫째, 지식은 희소하며 전달하기 위해 전문 기관(학교)과 전문 인력(교수)이 필요합니다. 둘째, 학습 성과는 시험으로 측정할 수 있습니다. 셋째, 학위는 특정 분야의 지식을 습득했음을 증명하므로, 관련 직업에 종사할 자격이 있습니다.

AI는 이러한 가정들을 하나씩 무너뜨리고 있습니다.

지식은 더 이상 희소하지 않습니다. YouTube에는 무료 Stanford 강의가 있고, Claude는 언제든지 질문에 답해주며, GitHub에는 학습할 수 있는 무수한 오픈소스 프로젝트가 있습니다. 학교에 가지 않아도 지식에 접근할 수 있고, 심지어 유료 구독 없이도 기본적인 AI 튜터링을 받을 수 있습니다.

시험은 학습을 측정할 수 없습니다. AI가 대부분의 시험 문제를 풀 수 있을 때, 시험은 "이해도를 측정하는 도구"에서 "AI를 얼마나 잘 사용하는지 측정하는 도구"로 변합니다. 이것은 시험이 완전히 무용하다는 말이 아니라, 더 이상 "진정으로 이해한 사람"과 "도구를 잘 활용하는 사람"을 정확히 구별할 수 없다는 말입니다.

학위의 가치가 하락하고 있습니다. 고용주들이 학위가 지원자가 관련 지식을 실제로 갖추고 있음을 보장하지 못한다는 것을 깨달을수록, 실질적인 역량의 증거인 포트폴리오, 프로젝트 경험, 인턴십 성과를 더욱 중시하게 됩니다. 학위는 "역량 증명"에서 "기본 조건"으로 격하됩니다.

이러한 가정들이 무너질 때, 교육 체계의 가치 제안은 새롭게 정의되어야 합니다.

인터뷰는 하나의 답을 제시했습니다. 대학의 가치는 "지식 전달"에서 "환경 제공"으로 전환됩니다. 이 환경은 실수를 허용하고, 탐색을 허용하며, 다른 사람들과 아이디어를 충돌시킬 수 있는 공간입니다. 룸메이트와 주말을 보내며 "졸업 전 버킷리스트"를 만들고, hackathon에서 "어쩌면 어리석을 수도 있는" 아이디어를 테스트하고, 교수와 논쟁하고, 동료와 토론하며, 커리어 리스크 없이 실패에서 배울 수 있는 환경 말입니다.

인터뷰에서 언급된 학생 프로젝트들이 이를 잘 보여줍니다. "자동 수강신청 알림", "빈 강의실 찾기", "졸업 전 소원 순위표" 같은 것들입니다. 기술적으로는 모두 복잡하지 않으며, 많은 창작자는 컴퓨터 배경지식조차 없습니다. 하지만 이것들은 진실된 인간적 감정에서 비롯됩니다. 놓치는 것에 대한 두려움, 편의에 대한 욕구, 대학 생활에 대한 소중함.

기술 장벽이 낮아진 후, 중요한 것은 더 이상 "코드를 쓸 줄 아는가"가 아니라 "어떤 문제를 해결하고 싶은가"입니다. 대학이 제공하는 것은 이러한 문제들을 자유롭게 탐색할 수 있는 공간, 아이디어를 현실로 만들고 실패에서 배울 수 있는 환경입니다.

AI는 과제를 완성하는 데 도움을 줄 수 있지만, "실수하고 탐색할 수 있는" 이 시간을 대신 보내줄 수는 없습니다.


취업 시장의 역설

인터뷰 후반부에서는 취업에 대해 이야기하며 또 다른 역설을 드러냈습니다.

학생들은 AI로 이력서를 작성하고, 기업은 AI로 이력서를 걸러냅니다. 전체 채용 과정이 화면을 향해 이야기하는 것으로 변했습니다. AI를 향해 자기소개서를 쓰고, 카메라를 향해 질문에 답하고, 마지막에는 AI가 생성한 거절 통보를 받습니다. 이력서를 제출하고 거절 통보를 받기까지 15분밖에 걸리지 않을 수도 있습니다. 효율은 매우 높지만, 인간적인 면은 거의 없습니다.

이것은 "AI 대 AI"의 취업 시장을 만들어냈습니다. 학생들은 AI가 "좋은" 이력서를 작성하도록 훈련하고, 기업들은 AI가 "좋은" 지원자를 선별하도록 훈련합니다. 이 과정에서 진짜 인간의 역할은 점점 줄어듭니다. 화면을 향해 이야기하는 것에는 화학 반응이 없으며, 수치화하기 어렵지만 중요한 자질들, 즉 유머 감각, 임기응변 능력, 팀 협업의 미묘한 점들을 보여줄 수 없습니다.

그러나 역설의 다른 면은 이것입니다. AI 능숙도 자체가 새로운 경쟁력이 되었습니다. 빅4 컨설팅 회사들은 예전에는 generalist MBA를 채용했지만, 이제는 AI 역량을 갖춘 MBA를 전문적으로 찾습니다. AI를 다양한 산업에 적용하는 방법을 안다면, 당신이 그들의 최우선 후보입니다.

역설은 이것입니다. AI는 취업 시장을 더 차갑게 만들면서도, 동시에 AI 역량을 더욱 중시하게 만들었습니다. 피할 수 없으니, 효과적으로 사용하는 방법을 배워야 합니다.

이것은 다시 그 핵심 질문으로 돌아옵니다. "효과적인 사용"이란 무엇인가? ChatGPT로 이메일을 작성할 줄 아는 것이 아닙니다. 어떤 문제에 AI를 적용하는 것이 적합한지 파악하고, 필요한 결과를 얻기 위해 AI를 이끄는 프롬프트를 설계하고, AI 출력의 품질을 평가하고 필요한 수정을 가할 수 있는 능력입니다.

이러한 능력은 AI를 금지함으로써 키워지는 것이 아니라, 대량의 실천과 시행착오를 통해 길러집니다. 그렇기에 AI를 적극적으로 수용하고, Claude Builder Club을 만들고, hackathon을 조직하는 학교들이 학생들에게 더 가치 있는 교육을 제공하고 있습니다. 그들은 상대적으로 안전한 환경에서 학생들이 AI와 협력하는 방법을 배우게 합니다.


책임의 전이

인터뷰에서 가장 핵심적인 통찰은 아마도 이것일 것입니다. 기술이 "공부하지 않고도 시험을 통과"하게 해줄 때, 배움 자체의 의미는 각자가 스스로 대답해야 하는 문제가 됩니다.

이것은 책임의 전이입니다. 학교에서 학생으로, 규칙에서 자각으로, 외부 동기에서 내부 동기로.

전통적인 교육의 동기는 외부적입니다. 학위를 얻기 위해 시험을 통과해야 하고, 취업을 위해 학위가 필요합니다. 이 외부 인센티브 체계가 학생들의 학습을 추동합니다. 하지만 AI가 공부하지 않고도 시험을 통과할 수 있게 해줄 때, 이 인센티브 체계는 효력을 잃습니다.

남는 것은 내부 동기뿐입니다. 진정으로 배우고 싶습니까? 이 분야에 진정으로 관심이 있습니까? 진정으로 깊이 이해하고 싶습니까, 아니면 그냥 학위만 원합니까?

인터뷰에서 흥미로운 세부 사항이 있었습니다. 어떤 학생은 대학원 생활의 좋지 않은 면을 언급했습니다. 여러 개의 아르바이트를 병행하다 보니 시간이 없어 AI로 빠르게 퀴즈를 완성할 때가 있다는 것입니다. 하지만 그는 이렇게 덧붙였습니다. 대학원은 비판적 사고를 넓히고 더 결단력 있는 모습을 보여야 하는 시기여야 한다고요. 그는 모순을 인식했지만, 효율을 선택했습니다.

이것은 도덕적 판단이 아닙니다. 현실적인 압박 하에서 효율은 종종 이상보다 더 중요합니다. 하지만 이 선택은 하나의 사실을 드러냅니다. 외부 압박(퀴즈 완성)과 내부 동기(깊이 있는 학습)가 충돌할 때, 많은 사람들은 전자를 선택합니다.

AI는 이러한 충돌을 더욱 첨예하게 만들었습니다. AI가 "시험 준비"를 극도로 쉽게 만들었기 때문입니다. AI가 없던 시대에는, 시험을 그냥 통과하고 싶어도 최소한 무언가를 배워야 했습니다. AI는 이 중간 단계를 제거했습니다. 전혀 학습하지 않고도 통과할 수 있게 된 것입니다.

이것은 모든 사람이 그 질문에 직면하게 만듭니다. 당신은 왜 대학에 다니는가?

답이 "학위를 얻고 취업하기 위해서"라면, AI로 과제를 완성하는 것은 완전히 합리적입니다. 답이 "이 분야를 진정으로 배우고 싶어서"라면, AI가 제공하는 지름길의 유혹에 능동적으로 저항해야 합니다.

학교는 이 선택을 대신 해줄 수 없습니다. 규칙은 내부 동기를 강제할 수 없습니다. 이것은 당신 자신의 책임입니다.


기술은 당신이 준비될 때까지 기다리지 않는다

인터뷰 마지막 부분에는 하나의 태도가 일관되게 흐릅니다. "우리가 방법을 찾아낼 것이다."

학교 규칙이 따라오지 못하고 있습니까? 일단 사용하고, 무엇이 효과적인지 학교에 알려주면 됩니다. AI가 부정행위에 사용될 수 있습니까? 천천히 책임감 있는 사용법을 배우면 됩니다. 취업 시장이 변했습니까? 새로운 게임 규칙에 적응하면 됩니다.

이것은 맹목적인 낙관주의가 아니라 현실주의입니다. 기술은 이미 여기 있으며, 당신이 준비될 때까지 기다렸다가 세상을 바꾸지 않습니다. 저항을 선택할 수도 있고, 적응을 선택할 수도 있습니다. 하지만 시간을 멈추는 것은 선택할 수 없습니다.

이 세대 학생들과 AI의 관계는 공포도 아니고 맹목적인 수용도 아닙니다. 혼란 속에서 더듬어 나아가고, 시행착오 속에서 배우는 것입니다.

그들이 Claude Builder Club에서 만드는 프로젝트들은 기술적으로는 복잡하지 않지만, 진짜 문제를 해결합니다. hackathon에서 시도하는 아이디어들은 어리석을 수도 있지만, 적어도 도전하고 있습니다. 수업에서의 혼란, 규칙이 불분명하지만, 적어도 생각하고 있습니다.

이러한 "행동하면서 배우는" 자세는, 어떤 규정보다도 AI 시대에 적응하는 데 더 큰 도움이 될 것입니다.

Kevin Kelly는 《기술의 충동(What Technology Wants)》에서 "technium" 개념을 제시했습니다. 기술은 하나의 전체로서 마치 자신의 의지가 있는 것처럼, 점점 더 강력해지려는 것 같다는 것입니다. 인터뷰의 한 관찰이 이와 잘 호응합니다. 지난 2년 동안, AI가 계속 발전하기 위해 필요한 것이라면 무엇이든 얻을 수 있었습니다. 원자력에 대한 태도 변화, 우주 데이터 센터에 대한 논의 등, AI의 발전을 늦출 수 있는 어떤 병목이 있을 때마다 그 장애물은 제거되었습니다.

하지만 더 정확한 말은 이것일지도 모릅니다. 학생들에게 필요한 것은 창조될 것입니다.

AI는 단지 도구입니다. 미래를 결정하는 것은, 이 세대 학생들이 이 도구를 어떻게 사용하기로 선택하는가입니다. 사고를 회피하는 데 쓸 것인가, 사고를 강화하는 데 쓸 것인가. 시험을 통과하는 데 쓸 것인가, 세계를 탐색하는 데 쓸 것인가. 목발로 쓸 것인가, 도구로 쓸 것인가.

이 선택은 학교가 관리할 수 없습니다. 오직 그들 스스로 결정할 수 있을 뿐입니다.

그리고 이 인터뷰를 보건대, 적어도 일부 학생들은 이 문제를 진지하게 고민하고 있습니다. 그것으로 충분할지도 모릅니다.

댓글

목차