
며칠 전에 대학교수인 친구를 만났습니다. 자리에 앉자마자 기말고사 채점에 챗GPT를 사용했다고 조금은 흥분한 목소리로 이야기했습니다. 작년까지만 해도 인공지능이 할 수 있는 것에 대해 코웃음 치던 친구가 불과 1년 만에 예찬론자로 돌아선 것이 놀라울 만도 했습니다.
그래서 몇 가지를 물었습니다. AI로 인해 강의 내용이나 평가가 어떻게 달라졌는지, 평가 기준을 AI에게 얼마나 명확히 주었는지, 결과를 직접 비교 검증했는지, 학생들에게 AI가 채점에 관여한다는 사실을 사전에 고지했는지, 그리고 학점 이의제기가 들어오면 무엇을 근거로 설명할 것인지 말입니다. 예상했던 대로 그의 답변은 그다지 깊이있는 것은 아니었습니다. 그저 150명 채점이라는 고된 노동에서 해방되었다는 사실에만 들떠있었습니다. 그 친구의 모습에서 준비되지 않은 채 강력한 도구를 손에 쥔 교육 현장의 보편적인 미래를 보았습니다.편의성의 달콤함은 본질적인 질문을 너무나 쉽게 삭제해 버립니다.
공교롭게도 그 다음 날 서울시교육청이 2027년부터 서·논술형 평가에 AI 채점(평가지원) 시스템을 전면 확대하겠다는 내용을 담은 ‘초중고AI교육종합계획‘을 발표했습니다. 현재 66개교에서 시범 운영 중인 ‘채움아이’를 2026년 110개교로 늘리고 2027년에는 서울 모든 학교로 확대하겠다는 일정입니다. 여기서 감지되는 가장 불길한 신호는 AI를 도입한다는 ‘방향’이 아니라, 이토록 빠르게 전면 확대하겠다는 ‘속도’입니다. 제조, 물류, 행정에서 ‘빨리빨리’는 생산성을 만들지만, 인간을 키우는 교육에서 ‘빨리빨리’는 기준과 책임을 생략하는 가장 쉬운 변명으로 작동해 왔기 때문입니다.
교육청은 ‘평가지원’이라는 표현을 방패 삼아 안전장치가 마련된 것처럼 강조합니다. AI가 산출한 점수와 피드백을 교사가 수정·보완할 수 있다는 설명도 덧붙습니다. 그러나 핵심은 문구가 아니라 구조입니다. 교사가 수정할 수 있다는 말은 곧 교사가 최종 책임을 진다는 뜻이고, 이는 이의제기 앞에서 “왜 이 점수인가”를 증거로 설명할 수 있어야 함을 의미합니다. 물론 기술론자들은 AI가 채점 근거를 제시할 수 있다고 반박할지 모릅니다. 하지만 그 근거조차 알고리즘의 확률적 조합일 뿐입니다. 기계가 내놓은 통계적 수치가, “내 아이의 생각은 왜 틀렸는가”를 묻는 학부모의 호소 앞에서 온전한 설득력이 될 수는 없습니다. 결국 교사는 AI의 결정을 ‘확인 도장’으로 승인하는 사람으로 전락하고, 학생과 학부모는 “기계가 그렇게 나왔다”는 말 앞에서 권리만 잃게 됩니다. 채점의 자동화는 책임의 자동화가 아닙니다. 책임을 자동화할 수 없는데 채점을 자동화하면, 갈등만 자동화될 뿐입니다.
더 큰 문제는 이 정책이 공교육 정상화가 아니라 사교육을 비정상적으로 살찌울 가능성이 있다는 점입니다. 한국의 사교육은 늘 학교 평가의 빈틈을 먹고 자랐습니다. 평가 방식이 바뀌면 사교육은 ‘적응’이 아니라 ‘선점’으로 움직입니다. AI 채점이 학교에 들어오는 순간, 학부모와 아이들은 자연스럽게 “AI에게서 좋은 점수를 받는 법”을 찾아 학교 밖을 떠돌게 될 것입니다. 사교육은 교육적 루브릭 자체보다 모델이 선호하는 문장 패턴, 문단 구조, 키워드 배치, 표현의 톤을 학습시키는 ‘해킹’에 가까운 방식으로 진화할 겁니다. 공교육이 추구해야 할 사고력·표현력의 성장을, ‘모델 최적화’ 훈련으로 대체하는 순간입니다.
여기에는 또 하나의 함정이 있습니다. 알고리즘과 모델 환경은 업데이트가 잦습니다. 오늘의 ‘고득점 방식’이 내일도 통할 것이라는 보장은 없습니다. 설령 어떤 요령을 알아낸다 해도 하루살이의 방법일 뿐입니다. 그러면 아이들은 무엇을 배우게 될까요. 글쓰기의 본질이 아니라 변화하는 시스템의 취향을 추적하는 법을 배우게 됩니다. 교육은 느리게 축적되는 능력을 길러야 하는데, 우리는 아이들을 ‘업데이트 추격자’로 만드는 셈입니다. 공교육이 사교육의 추격전을 더 촉발시키는 구조가 된다면, 그 피해는 역설적으로 공교육이 보호해야 할 아이들에게 집중됩니다.
해외가 이 영역에서 유독 조심스러운 이유도 결국 여기에 있습니다. 호주에서는 국가 수준 시험(NAPLAN)에서 ‘로봇 채점’ 도입이 추진되다가 “컴퓨터가 글쓰기의 본질을 평가할 수 있느냐”는 거센 비판과 이의제기 절차의 한계에 부딪혀 중단된 바 있습니다. 더 중요한 점은, 유럽연합은 교육에서 학습성과를 평가하는 AI를 ‘고위험 범주’로 분류하고, 위험관리·감사·투명성·인간 감독 같은 강한 의무를 요구하는 방향으로 규제 틀을 세우고 있다는 사실입니다. 즉, 해외의 ‘신중함’은 도덕적 엄숙주의가 아니라, 설명가능성과 책임 소재가 불분명할 때 폭발할 사회적 비용을 우려한 철저한 제도적 계산입니다.
정말 필요한 것은 더 빠른 도입이 아니라 더 느린 검증입니다. 어느 과목, 어떤 학년, 어떤 유형의 문항에서, 어떤 수준의 교사 개입을 전제로, 어떤 로그와 근거를 남기며, 어떤 이의제기 절차로, 어떤 편향 점검과 외부 감사를 통해 운영할지부터 먼저 공개돼야 합니다. 이 치밀한 설계가 없는 전면 도입은 혁신이 아니라 책임의 하청입니다. ‘빨리빨리’는 시스템을 확장하는 데는 유능하지만, 사람을 키우는 데는 치명적일 수 있습니다. 교육에서 속도를 자랑하는 순간, 우리는 아이들의 시간을 비용으로 착각하기 시작합니다. 그리고 그 비용은 결국 ‘스스로 생각하는 힘’을 잃어버린 세대라는 청구서가 되어 우리 사회에 되돌아올 것입니다.












댓글을 남겨주세요
댓글을 남기려면 로그인 해야 합니다.