AI 성적표: 시험대에 오른 학교 교육

기술
AI Report Card: Schools Under Scrutiny
교육구가 AI 기반 도구 도입에 속도를 내면서 시민권 단체, 교육자 및 국제 기구들은 편향성, 감시 위험 및 교육적 가치 훼손을 경고하고 있습니다. 이에 따라 더욱 강력한 감독과 인간 중심의 기술 도입을 촉구하는 목소리가 높아지고 있습니다.

리드: 교실과 교차로

이번 달(2026년 1월), Ohio주 교외의 한 밝은 중학교 교실에서 교사가 각 학생에게 개별화된 수학 연습 문제를 생성해주는 AI 플랫폼을 클릭하며 살펴보고 있습니다. 업체들이 학습 격차를 해소하고 교사가 소그룹 지도에 집중할 수 있게 해주는 효율적인 방법이라고 홍보해 온 이 장면은 이제 치열한 논쟁의 중심에 서 있습니다. 미국 전역에서 팬데믹 이후의 기술 예산이 풍부해지고 교사 부족 현상에 직면한 학구들이 에듀테크(EdTech) 업체들과 계약을 맺고 있습니다. 동시에 교육자, 인권 옹호론자 및 국제기구들로 구성된 목소리가 커지며 AI 도입을 서두르는 데 드는 비용이 그 혜택보다 훨씬 클 수 있다고 주장하고 있습니다.

데이터 문제: 학습 도구에 내재된 편향성

알고리즘이 특정 인구 통계학적 집단에 대해 반복적으로 낮은 점수를 부여하거나 더 빈번한 개입을 할당할 때, 그 효과는 단순한 기술적 버그가 아닙니다. 이는 불평등을 고착화하는 제도적 메커니즘이 됩니다. 어떤 플랫폼을 구매할지, 어떤 데이터를 수집할지, 얼마나 오래 보관할지 등의 조달 선택이 어떤 학생이 자동화된 판단의 대상이 될지를 결정하기 때문에 학교 지도자들은 법적, 윤리적 딜레마에 직면해 있습니다.

교수법과 '블랙박스' 문제

편향성과 개인정보 보호 문제를 넘어, 교사들은 인지적 작업을 불투명한 시스템에 아웃소싱하는 것이 가져올 장기적인 교육적 결과에 대해 우려하고 있습니다. 생성형 AI는 그럴듯한 에세이를 작성하거나 문제를 단계별로 풀 수 있지만, 학생들이 아이디어를 생성하거나 논거를 작성하거나 해결책을 구상할 때 기계에 의존하게 되면 비판적 사고를 발달시키는 의도적인 인지적 고투가 퇴화할 수 있습니다. 학습은 정답을 맞히는 것뿐만 아니라, 풀이 과정을 보여주고, 반론과 씨름하며, 초안을 수정하는 등의 사고 과정에 관한 것이며, 현재의 많은 AI 도구들은 그 과정을 모호하게 만듭니다.

여기에 많은 모델의 '블랙박스'적 특성이 문제를 가중시킵니다. 학생과 교사는 추천이나 성적이 어떻게 도출되었는지 거의 알 수 없으며, 이로 인해 자동화된 결과물을 교육적 순간으로 전환하기가 어렵습니다. 연방 교육 지침이 중요한 결정에 '인간의 개입(human in the loop)'을 강조해 온 이유도 바로 이 때문입니다. 책임성, 해석 가능성, 그리고 교육자의 전문적 판단은 건전한 교수법을 위해 여전히 필수적입니다.

감시, 동의, 그리고 무너진 신뢰

학교 현장의 AI는 종종 새로운 형태의 감시를 수반합니다. 시험 감독 소프트웨어, 행동 분석, 플랫폼 텔레메트리(원격 측정 데이터)는 학생의 얼굴, 움직임, 타이핑 패턴, 과제 수행 시간 등의 기록을 생성합니다. 이러한 기록은 업체와 학교 행정가들에게 가치가 있지만 민감한 정보이기도 합니다. 누가 이에 접근할 수 있는지, 얼마나 오래 저장되는지, 그리고 새로운 상업적 제품 개발에 사용되는지 등의 질문에 대해 많은 학구는 아직 포괄적인 답을 내놓지 못했습니다.

가족과 교사들에게 만연한 모니터링은 신뢰를 떨어뜨릴 수 있습니다. 자신이 지속적으로 관찰되고 있다는 사실을 아는 학생들은 학습에 해로운 방향으로 행동을 바꿀 가능성이 높습니다. 창의적인 탐색으로 이어질 수 있는 정당한 딴짓을 피하거나, 수행 능력을 저해하는 불안감을 느끼는 식입니다. K-12 환경에서 동의 절차는 복잡합니다. 미성년자가 항상 충분한 정보를 바탕으로 합의를 제공할 수는 없으며, 업체들이 학구 단위 계약으로 묶여 있을 때 부모에게 명확하고 비교 가능한 선택권이 주어지지 않을 수도 있기 때문입니다.

불평등한 도입과 새로운 디지털 격차

AI는 공평한 경쟁의 장을 만들기는커녕 기존의 격차를 심화시킬 수 있습니다. 부유한 학구는 견고한 제품을 시범 운영하고, 계약 시 개인정보 보호를 요구하며, 교사가 도구를 사려 깊게 통합할 수 있도록 전문성 개발 예산을 지원할 수 있습니다. 자원이 부족한 학구는 개인정보 보호 보장이 약하고 투명성이 낮으며 교육이 최소화된 무료 또는 할인 등급 서비스를 수용할 수 있습니다. 그 결과, 일부 학교에서는 프리미엄급의 잘 지원된 배포가 이루어지는 반면, 다른 학교에서는 제대로 관리되지 않고 지원이 부족한 시스템이 사용되는 교육계의 AI 이분화가 나타납니다.

이러한 격차는 학업 성치도 차이를 넓힐 뿐만 아니라 서로 다른 교육 모델을 만들어냅니다. 부유한 지역에서 AI는 잘 훈련된 교육자의 조수 역할을 할 수 있지만, 다른 곳에서는 교사와 교육 과정에 대한 투자를 대체하는 수단이 될 위험이 있습니다.

풀뿌리 저항과 "디지털 건전성"에 대한 요구

다양한 수준에서 반발이 형성되고 있습니다. 교사 단체, 학부모 연합, 인권 단체들은 학구 측에 조달 속도를 늦추고, 시범 운영을 의무화하며, 편향성과 개인정보 피해에 대한 독립적인 감사를 요구하고 있습니다. 많은 옹호자는 기술에 반대하는 것이 아니라 교수법을 지지하는 것입니다. 그들이 요구하는 것은 소규모 시범 운영, 학습 결과 측정, 차별적 영향 테스트, 조달 결정에 교사와 가족 참여 등 냉정하고 증거에 기반한 프로세스입니다.

조달에서 책임까지: 구체적인 단계

급격한 도입에서 책임 있는 사용으로 나아가기 위해서는 우선순위의 변화가 필요합니다. 학구는 AI 조달을 일상적인 IT 구매가 아닌 공공 정책 결정으로 취급해야 합니다. 이는 업체에 데이터 소스와 편향 완화 관행에 대한 명확한 문서를 요청하고, 성적이나 징계에 영향을 미치는 모든 결정에 대한 설명 가능성을 요구하며, 데이터 재사용에 대한 계약적 제한을 명시하는 것을 의미합니다. 교사 교육과 교육 과정 통합에 대한 투자가 모든 도입 과정에 수반되어야 합니다. 인간의 역량이 뒷받침되지 않는 소프트웨어 라이선스는 성과를 내지 못하고 피해를 입힐 위험이 있습니다.

규제 기관과 자금 지원 기관도 역할이 있습니다. 공공 기관은 독립적인 평가 프레임워크를 제공하고, 학습 이득과 형평성 결과를 모두 측정하는 시범 연구에 자금을 지원하며, 개인정보 보호와 투명성을 우선시하는 조달 지침을 발행할 수 있습니다. 이러한 체계적인 지원 없이는 학구들이 대형 업체와의 비대칭적 협상력과 불균형한 보호 환경에 계속 직면하게 될 것입니다.

무엇이 걸려 있는가

현재 조달 부서와 교육위원회에서 내리는 선택이 전체 세대의 학습 경험을 결정지을 것입니다. AI는 훌륭한 가르침을 증폭시키고 대규모로 개별화된 교육을 실현할 잠재력이 있지만, 차별을 공식화하고 감시를 고착화하며 학교가 육성해야 할 지적 노력을 희석시킬 가능성도 가지고 있습니다. 교육 지도자들에게 주어진 질문은 AI 사용 여부가 아니라, 학생의 권리를 보호하고 교수법을 대체하는 것이 아니라 강화하는 방식으로 어떻게 사용할 것인가입니다.

학구가 다년 계약에 서명할 때, 그들은 단지 소프트웨어를 사는 것이 아닙니다. 그들은 학교 교육이 지향해야 할 비전을 승인하는 것입니다. 가장 안전한 길은 실용적이고 인간 중심적인 길입니다. 시범 운영하고, 측정하고, 투명성을 요구하고, 사람에게 투자하며, 형평성을 모든 기술 배포의 기본 제약 조건으로 삼는 것입니다.

출처

  • Center for Democracy & Technology — 교육 분야 AI의 해악과 위험에 관한 보고서
  • American Civil Liberties Union — AI와 불평등에 관한 분석
  • U.S. Department of Education — "Artificial Intelligence and the Future of Teaching and Learning" 보고서
  • UNESCO — "Guidance for generative AI in education and research"
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 시민 단체, 교육자 및 관련 기관들은 교실 내 AI 도입에 대해 어떤 우려를 제기하나요?
A 시민 단체, 교육자 및 국제 기구들은 학교 현장의 AI가 편향을 고착화하고 개인정보를 침해하며 디지털 격차를 심화할 수 있다고 경고합니다. 이들은 데이터 수집 관행, 잠재적인 프로파일링, 그리고 거버넌스와 감독이 부실할 경우 감시 도구가 학생 생활의 일상적인 특징이 되어 신뢰를 훼손하고 불평등을 증폭시킬 위험이 있다는 점을 강조합니다.
Q 교육용 AI에서 '이원화(two tiers)' 문제란 무엇인가요?
A 전문가들은 AI가 학교 교육의 이원화를 초래할 수 있다고 말합니다. 즉, 부유한 지역구에서는 강력한 개인정보 보호, 공급업체의 투명성, 실질적인 교사 교육을 동반한 시범 운영이 이루어지는 반면, 자원이 부족한 지역구에서는 강력한 개인정보 보호, 투명성 및 적절한 전문성 개발이 결여된 무료 또는 할인된 버전의 AI가 도입될 수 있다는 것입니다. 그 결과 보편적인 혜택 대신 학업 성취도 격차가 벌어지고 교육 모델이 양극화될 수 있습니다.
Q 조달부터 책임에 이르기까지 제안된 구체적인 조치는 무엇인가요?
A 지지자들은 AI 조달을 일상적인 IT 구매가 아닌 공공 정책 결정으로 재정의할 것을 촉구합니다. 또한 공급업체가 데이터 소스와 편향 완화 방법을 공개하도록 요구하고, 채점이나 징계 결정에 대한 설명 가능성을 보장하며, 계약을 통해 데이터 재사용을 제한할 것을 요구합니다. 또한 도입과 더불어 교사 교육 및 교육과정 통합에 대한 투자도 강조합니다.
Q 학습에서 AI의 '블랙박스'적 특성에 대한 우려는 무엇인가요?
A 교사들은 불투명한 알고리즘이 점수와 추천의 도출 방식을 숨김으로써, 결과물을 교수 학습의 기회로 전환하기 어렵게 만드는 것을 우려합니다. 교육자가 해석 가능성과 인간에 의한 검토를 유지하지 않는다면, 학생들이 기계가 생성한 아이디어에 의존하게 되면서 학습에 필수적인 의도적 인지 노력(과정 증명, 반론 토론, 초안 수정 등)이 약화될 수 있습니다.
Q 기사에 따르면 규제 기관과 자금 지원 기관은 어떤 역할을 하나요?
A 규제 기관과 자금 지원 기관은 독립적인 평가 프레임워크를 제공하고, 학습 효과와 형평성을 모두 측정하는 시범 운영에 자금을 지원하며, 개인정보 보호와 투명성을 우선시하는 조달 지침을 발행할 것을 촉구받고 있습니다. 이러한 주체들은 지역구의 협상력을 회복하고, 책임감 있는 AI 배포를 보장하며, 지역구마다 보호 수준이 다른 파편화된 상황을 방지하는 데 도움을 줄 수 있습니다.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!