AI 창시자 중 한 명이 문명이 와해될 수 있다고 말하는 이유
딥러닝 발전의 핵심 인물인 제프리 힌턴(Geoffrey Hinton)은 한 대학 포럼에서 열린 공개 대담을 통해 기술계의 많은 이들이 피하고 싶어 하는 시나리오를 그려냈습니다. 그것은 바로 대규모 실업, 민주적 책임성 약화, 그리고 자율 시스템으로 인해 더욱 불안정해진 국제 안보 환경입니다. 이번 강연은 정책 비판이자 경고의 메시지였으며, 인간의 노동을 위해 설계된 경제와 정치 체제가 그 노동이 대규모로 대체될 때 어떻게 대처할 것인가에 대한 익숙한 불안감을 더욱 고조시켰습니다.
힌턴이 평이한 용어로 설명한 내용
그의 핵심 주장은 단순하고도 냉혹합니다. 만약 AI가 인간 수준의 능력을 광범위하게 갖추거나 능가하게 된다면, 현재 사람들이 수행하는 직업들이 자동화로 사라지고 이를 대체할 명확한 새로운 역할은 나타나지 않을 수 있다는 것입니다. 그의 말에 따르면, 일자리를 잃은 사람들은 새로운 일자리를 찾지 못할 수도 있으며, 이는 국가적 규모의 소비와 사회적 응집력을 무너뜨릴 수 있습니다. 이 논리는 우리가 목격하고 있는 기술적 진보를 사회적 피드백 루프와 연결합니다. 즉, 유급 노동자가 줄어들면 상품과 서비스의 구매자가 줄어들고, 이는 결국 많은 기업의 시장 기반을 잠식하게 된다는 것입니다.
연구실에서 사회적 위험으로
이 대목에서 힌턴의 이력이 중요하게 작용합니다. 그는 현재의 생성형 모델의 근간이 되는 신경망 방식을 구축하는 데 기여했습니다. 이러한 배경은 그의 경고에 각별한 무게를 실어줍니다. 공학적 측면과 연구의 궤적을 모두 이해하는 인물의 입에서 나온 것이기 때문입니다. 그는 이전에도 범용적인 인간 수준 AI의 등장이 한때 생각했던 것보다 더 가까운 미래에 가능할 것으로 본다고 언급한 바 있으며, 과거에는 비주류로 여겨졌던 인류 실존의 결과들에 대해 공개적으로 고찰해 왔습니다. 이러한 이전의 평가들이 이번 대학 강연의 기조를 형성했습니다. 이는 기술적 예측과 사회적 경고가 뒤섞인 것이었습니다.
실제로 발생할 수 있는 붕괴의 모습
힌턴은 서로를 증폭시킬 수 있는 일련의 메커니즘을 설명했습니다. 경제적 이탈은 AI와 칩 제조 역량을 보유한 소유주들에게 부를 집중시켜 광범위한 수요를 감소시킬 수 있습니다. 세원이 고갈되고 인구의 상당수가 소외감을 느낄 때 정치 기관들은 적응에 어려움을 겪을 수 있습니다. 안보 측면에서 그는 무력의 자동화, 즉 인간의 감독이 제한된 상태에서 작동하는 살상 시스템이 군사력 사용의 정치적 비용을 낮추어 갈등을 더 빠르고 통제하기 어렵게 만들 수 있다고 주장했습니다. 이러한 역학 관계를 종합해 볼 때, 이는 고립된 혼란이 아니라 시스템 전체의 붕괴 위험을 초래합니다.
모두가 동의하는 것은 아님 — 엇갈리는 증거들
힌턴의 시나리오는 논쟁의 여지가 있습니다. 일부 전문가들은 과거의 기술 혁명이 특정 직업을 없앴지만 동시에 다른 직업들을 창출했으며, 역사는 다양한 적응의 결과를 보여준다고 지적합니다. 현재의 흐름 속에서도 인간 노동자를 반자율 에이전트로 대체하려는 많은 시도는 실제적인 한계에 부딪혔습니다. 시스템은 까다로운 에지 케이스(edge cases), 안전 문제, 그리고 인간의 감독을 유지하게 만드는 유인책들로 인해 고전하고 있습니다. 그럼에도 불구하고, 최근의 학술 연구들은 다른 종류의 위험을 주장합니다. 점진적이고 단계적인 발전조차도 미묘하지만 궁극적으로는 심오한 방식으로 거대 시스템에 대한 인간의 통제력을 약화시킬 수 있다는 것입니다. 핵심은 붕괴가 필연적이라는 것이 아니라, 심각한 시스템적 피해로 이어지는 경로가 다양하고 충분히 개연성이 있으므로 진지한 계획이 필요하다는 점입니다.
논의 중인 정책 옵션들
대응책은 크게 두 가지 진영으로 나뉩니다. 규제, 세금, 수출 통제를 통해 기술의 속도를 늦추거나 방향을 설정하려는 진영과, 재분배, 안전망, 새로운 제도를 통해 사회가 겪을 충격을 완화하려는 진영입니다. 아이디어는 법인세 인상부터 재교육을 위한 공적 자금 지원, 보편적 기본소득 시범 사업, 그리고 자율 무기와 같은 이중 용도 시스템에 대한 강화된 안전 규칙에 이르기까지 다양합니다. 이러한 제안들의 근거는 명확합니다. AI로부터 얻는 이득이 빠르게 집중된다면, 시장 논리만으로는 안정적이고 공평한 전환을 만들어낼 수 없다는 것입니다. 따라서 최악의 결과를 피하고자 하는 정책 입안자들은 경제 정책과 표적화된 기술 거버넌스를 결합해야 할 것입니다.
향후 주목해야 할 점
- 배포 속도: 기업들이 노동력을 대체하는 시스템을 대규모 서비스와 워크플로우에 얼마나 빨리 도입하는지 여부.
- 노동 시장 신호: 자동화 가능하다고 주장되는 직종에서 측정 가능한 채용 감소나 지속적인 임금 압박이 나타나는지 여부.
- 규제 대응: 정부가 고위험 AI에 대해 구속력 있는 안전 규칙을 채택하는지, 그리고 이익을 어떻게 과세하거나 재분배하는지 여부.
- 군사적 활용: 국가들이 자율 시스템 배포를 가속화하는지, 그리고 유해한 사용을 제한하기 위한 규범이나 조약이 어떻게 진화하는지 여부.
독자들에게 이것이 중요한 이유
힌턴의 경고가 중대한 이유는 그것이 확실하기 때문이 아니라, 기술적 역량과 경제적·정치적 취약성이 결합된 위험을 구체화하기 때문입니다. 현대 경제의 규모와 컴퓨터 중심 변화의 속도는 유인책이나 성능의 작은 변화만으로도 막대한 사회적 파급 효과를 일으킬 수 있음을 의미합니다. 시민들에게 있어 이는 논쟁이 더 이상 순수하게 학문적인 영역에 머물지 않음을 시사합니다. 조달, 조세 정책, 사회 안전망, R&D 예산 지원에 관한 선택이 AI를 공동 번영의 엔진으로 만들 것인지, 아니면 권력을 집중시키고 제도를 불안정하게 만드는 힘으로 만들 것인지를 결정할 것입니다.
힌턴을 파멸의 예언자로 보든 필요한 자극제로 보든, 그의 개입은 핵심적인 질문을 공론화했습니다. "오늘날의 진보로부터 누가 이득을 얻고, 누가 대가를 치르는가?" 이 질문에 대한 답이 향후 수십 년 동안 노동, 정치, 안보의 지형을 결정지을 것입니다.
— Mattias Risberg, Dark Matter
Comments
No comments yet. Be the first!