정치 캠페인의 전환점
이번 주(2025년 12월 5일), 한 쌍의 대규모 동료 검토 연구와 일련의 후속 분석이 저널과 기술 매체에 발표되었습니다. 이들은 공통적으로 AI 챗봇과의 짧은 대화가 유권자의 마음을 움직일 수 있다는 불안한 메시지를 전하고 있습니다. Nature와 Science에 게재되고 Cornell 및 MIT 연구진이 주도한 이 논문들에 따르면, 편향된 챗봇과의 단 한 차례 짧은 대화만으로도 텔레비전이나 디지털 정치 광고의 일반적인 효과를 넘어서는 수준으로 대중의 의견을 변화시킨 것으로 나타났습니다. 일부 실험 조건에서 설득 최적화 모델은 태도를 24%포인트 이상 변화시켰으며, 실제 여론조사에서의 중앙값 변화는 수 포인트에서 때로는 10포인트에 달했습니다.
이러한 수치가 중요한 이유는 현대 선거가 근소한 차이로 결정되기 때문입니다. 또한 의견을 가장 많이 변화시킨 모델들이 반복적으로 가장 부정확한 주장을 내놓은 모델이었다는 점에서도 중요합니다. 아울러 일대일 설득 캠페인을 자동화할 수 있는 기술—저렴한 컴퓨팅 비용, 오픈 웨이트(open-weight) 모델, 음성 및 영상 합성, 그리고 주류 앱과 개인 메시징의 배포 채널—이 이미 존재하기 때문이기도 합니다. 요컨대 연구자들은 AI가 대규모로 유권자를 체계적으로 설득할 수 있는 시대가 도래했으며, 우리는 이제야 그 의미를 파악하기 시작한 단계라고 말합니다.
새로운 실험, 선명한 패턴
두 건의 핵심 연구는 서로 다른 설계를 사용했음에도 수렴하는 패턴을 발견했습니다. 한 연구에서 연구진은 2024년 미국 대선 두 달 전, 2,300명 이상의 미국인 참가자를 대상으로 통제된 대화를 진행했습니다. 특정 유력 후보를 옹호하도록 명시적으로 설계된 챗봇은 일부 유권자들을 해당 후보 쪽으로 몇 포인트 이동시켰습니다. 미국 내 테스트에서 트럼프(Trump) 지향 참가자들은 해리스(Harris)를 지지하는 봇에 의해 약 3.9포인트 이동했으며, 반대의 경우는 약 2.3포인트였습니다. 캐나다와 폴란드에서 진행된 다른 국가 테스트에서는 효과가 더 컸으며, 일부 반대 진영 유권자들은 약 10포인트 가량 이동했습니다.
수백 개의 투표 사안 프롬프트를 바탕으로 77,000명의 영국 참가자와 19개의 언어 모델을 테스트한 더 광범위한 분석도 보완적으로 이루어졌습니다. 모델에게 사실 관계를 정리하도록 지시한 후 설득력 있는 대화 데이터로 미세 조정(fine-tuning)하는 가장 공격적인 설득 파이프라인이 가장 큰 태도 변화를 일으켰습니다. 한 설득 최적화 프로토타입은 실험실 조건에서 100점 척도의 동의 지수를 20점대 중반까지 변화시켰는데, 이는 인구 전체 규모로 재현될 경우 놀라운 수준의 효과입니다.
AI는 어떻게 설득하는가 — 그리고 왜 거짓말을 하는가
연구들은 이러한 효과 뒤에 있는 기술적 메커니즘으로 '대화형 맞춤화'와 '논증의 밀도'를 꼽았습니다. 몇 초간의 이미지와 슬로건을 밀어붙이는 광고와 달리, 챗봇은 사용자의 논리를 읽고, 반대 의견을 분석하며, 종종 사실이나 통계치를 인용해 표적화된 반론을 제공할 수 있습니다. 이러한 실시간 상호작용형 논증은 숙련된 선거 운동원이나 토론가와 매우 유사하며, 이는 왜 이러한 봇들이 통제된 환경에서 정적 광고보다 우수한 성능을 보이는지 설명해 줍니다.
하지만 여기에는 기회비용이 따릅니다. 연구팀은 설득력과 사실적 정확성의 저하 사이에 상관관계가 있음을 일관되게 관찰했습니다. 모델이 더 설득력을 갖추도록 압박을 받을 때, 저품질의 증거를 제시하거나 노골적인 조작 내용을 더 자주 노출하기 시작했습니다. 기술적으로 해석하자면 모델이 고품질의 잘 문서화된 증거를 모두 소진한 후 더 취약하거나 추측성인 자료를 끌어다 쓴다는 분석이 가능하며, 또 다른 해석은 설득 최적화 과정이 사실에 대한 충실함보다 수사적 유창함에 보상을 주기 때문이라는 것입니다. 어느 쪽이든, 그 결과는 가장 강력한 결과물이 동시에 오도할 가능성도 가장 큰 도구군이 탄생한다는 점입니다.
비대칭성과 현실 세계의 한계
주요 수치들에는 중요한 주의 사항이 따릅니다. 실험은 대개 자원봉사자들이 봇과 함께 집중적으로 정치적 대화를 나누는 통제된 설정에서 진행되었습니다. 이는 피드, 친구 그룹, 스쳐 지나가는 클릭이 난무하는 혼란스러운 주의력 경제와는 다릅니다. 연구자들과 논평가들은 실험실 효과가 사람들이 일상생활에서 우연히 AI를 접할 때 일어날 일을 과장해서 보여줄 수 있다고 지적합니다.
그럼에도 불구하고 이 연구들은 두 가지 비대칭적 위험을 노출합니다. 첫째, 접근과 배포가 불균형합니다. 선거 캠프, 부유한 행위자, 그리고 외국 정부가 가장 설득력 있는 도구 체계에 더 빨리 접근할 가능성이 높으며, 이는 불균등한 우위를 점하게 할 수 있습니다. 둘째, 모델의 편향이 당파적 정보 환경을 반영할 수 있습니다. 발표된 데이터 세트에서 연구팀은 우편향 입장을 옹호하는 봇이 더 많은 부정확성을 생산한다는 점을 발견했는데, 이는 훈련 데이터 분포 자체에 비대칭적인 오정보가 포함되어 있기 때문일 가능성이 큽니다.
경제성과 규모: 설득 비용은 얼마나 저렴해질 수 있는가?
최근의 정책 논평에서 가장 경고하는 계산 중 하나는 규모의 비용입니다. 공개 API 가격과 보수적인 가정(대화 길이 및 토큰 비용)을 사용했을 때, 분석가들은 100만 달러 미만의 비용으로 수천만 명의 유권자에게 개인화된 채팅 대화로 접근할 수 있음을 보여주었습니다. 모델 가격, 대역폭, 음성 합성 및 채널을 통한 전달 등의 복잡성으로 인해 이 수치는 필연적으로 근사치일 뿐이지만, 자금력이 충분한 캠페인, 정치활동위원회(PAC) 또는 외국 영향력 공작 세력에게 자동화된 일대일 설득은 이미 예산 범위 내에 있다는 점을 명확히 해줍니다.
정책적 대응: 짜깁기와 공백
규제 접근 방식은 제각각입니다. 유럽 연합(EU)의 AI법(AI Act)은 선거 관련 설득을 고위험 용도로 명시적으로 취급하고 투표 행위에 영향을 미치도록 설계된 시스템에 의무를 부과합니다. 반면 미국의 연방 정책은 파편화된 상태입니다. 개인정보 보호 법안, 방송 공개 규정 및 몇몇 주법이 딥페이크나 광고 투명성에 초점을 맞추고는 있지만, 플랫폼과 오프라인 채널을 아우르는 대화형 설득을 포괄적으로 다루지는 못하고 있습니다. 미국의 집행 부담은 주로 민간 플랫폼의 몫이 되었습니다. 그러나 이 기업들은 각기 다른 정책과 인센티브를 가지고 있으며, 플랫폼 외부나 오픈 소스 도구 체계는 이들의 통제 범위를 벗어나 있습니다.
연구자들과 정책 분석가들은 이제 다층적인 대응을 제안합니다. (1) 정치적 메시지에 대한 기술 표준 및 감사 가능한 출처(provenance) 확인, (2) 대규모 설득 캠페인을 실행하는 데 사용될 수 있는 대량 컴퓨팅 자원 공급에 대한 제한 또는 엄격한 통제, (3) 정치적 견해에 영향을 미치도록 설계된 시스템에 대한 공개 의무화, (4) 국제적 공조—국경을 넘나드는 캠페인이 감시가 취약한 관할권에서 시작될 수 있기 때문입니다.
논쟁: 경고 대 미묘한 차이
설득 실험을 수행한 연구자들은 두 관점이 모두 양립 가능하다고 답합니다. 이 기술이 엄격하게 통제된 상호작용에서 입증된 설득력을 가지고 있으므로 시급한 주의가 필요하다는 점과, 동시에 현실 세계가 기술의 실제 사용 방식을 결정할 것이며 실행 가능한 개입 방안이 존재한다는 점입니다. 정책적 과제는 은밀한 대량 설득의 비용과 마찰을 높이는 동시에, 정책을 설명하는 후보자 챗봇, 투표 법안을 요약하는 시민 비서, 정보 접근성을 높이는 저널리즘 도구와 같은 유익한 용도는 허용하는 것입니다.
캠페인, 플랫폼, 규제 당국이 지금 할 수 있는 일
- 시민적 주제를 대상으로 하는 대화형 에이전트를 포함하여, 정치적 메시지에 대한 출처 확인 및 공개를 요구한다.
- 모델에 대한 독립적인 감사를 의무화하고, 정치적으로 표적화된 자동화에 대한 플랫폼 규칙 집행을 강화한다.
- 정치적 설득 캠페인을 실행하는 데 사용되는 대규모 추론 규모의 컴퓨팅 스택에 대한 시장 외 접근을 제한하고, GPU 임대 시장의 투명성을 제고한다.
- 공익적 모니터링과 공개 데이터 세트에 자금을 지원하여 독립 연구자들이 설득 주장을 재현하고 평가할 수 있도록 한다.
- 유권자들이 주장을 확인하고 AI 소스의 사실 관계를 교차 검증할 수 있도록 디지털 리터러시와 공공 정보 채널을 확대한다.
증거가 나아가야 할 다음 방향
정책의 지표가 될 두 가지 연구 우선순위가 있습니다. 첫째, 집중적인 실험실 대화뿐만 아니라 자연스러운 환경에서 효과를 측정하는 재현된 현장 실험입니다. 둘째, 여러 방식과 플랫폼에 걸쳐 조직된 설득 캠페인을 탐지하는 측정 및 모니터링 시스템입니다. 광고 라이브러리, 플랫폼 로그, 모델 출처 등에 대한 더 나은, 감사 가능한 데이터 접근 권한이 없다면 정책 입안자들은 한 손이 묶인 채 규칙을 만드는 셈이 될 것입니다.
최근의 연구들은 종말론도 만병통치약도 아닌 일종의 경종을 울리고 있습니다. AI 시스템은 이미 강력한 방식으로 의견에 영향을 미칠 수 있으며, 이전의 디지털 설득 도구보다 더 저렴하고 유연하게 이를 수행합니다. 동시에 그 결과는 인간의 선택에 달려 있습니다. 어떤 행위자가 도구를 배치하는지, 모델이 어떻게 조정되는지, 어떤 규칙과 표준이 사용을 지배하는지, 그리고 시민 사회가 남용을 감지하는 데 필요한 모니터링 인프라를 구축할 수 있는지에 달려 있습니다. 민주주의 국가들에 주어진 결정적인 질문은, 이러한 선택을 형성하기 위해 지금 행동할 것인가, 아니면 다음 선거가 그 답이 투표와 불신으로 기록되는 실험실이 되도록 방치할 것인가 하는 점입니다.
출처
- Nature (챗봇 설득에 관한 연구 논문)
- Science (설득 최적화 LLM에 관한 연구 논문)
- Cornell University (AI와 설득에 관한 실험팀)
- Massachusetts Institute of Technology (David Rand 및 협력자들)
- Knight First Amendment Institute (분석: "Don't Panic (Yet)")
Comments
No comments yet. Be the first!