ヒントン氏、AIが社会を破壊する恐れがあると警告

AI(人工知能)
Hinton Warns AI Could Break Society
ジョージタウン大学での対談において、AIの先駆者ジェフリー・ヒントン氏は、AIの急速な普及が労働者の職を奪い、政治を歪め、自動化された戦争へのハードルを下げる可能性があるという悲観的な予測を示した。同氏の警告は、政策が技術の進歩に追いつけるのかという議論をさらに激化させている。

AI創始者の一人が文明の崩壊を危惧する理由

深層学習(ディープラーニング)開発の中心人物であるGeoffrey Hintonは、ある大学のフォーラムでの公開討論において、テック業界の多くが避けたいと願うシナリオを描き出した。それは、大量失業、民主的な説明責任の弱体化、そして自律型システムによって不安定化する国際安全保障環境だ。この講演は、政策批判であると同時に警鐘でもあり、人間の労働を前提に設計された経済と政治体制が、その労働が大規模に代替された際にいかに対処すべきかという、かねてからの不安を浮き彫りにした。

Hinton氏の主張を簡潔に言えば

彼の核心的な主張は単純明快で、かつ厳しいものだ。AIが人間レベルの能力に広く到達、あるいはそれを凌駕すれば、現在人間が行っている仕事は自動化され、それに代わる明確な新しい役割が生まれない可能性があるという。彼の言葉を借りれば、職を失った人々は新しい仕事を見つけられないかもしれず、それが国家規模で消費と社会の結束を崩壊させる恐れがある。この議論は、現在見られる技術進歩を社会的フィードバックループに結びつけている。つまり、賃金労働者が減れば商品やサービスの買い手が減り、それが結果として多くの企業の市場基盤を浸食するというものだ。

研究所から社会のリスクへ

ここで重要なのはHintonの経歴だ。彼は、現在の生成モデルを支えるニューラルネットワークの手法の構築に貢献した。その経歴は、工学と研究の軌跡の両方を理解している人物からの言葉として、彼の警告にさらなる重みを与えている。彼は以前、汎用的な人間レベルのAIの到来はかつて考えていたよりも近い将来に起こりうると述べており、かつては非主流派と思われていた存亡に関わる結末についても公に考察してきた。こうした以前の評価が、技術予測と社会への警告が入り混じった大学での発言の基調となっている。

崩壊は実際にどのように起こりうるか

Hintonは、互いに増幅し合う一連のメカニズムを説明した。経済的な置換は、AIやチップ製造能力の所有者に富を集中させ、広範な需要を減少させる可能性がある。税収基盤が侵食され、人口の大部分が取り残されたと感じるようになれば、政治機関は適応に苦慮するかもしれない。安全保障面では、武力の自動化、すなわち人間の監視をほとんど介さずに作動する致死性システムが、軍事力行使の政治的コストを下げ、紛争をより迅速化させ、制御を困難にすると論じた。これらが合わさることで、単なる局所的な混乱ではなく、システム全体の崩壊のリスクが生じる。

全員が同意しているわけではない — 証拠も一様ではない

Hintonのシナリオには異論もある。一部の専門家は、過去の技術革命が特定の仕事を奪う一方で新たな仕事を生み出してきたことを指摘し、歴史がさまざまな適応の結果を示していると述べている。現在の波においても、人間の労働者を半自律的なエージェントに置き換えようとする多くの試みは、実務上の限界に直面している。システムは、複雑な例外的事例(エッジケース)や安全上の懸念、そして人間の監視を維持しようとする動機に阻まれている。とはいえ、新たな学術研究では、別の種類のリスクが議論されている。たとえ緩やかで漸進的な進歩であっても、微妙ながらも最終的には重大な形で、巨大なシステムに対する人間の制御を侵食する可能性があるというのだ。要点は、崩壊が不可避であるということではなく、深刻なシステム被害への道筋は多岐にわたり、真剣な計画を立てるに足るほど現実味を帯びているということだ。

検討されている政策の選択肢

対応策は大きく2つの陣営に分かれる。規制、税制、輸出管理を通じて技術を遅らせたり形作ったりしようとするものと、再分配、セーフティネット、新しい制度を通じて社会を混乱から守ろうとするものだ。その案は、法人税の引き上げから再訓練のための公的資金提供、ユニバーサル・ベーシック・インカムの試験導入、そして自律型兵器などのデュアルユース(軍民両用)システムに対するより強力な安全規則まで多岐にわたる。これらの提案の多くの根拠は明白だ。AIによる利益が急速に集中すれば、市場だけでは安定した公平な移行を実現できないということだ。最悪の事態を避けたい政策立案者は、経済政策と的を絞った技術ガバナンスを組み合わせる必要があるだろう。

今後の注目点

  • 導入の速度:企業がいかに迅速に労働代替システムを大規模なサービスやワークフローに投入するか。
  • 労働市場のシグナル:自動化が可能とされる職種における、採用の顕著な減少や持続的な賃金抑制圧力。
  • 規制上の対応:政府が高リスクAIに対して拘束力のある安全規則を採択するかどうか、また、利益にどのように課税し再分配するか。
  • 軍事利用:国家が自律型システムの配備を加速させるかどうか、そして有害な利用を制限するための規範や条約がいかに進展するか。

読者にとっての重要性

Hintonの警告が重大なのは、それが確実だからではなく、技術的能力と経済的・政治的な脆弱性が混ざり合ったリスクを具体化しているからだ。現代経済の規模とコンピューティングによる変化のスピードは、動機や能力のわずかな変化が社会に甚大な影響を及ぼしうることを意味している。市民にとって、これは議論がもはや純粋に学術的なものではないことを示唆している。調達、税制、社会保障、そして研究開発資金に関する選択が、AIが繁栄を共有するためのエンジンとなるか、あるいは権力を集中させ機関を不安定化させる力となるかを左右することになる。

Hintonを破滅の預言者と見るか、必要な批判者と見るかにかかわらず、彼の介入は中心的な問いを公衆の面前に突きつけた。すなわち、今日の進歩から利益を得るのは誰か、そしてその代償を払うのは誰かということだ。その答えが、今後数十年の労働、政治、安全保障のあり方を形作ることになるだろう。

— Mattias Risberg, Dark Matter

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ジェフリー・ヒントン氏は、急速なAI導入に関してどのようなシナリオを警告しましたか?
A ヒントン氏は、急速なAI導入によって人間が行っている多くの仕事が自動化され、人々が就くべき新たな役割が不明確なまま失業し、その結果、国家規模で消費や社会的結束が崩壊する可能性があると警告しました。彼は技術進歩のスピードを社会的フィードバックループに関連付け、賃金労働者が減ることで商品やサービスへの需要が低下し、経済を不安定化させる可能性があると指摘しています。
Q ヒントン氏は、システム的なリスクを増幅させる可能性のあるどのようなメカニズムを特定しましたか?
A 経済的置換によって、AIやチップ製造能力の所有者に富が集中し、広範な需要が減少して多くの世帯から資金が流出する可能性があります。税収基盤が侵食され、国民の大部分が取り残されたと感じるようになると、政治制度の適応が困難になるかもしれません。安全保障面では、監視の行き届かない自動兵器が戦争の政治的コストを下げ、紛争を加速させる可能性があります。
Q 潜在的な害に対処するために、この記事ではどのような政策オプションが説明されていますか?
A 政策オプションは大きく2つの陣営に分かれます。1つは、規則、税、輸出管理を通じて技術を遅らせたり形作ったりするための規制です。もう1つは、再分配、セーフティネット、新しい制度を通じて社会を混乱から守ることです。具体的な案としては、法人税の引き上げ、再教育のための公的資金、ユニバーサル・ベーシックインカムの試験導入、自律型兵器などのデュアルユース(軍民両用)システムに対するより厳格な安全規則などが挙げられており、ガバナンスに対する複合的なアプローチを反映しています。
Q 展開するリスクを測るために、政策立案者はどのような指標を注視すべきですか?
A 政策立案者は、大規模サービスにおける労働代替型AIの導入速度や、採用の減少、自動化される可能性のある職種における持続的な賃金圧力といった労働市場のシグナルを注視すべきです。また、高リスクAIに対する安全規則や税・再分配の変更を含む規制当局の対応を追跡し、自律型システムが戦略的決定や規範にどのように影響するかを確認するために軍事利用を監視する必要があります。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!