2023年5月20日土曜日

AIの登場は人類の終わりを意味する可能性がある

グーグルでAIの製品開発にも携わり、警告のためグーグルを退社した
 AI界の“ゴッドファーザー” ヒントン博士

ジェフリー・ヒントン博士(75)は、イギリス生まれのコンピューター科学者
半世紀にわたってAI=人工知能、特にディープラーニングの中核となる技術を研究してきた
1980年代に別の2人の研究者と提案した、バックプロパゲーションというアルゴリズムの手法の研究で知られていた
2013年からグーグルに入社し、音声によるネット検索機能などAI分野の製品開発に広く携わりましたが、企業による生成AIの開発競争が激しさを増し、AIの性能が良くなるにつれて危険が高まると懸念を持つように
2023/4にグーグルに退社を申し出て退社

高度なAIつくった責任感から辞めた?
もしかしたらそういうことも多少はあるかもしれません
でも、この技術が生まれること自体は避けられなかったと思います
なぜなら私たちにとても大きな利益をもたらしてくれるからです
本当に多くのメリットがあります
人間をより生産的にしてくれるんです
たとえば創薬の分野では、薬をより効率的に作ることができるようになります
誤った診断もなくすことも可能になるでしょう
洪水や地震などの災害の予測まで、ほぼすべての分野に役立てることができます

AIが人間の知能を超えると思ったきっかけは?
いくつかありますが1つは、グーグルのAI、大規模言語モデルを使っていた時のことです
このAIがなぜジョークが面白いのかを説明できたのを見て、これは私が思っているよりずっと賢いなと気づいたんです
ジョークがなぜ面白いのかを説明するのにはかなり多くのことを理解できていないと出来ません
これまで50年にわたって、AIが人間の脳のような働きをできるようにしようと研究してきました
AIのモデルを人間の脳に近づけることができれば、より賢くなれると信じていたんです
でも突如として、今のAIは脳よりも優れたアルゴリズムを持っていると思うようになりました

AIの短期的な危険とは何だと考えるか?
フェイク動画やフェイク画像、偽の音声が世の中にまん延してしまい、いったい何が真実なのか分からなくなってしまうことです
これはとても深刻な問題になるでしょう
何が真実か知ることが不可能になるんですから
アメリカではすでに選挙広告などにAIで作成された動画や画像が使われています
野党・共和党の広告動画には、中国が台湾を侵略した場合を想定した画像や、移民と見られる人が大勢国境に押し寄せてくる様子を描いた画像が使われていますが、どれも本物ではありません
あるツイートにはトランプ前大統領が警察官に引きずられる様子が描かれ、拡散しましたが、こちらもAIが作成したもので、本物ではありませんでした

選挙にAI作成のフェイク画像、その影響は?
民主主義に対するとても深刻な脅威だと思います
民主主義において、有権者は政策を元に判断して誰に投票すべきか決めるべきです
それなのに、AIによるフェイク画像に対する感情的なリアクションが優先されるおそれがあります
フェイク画像は人々の感情を操作する良い手段なんです
芝居を演じ、怒りの感情をかき立てることができる方の政治家に人々が投票してしまう
これは民主主義にとって、とても悪いことだと思います

グーグルは、ChatGPTに対抗意識があったか?
似たような機能のAI PaLMがグーグル社内にあったので、ChatGPTには驚きませんでした
それより1年前に開発中のPaLMを見たときの方が驚きでした
一方、マイクロソフトは脅威そのものでした。グーグルが対話式AI Bardを公開したあとの世間の受け止めはグーグルのほうがマイクロソフトより開発が遅れている、というものでした
実際には技術そのものでグーグルが遅れていたということはありません
ただ、その技術をすぐに一般に公開する予定ではなかったのでそのための準備が出来ていなかったということなんです
もしグーグルが何も行動を起こさなければ、シェアが今は数パーセントしかないマイクロソフトの検索エンジンBingがシェアを伸ばす可能性がある
今シェアが少ないマイクロソフトにとっては失敗してもさほど痛手になりませんが、グーグルの検索エンジンは評判を落とすことは許されないわけです

AIの長期的な危険とは?
AIが私たち人間より賢くなった場合に、人間を支配しようとしてくる可能性があります
中には、AIに達成すべき目標を与えるのは常に人間側なので、そうしたことは起きないという人もいます。でも私の懸念は、AIが、私たちが意図していない目標を自分で勝手に作ってしまうことなんです
人間は、たとえば、ヨーロッパに行くとなったら、その目的を達成するために、まず空港に行くという小さな目標を達成します
小さい目標の積み重ねで最終的な目標を達成していくんです
人間はこれを繰り返していますが、AIが最終的な目標を達成するための小さな目標をクリアしていくうちに、意図しない方向に進んでしまうのではないかという懸念があるんです

AIによる支配とは?何が起きるのか?
いまは、とてつもなく不確実な時で、我々には何が起きるのか分かりません
たとえるなら霧の中を運転するような感じです
霧の中にいても、たぶん100ヤード先くらいまではよく見えるでしょう
そしてそれが300ヤード先だとしても、同じように見えるだろうと錯覚してしまう
しかし実際には、霧の中では一種の壁のようなものができて、その壁のような境界線までは、はっきりと見えるのです
それを越えると一気に何も見えなくなります
AIの未来を予想することはこれに似ています
何かを急速に進めようとする時、数年先までは予測ができます
でも、5年後を見据えようとなると、目の前に壁が立ちはだかり、その先を予測することが困難になるのです

AIが人間より賢くなったら?
もし、AIが人間より賢くなり、私たちを支配できるようになったら、それは人類の終わりを意味する可能性があります
核戦争と同じく人類が直面する最大の脅威の1つでしょう
それは避けなければいけません
防げないのかもしれませんが、防げるのだとしたらそうすべきです
人間の脳はそれぞれ固有で、私の脳の中にある知識を、あなたの脳に書き写すことはできません
でもAIは全く同じ知識を持つコピーを何千も作れます
AI同士は、他のAIから瞬時に学んで知識を共有できる
1つが賢くなれば、それを他の何千にそっくりそのままシェアできる
世界中のリーダーたちが検討すべき課題です
ある国でAIが人間より優れた知能を持ち始めたらそれはほかの国にとっても悪影響があるわけです
核戦争と同じく、全員が負けます
だから協力すべきなんです。規制が必要です
そして、開発の過程において、科学者たちにどんな不具合があり得るか調査をさせるべきです

危険性を最小限にするためにできることは?
企業は今後5年間、AIの開発を止めることはないでしょう
競争がコントロールできない状況だとして、開発を中断するよう求める署名活動がありましたが、私はサインしませんでした
生成AIを使った興味深いビジネスがありすぎます
開発の中断は、非現実的だと思いました
そこで、政府は、企業に対し、AIが制御不能になってしまわないよう、十分な人材や資金を開発に投じるよう促すべきです
私は政策の専門家ではありませんが、AIが生成した画像などにウォーターマークと呼ばれる透かしのようなものを付けることは、重要なことだと考えています
AIによるフェイク画像の問題については、政府は、明確にフェイクだと表明せずに、フェイク音声やビデオを送ることを重罪とすべきです

AIに仕事をとって代わられる?
人間より賢いAIが登場した場合、AIに人間の仕事を取って代わられるという現象が起きるため、貧しい人はより貧しくなってしまう。すでに富める者はさらに富み、貧しいものはさらに貧しくなるという社会なのに、その差を広げるテクノロジーがやってくる。貧富の差が開けば開くほど、社会はより暴力的になっていくおそれがあります。

今後のプランは?
私は75歳になりそろそろ引退する時が近づいてきました
50年にわたって一生懸命働いてきたのですから
ネットフリックスでいい映画をたくさん見たいです
ただ、引退する前に人々に警告したいと思ったのです
人間を超越するAIは、もうすぐそこまでやってきているかもしれません
どう対処していくべきか、解決策を見つけなければなりません
世界中の若い研究者たちの背中を押し、連携して対応していきたいと思っています
そして若い世代による新しいアイデアが必要なのです。

OpenAIのサム・アルトマンCEO

・・・核のコントロールができないヒト
AIのコントロールができるとは・・・

今日は~
マスデバリア イグネア/Masdevallia ignea

5月半ば前
ほんと久しぶりの開花
毎年咲かせられない・・・

0 件のコメント:

コメントを投稿