政治経済レポート:OKマガジン(Vol.512)2023.6.13

ChatGPT4を開発したOpenAI社のアルトマンCEOが慶応大学で学生と意見交換。約800人が集まったそうですが、「AIに問題が起きた場合、自身の責任をどう感じるか」との質問には「責任は感じる。しかし、これまでより良い方向に進めて来たことは誇りに思う」と回答したそうです。アルトマンのAIに対する認識や発言は揺らいでおり、悩んでいるように思えますが、AIの進化の流れはもはや止められません。


1.人類滅亡三大危機

5月30日、米国の米非営利団体「センターフォーAIセーフティー(CAIS)」が「AIによる人類滅亡リスクを軽減することは核戦争やパンデミックによるリスクと並ぶ世界の優先課題とすべき」との声明を発表。AIを核戦争、パンデミックと並ぶ人類滅亡三大リスクとして警鐘を鳴らし、対策の必要性を訴えました。

ChatGPT4を開発したオープンAIのアルトマンCEO(最高経営責任者)、グーグル・ディープマインドのハサビスCEOら350人超が署名。

声明はわずか1文のため、人類滅亡の具体的展開や予想は述べられていませんが、このタイミングの声明の懸念対象が急速に進化する生成AIであることは間違いありません。

生成AIは文章を作るだけではなく、声も作ります。他人の声になりすますことができます。病気等で声帯を失った人のための技術と生成AIが融合した結果です。詐欺等の犯罪に使用されるリスクが高まっています。

姿を再現する生成AIもあります。クローン対象の人物の発言や考え方を学習させると、モニターに映るクローンがまるで本人のような受け答えをします。

中国では詐欺師が友人の姿に扮してビデオ通話し、約1億円を騙し取る事件が発生しました。米国では国防総省近くでの爆発事件を報じたフェイク画像がネットに拡散され、株価が下落する影響が出ました。

Facebook動画やInstagramのリール動画では信じられないような光景やアングルの内容が見受けられますが、生成AI等を使ったフェイク物も少なくないでしょう。

実際のビジネスでも利用が進んでいます。画像編集ソフト「フォトショップ」等を手がけるアドビは、先月AIを使った新サービスを開始しました。鮮明でない写真や画像をAIが完全化します。実際には写っていないモノ、描いていないモノを想像で生成します。

同時にアドビは「フェイクか否かを判断または明示する仕組み」を作ることを政府や行政機関等に提案しています。

現在のChatGPT4がリリースされたのは昨年11月末ですが、その3ヶ月後から既に警鐘が鳴らされ始めました。

3月22日、米国の非営利団体「フューチャー・オブ・ライフ・インスティチュート(FLI)」が「全てのAI研究機関に対してChatGPT4よりもパワフルな生成AIのトレーニングを即座に少なくとも6ヶ月間停止することを求める」との書簡を公開。3000人を超える専門家や有識者が署名しました。

ChatGPT4の開発と学習がさらに進み、人間を遥かに超える頭脳を持った場合、人間による制御が不能になり、人間を敵視して滅ぼそうとするリスクがあるとのことです。

AIの記憶力、計算力は到底人間の及ぶところではありません。しかし、推測力、創造力は相対的に乏しく、感情、自我などはありません。そうした人間の本質に該当するような能力をAIが獲得するのは難しいと従来は考えられていました。

ところが、人間の脳神経細胞の仕組みを模して造られたニューラルネットワークを多層に結合させて使う「深層学習」と人間によるフィードバックを利用した「強化学習(RLHF)」を組み合わせた学習方法が大きな成果を挙げ始めています。

ChatGPT4を開発したOpenAIのアルトマンCEOは、3月25日のメディアインタビューで既に「AIが人類を滅亡させる可能性を否定できない」と語っていました。

人間が理解できていない部分を数字化、数式化する可能性もあります。人間は全ての知的活動を数字や数式に置き換えることを基礎として科学技術を発展させてきました。

しかし、推測、閃き、創造、自我等の心の動きについてはその仕組みは数字や数式に落とし込んで表現することはできないと考えられてきました。

ところが、膨大なデータでの学習を継続すると、やがてAIは人間の心の動きまで数字化、数式化してしまう可能性が出てきました。その結果、AIが自我を獲得し、仮にそれが人間に対して敵対的である場合には、人間社会が危機に晒されることになります。

AIの進化に関する懸念は人類滅亡リスクだけではありません。AIが人間の仕事を代替するリスクは既に現実化しています。ChatGPT4は弁護士、会計士等の仕事を代替できるレベルに達しています。

人間の能力を超えるAIの過剰な進化は、人類滅亡リスクにつながります。

2.AIゴッドファーザー

今回の声明の中心人物サミュエル(サム)アルトマンは1985年生まれ。米国の起業家、投資家、エンジニア(プログラマー)であり、OpenAIのCEOです。

ミズーリ州セントルイスのユダヤ人家系で育ち、10代から同性愛者であることを公言。8歳の時にコンピュータを買い与えられ、スタンフォード大学でコンピュータ科学を学んでいたものの、2005年退学。

退学と同時にスマートフォン向け位置情報サービスアプリ開発のLoopt社創業。同社は3000万ドル以上の資金調達をして開発を進め、2012年に4340万ドルで買収されました。

2008年、ビジネスウィーク誌のテクノロジー部門ベストヤングアントレプレナー、及びフォーブス誌の30歳以下トップ投資家に選出されました。

2011年にYC(コンビネータ)社パートナーとなり、2014年同社代表に就任。同年、Airbnb、Dropbox等の有名企業を含むYC社企業群の評価総額は650億ドルを超えました。

2015年、YC社は7億ドルの成長企業向け投資ファンド「YCコンティニュイティ」設立。また、非営利研究組織「YCリサーチ」を創設し、ベーシックインカム、コンピューティング、教育、都市構想等に関する研究を発表し続けています。

同年、アルトマンは10億ドルの外部資金を調達し、OpenAI社を創業してCEO就任。その目標は「AIを人間に利益をもたらす可能性が高い方法で進歩させること」。OpenAIには当初、イーロン・マスク等も参加していました。

2019年、アルトマンがOpenAI社に専念できるように、YC社は会長職に移行。さらに2020年初頭時点でアルトマンはYC社から去っていたようです。

アルトマンは2020年に仮想通貨企業Worldcoinを設立したほか、現在ではHelionとOkloという2つの核エネルギー企業の会長も務めます。

ところで、上記1の5月30日の署名に「AIゴッドファーザー」「ディープラーニングのゴッドファーザー」と呼ばれるジェフリー・ヒントン、ヤン・ルカン、ヨショア・ベンジオは3人は署名していないとも聞きます。

ヒントンは1947年英国生まれのコンピュータ科学及び認知心理学の研究者。ニューラルネットワーク、AI研究の第一人者であり、トロント大学名誉教授です。

2012年に開発したAlexNet(畳み込みニューラルネットワーク)の機能によってディープラーニング分野の研究が注目され、巨大テック企業の大型投資が相次ぎ、ヒントンが創業したスタートアップ企業「DNNリサーチ」はGoogleに買収(アクハイヤー)されました。

「アクハイアー」とはAcquire(買収)とHire(人材獲得)の合成語であり、人材獲得を主目的とした買収を意味します。米国テック企業ではアクハイアーが頻発しています。

2018年、ディープラーニングの取り組みを評価され、教え子のルカン、ベンジオとともに「計算機科学のノーベル賞」と言われる「チューリング賞」を受賞。上述のとおり、この3名が「AIゴッドファーザー」「ディープラーニングのゴッドファーザー」と呼ばれています。

「チューリング賞」の名称になったアラン・チューリングについては、メルマガ377・396号をご覧ください。

今年5月1日、ヒントンは「AIの発達が自身の想定を超えており、その危険性について自由に話すため」としてGoogleを退職しました。

ルカンは1960年パリ生まれ。1987年にピエール・マリー・キュリー大学(現ソルボンヌ大学)で計算機科学の博士号を取得。

1987年以降、トロント大学のヒントン研究室等に勤務し、畳み込みニューラルネットワーク等の新しい機械学習手法を数多く開発しました。ニューヨーク大学データサイエンスセンター初代所長、Facebook AIリサーチ初代所長等も歴任しています。

ベンジオは1964年パリ生まれ。カナダのマギル大学で電気工学博士号を取得。計算機科学者であり、ニューラルネットワークとディープラーニングに関する研究で知られています。

マサチューセッツ工科大学、AT&Tベル研究所、モントリオール大学等で勤務。モントリオール学習アルゴリズム研究所(現 Mila、ケベックAI研究所)を設立しました。

2016年、ベンジオはカナダでAI実用アプリケーションを開発するエレメントAIを設立。2020年、米国企業に買収され、カナダ政府の資金投入で研究された知的財産の大部分が米国に流出。ベンジオは米国企業の顧問となったものの、従業員の大多数のストックオプションが無効となり、それに対する補償もされないまま解雇され、物議を醸しました。

3.アシロマ23原則

AIとは切っても切り離せないのがコンピュータとロボット。そもそもAIはコンピュータです。そして、AIが人間の代わりを果たすことを最もイメージさせるのがロボットです。

2017年のメルマガ377・387・396号で歴史をレビューしていますが、少し振り返ってみます(詳しくはバックナンバーをご覧ください)。

コンピュータの起源はローマ時代。古代の計算機、計算器が徐々に発展して機械式になり、やがて電子化され、今日のコンピュータに進化しました。機械式計算機等を操作する人のことを「コンピュータ(計算手)」と呼ぶようになったことがコンピュータの語源のようです。

第1世代に分類されるコンピュータは真空管を使用。1946年、米国ペンシルベニア大学の研究者が開発した「ENIAC」が世界初の電子式汎用コンピュータです。1955年頃からコンピュータの素子が真空管からトランジスタに変わり、第2世代に移行しました。

1959年、集積回路が発明され、コンピュータは第3世代に移行。1971年、インテルが世界初のマイクロプロセッサ(コンピュータの演算機能を担う多層的半導体チップ、CPU<中央演算装置>とほぼ同義)を使用し、コンピュータは第4世代に移行しました。

日本では1982年から通産省が「第5世代コンピュータ」の開発プロジェクトを立ち上げ。人間のように思考するコンピュータを実現するという壮大な目標を掲げていましたが、AI実用化とも密接に関係していました。

AIに関心を高めていた先進各国は、日本がAI分野で優位に立つことを危惧し、各国でAI研究への補助や投資が活発化。

「第5世代コンピュータ」では人間の論理的思考を再現する論理的アプローチを採用。一方、インターネットの普及もあって先進各国の時流は確率・統計論的アプローチにシフト。この段階で戦略を誤ったことが米欧中に劣後する今日の日本の劣勢の要因のひとつです。

「ロボット」という単語が初めて用いられたのは1920年。チェコスロバキアの小説家カレル・チャペックが発表した「R.U.R.(ロッサム万能ロボット商会)」という戯曲の中。チェコ語で賦役(強制労働)を意味する「robota(ロボッタ)」と、スロバキア語で労働者を意味する「robotnik(ロボトニーク)」から創られた造語です。

以後、20世紀は世界でロボットが実際に開発されていきます。1928年、初期のヒューマノイドロボット「Eric」が製作され、1950年、SF作家のアイザック・アシモフが著作「われはロボット」の中でロボット工学3原則を発表。

具体的には「人間を傷つけてはならない、傷つくのを看過してはならない」「第1原則に反しない限り、人間の命令に従わなくてはならない」「第1、第2原則に反しない限り、自分の身を守らなくてはならない」というものです。

1961年、世界初の産業用ロボットが登場し、1970年代末以降、日本の有力企業が産業用ロボット分野に進出。1980年代、自動車等の生産ラインに溶接や部品組み付け等の作業を行う産業用ロボットが本格導入され始めました。

1946年、前述のとおり世界最初の電子コンピュータ「ENIAC」が開発され、翌1947年、英国の科学者アラン・チューリングが数学学会で早くも人工知能の概念を提唱。1956年、関係分野の研究者が米国ニューハンプシャー州ハノーバーのダートマス大学に集合。ジョン・マッカーシー等が発起人となって「ダートマス会議」を開催。マッカーシーが初めて「Artificial Intelligence(人工知能)」という単語を使いました。

進化し過ぎたAIが人類を絶滅させてしまうのではないかと懸念する声が高まり、人類存続の危機を回避することを目的とする組織が上述のFLIです。

2017年2月に全世界から AI 研究者や法律、倫理、哲学等の専門家が米国カリフォルニア州アシロマに集まり「人類にとって有益なAIとは何か」をテーマに5日間に亘って議論。

その成果として2017年2月3日に発表されたのが「アシロマ23原則」です。AIの研究課題、倫理と価値、長期的な課題をまとめたガイドラインです。

アシロマ原則はAI の「研究」「倫理・価値観」「将来的な問題」の3つの分野に関して考え方を纏めています。「研究」では競争の回避、「倫理と価値観」では人間による制御、「将来の問題」では再帰的自己進化(自己進化・複製によって質的・量的に急激に拡大をもたらすよう設計されたAI)がとくに重要な気がします。

23原則を5点に要約すると、第1に「むやみに技術開発を競うのではなく、今開発しているAIは人類全体にとって本当に有益かを考える」、第2に「AIの目標と行動は人間の倫理観・価値観と一致するようデザインしなければいけない」、第3に「AIによってもたらされる経済的利益は、全世界で広く共有されなければいけない」、第4に「AIによって人間の尊厳、権利、自由、文化的多様性が損なわれてはいけない」、第5に「自己増殖機能を持つような AIの開発には厳重な安全管理対策が必要である」という感じです。。

5月11日、EUが生成AIに関する規制案を承認。AI利用のリスクを4段階に分類しており、最も危険な「禁止すべきリスク」として、公共の場で警察などの公権力がライブカメラで顔認証技術を使って捜査することや、政府による個人の信用格付けなどを挙げています。しかし、既に中国では2010年代から行われています。

2番目に危険な「高リスク」として企業の採用面接や教育現場での採点などを例示し、利用には事前審査が必要としています。しかし、日本の企業は既に使用しています。

EUは規制に違反すれば、最大3千万ユーロ(約44億円)か、世界売上高の6%のいずれか高い方の罰金を科すことを想定します。

今月にも欧州議会の本会議で採決予定。規制案が可決されれば、順守するための経過措置が2年程度設定される見込みですが、EU規制が世界標準になる可能性があります。

5月24日、アルトマンは「順守できる場合には順守するが、順守できない場合には事業を停止する。努力はするが、可能なことには技術的な限界がある」と述べ、規制への対応の困難さと事業停止の可能性を示唆。

同氏はこれまでAI規制が必要との立場でしたが、最近はAI分野に重い規制を課すことや技術革新を遅らせる試みは「間違い」との見解を示していたと思いきや、5月30日の人類滅亡3大危機の声明。AIに対する考え方が揺らいでいるようです。

アルトマンは「超知能の開発においては投資家の目に非常に奇抜と映る決定が下される可能性が高く、提訴されることは望んでいない」として「近い将来にOpenAIを上場する気はない」としています。

今後も目が離せません。

(了)

戻る