「人間にとって説得力のある」文章を生成できるチャットボットは何をもたらすか? 「Chat GPT」を開発した研究機関・オープンAIの目指すものとは
かんたんな質問を入力するだけで、自然な文章で回答が生成される「Chat GPT」。2022年11月にリサーチプレビューとして一般公開されると、実際に使ってみたユーザがさまざまな反応を見せ、日本でも話題になっています。
質問への回答ばかりでなく、クリエイティブな文章やソースコードの作成といった指示にも応えるChat GPT。開発したAI研究機関・オープンAIとMicrosoft社が継続的なパートナーシップを結んでいるように、ビジネスへの有効利用が期待される一方で、倫理的な問題も指摘されているようです。
哲学・コンピュータ科学・政治学それぞれの分野から、イノベーションが民主主義社会に与える影響について、スタンフォード大学の三教授が考える一冊、『システム・エラー社会――「最適化」至上主義の罠』(2022年12月26日発売)。同書第八章「民主主義は難局を乗り切れるか」より、Chat GPTに使用されている言語処理モデルのベースであるGPT-3とオープンAIについて書かれた冒頭部分を抜粋公開します(*本記事用に一部を編集しています)。
GPT-2の衝撃
2019年初め、誕生まもないオープンAIという非営利団体の発表が、科学界にたちまち衝撃を与えた。オープンAIが開発したAI駆動型ツールのGPT-2(文章生成言語モデル2)の性能はきわめて強力で、驚異的に質の高いテキストを作成することができた。しかも必要なのは最小限のプロンプトだけ。サンプルとなる文章は、「トニ・モリソンの『ビラヴド』に関するエッセイを書く」といったシンプルな内容で十分だ。GPT-2の言語モデルは非常に柔軟で、翻訳、質問への回答、要約、他のテキストとの合成だけでなく、様々な種類のテキストを作成することができる。本物と見まがう詩、ジャーナリズム、フィクション、学術論文、中学校が対象のエッセイ、さらにはコンピュータコードまで、守備範囲は広い。
GPT-2はテキストに登場するすべての単語を対象にして、つぎに来る可能性が最も高い単語を予測するというアーキテクチャをもつが、AIコミュニティを本当に驚かせたのはこのモデルではない。800万以上のウェブページからテキストを集めて分析し、システムを新しいレベルまで高めたことだ。しかも、オープンAIは透明性を重視する研究団体の傾向に逆らい、モデルを公開しない方針を発表した。「この技術は悪用される恐れがあるため、訓練済みモデルは公開しない。責任ある開示の実験の一環として、代わりにもっと小さなモデルを公開して研究者に実験してもらい、学術論文に役立ててもらうつもりだ」と、オープンAIのチームは説明した。
オープンAIの目指すものとは?
オープンAIは2015年に非営利団体として設立された。イーロン・マスク、ピーター・ティール、サム・アルトマン、リード・ホフマンなど、出資者リストに名を連ねた裕福なテクノロジストは、安全な汎用人工知能の実現に高い関心を持っていた。利益の確保よりも社会的使命を優先したチームは、せっかく創造した強力なツールが違法に悪用され、ディープフェイクの画像やビデオに類似する偽のテキストが作成される可能性を憂慮した。
たとえば中学生が短いエッセイの執筆を任せ、自分で書いたと主張しても、噓がばれずに通用するかもしれない。極端な場合、プロパガンダ目的で偽情報が自動的に次々と生み出され、偽のウェブサイトやソーシャルメディアのアカウントを介して拡散する恐れもある。
ただし、慎重な姿勢からは冷静な予防策のような印象を受けるが、AIの世界の一部では見方が違った。オープンな「オープン」AIを名乗っていることを考えれば、これは研究の基準に抵触するとんでもない偽善で、組織に注目を集めるための安上がりな売名行為だとこき下ろした。AI研究者からは、自分たちもラボで画期的な発見に成功したけれども、悪用される心配があるから詳細をシェアできないという冗談半分の発言も飛び出した。
オープンAIは段階的な公開プロセスの一環として、2019年までに15億のパラメータを持つGPT-2のフルモデルをリリースすることにした。一方、オープンAIに所属する科学者は外部の研究機関に依頼して、かねてよりの懸案の実態解明に努めた。コーネル大学からは、「GPT-2が生成した文章は人間にとって説得力がある」という結果報告があった。ミドルベリー大学のテロ・過激主義・テロ対策国際研究センターの研究結果はそれよりも深刻で、つぎの点が指摘された。「GPT-2は過激派集団に悪用される可能性がある。特に、白人至上主義、マルクス主義、聖戦派イスラム主義者、アナキズムの四つのイデオロギー的立場を擁護するよう、微調整される恐れがある」。オープンAIの当初に対する懸念には十分な根拠があったようだ。
カニエ・ウェストの、存在しない独占インタビュー
約一年後、オープンAIのチームはGPT-3を発表した。これはとてつもなく強力な次世代モデルで、GPT-2の最大のモデルと比べても、パラメータの数は100倍以上もあった。GPT-3の深層学習ニューラルネットワークには96のレイヤーが使用され、インターネットから集めてきた大量のテキストだけでなく、多数の書籍、さらにはウィキペディアをそっくりそのまま使って訓練された。それがどれほどの規模かというと、GPT-3の訓練データの規模はほぼ45テラバイト。これは、2000年時点で米国議会図書館に所蔵されていた印刷物の総推定量の4倍以上である。
GPT-3は、AI研究の最前線を担う重要な存在である。モデルは間違いなくすさまじいパワーを備え、汎用人工知能に最も近い存在だという評価もある。特別の主題について訓練を受けなくても、多種多様なプロンプトに基づいて説得力のあるテキストを生成できる。広い範囲をカバーするだけでなく、ニュアンスやユーモアを理解しているように見せかける能力を持っていることの一例として、GPT-3のユーザであるアラム・セベティが生成した会話を以下に紹介しよう。
いかにも真実らしいテキストが生成されているが、実はGPT-3は、テキストの中身をきちんと理解していない。訓練に使われた大量のデータに基づき、文章を作っているだけだ。実際、機械が人間と同レベルの知能を手に入れる可能性には、多くの研究者が懐疑的だ。
深層学習の問題点とは?
何も知識を持たない人間なら、深層学習がシンプルなプログラムを作成する能力に感銘を受けるかもしれない。でもじっくり眺めてみると……中身は空っぽだ。意識が存在する痕跡は見られず、コンピュータと人間では世界の感じ方や経験が異なるという見解の正しさが、提供されるデータによって裏付けられている。チェスや碁など、ルールが厳格なゲームならば、コンピュータは人間のチャンピオンに勝利を収められるが、ルールと無関係な場所で本当に考える能力は持っていない。臨機応変に新しい戦略を考案できないし、人間と同じように感じたり反応したりすることもできない。人工知能のプログラムには、意識や自己認識が欠如しているのだ。ユーモアのセンスを持ち合わせず、芸術や美や愛情を理解できない。孤独を感じないし、他人や動物や環境に共感することもない。音楽を楽しまず、恋に落ちず、些細な出来事に声を荒らげない。
実のところ、この直前の一段落は私たちが書いたものではない。「未知の物事を本当に判断する能力が、深層学習に欠如しているのはなぜか」というプロンプトに対し、GPT-3が生成したものだ。ハリー・ポッターの物語をアーネスト・ヘミングウェイの文体で書き換えたり、顔を合わせたことがない歴史上の人物同士の会話を本物のように仕立てたり、映画の感想を絵文字で表現したり、詩を創作したり、判断する以外にはたくさんのことを深層学習は実行できる。
「上限付き利益」追求モデル
こうした能力を持っていることがなぜわかるのかといえば、オープンAIは利害関係者に対し、アクセス制御アプリを経由する形ではあるが、GPT-3モデルを公開しているからだ。アクセスを認められれば、実際にモデルを試して結果を投稿できる。
オープンAIはGPT-3について、利用者が限定された状態で収益を生み出す商品として提供する意向を発表した。そこには、GPT-2の発表からGPT-3の発表までのあいだに投資資本が必要になり、非営利団体から営利目的の会社に転換した事情があった。それでも「上限付き利益」の追求という聞きなれないモデルによって、社会的使命に引き続き取り組むことを約束した。
このモデルでは、オープンAIに投資すると設定された上限までの利益を得られるが、それを超えた分はオープンAIに再び投資され、安全な汎用人工知能の開発に使われる。さらにオープンAIはマイクロソフトとの取引を成立させ、マイクロソフトが10億ドルを投資する見返りに、同社の製品にGPT-3の能力を独占的に搭載する権利を与えた。現時点でオープンAIは、モデルが悪用される可能性だけでなく、テキストを生成する機械の普及で人間が職場を奪われる可能性を認めている。そして他のアルゴリズムモデルと同様、公平性やバイアスの問題についても不安を抱えている。しかしいまのところ、GPT-3には外部からの監視がないし、世間はこのツールを十分に理解していない。オープンAIのチームがモデルの許容範囲について定めた以外には、実質的にルールは存在しない。
私たちは何を信用できるのか?
研究者から「シンセティックメディア」とかディープフェイクと呼ばれるものを生成できるシステムのなかで、GPT-3は最新モデルだ[編集部注:原書刊行の2021年9月時点]。強力になった機械は、人間には本物と見分けがつかないような文章、音声、画像、動画をつくることができる。しかもこうしたツールは、少数の有力者の手にとどまらず、多くはまもなく市販されるはずだ。おまけに、計算資源のコストは指数関数的に下がっているのだから、最終的にシステムは、ほぼすべての人にとってアクセス可能になるだろう。
シンセティックメディアが提起する疑問や問題では、ここまで本書で取り上げてきた問題の一部がさらに強調される。本物と見分けがつかないメディアをインテリジェントマシンが自動的に生成できるなら、私たちの情報宇宙はどうなるのだろう。聴覚や視覚をどこまで信用できるのか。あるいは、多くの職業で機械が人間の仕事を奪ったら、人間や社会の幸福はどうなるのか。そして新しい強力なテクノロジーが、偏見や差別を新たに創造することも、既存の偏見や差別を増幅することもないという保証はあるのだろうか。テクノロジーの最前線での進歩の恩恵にあずかる一方、リスクを最小限に食い止めること、あるいは取り除くことは可能なのだろうか。
※続きはぜひ『システム・エラー社会――「最適化」至上主義の罠』でご覧ください。
著者プロフィール
ロブ・ライヒ(ROB REICH)
哲学者。スタンフォード大学社会倫理教育センターのディレクター、人間中心人工知能センターのアソシエイト・ディレクターを務める。倫理とテクノロジーの関係について考えるトップランナーであり、数々の教育賞を受賞している。
メラン・サハミ(MEHRAN SAHAMI)
エンジニア。グーグル草創期、セルゲイ・ブリンに登用され、eメールのスパムフィルタリング技術開発チームの一員となった。機械学習と人工知能の背景を持ち、2007年にスタンフォード大学コンピュータサイエンス教授。
ジェレミー・M・ワインスタイン(JEREMY M. WEINSTEIN)
政治学者。2009年にオバマ大統領のもとワシントンに入る。テクノロジーが政府と市民の関係を変化させるという予測のもと、アメリカ合衆国政府の主要スタッフとしてオバマのオープン・ガバメント・パートナーシップを立ち上げた。2015年にスタンフォード大学政治学教授に就任。
訳者プロフィール
小坂恵理(こさか・えり)
翻訳家。慶應義塾大学文学部英米文学科卒業。訳書にパチラット『暴力のエスノグラフィー』(明石書店)、ダルリンブル『略奪の帝国』(河出書房新社)、グラスリー『極限大地』(築地書館)、ヤーレン『ラボ・ガール』(化学同人)、ステイル『マーシャル・プラン』(みすず書房)、バーバー『食の未来のためのフィールドノート』(NTT出版)など多数。