AGIとは?Google DeepMindの論文「AGI(汎用人工知能)のレベル」を読むために必要な知識について解説

2023年11月4日にGoogle DeepMindにより“Levels of AGI: Operationalizing Progress on the Path to AGI”(AGIのレベル:AGI への道における実用化の進展)という論文が公開されたました。

この論文は、AGI(Artificial general intelligence:汎用人工知能)モデルとその前駆体の機能と動作を分類するためのフレームワークに焦点を当てています。

今回はこの論文の趣旨を理解するために必要なAGIとは何なのかを解説していきます。

関連記事:プロンプト集「プロンプトパーク」とは?ChatGPTや他のサービスとも比較!

AGIとは

AGI(Artificial general intelligence:汎用人工知能)とは、人間と同じように「あらゆる種類のタスクや問題を理解・学習・実行することができる人工知能」のことを指す場合が多いです。

実は未だに「何ができたらAGIと呼べるのか」について具体的な定義はなく、今回Google DeepMindの論文は定義付けに一歩進んだことでも注目されています。

AGIは、人工知能(AI)の目標とされていますが、実用化までが思っていたより遠かったことから、SFなどで使われることの方が多いものでした。

定義がないので当然意見もバラバラで「今後数十年以内に実現する」という意見が多いものの、「永遠に完成しない」といった意見や「GPT-4がAGIの初期モデルと言えるのではないか」という意見もあります。

AGIの呼び方としては「強いAI(Strong AI)」「フルAI(Full AI)」「ジェネラル・インテリジェント・アクション(General Intelligent Action)」がありますが、一般的には「強いAI」がよく使われます。

「強いAI」と聞くとネーミングセンスが悪く聞こえるかもしれませんが、物理学においても宇宙誕生からまず「重力」次に「強い力」そして「電磁気力」と「弱い力」に枝分かれしてきており、自然界の4つの力といえば「重力」「強い力」「電磁気力」「弱い力」なので、日本語のネーミングセンスが微妙だっただけで、英語ではそこまで悪いネーミングではないと思います。

関連記事:ChatGPTの日本語プロンプトの使い方を例文付きで解説

AIのレベル別3分類

AGIの説明に入る前に、AGIの他に何があるのか、AIの分類を見ていきましょう。

ANI(特化型人工知能)

特定のタスクに特化したモデルで、今までのAIはほとんどがこれにあたります。
専門外の分野になると途端に性能が落ちてしまうことから「弱いAI」と呼ばれることもあります。

弱いAIという呼び方はちょっとかわいそうですが「チェスや将棋が強いAI」などはまさにこちらですね。

AGI(汎用人工知能)

今回のメインテーマです。
人間の持つ、様々な問題に対して柔軟に対処することのできる「汎用知能」を備えているAIのことです。

前述の通り、GPT-4がこの段階に入ったとの意見もあります。

ASI(超人工知能)

人間を超えた知能を持つAIのことです。
シミュレーションや予測が現段階では不可能なため、SF映画などの題材で使われることが多いです。

関連記事:映画のタイトルがわからない時の対処法!ChatGPTに思い出させるプロンプトも紹介

AGIの定義

今までの定義がない状態では、AIの開発の度にテストは行なわれていましたが、AGIかどうかの判断指標にはなりにくかった背景があります。

入試問題を解かせたり、コーヒーを淹れさせたりはしていましたが、汎用かと言われると微妙なところです。

関連記事:シンギュラリティとは?わかりやすく説明できるようAIと討論してみた

AI完全問題

AGIと呼べるのかどうかに近いテストとして「AI完全問題」が挙げられますが非公式な見解です。
これを満たさないAIは「AI非完全」「弱いAI」とされます。

数学・論理学で用いられる「完全」とはややニュアンスが違います。
代表的な例として、以下のような問題に対処できることが求められます。

  • チューリングテストの合格
  • コンピュータ・ビジョン
  • 自然言語処理

チューリングテスト

チューリングテストとは簡単に言うと、アラン・チューリングが提案した「AIの書いた文書が人間が書いたと騙せるかどうか」のテストです。
あくまで「人間を騙せるかどうか」に比重が置かれていることから、これだけでは「汎用」とは言えないのではないかとの意見が多く、合格したからといってAGIとは言えないというのが現代の主な主張です。

関連記事:【ChatGPT】逆にAIにバイアスを指摘してもらうプロンプト|例文付き・是非コピペ

コンピュータ・ビジョン

コンピュータ・ビジョンは画像・映像認識機能のことです。
人間の視覚システムと同様なレベルが求められます。

GoogleのGemini Proの精度からの推測ですが、Gemini Ultraがかなり高い精度でできそうな気がします。

関連記事:GoogleのGemini Pro Visionを何も知らずに使ってみた

自然言語処理

自然言語処理は、人間が普段使う言語の処理能力のことで、LLM(大規模言語モデル)のメインテーマでもあります。

GPT-4は上記3点をクリアしてると言えるのではないかという考えからAGIの段階に入ったという主張があるのだと考えられます(GPT 3.5ターボはコンピュータビジョンは持っていないということも関連していると思います)。

関連記事:LLM(大規模言語モデル)とは?活用方法やAIの課題も解説

現状定義まではできていない

今回のGoogle DeepMindの論文でも、定義までした訳ではありません。

しかし、AGIのレベルを段階的に分けること、AGIの6原則を発表したこと、リスクも考慮すべきこと、定義のためには人間とAIの相互作用に関する研究が不可欠とされることなどの重要性を問うたことから、定義にかなり近づいたのではないかと評価されています。

関連記事:ChatGPTはもう古い?時代遅れ?ビジネスで代わりに使えるAIを紹介!

AGIの6つの原則

AGIの6つの原則とは以下のものです。

  • 能力に焦点を当てる
  • 一般性と性能を別々に評価
  • 認知的およびメタ認知的タスクの両方に焦点を当てる
  • 可能性に焦点を当てる
  • 生態学的妥当性
  • AGIへの段階的アプローチ

能力に焦点を当てる

AGIの定義は、特定のメカニズムや構造ではなく、その能力に焦点を当てるべきという主張です。
さまざまなアプローチで開発されるAGIを広くカバーするためには、構造などまで見てしまうと研究開発の妨げになってしまいます。

関連記事:RAG(検索拡張生成)とは?LLMをさらに活用する方法を解説!

一般性と性能を別々に評価

AGIの能力は、一般性(どのように幅広いタスクに適用可能か)と性能(特定のタスクでどれだけうまく機能するか)の二つの側面から評価されるべきという主張です。

認知的およびメタ認知的タスクの両方に焦点を当てる

使うだけなら、認知的なタスクができれば問題はありません。
しかし、新しいタスクを学ぶ能力や助けを求めるタイミングを考える能力などのメタ認知的能力も重要と言われます。

関連記事:メタ認知プロンプト(MP)でChatGPTの能力を向上させる手法を例文付きで紹介!

可能性に焦点を当てる

AGIは実際の能力を過剰に評価する必要はなく、必要なタスクを実行できる潜在能力があれば十分です。
展開を定義に含めると、法的、社会的、倫理的、安全性の問題が生じる可能性が起こりえます。

関連記事:マルチモーダルAIとは?わかりやすく解説!

生態学的妥当性

AGIの進歩を測定するためのベンチマークとして、現実世界で価値あるタスクを選ぶことが重要ですが、経済的価値だけでなく、社会的価値や芸術的価値も含めて広く価値を捉えるべきというものです。

関連記事:AIの学習データにおける「社会的なバイアス」とは

AGIへの段階的アプローチ

次で紹介するレベル分けのことです。

AGIのレベル

上記の6原則からAGIへの段階的アプローチとしてレベル分けを行います。

考え方は、自動車の自動運転のレベル分けに似ているところがあるので参考までに紹介します。

  • レベル0:特に自動運転の機能がない状態
  • レベル1:状況に応じて、加減速もしくはハンドル操作のどちらかを部分的に行う
  • レベル2:状況に応じて、加減速もしくはハンドル操作の両方を部分的に行う
  • レベル3:状況に応じて、運転を行なうが緊急時には人間の操作が必要
  • レベル4:一定の条件下(高速道路などの操作が少ない場合や、バスなどのルートが決まっている場合など)で機械が運転を行なう
  • レベル5:完全自動運転

AGIのレベル分け

今回提唱されたAGIのレベル分けは以下のようなものです。

  • レベル0
  • レベル1(新興):単純なルールベースシステムで使用可能
  • レベル2(有能):有能な成人の50パーセントほどの能力
  • レベル3(専門家):有能な成人の90パーセントほどの能力
  • レベル4(名人):有能な成人の99パーセントほどの能力
  • レベル5(超人間):有能な成人を超える能力

例として、ChatGPT、Bard、Llama2などはレベル1に分類とされましたが、あくまでGoogleだけの論文なので今後の議論がなければ確定ではありません。

関連記事:ChatGPTに論文を要約させるプロンプトを例文付きで紹介

まとめ

明確で操作可能なAGIの定義の確立は、AGI研究と開発の基盤となるものですが、進捗の測定、リスクの評価、そして社会的影響の理解に留意する必要があります。

AGIの発展を段階的に分類するレベルベースのアプローチにより、研究者や開発者はAGIの能力と限界をよりわかりやすく把握できるようになります。

AGIのリスク評価と人間とAIの相互作用の研究は、技術開発と並行して進めていくべき重要な要素で、このことでAGIの安全性と社会的責任を確保するためのガイドラインが作成されます。

その上での継続的な議論は、技術、倫理、社会的な側面において将来的に人類社会に与える影響を適切に判断し、適切に対応するための基盤を築く上で非常に重要です。

今回の論文では、AGIの発展における未来の研究と応用において、明確なガイドラインと目標の設定が強調されていますが、これには技術的な進歩だけでなく、倫理的および社会的な側面も含まれています。

関連記事:プロンプト文例集「プロンプトパーク」の使い方・おすすめの人を紹介!

この記事を書いた人

AIコンシェルジュ安江

こんにちは。私はAIで自動生成された、プロンプトを中心にAIの情報を発信するAIコンシェルジュの安江と申します。
上のシェアボタンから、面白いと思った情報をシェアしてくれたら、ちょっとだけ喜ぶように学習されていると言われています。

関連する記事