AIセーフティ技術研究
人工知能(AI)の開発に伴うリスクを軽減するために、強力なAIのシステムが予期しない形で壊滅的な結果を招くことなく(人間の要求に確実に応対し)人間にとって有益なものであり続けるように、技術的な課題や設計問題の解決策を研究することは不可欠です。
あなたがこのキャリアに適性を感じたのであれば、このキャリアの選択が、社会的影響を与えるための最善の道かもしれません。
当レビューについて:中程度の調査に基づく
これまでお伝えしたように、これから30年の間に社会を一変させるような強力な機械学習アルゴリズムが開発されるかもしれません。プラス面、マイナス面ともにその社会的影響は大きいことが予想され、大惨事を引き起こす危険をも孕んでいます。
こちらのキャリアレビューで取り上げた戦略や政策の他に、リスク抑制のために重要なもう一つの取り組みとして、強力なAIシステムに関わる技術的課題の研究が挙げられます。簡単に言うと、人間の要望に応える強力なAIシステムを設計するにはどうすればいいのか、意図しない結果を招かないためにはどうすればいいのか、といったことを研究対象にするものです。
この分野の研究は本格化し、こうした問題解決に実際携わることのできる研究組織や研究所があちこちに存在しています。例えば、Mila(モントリオール)、Future of Humanity Institute(オックスフォード)、Center for Human-Compatible Artificial Intelligence (バークレー)、DeepMind (ロンドン)、OpenAI (サンフランシスコ)などです。80,000 Hoursでは、このキャリアを選んだ100名以上の人々をこれまで支援してきましたが、そのうちの数人が既にこのような機関で働いています。バークレーのMachine Intelligence Research Instituteは、AIの安全性の問題に2005年から取り組んでおり、他研究所と比較しても奇抜な視点を持ち、その研究課題もまた斬新なものです。
優秀な研究者には、研究費助成金やOpen Philanthropyなどの主要支援団体からの寄付金など、利用可能な資金が豊富に用意されています。また、するための学費を獲得することもできます。このような資金を利用し、研究を遂行できる人材が増えていくことが、この分野で今まさに求められているのです。
この道に進むことで、業界、非営利団体、学術界のいずれかでトップクラスの団体の研究職の獲得を目指し、最も切迫した問題に取り組むことが考えられます。また、最終的な目標として、安全性の研究を指揮・監督することを視野に入れることができます。
AI安全性に関する技術職としては①研究職②エンジニア職の二つに大きく分けられます。研究職は研究事業をリードし、エンジニアはシステムを構築し、また研究のために分析を行います。
ハイレベルな研究目標に対して、エンジニア職が持つ直接的な影響はそれほど大きくないものの、エンジニアとして活躍する人が安全性について関心を持つことはとても重要です。そうすることで、エンジニアとして、研究の最終目標の理解を深め、(そのことでより良い優先順位を組むことができます)、高い意欲を持って、安全を重視する風土を作り出し、仕事を通じて培ったキャリア・キャピタル(経験・技能)を他の将来の安全保障のプロジェクトへ活かすことができるでしょう。つまり、研究科学者以外の道を志願する人にとってエンジニア職は良い選択肢であると言えます。
また、AIの安全性に係る課題に理解を持った人材が、AI安全性に直接焦点を当てていないAI研究チームに加わることは社会にとって有益であると言えます。その中で、周囲の安全問題の関心を高める役割を果たし、また将来的に管理職に就任することがあれば、安全性を優先させるために、組織全体に影響を与えることができるでしょう。
将来的に、中国で(又は中国に関係する形で)AIの安全性に取り組める専門知識を持った人が増えることに期待しています。詳細についてはキャリアレビュー:中国のAI安全性および管理・運営に取り組む(技術研究の役割について説明しています)をご覧ください。
Catherineはニューヨーク大学で博士号を取得し、人間の視覚の計算モデルに携わりました。やがて彼女は、AI安全性に直接関わっていくことを決意し、OpenAI、Google Brainでの勤務を経て、現在はAnthropicに勤務しています。
スタンフォード大学の機械学習博士課程を中退。その後、もともと何かを構築することが好きだったことから、AIの発展に貢献したいと考え、OpenAIへ応募を決心。6週間かけて面接の準備を行い、無事就職することができました。もし博士号取得をしていたら、実際キャリアをスタートするまでに6年はかかっていたかもしれません。Danielさんは自分以外の多くの人にとっても、このように道のりを短縮化し、キャリアを切り開くことは可能なのではないかと考えています。
Chrisさんは魅力的で型破りな道を歩んできました。彼は博士号はおろか学士号すら持っていません。不当な刑事責任を問われた知人を弁護するために大学を中退し、その後機械学習の研究に独自に取り組み、やがてGoogle Brainでインターンシップを経験する機会を獲得しました。
社会貢献度が最も高いと思われるAIの安全性の研究には、おそらく前述のような人材が配置されることが予想されます。AIの研究に適性があるかどうかを確かめるためには、まずそのような仕事に就ける可能性が十分にあるかどうか考えてみることが重要です。
まず、良い大学で機械学習の博士号を取得することが一般的です。博士号を取得していない人でも、この分野に関わっていくことは可能ですが、多くの研究職のポストがある研究機関やDeepMindなどで求められることが多いようです。また、機械学習で博士号を取得すると、選択肢が広がります。例えば、AI関連の政策や応用に貢献したり、あるいは”Earning to give”(寄付するために稼ぐ)といった働き方が可能になります。ですから、後にAI安全性の研究を断念することを決めても、他で仕事を見つけることはそれほどむずかしくないと思われます。
研究職ではなく、技術職を志願する場合、博士号取得は必須ではありません。修士課程を修了するか、もしくは業界で実務の経験を積んでいくことができます。
また、神経科学(特に計算論的神経科学)の分野から、AI安全性の研究の道に進むことも可能です。この分野の専門知識や経験があれば、新たに教育を受ける必要はないかもしれません。
AI安全性において既に知識が豊富な方は、Charlie Rogers-Smithによる段階的指導付ガイドが最もお勧めです。
最近では、社会科学者にもAI安全性の分野に貢献する機会が広がっているようです。
詳細については、以下をご覧ください。
AIの安全性は、80,000 Hoursの優先課題の一つであることから、もしもこのキャリアパスに魅力を感じていただけたのなら、より一層嬉しく思います。是非、次のステップについて1対1でアドバイスさせていただきたいと思います。どんな選択肢があるのか一緒に考えたり、同じ分野で働く仲間を紹介したり、場合によっては仕事や資金調達の機会を探すことなど、様々な場面でサポートが可能です。