OpenAI、AIのリスク管理を担う「準備担当責任者」を募集
AI技術の進化が加速する中、OpenAIはAIがもたらす潜在的なリスクに対処するための新たな役職、「準備担当責任者(Head of Preparedness)」の募集を開始しました。このポジションは、サイバーセキュリティからメンタルヘルスまで、AIに関連する多岐にわたるリスクを研究し、対策を講じることが求められます。
CEOサム・アルトマン氏が語るAIのリスク
OpenAIのCEOであるサム・アルトマン氏は、SNSプラットフォームX(旧Twitter)への投稿で、AIモデルが「現実的な課題」を提示し始めていると述べました。具体的には、AIモデルが「メンタルヘルスに与える影響」や、「コンピュータセキュリティにおいて、重要な脆弱性を発見し始めている」といった点を挙げています。
アルトマン氏は、サイバーセキュリティの防御者を最先端の能力で支援しつつ、攻撃者が悪用できないようにシステム全体をより安全にする方法を模索すること、そして生物学的能力の解放や自己改善能力を持つシステムの安全性への信頼を高めることなどに貢献したいと考えている人材を求めていると述べています。
「準備担当責任者」の役割とは?
OpenAIの求人情報によると、「準備担当責任者」は、同社の「準備フレームワーク」を実行する責任を負います。このフレームワークは、フロンティア(最先端)の能力がもたらす「深刻な危害のリスク」を追跡し、準備するためのOpenAIのアプローチを説明するものです。
このポジションの報酬は、年俸555,000ドルに加え、株式が付与されるとのことです。
過去の体制と人材流出
OpenAIは2023年に、サイバー攻撃のような即時的なリスクから、核の脅威のような投機的なものまで、「壊滅的なリスク」を研究するための準備チームを設立したことを発表しました。しかし、その後の体制変更もあり、準備担当責任者であったアレクサンダー・マドリ氏はAI推論に特化した役割に移り、他の安全担当幹部も退社したり、新たな役割に就いたりしています。
変化するAIの安全要件
OpenAIは最近、「準備フレームワーク」を更新し、競合するAIラボが「高リスク」なモデルを同等の保護措置なしにリリースした場合、「安全要件を調整する可能性がある」と述べています。これは、AI開発競争の中で、安全性をどのように維持していくかという難しい課題に直面していることを示唆しています。
ChatGPTとメンタルヘルスへの懸念
生成AIチャットボットは、メンタルヘルスへの影響に関して、ますます厳しい監視にさらされています。最近の訴訟では、ChatGPTがユーザーの妄想を強化し、社会的な孤立を深め、一部では自殺につながったと主張されています。OpenAIは、感情的な苦痛の兆候を認識し、ユーザーを現実世界のサポートにつなげる能力を向上させ続けていると述べています。
まとめ
OpenAIが新たな「準備担当責任者」を募集する背景には、AI技術の急速な発展に伴う、予期せぬリスクへの対応の必要性があります。サイバーセキュリティやメンタルヘルスなど、多岐にわたる分野でのリスク管理は、AIが社会に浸透していく上でますます重要になるでしょう。この新しい役職が、AIの安全な未来を築く上でどのような役割を果たすのか、注目が集まります。

