original image: Pixels Hunter / stock.adobe.com
イギリス政府の「AIセーフティ・インスティテュート」
UK's AI Safety Institute
2024.05.29
Updated by Mayumi Tanimoto on May 29, 2024, 07:12 am JST
original image: Pixels Hunter / stock.adobe.com
UK's AI Safety Institute
2024.05.29
Updated by Mayumi Tanimoto on May 29, 2024, 07:12 am JST
イギリス政府は、AIを国家の産業政策においてかなり重要視しています。最近話題になったのが、韓国と共催したAIソウルサミットで、ディープフェイクやサイバー攻撃などのAIにより発生するリスクから社会を保護する方法を研究するための研究助成金の提供を発表したことです。
ただし、助成金はランダムに配布するわけではなく、AI安全研究者であるシャハル・アヴィン氏が「AIセーフティ・インスティテュート」に出向し、クリストファー・サマーフィールド氏と共に指揮を執る形になっています。
この「AIセーフティ・インスティテュート」は非常に興味深い組織で、イギリス政府内の「スタートアップ」という位置付けです。組織の目標は、
「イギリス政府が政策決定を行い、公共の説明責任を果たすために、高度なAIを理解する」
となっています。
また、運営形態は、以下のようなモノです。
・初期資金として1億ポンド(約200億円)を政府が提供
・主要企業からのトップAIモデルへの特権的アクセス
・英国のAI研究リソースおよび「エクサスケール・スーパーコンピューティング・プログラム」で15億ポンド以上のコンピューティングへの優先アクセス
・トップ研究機関との20以上のパートナーシップ
・アウトプットは、イギリス政府の科学・イノベーション・技術大臣ミシェル・ドネランへの直接報告
政府が資金を拠出するので、概括的な組織形態ですが、プロパーの研究者やエンジニアも採用され、各国政府や民間企業とも協業するという形になっています。
また注目すべきなのが、この組織は「大規模言語モデルアシスタントなどの高度なAIシステムの安全性をテストするための内部能力構築」に焦点を当てている点でしょう。つまり、安全性を実証的に試験し、データを収集した上で多国籍に議論していくという方向になっているわけです。
特に以下の観点からAIモデルの検証を行うことになっています。
不正使用:サイバー、化学、生物攻撃などを二重使用した攻撃からどの程度守ることができるか
社会的影響:社会組織にどのような影響を与えるか、例えば、民主主義を弱体化させ、個々の福祉を害し、不平等な結果を永続化させるのか
自律性:自律的に自身のコピーを作成したり、どの程度のAI研究開発を行い、人間とやり取りし、操作し、人間の介入を回避することができるか
保護措置:高度なAIシステムの安全性とセキュリティ機能が、それらを回避しようとする試みに対してどれだけ効果的か
さらに、AIモデルが生成するフェイク画像や誤情報を拡散するプラットフォームに介入する方法なども検討されることになっています。
イギリスはこの組織で、AIのガバナンスモデルの構築を想定しているようですが、アメリカ政府とは2国間協定を締結し、カナダやフランス、韓国、日本、ドイツなどもメンバーになっています。EUも、近年AIのガバナンスモデルの構築に積極的ですが、英米を中心とし、民間企業も巻き込んだガバナンス体制を、EUに対抗する形で作り上げようとする意図が見えます。
もちろんこれは、安全保障上の動きでもあり、中露に対抗する意思が見えてきます。つまり、NATO加盟国と日韓を巻き込んだ体制で、AIのリスクを最小化したいということでしょう。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちらNTTデータ経営研究所にてコンサルティング業務に従事後、イタリアに渡る。ローマの国連食糧農業機関(FAO)にて情報通信官として勤務後、英国にて情報通信コンサルティングに従事。現在ロンドン在住。