original image: Pink Badger / stock.adobe.com
AI規則案でアメリカに対抗するEU
EU confronts with US through AI Act
2023.04.02
Updated by Mayumi Tanimoto on April 2, 2023, 14:00 pm JST
original image: Pink Badger / stock.adobe.com
EU confronts with US through AI Act
2023.04.02
Updated by Mayumi Tanimoto on April 2, 2023, 14:00 pm JST
前回、欧州連合(EU)の人工知能(AI)に関する規則案である「AI規則案」(AI Act)に関してご紹介しましたが、今回は続編です。
「AI規則案」はリスクベースのアプローチが取られていますが、その大枠は以下3つです。
1.許容できないリスク(unacceptable risk)
中国で運用されている政府によるソーシャルスコアリングのようなアプリケーションは禁止。
2.ハイリスクアプリケーション(high-risk applications)
履歴書をスキャンして応募者をランキング付けするようなリスクの高いアプリケーションは該当する法的な規制を受ける。さらに、リモートの生体認証、重要なインフラにおけるセキュリティ、教育、公的な仕事への応募、クレジットスコアリング、緊急サービスの配信も該当。
これにおいて、AIはアルゴリズムや管理の透明性が高くなければならないとされています。
3.1と2に該当しないものは規制しない
前回は、1に関してEUの中国に対する政治的意図を表している件を指摘しましたが、今回は2についてです。
2に特徴的なのは、これは要するにアメリカのテック企業で広く行われている学校や職場での応募者の AI によるスクリーニングのことを名指しで指摘している、ということです。アメリカでは仕事や学校に応募した際に履歴書をデジタル化してデータベースに格納、それを選択側が見るわけですが、応募数が多い場合はAIを使用してスクリーニングすることが一般化しています。
しかし、そのアルゴリズムは不透明なことが多く、人種や男女による差別が多発しているという報告もあります。AI提供企業のアルゴリズムに透明性がない場合は、差別されているのか、それとも適切な選抜だったのかが判らないようになっています。
これは、多様性を推進し公平性を確保しようというEUの精神に反するものです。EU加盟国の殆どでは、採用や入試での「属性」による差別を禁止していますので、これは大きな問題です。
さらに、システムであればエラーが起きることもあります。つまり、差別などが起きないように透明性を高めよ、とEUは主張しているわけです。
日本だと、性差別や年齢差別ではピンとくる方がいるかもしれませんが、人種や宗教、出身地の多様性がある欧州では大変重要な問題です。
また、建物への入室の際のAIによるスクリーニング、 消費者が不動産を借りる際や金融サービスを使用する際のスクリーニングなどの背景にあるアルゴリズムを透明化するべき、とも述べています。
これらに関しても、欧州よりもアメリカの方がAIの利用が活発ですから、アメリカのテック企業が決定するアルゴリズムでEU域内の消費者のサービスを支配するべきではない、ということを述べているわけです。
例えば、建物の入室の際に、特定の人種や年齢層を排除する設定になっているアルゴリズムが出現する可能性もあります。欧州では若年層の入店を拒否する店舗があったりするのですが、これがAIでシステム化された場合は差別に当たるのではないか、ということです。特定の人種のみ入室させない、ということも起こりえます。
また、顔認証で入室を管理する場合、システムにエラーがあって問題の人物は自分ではないのに拒否されるということもあり得ます。不動産賃貸や金融サービスの場合は、人種や職業、年齢などでスクリーニングされてしまい、適切なクレジットチェックと連動しないという可能性もあるわけです。
これらに対するEUの規制案は、アメリカに対する大変強いメッセージといえます。この規制では、中国とアメリカに対する強いメッセージが含まれており、改めて欧州が抱いているアメリカと中国のAI、さらにはテック界の支配に対する危機感が感じ取れます。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちらNTTデータ経営研究所にてコンサルティング業務に従事後、イタリアに渡る。ローマの国連食糧農業機関(FAO)にて情報通信官として勤務後、英国にて情報通信コンサルティングに従事。現在ロンドン在住。