画像はイメージです original image: LIGHTFIELD STUDIOS / stock.adobe.com
AI提供企業が訴訟を起こされるEU指令
EU's new IT directive enable consumers to sue AI developers
2022.10.31
Updated by Mayumi Tanimoto on October 31, 2022, 17:00 pm JST
画像はイメージです original image: LIGHTFIELD STUDIOS / stock.adobe.com
EU's new IT directive enable consumers to sue AI developers
2022.10.31
Updated by Mayumi Tanimoto on October 31, 2022, 17:00 pm JST
最近、欧州で話題になったのが、EUが新たなAI規制である「AI責任規制(AI Liability Directive)を導入した件です。これは、加盟国27カ国の法律を継ぎはぎしたもので、AIによって被害を被った人が、AI提供企業に対して訴訟を起こしやすくするための規制です。
注目する点は、AIによって被った損害の範囲が、資産、健康、プライバシーというように非常に幅広い分野に及んでいることです。こんな幅広い分野について、AIが起こした過失責任を問うものなのです。つまり、AIをただのプロダクトではなく、ある意味で過失責任を負う従業員として扱っているような印象を受けます。
例えば、ある企業がAIを使用して求人広告に応募してきた人を審査し、応募者が採用されなかった場合や条件で不利益を被った場合、「AIに問題があったのではないか」と訴えることができる可能性が出てきているわけです。採用審査で応募者が雇用者を訴えることはしばしばあることなので、欧州北部や北米では採用審査の経路や判断基準を透明化することが当たり前になっています。
現在の指令は下書き案状態なので、こういった訴訟が可能かどうかは分かりませんが、欧州における流れを見ていると絶対にないとは言えないのかなと考えられます。
こういった規制が増えてくるということは、AIを開発する企業だけではなく、AIの稼働に必要となる元データを提供する企業にも注意が必要になってくるということです。AIが使用するアルゴリズムの他に、判断に使用されるデータに偏りがあったり瑕疵がある場合に問題となるわけですから、かなり注意が必要ということになります。
また、AIを業務に導入する場合には、どういったモデルを使用してそのAIが稼働していて、どのようなデータを使用しているのか、そしてエンドユーザーに対してはどのような影響があるかという点について、リスク管理の点から詳しく検証し、ドキュメントを残しておく必要があるでしょう。そして、そのAIがモラルや倫理の観点から問題がないかという点も事前に検証しなければなりません。
仮に企業がグローバルに展開する場合、このモラルや倫理の検討はかなり難しいですね。地域や国によってこれらは異なってきますので、事業展開する地域の基準をかなり詳しく把握しておかなければなりません。
例えば、日本で導入しても全く問題がないAIであっても、多様性や男女差別に関してかなり厳しい北米や欧州北部ではアウトになってしまう可能性もあるわけです。
つまり、AI導入で、単にに利便性やコストを検証すれば良いというわけではなく、こういったリスクの検証も厳しくなってきており、ハードルがかなり上がってきているということなのです。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちらNTTデータ経営研究所にてコンサルティング業務に従事後、イタリアに渡る。ローマの国連食糧農業機関(FAO)にて情報通信官として勤務後、英国にて情報通信コンサルティングに従事。現在ロンドン在住。