米国におけるAI倫理に関するニュースをまとめました。
AIの軍事利用に新倫理原則 米国防総省
https://newsphere.jp/politics/20200306-1/
(NewSphere 2020/03/06 )
・米国国防省は、AIを用いたシステムを導入・使用する場合に適切なレベルの判断と配慮を行うよう求めている。
・新倫理原則では自動化されたシステムが下す決定は「追跡可能」かつ「制御可能」であるべきであり、意図しない結果を生み出すときは解除もしくは無効化することが求められる。
・ただし、この新倫理原則はあいまいな部分も多く強力な規制を支持する人からすれば十分なものとはいえない。
面白く、倫理的で、多様なAI労働環境をつくる
CREATING A CURIOUS, ETHICAL, AND DIVERSE AI WORKFORCE
https://warontherocks.com/2020/03/creating-a-curious-ethical-and-diverse-ai-workforce/
(WAR ON THE ROCKS 2020/03/05)
・人間のバイアスを受けたデータをもとにつくられたAIは永続的にそのバイアスを広め続ける危険性を認知すべきである。
・バイアスをできるだけ取り除くために多様な人材から倫理規定を作るべきであり、また技術倫理は多様な技術者に方向性を与えることができるものでもある。
・米国国防省は説明可能なAIの開発に取り組むなど、適切な利用のための試みを行っている。
DoDとの合意にもかかわらず、ODNIは独自のAI原則をつくる方向で動いている
Despite ‘consensus’ with DoD, ODNI moving ahead with its own AI principles
https://federalnewsnetwork.com/artificial-intelligence/2020/03/despite-consensus-with-dod-odni-moving-ahead-with-its-own-ai-principles/
(FEDERAL NEWS NEETWORK 2020/03/05)
・国防省の原則をもとに、米国国家情報局長官室はAI原則をまもなく公開する。
・情報局が新たにAI倫理を制定しようとしたのは、分析が静的なものから動的なものへと移行しているため。
・それまでも自動的に情報は集めていたが、絶えず収集、分析しているような状況をはじめてAIが可能にしたことで、新たな規則が必要となっている。
〈所感〉
米国におけるAI倫理の動向は今後他国も参考にすると考えられる。情報取集の際のプライバシー保護の問題やAIのブラックボックス問題などはAIを活用しようとする人々にとって大きなリスクであり、現在は各自でバランスを見極めようとしている段階であり、負担が大きい。適切な倫理規定が作られれば今後開発者の負担が軽減し開発がより円滑に進むことにもなるため、倫理規定の内容はAIの行く末を決めるものといってもよいだろう。