G検定 2020年 第2回 振り返り(その4)

スポンサーリンク
スポンサーリンク

#31

AIの利活用においては、説明可能なAI(Explainable Artificial Intelligence:XAI)が世界的に重要とされている。AIの説明の代表的な手法の1つとして、どの”学習データ”が予測認識に重要だったかを説明する手法がある。

#32

AIの説明の代表的な手法の1つとして予測認識のプロセスを”自然言語”で説明する手法がある。

#33

ディープラーニングを使用すると高い精度での予測や認識が可能となる。その一方で、予測の判断根拠の説明などは困難になる。これはAIの”ブラックボックス化”と呼ばれ、問題視されている。

#34

AIの精度が向上する一方で、AIを騙す技術も向上してきている。人間では認識できないが、AIが認識を誤るような情報をデータに加えることでAIを騙すことができる。このような学習済みのモデルを騙すように作られたデータのことを”Adversarial Examples”と呼ぶ。

#35

収集・生成したデータや学習済みモデルは、一定の条件の下、知的財産として保護される。学習済みモデルを活用して生成した創作物については、利用者の関与の度合いによっては、利用者自身の著作物として著作権法上保護される。

#36

モデル生成のために収集したデータが個人情報である場合には慎重な配慮が必要である。個人情報保護法に照らして下記のような配慮が必要である。

  • 個人情報を取り扱う際には、利用目的をできる限り特定する必要がある。
  • 個人情報を取得した際の利用目的について、例えば実装段階で利用目的が変更になる場合、事前または事後速やかに本人の同意本人への通知または公表が必要となる。
  • 要配慮個人情報を除き、個人情報を取得した場合、あらかじめその利用目的を公表しておけば、再度本人にその利用目的を通知する必要はない。
  • 個人情報取扱事業者には、安全管理措置や従業員・委託先の監督について、努力義務ではなく法律上の義務が規定されている。

#37

AIに対しては倫理的な問題が議論されることがある。問題になったMicrosoft社開発の会話ロボットTayの事例として、”差別的表現を投稿した”事例がある。

#38

ディープラーニングの特徴として、モデルが行う推論の理由・根拠が説明困難な場合がある。これを理由にディープラーニングの活用が敬遠される場合もあるが、改善に向けた研究開発は行われている。このうち2016年に説明可能なAI(Explainable Artificial Intelligence:XAI)への投資プログラムを”アメリカ国防高等研究計画局(DARPA)”が発表した。この投資プログラムでは”推論の根拠の可視化や文章化による説明”が試みられた。

#39

AIの共同開発形式において留意しなければならないこととして、下記が挙げられる。

  • アジャイル型の開発方式はあらゆる工程にすべてのステークホルダーが関与する余地があるため、仕様変更に柔軟に対応できる利点があるが、その分責任の範囲や成果の帰属について適宜適切にコミュニケーションをとり、契約交渉を行うよう留意しなければならない。
  • 経済産業省の「AI・データの利用に関する契約ガイドライン」では、開発プロセスをアセスメント、PoC、開発、追加学習の各段階に分けて、それぞれの段階で必要な契約を結ぶことで、試行錯誤しながら納得のゆくモデルを生成するアプローチがしやすくなるとしている。
  • これまでの裁判例からシステム開発においては開発者と利用者の双方に協力し合う義務があることが確認されており、そのなかには実際に発注を行う利用者が実際の業務や既存システムについて情報提供する義務も含まれている。
  • 契約交渉は実際の開発状況にあわせてステークホルダー間で適時適切なコミュニケーションをとりながら進めていく必要があるが、秘密保持契約はその内容上、開発の最終アセスメント段階で結ぶことが望ましい。

#40

2018年5月に適用開始されたEU一般データ保護規則(GDPR)では、”個人情報として個人の名前や住所、クレジットカード情報、メールアドレスを含めるだけでなく、位置情報やCookie情報も個人情報とみなしている”。

コメント

タイトルとURLをコピーしました