行政書士と生成AI33
- ezily5
- 2024年10月10日
- 読了時間: 1分
行政書士と生成AI33
現在、詳しくはわからないが、「説明可能なAI(XAI)というAIの挙動を人間が理解できるレベルで解き明かす研究をアメリカの国防高等計画局はじめとする多くの研究機関がが行っている。
AIが生成する文章には、その根拠となる出典の明示が求められる。例えば、画像生成すれば、それが第三者権利を侵害していないか確かめる必要がある。
AIの深層学習を用いた入出力において、なぜその結果について、「何故そのように予測したか」を解析する研究が(XAI)らしい。
深層学習を用いた入出力おいては、なぜそのような結果にいたったかが不明確で納得性に欠ける。いわゆる生成AIにおける「ブラックボックス」問題である。
確かに、生成AIにおける「ブラックボックス」問題は、高度の信頼性や透明性が要求される医療診断や金融取引においては、重要な問題になる。
簡単に示せば
人間(入力):この動物は何?AI(出力):キリンである可能性が高いようです。
↓
人間:なぜそう判断したのか AI:無回答
Commentaires