AIガバナンスについて

業務の効率化や高精度な分析のため、生成AI利用は欠かせないツールとなっています。生成AIの利用ガイドライン、企業や組織が安全に利用するためのルール作りが話題です。組織としての行動を考えると、利用目的、情報管理、倫理的配慮等、生成AI を御利用する際に守るべきルールを明文化しておき、リスク回避が望まれます。

考えられるリスクとは、①技術的リスク―例えば、誤情報を作成してしまう、あるいは、サイバー攻撃を受けるなど、②法的なリスク-例えば、著作権侵害、機密漏洩など、③倫理的リスク-例えば、差別的な表現や偏見によるブランドイメージの低下や信用毀損等、に大別されます。

 

利用に関して、目標を決め、ルール(ガイドライン)に盛り込む項目、活用時のテンプレート(ひな形)の提示、自社に向けてのカスタマイズ、関連部署の承認、社内への周知、そして、今後の運用改善方法などを盛り込みます。

既に、東京都や総務省等、自治体や官庁では、文書作成のAI活用ガイドラインが示され、経済産業省にはAI原則実践のためのガバナンス・ガイドラインなどがあります。

社会実装の促進に必要不可欠なAIの実践利用では、目指すところと組織なの実情との乖離も当面は続くことはやむをえません。組織の成員のAIリテラシーの水準に応じた柔軟な利用を、研修や協議を重ねて、組織内で継続して検討することが必要となると思います。AIの習熟度に応じたルール作り、情報共有がスタートといったところでしょうか。息の長い取り組みとなりますが、まずは利用し、ルール作りも同時に進めていただきたいと思います。

次回以降は、著作権やフェイクの情報への対処などを取り上げたいと考えています。

<池田桂子>