テキスト生成AI利活用におけるリスクへの対策ガイドブック

 入手したい資料があってデジタル庁のサイトを捜していたところ「テキスト生成AI利活用における対策ガイドブック(α版)」という資料をみつけました。2024年6月10日発行で、概要に「テキスト生成AIを利活用し、行政サービスや職員業務の改善の重要度が高まる中、リスクを特定し、そのリスクを受容できるレベルまでに軽減する対応もまた重要になっている。テキスト生成AIに関連するリスクは多岐にわたるが、その多くはテキスト生成AI固有でないAIシステム全般に共通するものである。そこで、本文書では政府情報システムを対象に、テキスト生成AI固有と見られるリスクに焦点をあて、留意点を紹介する。現段階(2024年5月現在)では、実践的なフレームワークやチェックリストによるガイドブックを作成できるまでの知見が蓄積されていないため、留意点の紹介にとどめる。本文書は、テキスト生成AIをその提供形態と利活用方法で分類し、それぞれにおける想定リスクとその軽減策を具体的に示したものである」とあるように対象が「政府行政情報システム」で、また本文(5ページ)に「本文書で言及されるリスクは、2023年度までにデジタル庁で行われた行政でのテキスト生成AIの利活用の検証時に考察されたユースケースを元に想定されており、テキスト生成AI全般を網羅したものではない点に注意いただきたい。」とあるように、個人や民間での利用を想定したリスク対策のガイドブックではなく、変化の著しい状況を踏まえると改訂なども必要になっているのかもしれませんが、生成AIの利活用に関するリスクをどのようにとらえて対策しようとしているかの観点では、個人、民間でのリスク対策上も参考になる点がありそうでしたので紹介しておきます。内容は、皆さまでAIを使って要約していただければと思いますので、個人的に思い浮かべたことなどを2点ほど。

そもそも人間が行うべき仕事とは何か

「2.1 テキスト生成AIの利活用が不適切であるケースにテキスト生成AIを用いるリスク」(8ページ)に、テキスト生成AIの利活用が不適切である場合として、6類型、挙げられています。
  (1)テキスト生成AIによる回答の期待品質が高すぎる場合
  (2)そもそも人間が行うべき仕事であり、AIによる代替が不適切な場合
  (3)特定の資格を必要とする作業であることが法令に定められている場合
  (4)テキスト生成AIの知識に無い事項を答えさせる場合
  (5)テキスト生成AI利活用の構築・運用費が費用対効果に見合わない場合
  (6)その他、AI事業者ガイドラインの「共通指針」 ページ 12~20) に違反する場合

読んでひっかかるのは、「そもそも人間が行うべき仕事というのは何か」ということですが、本文では、例として「パブリックコメントの返答をテキスト生成AIで全自動化するケースは不適切な事例である。これはパブリックコメントの本来の目的は国民からの質問に回答することではなく、広く国民の声を行政に届けることが目的であるため、行政職員がパブリックコメントを読み込むことが本質であるからである。」とありました。なるほどという感じですが、そういえば、初期のころ、学生がレポートをAIに書かせて、教授がAIで採点するという話があったのを思い出しました。資料には、このパブリックコメントの返答作成業務で適切に生成AIを利用するユーズケースも記載されています。

AIだって人間だ

「6.1 業務の実績データや利用者要望を分析できているか」(37ページ)には、チャットでの利用の場合として「チャットインターフェースでテキスト生成AIとインタラクティブにチャットをすると、サービス利用者 の体験としてはヒト相手にメッセージを送るものに近くなる傾向にある。そのため、利用規約やプライバシーポリシーで明記してあったとしても、テキスト生成AIへの入力文をシステム管理者が実績データとして確認すること自体をプライバシーの侵害とみなされるリスクがある。このリスクの軽減策として、実績データの取り扱いをプライバシーに配慮した形で定めそれを厳密に運用するのは大前提とし、サービス利用者の感情面を配慮したサービスデザインを熟慮することが挙げられる。」これは、要するに、利用者がAIをヒトだと思って、色々と打ち明けてしまうということだと思いますが、「うちの嫁がね」などと一日中、会話していたら、システム管理者に「いい加減にしてくださいよ」といわれて「AIを信用していたのに」と泣くという感じでしょうか。自分もChatGPTに何か聞くたび「ありがとうございました」とお礼をいったりしていますので、礼節をわきまえるという点では、AIと人間を区別する必要もないのかなと思っています。

(内山)