(翻訳)生成AI原則
public.icon
(翻訳)生成AI原則
生成式 AI の原則のドラフトを日本語に翻訳します。
---
生成式 AI の使用原則
v0.3、最終更新 2023/10/30、mashbean による修正
▉▉▉▉▉生成式 AI の使用原則
1. この規範は、《▉▉▉及び所属機関(構)が生成式 AI を使用する際の参考指針(草案)》の第7項「各機関は、生成式 AI の使用機器及び業務の性質に応じ、生成式 AI の使用規範や内部管理措置を設定することができる。」に基づき、▉▉▉▉▉版の使用原則を提出し、対象は▉▉▉▉▉、所属機関(構)および関連プロジェクトの同僚(以下、使用者と略す)を含む。
説明:原則の設立根拠と目的、規範の使用対象範囲を説明。
2. 生成式 AI サービスとは、大規模データベースに基づいて生成されたアルゴリズムモデルであり、テキスト、コード、画像、映像などの合成コンテンツを生成するもので、以下「生成式 AI サービス」と略す。本原則はサービスの使用とユーザー側を規範とし、生成式 AI の開発側には関与しない。サービスの使用に応じて、オープンソースかどうか、封閉式のオンプレミスデプロイメントかどうか、および各モデルの使用規約が初期の機密データ保護措置を有するかどうかに基づき、異なる使用ケースに対して適切な生成式 AI サービスの使用を提案する。
説明:生成式 AI サービスとその使用条件を定義。
サービス使用チェックリスト:
(第2条、モデルの使用):使用規約の保護措置の有無?封閉式のオンプレミスデプロイメントか?オープンソースか?ソフトウェアパッケージに組み込まれているか?
(第4条、データ入力):機密またはセンシティブなデータか、個人データか
(第5条、データ出力):オリジナリティがあるか、出典の引用があるか
3. 各機関は、業務部門(使用者)が生成式 AI サービスに精通し、デジタルリテラシーを向上させることを奨励すべきである。また、国家のデータガバナンス(Data Governance)および個人データ保護(Personal Data Protection)の要件に対応し、早期の応用と早期警告の効用を実施すること。
説明:目標は、新興技術の多様な関係者の生成式 AI の使用率を早期に拡大し、特に公式内部の事例を合理的に蓄積し、問題を早期に発見し、早期に対処することである。
原則の策定においては、技術中立
性(Technology Neutrality)を保持すべきであり、特定の生成式 AI サービスの使用を要求するものではなく、関連技術を偏向または差別することもなく、技術ツールが相互運用可能なフレームワークを満たし、ベンダーロックイン(Vendor Lock-in)を避けることを奨励する。
機関は、使用者が生成式 AI サービスを使用して作業効率を向上させ、業務部門の負担を軽減し、便利なサービスを向上させることを促進すべきであり、同時に安全性、プライバシー、公正性を維持すべきである。
機関は、積極的な使用者による使用状況の事例を奨励し、問題の早期発見と解決策の提案を行い、関連するリスクとメリットについての討論用例を提供すべきである。
4. 使用者は、個人の意志に基づいて使用する生成式 AI サービスの内容に対して責任を持つべきであり、既存の法律、行政命令、内部規範などを含むが、これに限定されない。機密保護、個人データ保護、著作権および知的財産権、未公開データなどに関する責任は、生成式 AI サービスに転嫁することはできない。
説明:目標は、責任を既存の法規に連携させ、関連する責任を使用者に帰属させることである。(責任の所在)
データの使用と業務の実行に関する責任主体は、担当者であり、生成式 AI サービスは単なるツールに過ぎない。政府と市民のコミュニケーション窓口は業務部門(使用者)であり、AI は使用者の内部業務用である。同様に、担当部門は生成式 AI サービスの使用によって不当な処分を受けるべきではない。(奨励と保護の原則)
既存の法規との接続が可能であり、行政院及び所属各機関の情報セキュリティ管理要点、公務員服務法、個人データ保護法、国家機密保護法、著作権法、▉▉▉▉▉文書流通管理作業要点、政府データ伝送プラットフォーム管理規範、各機関のICTアプリケーション管理要点、行政院文書処理マニュアルなどを利用して、サービスの使用の自由度を確立する。使用者が機密漏洩、個人データの漏洩、著作権または著作財産権の回避を試みる場合、生成式 AI サービスを使用すべきではない。(法規の整理)
5. 生成式 AI サービスの使用に関する規範は、「オリジナルコンテンツ」と「非オリジナルコンテンツ」に分けて、それ
ぞれの開示原則とセキュリティ管理を行うべきである。オリジナルコンテンツに関わる場合は、生成式 AI サービスの使用を明示するか、出典引用の規範に従うべきである。
説明:「オリジナルコンテンツ」とは、アイデアの創造、ドラフトの作成、画像や合成映像データの生成などを指し、知的財産権や著作権などの可能性がある場合は、使用する生成式 AI サービスの使用規約を確認し、使用する生成式 AI ツールを表示するか、出典を注記する。機関は、表示や注記の例を明示し、使用者が参照できるようにすべきである。(開示原則)
「非オリジナルコンテンツ」とは、翻訳、要約、資料の整理などの作業を指し、現在の生成式 AI モデルは既存のソフトウェアパッケージに統合される傾向があるため、ツールの内容の開示の複雑さを考慮して、生成式 AI ツールの使用を開示しないことができる。(開示原則の例外状況)
6. モデルの使用者は、使用する生成式 AI サービスの潜在的なリスクとそれに伴う責任に注意する必要があり、機関は信頼できる AI サービス(Trustworthy AI)の使用ガイドラインを提供し、定期的に AI リスクケースの実践討論会を開催するべきである。
説明:目標は、AI の潜在的なリスクに対応し、リスクを集団化し、機関が内部および外部の事例を統合し、定期的に AI リスクケースの実践討論会を開催し、組織レベルで問題を解決し、リスクと安全レベルを技術の進展に応じて柔軟に修正することである。(リスクの集団負担)
機関は、実践討論会の事例内容を使用者に教育訓練として提供し、一般公開し、監査ユニットを確立するべきである。(事例の経験公開透明化)
使用者にとっては、業務プロセスで生成式 AI サービスを使用し、潜在的なリスクを指摘し、監査で自らが使用する生成式 AI サービスを指摘できるようにする必要がある。(リスク認識)
機関は、信頼できる AI サービスリストと使用ガイドラインを提供し、定期的に事例を蓄積する必要がある。使用事例は、使用するサービスのモデル、使用方法とプロセス、使用結果などを明記し、その作業がどのように生成式 AI を使用してリスクを低減するかを説明するべきである。サービスリストはブラックリストを原則とし、機関の同僚が新興の生成式 AI サービスをより多く使用することを主動的に禁止しな
い。(信頼できるリストの作成)
7. 附則。機関は、モデルサービスの事例、データ入力の事例、データ出力の事例を作成し、定期的に蓄積することで、将来の機関または上位機関の立法の参考となる。
説明:目標は、立法前に実務の使用事例を大量に蓄積することであり、そのために本機関は率先して使用事例のテンプレートを作成し、協力、相互運用、参照可能な公開データセットを実現することである。
作成する事例には以下が含まれる:
モデルサービスの事例:信頼できる AI モデルの使用ガイドライン
機密データを含む生成式 AI サービスの使用に関する提案
データ入力の事例:AI のセンシティブデータ使用原則
3つのリスクレベル:機密データ、個人データ、未承認の公開データ
個人データの権利管理システム(RMS, Right Manage System)
データ出力の事例:AI の偏見チェック原則
倫理指針の設立と偏見除去技術の支援(ethical guideline, de-biasing technique)。
次のステップ:
上記の既存法規に接続する、例えば▉▉▉及び所属各機関の情報セキュリティ管理要点、公務員服務法、個人データ保護法、著作権法、国家機密保護法、▉▉▉▉▉文書流通管理作業要点、政府データ伝送プラットフォーム管理規範、各機関のICTアプリケーション管理要点、行政院文書処理マニュアル。
生成式AIモデルの既存ポリシーを外部で調査し、OpenAI、Anthropic、Bard、Stable Diffusion、LLaMA、TAIDE などのポリシーと使用規約を調査する。
実践討論事例を作成する
定期的に内部 AI リスクケースの実践討論会を開催する(業界の専門家と学者の協力を求める)
作成する事例には以下が含まれる:
モデルサービスの事例:信頼できる AI モデルの使用ガイドライン
機密データを含む生成式 AI サービスの使用に関する提案
データ入力の事例:AI のセンシティブデータ使用原則
3つのリスクレベル:機密データ、個人データ、未承認の公開データ
個人データの権利管理システム(RMS, Right Manage System)
データ出力の事例:AI の偏見チェック原則
倫理指針の設立と偏見除去技術の支援(ethical guideline, de-biasing technique)。
海外の既存フレームワークを参考にする
アメリカ「AIリスク管理フレームワーク1.0」(AI RMF 1.0)
他の参考資料:
人体研究法、人体実