公開日:

生成AI出力の学習利用に潜むライセンスリスクと実務対応

1 はじめに

昨今AIモデルの利用に際して、セキュリティ・プライバシー観点の懸念から各企業の環境などにAIモデルを導入して利用する方法が注目されています[1]。特に、大規模言語モデル(LLM)において、各企業の環境などにLLMを導入して利用することは「ローカルLLM」といい、金融分野などの重要なデータを取り扱う場面での生成AI利用の一つの選択肢として検討されつつあります。

こういったローカルLLMが広がる中で、総務省および経済産業省が2026年3月31日に公表した「AI事業者ガイドライン(第1.2版)」においては、AI開発者の役割の1つとしてAIモデルの学習を通じて当該AI モデルの性能を維持・改善することが挙げられています[2]。当該記載を踏まえると、上記のような学習の一環として既存のAIモデルの出力のログを利用してローカルLLMなどのモデルに対して学習が実施されることも、今後のAIモデルの精度改善の一つの選択肢として検討されることがあり得ます。

この点、既存のAIモデルの導入初期の段階で当該AIモデルの出力を他のモデルの学習に利用するというユースケースを意識して、当該AIモデルの利用条件が検討されることは実務上多くないように見受けられます。しかしながら、仮に、事後的に当該AIモデルの利用条件に違反していることが発覚した場合、学習用データの出力元のAIモデルの利用条件および学習先のモデルの利用状況によっては、そもそも当該学習用データの利用ができず再度学習し直すことになるケースや、事後的な対応のために利用規約の改定およびユーザーからの再同意が必要になるケースなど、企業にとって対応が負担になる可能性も否定できません。

そこで、本稿では、代表的なオープンモデルの利用条件をベースに、これらのオープンモデルの出力を学習に利用したモデルを作成した者にどのような義務が生じ得るかを確認し、当該義務を踏まえて、AIモデルの導入・運用段階においてAIモデルの出力に関する管理として一般的にどのような対応が必要かを検討します。

全文ダウンロード(PDF)はこちら


[1] 具体的には、以下のような事例が挙げられます。

・「NTTデータ先端技術、ローカルLLM環境を利用した金融システム開発向け生成AI活用を検証」, 2026年4月14日(https://www.nikkei.com/article/DGXZRSP705900_U6A410C2000000/

・「インテック、オンプレミス環境で生成AIを活用できるローカルLLMの導入支援を開始」、2026年1月29日(https://www.nikkei.com/article/DGXZRSP702443_Z20C26A1000000/

・「NTT系、AI音声文字起こし新版 ローカルLLMでセキュアに処理」、日本経済新聞、2026年1月29日(https://www.nikkei.com/nkd/industry/article/?DisplayType=1&n_m_code=146&ng=DGXZQOUC2829D0Y6A120C2000000

[2] 総務省・経済産業省、「AI事業者ガイドライン(1.2版)」、2026年3月31日、p5

https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20260331_1.pdf