オープンソースプロジェクトLLVMは、AI生成コードを貢献に許可する新ポリシーを導入した。人間が提出内容をレビューし理解することを条件とする。この「人間をループに含む」アプローチは説明責任を確保しつつ、コミュニティの透明性に関する懸念に対処する。貢献者からの入力で開発されたポリシーは、ソフトウェア開発における革新と信頼性のバランスを取る。
LLVMは、Clang、Rust、Swift、Linuxカーネルなどのプロジェクトで使用されるコンパイラおよびツールチェーンの基盤コレクションであり、貢献におけるAIツール使用に関するポリシーを採用した。2026年1月22日に公開されたガイドラインは、開発者が任意のAIツールを使用することを許可するが、提出された作業に対する完全な責任を強調する。 ポリシーの下、貢献者はプルリクエストの説明、コミットメッセージ、または著作権情報で使用したAIツールを開示しなければならない。提出内容をレビューし理解し、レビュー中に自信を持って正当化し、メンテナの注意に値することを確かめなければならない。違反は既存のコミュニティプロセスに従って扱われる。 開発プロセスは広範なコミュニティ参加を伴った。LLVMメンバーは、プロジェクトのAI対応、行動規範、実際の慣行の不一致を指摘し、Hacker Newsで議論された注目すべきプルリクエストを挙げ、提出後にAI使用を認めたが最初に開示しなかった事例を参照した。 LLVMメンテナReid Klecknerが主導した。彼の初期ドラフトはFedoraのAIポリシーに着想を得て、新規参加者を非テストコード150行に制限するなどの制限を提案した。コミュニティミーティングとフォーラムのフィードバック後、最終版はレビュー準備と質問回答能力に焦点を当て、曖昧な所有権条項からより明確な要件へ移行した。 更新されたAIツール使用ポリシーはLLVMのドキュメントサイトで利用可能で、許容されるAI支援作業の例と違反ガイドラインを含む。この動きは、開発におけるAIの拡大する役割に適応する他のオープンソースイニシアチブとLLVMを一致させる。