LLVM、人間の監督を必要とするAIポリシーを実施

オープンソースプロジェクトLLVMは、AI生成コードを貢献に許可する新ポリシーを導入した。人間が提出内容をレビューし理解することを条件とする。この「人間をループに含む」アプローチは説明責任を確保しつつ、コミュニティの透明性に関する懸念に対処する。貢献者からの入力で開発されたポリシーは、ソフトウェア開発における革新と信頼性のバランスを取る。

LLVMは、Clang、Rust、Swift、Linuxカーネルなどのプロジェクトで使用されるコンパイラおよびツールチェーンの基盤コレクションであり、貢献におけるAIツール使用に関するポリシーを採用した。2026年1月22日に公開されたガイドラインは、開発者が任意のAIツールを使用することを許可するが、提出された作業に対する完全な責任を強調する。 ポリシーの下、貢献者はプルリクエストの説明、コミットメッセージ、または著作権情報で使用したAIツールを開示しなければならない。提出内容をレビューし理解し、レビュー中に自信を持って正当化し、メンテナの注意に値することを確かめなければならない。違反は既存のコミュニティプロセスに従って扱われる。 開発プロセスは広範なコミュニティ参加を伴った。LLVMメンバーは、プロジェクトのAI対応、行動規範、実際の慣行の不一致を指摘し、Hacker Newsで議論された注目すべきプルリクエストを挙げ、提出後にAI使用を認めたが最初に開示しなかった事例を参照した。 LLVMメンテナReid Klecknerが主導した。彼の初期ドラフトはFedoraのAIポリシーに着想を得て、新規参加者を非テストコード150行に制限するなどの制限を提案した。コミュニティミーティングとフォーラムのフィードバック後、最終版はレビュー準備と質問回答能力に焦点を当て、曖昧な所有権条項からより明確な要件へ移行した。 更新されたAIツール使用ポリシーはLLVMのドキュメントサイトで利用可能で、許容されるAI支援作業の例と違反ガイドラインを含む。この動きは、開発におけるAIの拡大する役割に適応する他のオープンソースイニシアチブとLLVMを一致させる。

関連記事

リナックスカーネルの作成者であるLinus Torvaldsは、AI生成コードの送信に対するルール作成の試みを批判し、無意味だと述べた。最近のメールで、このようなポリシーは悪意ある投稿者を抑止せず、コードの品質に焦点を当てるべきだと主張した。この立場は、オープンソース開発における人工知能ツールをめぐる継続的な緊張を浮き彫りにしている。

AIによるレポート

Linux開発者コミュニティは、AIの役割をめぐる議論から、カーネルエンジニアリングプロセスへの統合へと移行した。開発者は現在、プロジェクトメンテナンスにAIを使用しているが、コード執筆に関する疑問が残る。著作権とオープンソースライセンスに関する懸念も残っている。

Linuxカーネルプロジェクトは、パッチの自動レビューを行うAIシステム「Sashiko」の運用を開始した。大規模言語モデル(LLM)を活用したこのエージェント型ツールは、人間のレビュアーが見落としていたバグを特定している。この取り組みは、コードの品質向上と保守性の強化を目的としている。

AIによるレポート

Linuxカーネルの作成者であるLinus Torvaldsは、カーネルドキュメントにおけるAI生成コンテンツに関する議論を強く批判した。彼は「AI slop」についての話を無意味で愚かだと呼んだ。これらのコメントは、オープンソース開発におけるAIをめぐる継続的な緊張を強調している。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否