LLVM、人間の監督を必要とするAIポリシーを実施

オープンソースプロジェクトLLVMは、AI生成コードを貢献に許可する新ポリシーを導入した。人間が提出内容をレビューし理解することを条件とする。この「人間をループに含む」アプローチは説明責任を確保しつつ、コミュニティの透明性に関する懸念に対処する。貢献者からの入力で開発されたポリシーは、ソフトウェア開発における革新と信頼性のバランスを取る。

LLVMは、Clang、Rust、Swift、Linuxカーネルなどのプロジェクトで使用されるコンパイラおよびツールチェーンの基盤コレクションであり、貢献におけるAIツール使用に関するポリシーを採用した。2026年1月22日に公開されたガイドラインは、開発者が任意のAIツールを使用することを許可するが、提出された作業に対する完全な責任を強調する。 ポリシーの下、貢献者はプルリクエストの説明、コミットメッセージ、または著作権情報で使用したAIツールを開示しなければならない。提出内容をレビューし理解し、レビュー中に自信を持って正当化し、メンテナの注意に値することを確かめなければならない。違反は既存のコミュニティプロセスに従って扱われる。 開発プロセスは広範なコミュニティ参加を伴った。LLVMメンバーは、プロジェクトのAI対応、行動規範、実際の慣行の不一致を指摘し、Hacker Newsで議論された注目すべきプルリクエストを挙げ、提出後にAI使用を認めたが最初に開示しなかった事例を参照した。 LLVMメンテナReid Klecknerが主導した。彼の初期ドラフトはFedoraのAIポリシーに着想を得て、新規参加者を非テストコード150行に制限するなどの制限を提案した。コミュニティミーティングとフォーラムのフィードバック後、最終版はレビュー準備と質問回答能力に焦点を当て、曖昧な所有権条項からより明確な要件へ移行した。 更新されたAIツール使用ポリシーはLLVMのドキュメントサイトで利用可能で、許容されるAI支援作業の例と違反ガイドラインを含む。この動きは、開発におけるAIの拡大する役割に適応する他のオープンソースイニシアチブとLLVMを一致させる。

関連記事

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
AIによって生成された画像

Linux Foundation、Agentic AI Foundationを立ち上げ

AIによるレポート AIによって生成された画像

Linux Foundationは、オートノマスAIシステムに関するオープンなコラボレーションを促進するため、Agentic AI Foundationを立ち上げました。主要テック企業であるAnthropic、OpenAI、Blockなどが、相互運用性を促進しベンダーロックインを防ぐための主要なオープンソースプロジェクトを寄与しました。このイニシアチブは、独自の判断とタスク実行が可能なAIエージェントのためのニュートラルな標準を作成することを目指しています。

リナックスカーネルの作成者であるLinus Torvaldsは、AI生成コードの送信に対するルール作成の試みを批判し、無意味だと述べた。最近のメールで、このようなポリシーは悪意ある投稿者を抑止せず、コードの品質に焦点を当てるべきだと主張した。この立場は、オープンソース開発における人工知能ツールをめぐる継続的な緊張を浮き彫りにしている。

AIによるレポート

Linux開発者コミュニティは、AIの役割をめぐる議論から、カーネルエンジニアリングプロセスへの統合へと移行した。開発者は現在、プロジェクトメンテナンスにAIを使用しているが、コード執筆に関する疑問が残る。著作権とオープンソースライセンスに関する懸念も残っている。

Linuxカーネル開発ツールのb4が、コードレビューを支援するAIエージェントの内部テストを開始した。このステップはdog-feedingとして知られ、ツール開発プロセス内でAI機能の実用的適用を示す。更新情報はLinuxニュースの主要ソースであるPhoronixから。

AIによるレポート

オープンソースの AI プロジェクト OpenClaw(旧称 Moltbot および Clawdbot)は、1週間足らずで GitHub で 10 万を超えるスターを獲得した。この実行エンジンは、チャットインターフェース内で AI エージェントがメール送信やカレンダー管理などのアクションをユーザーの代わりに行えるようにする。その急成長は、暗号通貨の使いやすさを簡素化する可能性を示す一方で、セキュリティ懸念も引き起こしている。

Bandcampは、プラットフォーム上で完全にまたは大部分がAIによって生成された音楽を禁止し、音楽制作における人間の要素を守ることを目的としています。2026年1月14日に発表されたこのポリシーでは、ユーザーがAI生成が疑われるコンテンツを報告し、審査と削除が可能になります。この動きは、AI生成トラックの急増に悩む他のストリーミングサービスとは対照的です。

AIによるレポート

音楽レーベルとテック企業が、UdioやSunoなどのAI音楽生成器のトレーニングにおけるアーティスト作品の無許可使用に対処している。主要レーベルとの最近の和解は新たな収益源を生み出すことを目指し、革新的ツールはAIモデルから無許可コンテンツを除去することを約束する。アーティストたちはこの技術が彼らの生計に与える影響に慎重だ。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否