アルファ段階のLinuxディストリビューションであるAerynOSは、開発とコミュニティ活動における大規模言語モデル(LLM)の使用を禁止するポリシーを実施しました。この措置は、トレーニングデータの倫理的問題、環境影響、品質リスクに対処します。例外は翻訳とアクセシビリティのニーズに限定されます。
原子更新に焦点を当てたLinuxディストリビューションで、まだアルファ段階にあるAerynOSは、プロジェクト全体で大規模言語モデル(LLM)の使用を禁止する貢献ガイドラインを更新しました。この決定はRedditで発表され、ソースコード、ドキュメント、イシューレポート、アートワークを含む開発とコミュニティ参加のすべての側面に適用されます。 このポリシーはいくつかの主要な懸念から生まれています。開発者は、LLMのトレーニング方法、特にデータの調達に関する倫理的問題を強調しています。また、これらのモデルの構築と運用に携わる過剰な電力と水の消費などの高い環境コストを指摘しています。さらに、LLM生成コンテンツが貢献の全体的な品質を低下させ、潜在的な著作権問題を引き起こす可能性についての懸念もあります。 禁止は包括的ですが、AerynOSは狭い例外を認めています。貢献者は、イシューやコメントのテキストを英語に翻訳するためにのみLLMを使用できます。プロジェクトはアクセシビリティ目的でのさらなる許可を検討する可能性があります。ユーザーサポートに関しては、チームは公式ドキュメントよりもAIチャットボットに依存することを推奨していません。不正確なLLM出力に基づくリクエストは、メンテナーがサードパーティのエラーのデバッグを避けるため、見過ごされるリスクがあります。 この先見の明のあるポリシーは、すべての貢献が人間によるレビューを受けることを保証し、プロジェクトの技術基準と信頼性を維持することを目指しています。これは、AI統合の影響に関する広範な議論の中で、オープンソースイニシアチブの間でAI統合を精査する傾向の成長を反映しています。