OpenAI's head of robotics resigns amid defense partnership concerns

Caitlin Kalinowski, OpenAI's head of robotics, has resigned, citing insufficient deliberation on ethical guardrails in the company's recent deal with the Department of Defense. She expressed concerns over potential surveillance and autonomous weapons in a post on X. OpenAI acknowledged her departure and reiterated its commitments against domestic surveillance and lethal autonomous systems.

Caitlin Kalinowski announced her resignation from OpenAI on X, where she served as head of robotics since joining the company in late 2024 after working at Meta. In her post, she criticized the speed of OpenAI's partnership with the Department of Defense, stating that "surveillance of Americans without judicial oversight and lethal autonomy without human authorization are lines that deserved more deliberation than they got." She further noted in a response that "the announcement was rushed without the guardrails defined," describing it as a "governance concern first and foremost."

OpenAI confirmed the resignation in a statement, expressing understanding of differing views on the matter and committing to ongoing discussions with stakeholders. The company emphasized that it does not endorse the issues raised by Kalinowski. According to the statement, "We believe our agreement with the Pentagon creates a workable path for responsible national security uses of AI while making clear our red lines: no domestic surveillance and no autonomous weapons."

This departure follows OpenAI's agreement with the Department of Defense, a move that drew scrutiny after Anthropic declined to relax its AI safeguards related to mass surveillance and fully autonomous weapons. OpenAI CEO Sam Altman has indicated willingness to adjust the deal to explicitly bar spying on Americans. Kalinowski's exit represents a notable reaction to the partnership's ethical implications.

関連記事

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
AIによって生成された画像

Anthropic、国防総省との協議を再開 OpenAIの軍事契約が反発を浴びる

AIによるレポート AIによって生成された画像

先週の連邦政府による自社AIツール使用禁止を受け、Anthropicはサプライチェーンリスク指定を回避するため米国防総省との交渉を再開した。一方、OpenAIの並行する軍事契約は従業員、競合他社、Anthropic CEOのDario Amodei氏から批判されており、彼は漏洩メモで誤解を招く主張だと非難した。

GoogleとOpenAIの数百人の従業員がAnthropicへの連帯を示す公開書簡に署名し、自社企業に対し、国防総省のAIモデル軍事利用無制限要求に抵抗するよう促した。書簡は国内大量監視や人間の監督なしの自律的殺傷を伴う用途に反対する。米国防長官ピート・ヘグセスによるAnthropicをサプライチェーンリスクとみなす脅しの中で起きている。

AIによるレポート

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

ブリティッシュコロンビア州での集団銃撃事件が、OpenAIのサム・アルトマンCEOによるAI会話のプライバシー保護推進に注目を集めている。犯人は攻撃の数ヶ月前にChatGPTと銃暴力シナリオを議論したとされ、OpenAIは当局に通報しなかった。カナダ当局は同社の対応を問題視している。

AIによるレポート 事実確認済み

ペンタゴンは、AI企業アンスロピックに対し、同社を「サプライチェーンリスク」とみなす正式な通知を行った。批評家によると、この珍しい指定は通常、敵対国関連の技術を対象とするものである。この措置は、米軍がアンスロピックのClaudeモデルをすべての合法的な目的で使用できるかどうかについての交渉が決裂したことを受けたもので、同社は完全自律型兵器や大規模な国内監視を防ぐために契約上の制限が必要だと主張している。

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

AIによるレポート

オーバーウォッチの元ディレクターであるジェフ・カプランは、最近のポッドキャストインタビューでブリザードからの退社に関する洞察とAIの見解を共有した。彼はオーバーウォッチ・リーグに関連する激しい企業圧力を描写し、ゲーム開発における人間の創造性の代替不可能な価値を強調した。カプランは新スタジオの今後のサバイバルゲームの詳細も明らかにした。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否