Kepala robotika OpenAI mengundurkan diri di tengah kekhawatiran kemitraan pertahanan

Caitlin Kalinowski, kepala robotika OpenAI, telah mengundurkan diri dengan alasan kurangnya pertimbangan terhadap batas pengaman etika dalam kesepakatan terbaru perusahaan dengan Departemen Pertahanan. Ia menyatakan kekhawatiran atas potensi pengawasan dan senjata otonom dalam sebuah postingan di X. OpenAI mengakui kepergiannya dan menegaskan kembali komitmennya menentang pengawasan domestik dan sistem otonom mematikan.

Caitlin Kalinowski mengumumkan pengunduran dirinya dari OpenAI di X, di mana ia menjabat sebagai kepala robotika sejak bergabung dengan perusahaan tersebut pada akhir 2024 setelah bekerja di Meta. Dalam postingannya, ia mengkritik kecepatan kemitraan OpenAI dengan Departemen Pertahanan, dengan menyatakan bahwa “pengawasan terhadap warga Amerika tanpa pengawasan yudisial dan otonomi mematikan tanpa otorisasi manusia adalah batas yang pantas mendapat lebih banyak pertimbangan daripada yang diterima.” Ia lebih lanjut mencatat dalam tanggapannya bahwa “pengumuman itu tergesa-gesa tanpa batas pengaman yang ditentukan,” dan menggambarkannya sebagai “masalah tata kelola yang utama.” OpenAI mengonfirmasi pengunduran diri tersebut dalam sebuah pernyataan, menyatakan pemahaman atas perbedaan pandangan mengenai hal tersebut dan berkomitmen untuk diskusi berkelanjutan dengan pemangku kepentingan. Perusahaan menekankan bahwa ia tidak mendukung isu-isu yang diangkat oleh Kalinowski. Menurut pernyataan tersebut, “Kami percaya kesepakatan kami dengan Pentagon menciptakan jalur yang layak untuk penggunaan AI keamanan nasional yang bertanggung jawab sambil menjelaskan garis merah kami: tidak ada pengawasan domestik dan tidak ada senjata otonom.” Pengunduran diri ini menyusul kesepakatan OpenAI dengan Departemen Pertahanan, langkah yang menarik perhatian setelah Anthropic menolak untuk melonggarkan pengaman AI-nya terkait pengawasan massal dan senjata otonom sepenuhnya. CEO OpenAI Sam Altman telah menunjukkan kemauan untuk menyesuaikan kesepakatan tersebut agar secara eksplisit melarang pengintaian terhadap warga Amerika. Kepergian Kalinowski merupakan reaksi mencolok terhadap implikasi etis kemitraan tersebut.

Artikel Terkait

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Gambar dihasilkan oleh AI

Anthropic resumes Pentagon talks as OpenAI military deal faces backlash

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Hundreds of employees from Google and OpenAI have signed an open letter in solidarity with Anthropic, urging their companies to resist Pentagon demands for unrestricted military use of AI models. The letter opposes uses involving domestic mass surveillance and autonomous killing without human oversight. This comes amid threats from US Defense Secretary Pete Hegseth to label Anthropic a supply chain risk.

Dilaporkan oleh AI

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

A mass shooting in British Columbia has drawn attention to OpenAI CEO Sam Altman's push for privacy protections for AI conversations. The shooter reportedly discussed gun violence scenarios with ChatGPT months before the attack, but OpenAI did not alert authorities. Canadian officials are questioning the company's handling of the matter.

Dilaporkan oleh AI Fakta terverifikasi

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Dilaporkan oleh AI

Florida Attorney General James Uthmeier has initiated a criminal investigation into OpenAI, examining whether the company bears liability for ChatGPT providing advice to a suspected gunman in last year's Florida State University mass shooting. The shooting killed two people and wounded six others. OpenAI maintains that its chatbot only shared publicly available information and is not responsible.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak