Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Gambar dihasilkan oleh AI

Pentagon mempermasalahkan batas-batas Antartika dalam penggunaan militer Claude di tengah ketegangan pembicaraan kontrak

Gambar dihasilkan oleh AI
Fakta terverifikasi

Setelah CEO Anthropic, Dario Amodei, mengatakan pada akhir Februari bahwa perusahaan tidak akan mengizinkan model Claude digunakan untuk pengawasan domestik massal atau senjata otonom sepenuhnya, pejabat senior Pentagon mengatakan bahwa mereka tidak berniat menggunakan AI untuk pengawasan domestik dan bersikeras bahwa perusahaan swasta tidak dapat menetapkan batasan yang mengikat tentang bagaimana militer AS menggunakan alat AI.

Juli lalu, kepala pejabat digital dan kecerdasan buatan Pentagon, Doug Matty, mengumumkan pemberian kontrak hingga $200 juta kepada empat perusahaan teknologi-Anthropic, Google, OpenAI, dan xAI-untuk menyediakan model kecerdasan buatan yang canggih bagi misi-misi Departemen Pertahanan. Matty mengatakan bahwa departemen tersebut bermaksud untuk mempercepat adopsi AI komersial untuk "tugas-tugas penting misi gabungan" dalam "domain peperangan", tetapi Pentagon hanya merilis sedikit detail operasional, dengan alasan keamanan nasional.

Penghargaan yang relatif tidak jelas itu menarik perhatian baru pada akhir Februari, ketika Anthropic mengatakan bahwa mereka bersikeras untuk membatasi Claude dalam "serangkaian kasus yang sempit." Dalam pernyataan pada 26 Februari, Amodei mengatakan bahwa dia sangat mendukung penggunaan AI untuk membantu mempertahankan Amerika Serikat dan negara-negara demokrasi lainnya, tetapi berpendapat bahwa beberapa aplikasi dapat merusak nilai-nilai demokrasi-termasuk "pengawasan domestik massal" dan "senjata yang sepenuhnya otonom," yang dia gambarkan sebagai pesawat tak berawak yang dapat dipandu sendiri.

Pejabat senior Departemen Pertahanan menanggapi dengan menolak premis tersebut dan pengaruh perusahaan. Menurut laporan yang dikutip oleh The Nation, para pejabat Pentagon mengatakan bahwa mereka tidak berniat menggunakan AI untuk pengawasan domestik dan bahwa sistem senjata tak berawak akan tetap berada di bawah pengawasan manusia. Namun mereka juga berpendapat bahwa kontraktor seharusnya tidak dapat memaksakan kondisi kebebasan sipil mereka sendiri pada operasi Pentagon. Emil Michael, wakil menteri pertahanan untuk penelitian dan rekayasa, dikutip mengatakan: "Kami tidak akan membiarkan perusahaan BigTech menentukan kebebasan sipil warga Amerika."

The Nation melaporkan bahwa, selama negosiasi, Michael juga mengajukan pertanyaan terpisah tentang apakah Anthropic akan menentang penggunaan Claude dalam misi yang berhubungan dengan nuklir seperti pertahanan rudal, dan bahwa Amodei tidak keberatan dengan penggunaan itu.

Perselisihan ini telah menyoroti ketegangan yang lebih luas antara dorongan Pentagon untuk mengintegrasikan AI generatif ke dalam intelijen, penargetan, dan pengembangan senjata - dan pagar pembatas yang menurut perusahaan-perusahaan AI harus mereka cegah agar tidak disalahgunakan. The Nation menunjuk pada upaya Departemen Pertahanan yang sudah berlangsung lama seperti Project Maven, yang dimulai dengan menggunakan AI untuk membantu menganalisis video drone untuk mencari target potensial, dan inisiatif Operasi Kolaboratif di Lingkungan yang Ditolak (CODE) DARPA, yang telah bekerja pada otonomi untuk kelompok drone yang beroperasi di bawah aturan yang telah ditentukan.

Kebijakan resmi Pentagon tentang otonomi diuraikan dalam Petunjuk DoD 3000.09, yang menyatakan bahwa senjata otonom dan semi-otonom harus dirancang agar komandan dan operator dapat melakukan "tingkat penilaian manusia yang tepat atas penggunaan kekuatan." Para kritikus berpendapat bahwa fleksibilitas kebijakan itu masih menyisakan ruang untuk otonomi yang dapat secara signifikan mengurangi kontrol manusia secara real-time.

Ketika AI menjadi lebih terintegrasi ke dalam perencanaan dan operasi militer, kebuntuan Anthropic-Pentagon menggarisbawahi pertanyaan yang belum terselesaikan di pusat ekspansi AI militer AS: bagaimana mendamaikan adopsi sistem komersial yang cepat dengan tuntutan akan batas-batas yang dapat ditegakkan dalam pengawasan domestik dan pendelegasian kekuatan mematikan kepada mesin.

Apa yang dikatakan orang

X mengungkapkan perpecahan dalam perselisihan Pentagon-Anthropic mengenai batasan AI Claude. Pendukung Anthropic memuji sikap etis mereka yang menentang pengawasan massal dan senjata otonom, dan memandang daftar hitam Pentagon sebagai tindakan yang melampaui batas. Para kritikus berpendapat bahwa perusahaan swasta tidak dapat memaksakan pembatasan pada penggunaan militer dan bahwa persyaratan kontrak yang sederhana sudah cukup. Postingan netral merinci kebuntuan, tenggat waktu, dan eskalasi hukum, yang kontras dengan kepatuhan OpenAI. Akun dengan keterlibatan tinggi dari jurnalis dan analis menyoroti ketegangan keamanan nasional vs. keamanan AI.

Artikel Terkait

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Gambar dihasilkan oleh AI

Pentagon menetapkan Anthropic sebagai ‘risiko rantai pasok’ setelah perselisihan atas batasan penggunaan militer untuk Claude AI

Dilaporkan oleh AI Gambar dihasilkan oleh AI Fakta terverifikasi

Pentagon secara resmi memberi tahu perusahaan AI Anthropic bahwa perusahaan tersebut dianggap sebagai “risiko rantai pasok”, penetapan langka yang menurut kritikus biasanya ditujukan untuk teknologi yang terkait dengan musuh. Langkah ini menyusul keruntuhan negosiasi mengenai apakah militer AS dapat menggunakan model Claude milik Anthropic untuk semua tujuan sah, versus batasan kontrak yang dikatakan perusahaan diperlukan untuk mencegah senjata otonom penuh dan pengawasan domestik massal.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Dilaporkan oleh AI

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Dilaporkan oleh AI

Aplikasi Claude AI milik Anthropic telah mencapai posisi teratas di tangga lagu aplikasi gratis App Store Apple, mengalahkan ChatGPT dan Gemini, didorong oleh dukungan publik setelah larangan federal Presiden Trump terhadap alat tersebut karena penolakan Anthropic terkait keselamatan AI.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

Dilaporkan oleh AI

Sebuah komentar CNET berargumen bahwa menggambarkan AI memiliki kualitas seperti manusia seperti jiwa atau pengakuan menyesatkan publik dan mengikis kepercayaan terhadap teknologi. Ini menyoroti bagaimana perusahaan seperti OpenAI dan Anthropic menggunakan bahasa tersebut, yang menyamarkan isu nyata seperti bias dan keamanan. Artikel tersebut menyerukan terminologi yang lebih tepat untuk mendorong pemahaman yang akurat.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak