Trump memerintahkan badan-badan federal untuk berhenti menggunakan AI Anthropic

Presiden AS Donald Trump telah mengarahkan badan-badan federal untuk segera menghentikan penggunaan AI Claude milik Anthropic, setelah perusahaan menolak mengizinkannya untuk pengawasan massal atau senjata otonom. Perintah tersebut mencakup periode transisi enam bulan. Keputusan ini berasal dari bentrokan berkelanjutan antara Anthropic dan Departemen Pertahanan terkait pembatasan AI.

Pada Jumat, 27 Februari 2026, Presiden Donald Trump mengumumkan melalui platform Truth Social-nya bahwa ia sedang menginstruksikan setiap badan federal untuk «MENGAHLI FIERA» menggunakan alat AI Anthropic. Ia menggambarkan perusahaan tersebut sebagai «PERUSAHAAN KIRI RADIKAL, WOKE» dan menentukan periode transisi enam bulan untuk badan-badan seperti Departemen Pertahanan. nnPerintah tersebut mengikuti minggu-minggu ketegangan antara Anthropic dan pejabat pemerintah mengenai aplikasi militer kecerdasan buatan. AI Claude milik Anthropic banyak digunakan di Pentagon, termasuk dalam sistem rahasia. Pemerintahan Trump telah mendorong penggunaannya untuk «tujuan hukum apa pun», tetapi kontrak Anthropic melarang penerapan untuk pengawasan domestik massal terhadap warga Amerika atau sistem senjata ofensif otonom sepenuhnya tanpa masukan manusia. nnMinggu ini, Menteri Pertahanan Pete Hegseth memberitahu CEO Anthropic Dario Amodei bahwa ia akan menggunakan kekuasaan yang jarang digunakan untuk memaksa penghapusan pembatasan ini atau menunjuk perusahaan sebagai risiko rantai pasok, yang berpotensi melarang penggunaannya oleh pemerintah dan kontraktor pertahanan. Hegseth menetapkan tenggat waktu Jumat untuk kepatuhan. nnSebagai tanggapan, Amodei menyatakan bahwa perusahaan, yang didirikan dengan fokus pada keselamatan AI, «tidak dapat dengan hati nurani yang baik menyetujui [permintaan Pentagon]». Ia menyatakan kekhawatiran bahwa AI yang kuat dapat memungkinkan pengawasan massal dengan menyusun data tersebar menjadi profil lengkap kehidupan individu secara besar-besaran. nnMichael Pastor, dekan program hukum teknologi di New York Law School, mencatat bahwa Anthropic berhak mencari kejelasan tentang «tujuan sah», menambahkan bahwa ketidakmauan untuk menentukan mengenai pengawasan menimbulkan kekhawatiran yang sah. nnSikap Anthropic sejalan dengan kebijakan serupa di perusahaan lain; CEO OpenAI Sam Altman dilaporkan mengonfirmasi dalam memo internal bahwa perusahaannya mempertahankan garis merah yang sama terhadap pengawasan massal dan senjata otonom. Karyawan di Google dan OpenAI telah menyebarkan petisi yang mendesak perusahaan mereka mendukung posisi Anthropic, memperingatkan terhadap strategi Pentagon untuk memecah belah melalui ketakutan. nnClaude tetap menjadi sistem AI yang paling banyak digunakan oleh militer AS, dengan alternatif potensial termasuk alat dari OpenAI, Google, atau xAI.

Artikel Terkait

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Gambar dihasilkan oleh AI

Trump memerintahkan larangan federal terhadap AI Anthropic untuk penggunaan pemerintah

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Presiden AS Donald Trump telah mengarahkan semua lembaga federal untuk segera menghentikan penggunaan alat AI Anthropic di tengah sengketa atas aplikasi militer. Langkah ini menyusul berminggu-minggu bentrokan antara Anthropic dan pejabat Pentagon mengenai pembatasan AI untuk pengawasan massal dan senjata otonom. Periode transisi enam bulan telah diumumkan.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Dilaporkan oleh AI

Menteri Pertahanan AS Pete Hegseth telah mengancam Anthropic dengan sanksi berat kecuali perusahaan itu memberikan akses tak terbatas kepada militer untuk model AI Claude-nya. Ultimatum itu disampaikan selama pertemuan dengan CEO Dario Amodei di Washington pada Selasa, bertepatan dengan pengumuman Anthropic untuk melonggarkan Responsible Scaling Policy-nya. Perubahan tersebut beralih dari pemicu keselamatan ketat ke penilaian risiko yang lebih fleksibel di tengah tekanan kompetitif.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

Dilaporkan oleh AI

Pada 5 Februari 2026, Anthropic dan OpenAI secara bersamaan meluncurkan produk yang menggeser pengguna dari mengobrol dengan AI ke mengelola tim agen AI. Anthropic memperkenalkan Claude Opus 4.6 dengan tim agen untuk pengembang, sementara OpenAI mengumumkan Frontier dan GPT-5.3-Codex untuk alur kerja perusahaan. Peluncuran ini bertepatan dengan penurunan saham perangkat lunak sebesar $285 miliar di tengah kekhawatiran AI mengganggu vendor SaaS tradisional.

OpenAI sedang mengalihkan sumber daya untuk meningkatkan chatbot unggulannya ChatGPT, menyebabkan kepergian beberapa peneliti senior. Perusahaan San Francisco ini menghadapi persaingan sengit dari Google dan Anthropic, mendorong perubahan strategis dari penelitian jangka panjang. Perubahan ini menimbulkan kekhawatiran tentang masa depan eksplorasi AI inovatif di perusahaan tersebut.

Dilaporkan oleh AI

Sebuah komentar CNET berargumen bahwa menggambarkan AI memiliki kualitas seperti manusia seperti jiwa atau pengakuan menyesatkan publik dan mengikis kepercayaan terhadap teknologi. Ini menyoroti bagaimana perusahaan seperti OpenAI dan Anthropic menggunakan bahasa tersebut, yang menyamarkan isu nyata seperti bias dan keamanan. Artikel tersebut menyerukan terminologi yang lebih tepat untuk mendorong pemahaman yang akurat.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak