Anthropic tambahkan fitur dreaming ke agen terkelola Claude

Anthropic memperkenalkan kemampuan dreaming baru untuk Claude Managed Agents mereka dalam konferensi pengembang Code with Claude di San Francisco. Fitur ini memungkinkan agen untuk meninjau sesi terkini dan menyimpan pola-pola kunci ke dalam memori untuk tugas di masa mendatang. Perusahaan juga berencana untuk memperluas akses ke perangkat lain dan meningkatkan batas penggunaan bagi para pelanggan.

Proses dreaming berjalan sesuai jadwal dan menganalisis sesi di berbagai agen untuk mengidentifikasi pola yang berulang, kesalahan, serta preferensi bersama. Pengguna dapat memilih untuk melakukan pembaruan memori otomatis atau meninjau sendiri perubahan yang diusulkan. Pendekatan ini membantu mengatasi keterbatasan dalam jendela konteks selama proyek jangka panjang yang melibatkan beberapa agen yang bekerja bersama selama berjam-jam atau berhari-hari.

Artikel Terkait

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Gambar dihasilkan oleh AI

Anthropic mengakhiri akses tak terbatas Claude melalui agen pihak ketiga, mewajibkan pembayaran tambahan untuk penggunaan berat

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Anthropic telah membatasi akses tak terbatas ke model AI Claude melalui agen pihak ketiga seperti OpenClaw, yang mengharuskan pengguna intensif membayar biaya tambahan melalui kunci API atau paket penggunaan mulai 4 April 2026. Perubahan kebijakan yang diumumkan selama akhir pekan ini bertujuan mengatasi tekanan sistem yang parah akibat penggunaan alat agen bervolume tinggi yang sebelumnya tercakup dalam langganan bulanan senilai $20.

Anthropic telah memperluas kemampuan memorinya ke tingkat gratis chatbot AI Claude, memungkinkan pengguna merujuk percakapan masa lalu. Perusahaan juga merilis alat untuk mengimpor memori dari chatbot pesaing seperti ChatGPT dan Gemini. Pembaruan ini bertepatan dengan lonjakan popularitas Claude di tengah sengketa dengan Kementerian Pertahanan AS.

Dilaporkan oleh AI

Anthropic mengumumkan peluncuran Claude Managed Agents pada hari Rabu, sebuah produk baru yang ditujukan untuk menyederhanakan pembuatan dan penerapan agen AI bagi bisnis. Alat ini menyediakan infrastruktur siap pakai bagi pengembang untuk membangun sistem AI otonom. Produk ini mengatasi hambatan utama dalam mengotomatiskan tugas pekerjaan di tengah pertumbuhan perusahaan yang pesat di sektor korporasi.

Anthropic sementara menggandakan batas penggunaan untuk chatbot AI Claude-nya selama jam non-puncak dari 13 Maret hingga 27 Maret. Promosi ini berlaku untuk pengguna paket Free, Pro, Max, dan Team, kecuali paket Enterprise. Promosi ini diaktifkan secara otomatis di web, desktop, mobile, dan aplikasi terintegrasi.

Dilaporkan oleh AI

Anthropic telah merilis add-on versi beta yang menghadirkan asisten AI Claude ke Microsoft Word, yang kini tersedia bagi pelanggan paket Team dan Enterprise. Integrasi ini memungkinkan pengguna untuk membuat konten baru, menyunting dokumen, dan menangani komentar langsung di dalam aplikasi. Fitur ini menawarkan alternatif bagi Copilot milik Microsoft.

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

Dilaporkan oleh AI Fakta terverifikasi

Setelah CEO Anthropic, Dario Amodei, mengatakan pada akhir Februari bahwa perusahaan tidak akan mengizinkan model Claude digunakan untuk pengawasan domestik massal atau senjata otonom sepenuhnya, pejabat senior Pentagon mengatakan bahwa mereka tidak berniat menggunakan AI untuk pengawasan domestik dan bersikeras bahwa perusahaan swasta tidak dapat menetapkan batasan yang mengikat tentang bagaimana militer AS menggunakan alat AI.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak