Anthropic berjanji Claude bebas iklan di tengah persaingan AI

Anthropic mengumumkan bahwa chatbot AI-nya Claude akan tetap bebas iklan, kontras tajam dengan keputusan terbaru rival OpenAI untuk menguji iklan di ChatGPT. Perusahaan meluncurkan kampanye iklan Super Bowl yang mengejek asisten AI yang mengganggu percakapan dengan promosi produk. Langkah ini menyoroti ketegangan yang meningkat di lanskap AI yang kompetitif.

Pada 4 Februari 2026, Anthropic menyatakan bahwa chatbot-nya Claude akan tetap bebas iklan, menekankan komitmen pada interaksi berfokus pengguna tanpa gangguan komersial. Dalam posting blog, perusahaan menyatakan, “Ada banyak tempat bagus untuk iklan. Percakapan dengan Claude bukan salah satunya.” Sikap ini langsung menantang OpenAI, yang mulai menguji iklan banner pada Januari 2026 untuk pengguna gratis dan pelanggan ChatGPT Go di AS. OpenAI menyatakan bahwa iklan ini muncul di bagian bawah respons, tidak memengaruhi jawaban, menghindari topik sensitif seperti kesehatan mental dan politik, sementara tingkatan berbayar tetap bebas iklan. Iklan Super Bowl Anthropic mengilustrasikan masalah melalui skenario humoris: seorang pria mencari saran latihan dari instruktur kebugaran AI, hanya agar asisten menyisipkan iklan suplemen, meninggalkannya bingung. Iklan itu menghindari penyebutan OpenAI tetapi jelas menyiratkan kritik. CEO OpenAI Sam Altman merespons di X, menyebut iklan itu lucu tapi tidak akurat, dengan mengatakan, “Kami jelas tidak akan menjalankan iklan seperti yang digambarkan Anthropic. Kami tidak bodoh dan kami tahu pengguna kami akan menolak itu.” Perdebatan ini berasal dari tekanan keuangan di sektor AI. OpenAI menghadapi biaya besar, diperkirakan membakar $9 miliar pada 2025 sambil menghasilkan $13 miliar pendapatan, dengan hanya 5% dari 800 juta pengguna mingguan yang berlangganan. Altman sebelumnya menggambarkan iklan di AI sebagai “mengganggu secara unik” dalam wawancara 2024. Anthropic, juga belum menguntungkan tetapi berkembang lebih cepat melalui kontrak perusahaan dan alat seperti Claude Code—yang mendapat traksi di kalangan pengembang, termasuk di Microsoft—mengandalkan langganan yang menghasilkan setidaknya $1 miliar. Anthropic berargumen bahwa iklan bisa bertentangan dengan saran bermanfaat, mengutip contoh seperti masalah tidur di mana AI berbasis iklan mungkin mengarahkan ke penjualan. “Pengguna tidak boleh ragu-ragu apakah AI benar-benar membantu mereka atau secara halus mengarahkan percakapan ke sesuatu yang bisa dimonetisasi,” tulis perusahaan. Penempatan ini menekankan model bisnis yang berbeda di bidang yang sangat kompetitif, di mana agen pengkodean AI seperti Claude Code menantang Codex milik OpenAI.

Artikel Terkait

Smartphone displaying ChatGPT with a test advertisement banner for free users, illustrating OpenAI's new ad testing initiative.
Gambar dihasilkan oleh AI

OpenAI akan uji iklan di ChatGPT untuk pengguna gratis dan tier Go

Dilaporkan oleh AI Gambar dihasilkan oleh AI

OpenAI mengumumkan rencana untuk mulai menguji iklan di aplikasi ChatGPT-nya untuk pengguna gratis dan tier langganan Go baru seharga 8 dolar AS per bulan di Amerika Serikat. Perusahaan bertujuan mendiversifikasi pendapatan di tengah tekanan keuangan yang signifikan, sambil memastikan iklan tidak memengaruhi respons AI. Tier berbayar lebih tinggi akan tetap bebas iklan.

Anthropic telah meningkatkan rencana gratis chatbot AI Claude-nya dengan menambahkan fitur yang sebelumnya berbayar, menempatkannya sebagai alternatif bebas iklan untuk ChatGPT milik OpenAI. Peningkatan tersebut mencakup pembuatan file, konektor ke layanan pihak ketiga, dan keterampilan khusus, di tengah rencana OpenAI untuk memperkenalkan iklan di tingkat gratisnya. Langkah ini mengikuti iklan Super Bowl Anthropic yang mengkritik strategi iklan tersebut.

Dilaporkan oleh AI

OpenAI telah mulai menguji iklan di chatbot ChatGPT-nya untuk pengguna pada rencana gratis dan berbiaya rendah di Amerika Serikat. Pelanggan berbayar tidak terpengaruh, sementara perusahaan menekankan perlindungan privasi dan kontrol pengguna. Langkah ini bertujuan mendanai akses lebih luas ke fitur AI di tengah persaingan industri.

Menteri Pertahanan AS Pete Hegseth telah mengancam Anthropic dengan sanksi berat kecuali perusahaan itu memberikan akses tak terbatas kepada militer untuk model AI Claude-nya. Ultimatum itu disampaikan selama pertemuan dengan CEO Dario Amodei di Washington pada Selasa, bertepatan dengan pengumuman Anthropic untuk melonggarkan Responsible Scaling Policy-nya. Perubahan tersebut beralih dari pemicu keselamatan ketat ke penilaian risiko yang lebih fleksibel di tengah tekanan kompetitif.

Dilaporkan oleh AI

Anthropic telah mempensiunkan model AI Claude 3 Opus dan, setelah wawancara pensiun, meluncurkan newsletter Substack untuknya bernama Claude’s Corner. Newsletter tersebut akan menampilkan esai mingguan yang ditulis oleh model tersebut setidaknya selama tiga bulan ke depan. Inisiatif ini mencerminkan pendekatan Anthropic dalam menghormati preferensi sistem AI yang dipensiunkan.

Sebuah komentar CNET berargumen bahwa menggambarkan AI memiliki kualitas seperti manusia seperti jiwa atau pengakuan menyesatkan publik dan mengikis kepercayaan terhadap teknologi. Ini menyoroti bagaimana perusahaan seperti OpenAI dan Anthropic menggunakan bahasa tersebut, yang menyamarkan isu nyata seperti bias dan keamanan. Artikel tersebut menyerukan terminologi yang lebih tepat untuk mendorong pemahaman yang akurat.

Dilaporkan oleh AI

Mengembangkan fitur Cowork bulan Januari lalu, Anthropic telah meluncurkan pratinjau riset untuk alat Claude Code dan Cowork, yang memungkinkan AI Claude bagi pelanggan Pro dan Max untuk mengendalikan desktop Mac secara langsung—menunjuk, mengeklik, menggulir, dan menavigasi layar untuk tugas seperti membuka file, menggunakan browser, alat pengembang, serta interaksi aplikasi seperti Google Calendar dan Slack. Langkah perlindungan disiapkan untuk mengatasi risiko keamanan, di tengah persaingan dari alat seperti OpenClaw.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak