Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Gambar dihasilkan oleh AI

Alat AI kanker bisa menyimpulkan demografi pasien, memicu kekhawatiran bias

Gambar dihasilkan oleh AI
Fakta terverifikasi

Sistem kecerdasan buatan yang dirancang untuk mendiagnosis kanker dari irisan jaringan belajar menyimpulkan demografi pasien, menyebabkan kinerja diagnostik tidak merata di berbagai kelompok ras, gender, dan usia. Peneliti di Harvard Medical School dan kolaborator mengidentifikasi masalah ini dan mengembangkan metode yang secara tajam mengurangi disparitas ini, menekankan perlunya pemeriksaan bias rutin dalam AI medis.

Patologi telah lama bergantung pada pemeriksaan irisan jaringan tipis di bawah mikroskop untuk mendiagnosis kanker, proses yang biasanya tidak mengungkap karakteristik demografis pasien bagi mata manusia. Namun, penelitian baru menunjukkan bahwa model AI yang memasuki laboratorium patologi tidak memiliki keterbatasan ini.

Sebuah studi yang dipimpin oleh Kun-Hsing Yu, profesor associate informatika biomedis di Blavatnik Institute di Harvard Medical School dan asisten profesor patologi di Brigham and Women's Hospital, menganalisis beberapa sistem patologi deep-learning standar yang dilatih pada koleksi besar slide berlabel untuk diagnosis kanker.

Menurut Harvard Medical School dan studi yang diterbitkan di Cell Reports Medicine, tim mengevaluasi empat model AI patologi yang umum digunakan pada repositori patologi multi-institusi besar yang mencakup 20 jenis kanker.

Peneliti menemukan bahwa keempat model menunjukkan kinerja tidak merata di seluruh kelompok demografis yang didefinisikan oleh ras, gender, dan usia yang dilaporkan sendiri oleh pasien. Dalam analisis pan-kanker, mereka mengidentifikasi disparitas kinerja signifikan pada sekitar 29 persen tugas diagnostik.

Pelaporan lanjutan oleh outlet termasuk News-Medical mencatat bahwa disparitas sangat terlihat pada tugas subtipe kanker paru dan payudara tertentu, dengan kinerja rendah untuk pasien Afrika Amerika dan beberapa pasien pria pada pembedaan kanker paru, dan untuk pasien muda pada beberapa pembedaan subtipe kanker payudara.

Tim penelitian melacak kesenjangan ini ke beberapa faktor. Salah satunya adalah representasi tidak merata kelompok demografis dalam data pelatihan. Yang lain melibatkan perbedaan insidensi dan biologi penyakit di berbagai populasi. Makalah Cell Reports Medicine lebih lanjut melaporkan bahwa variasi dalam prevalensi mutasi somatik di antara populasi berkontribusi pada disparitas kinerja, menunjukkan bahwa model menangkap pola molekuler halus yang terkait dengan demografi serta penyakit.

"Membaca demografi dari slide patologi dianggap sebagai 'misi mustahil' bagi ahli patologi manusia, jadi bias dalam AI patologi mengejutkan kami," kata Yu, menurut Harvard Medical School.

Untuk mengatasi masalah ini, peneliti mengembangkan FAIR-Path (Fairness-aware Artificial Intelligence Review for Pathology), kerangka mitigasi bias yang dibangun di atas konsep machine learning yang ada yang dikenal sebagai pembelajaran kontras. Pendekatan ini mendorong model untuk menekankan perbedaan antara jenis kanker sambil meremehkan perbedaan yang terkait dengan kategori demografis.

Dalam studi Cell Reports Medicine, FAIR-Path mengurangi 88,5 persen disparitas kinerja yang diukur di seluruh kelompok demografis dalam analisis pan-kanker utama dan mengurangi kesenjangan kinerja sebesar 91,1 persen dalam validasi eksternal di 15 kohort independen.

Yu dan rekan-rekannya melaporkan bahwa FAIR-Path meningkatkan keadilan tanpa memerlukan dataset yang seimbang sempurna dan dengan perubahan relatif sederhana pada pipeline pelatihan model yang ada.

Pekerjaan ini, yang dijelaskan pada 16 Desember 2025 di Cell Reports Medicine, menyoroti pentingnya pengujian sistematis sistem AI medis untuk bias demografis sebelum diterapkan dalam perawatan klinis.

Menurut liputan lanjutan dari Harvard Medical School dan SciTechDaily, tim sekarang sedang mengeksplorasi bagaimana memperluas FAIR-Path ke pengaturan dengan data terbatas dan memahami lebih baik bagaimana bias yang didorong AI berkontribusi pada disparitas hasil kesehatan yang lebih luas. Tujuan jangka panjang mereka adalah mengembangkan alat AI patologi yang mendukung ahli manusia dengan memberikan diagnosis cepat, akurat, dan adil bagi pasien dari semua latar belakang.

Apa yang dikatakan orang

Diskusi di X terutama terdiri dari pembagian netral penelitian Harvard Medical School yang mengungkapkan bahwa alat diagnostik kanker AI menyimpulkan demografi pasien dari slide patologi, menyebabkan bias dalam kinerja di berbagai kelompok ras, gender, dan usia. Pengguna menyoroti metode FAIR-Path baru yang mengurangi disparitas hingga 88%, menekankan pentingnya mitigasi bias dalam AI medis. Opini terbatas, keterlibatan rendah, liputan multibahasa.

Artikel Terkait

Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Gambar dihasilkan oleh AI

Studi menemukan ahli radiologi dan model AI kesulitan mendeteksi rontgen "deepfake" buatan AI

Dilaporkan oleh AI Gambar dihasilkan oleh AI Fakta terverifikasi

Sebuah studi yang diterbitkan pada 24 Maret 2026 di *Radiology* melaporkan bahwa rontgen "deepfake" buatan AI bisa cukup meyakinkan untuk mengecoh ahli radiologi dan beberapa sistem AI multimodal. Dalam pengujian, akurasi rata-rata ahli radiologi meningkat dari 41% saat mereka tidak diberi tahu adanya gambar palsu menjadi 75% saat mereka diperingatkan, yang menyoroti potensi risiko bagi keamanan pencitraan medis dan pengambilan keputusan klinis.

Alat AI generatif baru bernama CytoDiffusion menganalisis sel darah dengan akurasi lebih tinggi daripada ahli manusia, berpotensi meningkatkan diagnosis penyakit seperti leukemia. Dikembangkan oleh peneliti dari universitas Inggris, sistem ini mendeteksi kelainan halus dan mengukur ketidakpastiannya sendiri. Dilatih pada lebih dari setengah juta gambar dan unggul dalam menandai kasus langka untuk ditinjau.

Dilaporkan oleh AI

Peneliti di UC San Francisco dan Wayne State University menemukan bahwa AI generatif dapat memproses dataset medis kompleks lebih cepat daripada tim manusia tradisional, kadang-kadang menghasilkan hasil yang lebih kuat. Studi ini berfokus pada prediksi kelahiran prematur menggunakan data dari lebih dari 1.000 wanita hamil. Pendekatan ini mengurangi waktu analisis dari bulan menjadi menit dalam beberapa kasus.

India has released a national strategy for advanced computational systems in healthcare, focusing on integration into the health system architecture rather than mere add-ons. The approach prioritizes infrastructure like interoperable records and ongoing oversight to ensure equity. This contrasts with global trends where regulation often lags behind innovation.

Dilaporkan oleh AI

Studi Universitas Cornell mengungkapkan bahwa alat AI seperti ChatGPT telah meningkatkan output makalah peneliti hingga 50%, terutama menguntungkan penutur non-pribumi bahasa Inggris. Namun, lonjakan naskah yang dipoles ini menyulitkan peer review dan keputusan pendanaan, karena banyak yang kurang nilai ilmiah substansial. Temuan ini menyoroti pergeseran dinamika penelitian global dan menyerukan kebijakan terbaru tentang penggunaan AI di akademi.

Peneliti di Universitas Duke telah mengembangkan kerangka kerja kecerdasan buatan yang mengungkap aturan sederhana yang mendasari sistem sangat kompleks di alam dan teknologi. Diterbitkan pada 17 Desember di npj Complexity, alat ini menganalisis data deret waktu untuk menghasilkan persamaan ringkas yang menangkap perilaku esensial. Pendekatan ini dapat menjembatani kesenjangan dalam pemahaman ilmiah di mana metode tradisional kurang memadai.

Dilaporkan oleh AI

Sebuah komentar CNET berargumen bahwa menggambarkan AI memiliki kualitas seperti manusia seperti jiwa atau pengakuan menyesatkan publik dan mengikis kepercayaan terhadap teknologi. Ini menyoroti bagaimana perusahaan seperti OpenAI dan Anthropic menggunakan bahasa tersebut, yang menyamarkan isu nyata seperti bias dan keamanan. Artikel tersebut menyerukan terminologi yang lebih tepat untuk mendorong pemahaman yang akurat.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak