Bias
Alat AI kanker bisa menyimpulkan demografi pasien, memicu kekhawatiran bias
Dilaporkan oleh AI Gambar dihasilkan oleh AI Fakta terverifikasi
Sistem kecerdasan buatan yang dirancang untuk mendiagnosis kanker dari irisan jaringan belajar menyimpulkan demografi pasien, menyebabkan kinerja diagnostik tidak merata di berbagai kelompok ras, gender, dan usia. Peneliti di Harvard Medical School dan kolaborator mengidentifikasi masalah ini dan mengembangkan metode yang secara tajam mengurangi disparitas ini, menekankan perlunya pemeriksaan bias rutin dalam AI medis.
Penelitian baru menunjukkan bahwa algoritma yang dipersonalisasi di platform seperti YouTube dapat menghambat pembelajaran dengan membatasi paparan terhadap informasi, bahkan bagi mereka yang tidak memiliki pengetahuan sebelumnya. Peserta dalam sebuah studi mengeksplorasi lebih sedikit materi, menarik kesimpulan yang salah, dan merasa terlalu percaya diri dengan kesalahan mereka. Temuan ini menyoroti risiko pemahaman yang bias dalam interaksi digital sehari-hari.
Dilaporkan oleh AI
Seorang pengacara dari Wikimedia Foundation merespons tuduhan Senator Ted Cruz tentang bias kiri di Wikipedia, mengaitkan kekhawatiran tersebut dengan kesalahpahaman tentang proses pengeditan berbasis sukarelawan platform tersebut. Jacob Rogers menekankan bahwa yayasan tidak mengendalikan konten dan menyambut partisipasi dari siapa pun yang tidak puas dengan artikel. Surat dari Cruz menuntut dokumen tentang pengawasan dan bias, tetapi tidak memiliki kekuatan hukum.