LinkedIn kommer att använda användardata för att träna sina AI-modeller från och med nästa vecka, med användare som automatiskt är opt-in om de inte vidtar åtgärder för att opta ut. Förändringen i policyn kräver manuell intervention för att skydda personlig information. Detta drag belyser de växande farhågorna kring dataskydd i AI-utveckling.
LinkedIn, en professionell nätverksplattform ägd av Microsoft, meddelade en kommande policyuppdatering som kommer att inkludera användarprofiler i träningen av dess AI-modeller. Enligt TechRadar träder denna förändring i kraft nästa vecka, vilket innebär att användare redan är opt-in som standard och måste justera sina inställningar manuellt för att förhindra att deras data används.
Rapporteringen betonar brådskan och anger: "Du är redan opt-in, så du måste agera på LinkedIn nu." Denna utveckling sker mitt i bredare branschtrender där sociala plattformar utnyttjar användargenererat innehåll för att förbättra AI-förmågor, såsom att förbättra söktjänster eller innehållsrekommendationer.
Inga specifika detaljer om typerna av AI-applikationer eller den exakta omfattningen av dataanvändning angavs i rapporteringen. Användare uppmanas att omedelbart granska sina integritetsinställningar för att opta ut och säkerställa att deras professionella profiler utesluts från AI-träningsdatauppsättningar.
Denna policyförändring väcker frågor om användarsamtycke och datakontroll i en era av snabb AI-framsteg, även om LinkedIn ännu inte har kommenterat vidare på implikationerna.