LinkedIn planerar att träna AI på användarprofiler om inte opt-out görs

LinkedIn kommer att använda användardata för att träna sina AI-modeller från och med nästa vecka, med användare som automatiskt är opt-in om de inte vidtar åtgärder för att opta ut. Förändringen i policyn kräver manuell intervention för att skydda personlig information. Detta drag belyser de växande farhågorna kring dataskydd i AI-utveckling.

LinkedIn, en professionell nätverksplattform ägd av Microsoft, meddelade en kommande policyuppdatering som kommer att inkludera användarprofiler i träningen av dess AI-modeller. Enligt TechRadar träder denna förändring i kraft nästa vecka, vilket innebär att användare redan är opt-in som standard och måste justera sina inställningar manuellt för att förhindra att deras data används.

Rapporteringen betonar brådskan och anger: "Du är redan opt-in, så du måste agera på LinkedIn nu." Denna utveckling sker mitt i bredare branschtrender där sociala plattformar utnyttjar användargenererat innehåll för att förbättra AI-förmågor, såsom att förbättra söktjänster eller innehållsrekommendationer.

Inga specifika detaljer om typerna av AI-applikationer eller den exakta omfattningen av dataanvändning angavs i rapporteringen. Användare uppmanas att omedelbart granska sina integritetsinställningar för att opta ut och säkerställa att deras professionella profiler utesluts från AI-träningsdatauppsättningar.

Denna policyförändring väcker frågor om användarsamtycke och datakontroll i en era av snabb AI-framsteg, även om LinkedIn ännu inte har kommenterat vidare på implikationerna.

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj