O LinkedIn está prestes a usar dados de usuários para treinar seus modelos de IA a partir da próxima semana, com os usuários optados automaticamente, a menos que tomem medidas para optar por sair. A mudança de política exige intervenção manual para proteger informações pessoais. Essa medida destaca as crescentes preocupações com a privacidade de dados no desenvolvimento de IA.
O LinkedIn, uma plataforma de rede profissional de propriedade da Microsoft, anunciou uma atualização de política iminente que incorporará perfis de usuários no treinamento de seus modelos de IA. De acordo com o TechRadar, essa mudança entra em vigor na próxima semana, o que significa que os usuários já estão optados por padrão e devem ajustar manualmente suas configurações para evitar o uso de seus dados.
O relatório enfatiza a urgência, afirmando: "Você já está optado, então precisa tomar providências no LinkedIn agora." Esse desenvolvimento ocorre em meio a tendências mais amplas da indústria, onde plataformas sociais aproveitam conteúdo gerado por usuários para aprimorar capacidades de IA, como melhorar funções de pesquisa ou recomendações de conteúdo.
Não foram fornecidos detalhes específicos sobre os tipos de aplicações de IA ou o escopo exato do uso de dados na cobertura. Os usuários são aconselhados a revisar prontamente suas configurações de privacidade para optar por sair, garantindo que seus perfis profissionais permaneçam excluídos dos conjuntos de dados de treinamento de IA.
Essa mudança de política levanta questões sobre o consentimento do usuário e o controle de dados em uma era de avanço rápido da IA, embora o LinkedIn ainda não tenha comentado mais sobre as implicações.