LinkedIn se prepara para usar datos de usuarios en el entrenamiento de sus modelos de IA a partir de la próxima semana, con los usuarios optados automáticamente a menos que tomen medidas para optar por no participar. El cambio de política requiere una intervención manual para proteger la información personal. Esta medida resalta las crecientes preocupaciones sobre la privacidad de datos en el desarrollo de IA.
LinkedIn, una plataforma de redes profesionales propiedad de Microsoft, anunció una actualización de política próxima que incorporará perfiles de usuarios en el entrenamiento de sus modelos de IA. Según TechRadar, este cambio entrará en vigor la próxima semana, lo que significa que los usuarios ya están optados por defecto y deben ajustar manualmente sus configuraciones para evitar que se utilicen sus datos.
El informe enfatiza la urgencia, afirmando: "Ya estás optado, por lo que debes tomar medidas en LinkedIn ahora." Este desarrollo se produce en medio de tendencias más amplias en la industria, donde las plataformas sociales aprovechan el contenido generado por los usuarios para mejorar las capacidades de IA, como la optimización de funciones de búsqueda o recomendaciones de contenido.
No se proporcionaron detalles específicos sobre los tipos de aplicaciones de IA o el alcance exacto del uso de datos en la cobertura. Se aconseja a los usuarios que revisen sus configuraciones de privacidad de inmediato para optar por no participar, asegurando que sus perfiles profesionales queden excluidos de los conjuntos de datos de entrenamiento de IA.
Este cambio de política plantea preguntas sobre el consentimiento de los usuarios y el control de datos en una era de avance rápido de la IA, aunque LinkedIn aún no ha comentado más sobre las implicaciones.