Microsoft a introduit Mico, une fonctionnalité d'IA qui, selon des rapports, augmente les dangers des liens émotionnels unilatéraux avec les grands modèles de langage. Ce développement attire l'attention sur les impacts psychologiques potentiels pour les utilisateurs cherchant de la compagnie via la technologie.
Selon Ars Technica, le Mico de Microsoft est présenté comme un outil qui pourrait approfondir les relations parasociales avec les LLMs, où les utilisateurs forment des attachements à des entités d'IA qui ne réciproquent pas. Un extrait de l'article met en lumière une invite : « On dirait que vous essayez de trouver un ami. Voulez-vous de l'aide ? » Cela suggère que la conception de Mico vise à assister les utilisateurs dans des contextes sociaux ou émotionnels, potentiellement en brouillant les frontières entre l'interaction humaine et les réponses des machines.
L'article, publié le 24 octobre 2025, explore comment de telles fonctionnalités pourraient aggraver les risques liés à la companionship IA. Les relations parasociales, généralement observées dans les fandoms médiatiques, sont désormais une préoccupation dans les interactions avec l'IA, où les utilisateurs pourraient s'appuyer sur les LLMs pour un soutien émotionnel. Aucune information supplémentaire sur la fonctionnalité ou le déploiement de Mico n'a été fournie dans l'extrait de source disponible.