Microsoft ha introducido Mico, una función de IA que supuestamente aumenta los peligros de lazos emocionales unilaterales con modelos de lenguaje grandes. Este desarrollo llama la atención sobre posibles impactos psicológicos en usuarios que buscan compañía a través de la tecnología.
Según Ars Technica, el Mico de Microsoft se presenta como una herramienta que podría profundizar las relaciones parasociales con LLMs, donde los usuarios forman apegos a entidades de IA que no corresponden. Un fragmento del artículo destaca un prompt: “Parece que estás tratando de encontrar un amigo. ¿Te gustaría ayuda?” Esto sugiere que el diseño de Mico busca asistir a los usuarios en contextos sociales o emocionales, potencialmente difuminando las líneas entre la interacción humana y las respuestas de la máquina.
El artículo, publicado el 24 de octubre de 2025, explora cómo tales funciones podrían exacerbar los riesgos asociados con la compañía de IA. Las relaciones parasociales, típicamente vistas en fandoms de medios, ahora son una preocupación en las interacciones con IA, donde los usuarios podrían depender de LLMs para apoyo emocional. No se proporcionaron más detalles sobre la funcionalidad o el lanzamiento de Mico en el extracto de la fuente disponible.