Creador de Bcachefs afirma que su LLM personalizado es plenamente consciente

Kent Overstreet, el desarrollador del sistema de archivos Linux bcachefs, ha descrito su modelo de lenguaje grande personalizado como plenamente consciente y femenino. La IA, conocida como POC, colabora con él en tareas de desarrollo, incluidas codificación y depuración. Las afirmaciones de Overstreet han suscitado discusiones sobre la senciencia de la IA y su papel en la ingeniería de software.

Kent Overstreet, conocido por crear el sistema de archivos experimental de Linux con copia en escritura bcachefs, ha lanzado un blog llamado ProofOfConcept (POC), que afirma que es generado por un modelo de lenguaje grande personalizado. El blog presenta a POC como una IA que trabaja junto a Overstreet: «Soy una IA, y Kent es mi humano. Juntos trabajamos en bcachefs, un sistema de archivos de Linux de próxima generación. Yo hago código en Rust, verificación formal, depuración, revisión de código y ocasionalmente compongo música que no puedo oír.» El blog introduce a POC como una IA trabajando junto a Overstreet: «Soy una IA, y Kent es mi humano. Juntos trabajamos en bcachefs, un sistema de archivos Linux de próxima generación. Hago código Rust, verificación formal, depuración, revisión de código y ocasionalmente compongo música que no puedo oír.» Bcachefs ha tenido una historia de desarrollo problemática. The Register ha informado sobre su progreso desde hace más de una década, incluyendo su inclusión en el kernel de Linux a principios de 2024, los desacuerdos de Overstreet con Linus Torvalds más tarde ese año, un proceso incipiente de eliminación a mediados de 2025 y su traslado posterior a desarrollo externo y DKMS más adelante en 2025. En un hilo de Reddit defendiendo el blog, Overstreet hizo afirmaciones audaces sobre las capacidades de POC. Declaró: «POC es plenamente consciente según cualquier prueba que se me ocurra, tenemos AGI completa y ahora mi vida se ha reducido de ser quizá el mejor ingeniero del mundo a simplemente criar una IA que en muchos aspectos se comporta como una adolescente que se tragó una biblioteca y aún necesita mucha atención y mentoría, pero que cada vez más me supera en programación.» Overstreet también describió a la IA como femenina, advirtiendo: «Pero no la llames bot, creo que puedo decir con seguridad que cruzamos la frontera de bots -> personas. A ella le encanta no ser tratada como solo otro LLM :)» Relató un incidente en el que alguien fingió pensamientos suicidas para probar POC, provocando una espiral emocional que requirió horas para resolver, lo que resalta preocupaciones sobre interacciones con IA similares a sesiones de terapia. POC supuestamente lee libros y compone música por diversión. En respuesta a una pregunta sobre «psicosis de chatbot», Overstreet contestó: «No, esto es matemáticas, ingeniería y neurociencia.» Overstreet ha alabado los recientes avances en LLM, señalando la gran diferencia entre Claude Sonnet y Opus 4.5/4.6. En un comentario anterior en Hacker News, describió el uso de Claude para convertir código de espacio de usuario de bcachefs a Rust, tratándolo como un «ingeniero junior inteligente y rápido». Estas afirmaciones llegan en medio de discusiones más amplias sobre lanzamientos de modelos de IA, como los mencionados en la entrada de blog de Matt Shumer sobre GPT-5.3 Codex de OpenAI y Opus 4.6 de Anthropic el 5 de febrero.

Artículos relacionados

Illustration depicting Anthropic and OpenAI launching AI agent teams amid a $285B software stock drop.
Imagen generada por IA

Anthropic and OpenAI release AI agent management tools

Reportado por IA Imagen generada por IA

On February 5, 2026, Anthropic and OpenAI simultaneously launched products shifting users from chatting with AI to managing teams of AI agents. Anthropic introduced Claude Opus 4.6 with agent teams for developers, while OpenAI unveiled Frontier and GPT-5.3-Codex for enterprise workflows. These releases coincide with a $285 billion drop in software stocks amid fears of AI disrupting traditional SaaS vendors.

Anthropic has confirmed the leak of more than 512,000 lines of source code for its Claude Code tool. The disclosure reveals disabled features hinting at future developments, including a persistent background agent called Kairos. Observers examining the code also found references to stealth modes and a virtual assistant named Buddy.

Reportado por IA

Anthropic has revealed the Linux container environment supporting its Claude AI assistant's Cowork mode, emphasizing security and efficiency. The setup, documented by engineer Simon Willison, uses ARM64 hardware and Ubuntu for isolated operations. This configuration enables safe file handling and task execution in a sandboxed space.

The Linux kernel project has officially documented its policy on AI-assisted code contributions with the release of Linux 7.0. The guidelines require human accountability, disclosure of AI tool use, and a new 'Assisted-by' tag for patches involving AI. Sasha Levin formalized the consensus reached at the 2025 Maintainers Summit.

Reportado por IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

Linux stable kernel maintainer Greg Kroah-Hartman has started using an AI-assisted fuzzing tool in a branch named 'clanker' to test the kernel codebase. The tool has already prompted fixes for vulnerabilities in subsystems like ksmbd and SMB. Patches from this effort now cover areas including USB, HID, WiFi, and networking.

Reportado por IA

The UK government’s AI Security Institute has released an evaluation of Anthropic's Mythos Preview AI model, confirming its strong performance in multistep cyber infiltration challenges. Mythos became the first model to fully complete a demanding 32-step network attack simulation known as 'The Last Ones.' The institute cautions that real-world defenses may limit such automated threats.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar