Google añade defensas contra la inyección de prompts a Chrome

Google ha introducido nuevas defensas contra la inyección de prompts en su navegador Chrome. La actualización incorpora un sistema de IA diseñado para monitorear las actividades de otras IAs.

En una reciente mejora de seguridad, Google ha integrado protecciones contra la inyección de prompts en Chrome. La inyección de prompts representa una vulnerabilidad en la que entradas maliciosas pueden manipular los comportamientos de la IA. Para abordar esto, el navegador ahora incluye un mecanismo de IA que supervisa y verifica las operaciones de otros componentes de inteligencia artificial.

Este desarrollo busca fortalecer la seguridad del usuario durante las interacciones web que involucran tecnologías de IA. La función fue destacada en un informe de TechRadar publicado el 10 de diciembre de 2025, enfatizando su papel en la verificación de acciones de IA para prevenir posibles exploits.

Aunque los detalles específicos de la implementación siguen siendo limitados en los informes disponibles, esta adición subraya los esfuerzos continuos de Google por asegurar las integraciones de IA en herramientas de navegación populares. Los usuarios pueden esperar mejores salvaguardas contra manipulaciones no autorizadas de IA en futuras actualizaciones de Chrome.

Artículos relacionados

Illustration of Google Search AI Mode with Personal Intelligence feature integrating Gmail and Photos for personalized results.
Imagen generada por IA

Google añade inteligencia personal al modo IA en búsqueda

Reportado por IA Imagen generada por IA

Google ha lanzado una función experimental llamada 'Personal Intelligence' para su Modo IA en Búsqueda, que permite a los usuarios conectar Gmail y Google Photos para obtener respuestas más personalizadas. Esta herramienta opt-in, impulsada por Gemini 3, busca hacer los resultados de búsqueda más relevantes utilizando datos personales sin entrenar modelos con bandejas de entrada completas. Se implementa primero para suscriptores de pago en EE.UU.

La firma de seguridad Varonis ha identificado un nuevo método para ataques de inyección de prompts dirigido a Microsoft Copilot, que permite comprometer a los usuarios con solo un clic. Esta vulnerabilidad resalta los riesgos continuos en los sistemas de IA. Los detalles surgieron en un informe reciente de TechRadar.

Reportado por IA

Google ha lanzado nuevas herramientas de IA Gemini para su navegador Chrome, que incluyen una barra lateral para multitarea y un generador de imágenes integrado. Las actualizaciones también ofrecen una vista previa del agente «Auto Browse» para automatizar tareas web. Estas mejoras buscan hacer la navegación más personalizada y eficiente.

Un escaneo reciente de millones de apps de Android ha revelado fugas de datos significativas desde software de IA, superando las expectativas en escala. Los secretos hardcodeados persisten en la mayoría de las aplicaciones de IA para Android hoy en día. Los hallazgos destacan riesgos continuos de privacidad en la tecnología móvil.

Reportado por IA

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

Microsoft ha anunciado una serie de funciones de IA generativa para Windows 11, con el objetivo de transformar cada PC en un 'PC con IA' mediante activación por voz, análisis de pantalla y manejo automatizado de archivos. Estas actualizaciones, que incluyen el comando de voz 'Hey, Copilot' y el lanzamiento mundial de Copilot Vision, se basan en el enfoque de la compañía en la IA agentiva. Las funciones enfatizan interacciones naturales con el usuario mientras abordan preocupaciones pasadas de privacidad de herramientas como Recall.

Reportado por IA

Los estafadores envían correos electrónicos que parecen auténticos a usuarios de OpenAI, diseñados para manipularlos y hacer que revelen datos críticos rápidamente. Estos correos van seguidos de llamadas vishing que aumentan la presión sobre las víctimas para que divulguen detalles de sus cuentas. La campaña pone de relieve los riesgos continuos en la seguridad de las plataformas de IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar