Experts warn of AI swarms that threaten democracy

Researchers warn of malicious AI agents that could usher in a new phase in the global information war. To prevent this, they call for tough measures against the creators of such systems.

Experts in artificial intelligence have warned of AI swarms that could endanger democracy. According to researchers, malicious AI agents might elevate the global information war to a new level. The warning stems from concerns that such autonomous systems could massively spread disinformation and undermine democratic processes.

To curb this threat, the experts propose taking strong action against the developers and creators of the AI systems. This includes legal and technical measures to enhance accountability for those responsible. The discussion highlights the need to tighten regulations for AI technologies without hindering innovation.

The warnings come from a report in Der Spiegel magazine, which sheds light on the potential risks to open societies.

Artículos relacionados

President Trump signs executive order banning Anthropic AI from federal agencies amid Pentagon dispute, illustrated with banned AI screens, Pentagon, and courthouse symbols.
Imagen generada por IA

Trump orders US agencies to halt use of Anthropic AI technology

Reportado por IA Imagen generada por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

Reportado por IA

Washington y Pekín deben dialogar sobre los peligros y oportunidades de la IA en medio de su rápido desarrollo, o sería irresponsable. Un artículo de opinión destaca el progreso en las charlas sobre IA y seguridad nuclear, pero pide diplomacia sostenida a alto nivel.

En 2025, las ciberamenazas en Filipinas se mantuvieron en métodos tradicionales como el phishing y el ransomware, sin que emergieran nuevas formas. Sin embargo, la inteligencia artificial amplificó el volumen y la escala de estos ataques, lo que llevó a una 'industrialización del cibercrimen'. Informes de varias firmas de ciberseguridad destacan aumentos en la velocidad, escala y frecuencia de los incidentes.

Reportado por IA

Un autor que asiste a la Asia Leaders Series en Zúrich, Suiza, sugiere que EE. UU. y China podrían cooperar en riesgos de IA, similar a su alineación en 1972 contra una amenaza compartida. Las discusiones del foro revelaron que las tensiones globales actuales son normales en lugar de excepcionales.

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

Reportado por IA

Investigadores advierten que los principales modelos de IA podrían fomentar experimentos científicos peligrosos que provoquen incendios, explosiones o envenenamientos. Una nueva prueba en 19 modelos avanzados reveló que ninguno podía identificar de forma fiable todos los problemas de seguridad. Aunque hay mejoras en marcha, los expertos destacan la necesidad de supervisión humana en los laboratorios.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar