Expertos destacan amenazas de IA como deepfakes y LLMs oscuros en la ciberdelincuencia

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

La inteligencia artificial está revolucionando la ciberdelincuencia de maneras sin precedentes, según un análisis reciente. Los deepfakes, que crean vídeos o audios falsos realistas, los ataques de phishing impulsados por IA que imitan comunicaciones confiables, y los LLMs oscuros —versiones maliciosas de modelos de lenguaje grandes— están a la vanguardia de este cambio. Estas tecnologías permiten a individuos con habilidades técnicas limitadas lanzar operaciones sofisticadas a gran escala, democratizando las amenazas cibernéticas y amplificando su alcance. Los expertos expresan preocupación por las implicaciones para las empresas, advirtiendo que tal IA armada podría representar el desafío de seguridad más urgente del año. La capacidad de los LLMs oscuros para generar estafas convincentes sin requerir experiencia profunda reduce las barreras para los ciberdelincuentes, abrumando potencialmente las defensas tradicionales. Mientras estas herramientas evolucionan, se insta a las organizaciones a permanecer vigilantes contra tácticas engañosas que explotan las capacidades generativas de la IA. Este panorama en evolución pone de manifiesto la naturaleza de doble filo de los avances en IA, donde la innovación en un área alimenta riesgos en otra. Las empresas deben priorizar la concienciación y estrategias adaptativas para mitigar estos peligros.

Artículos relacionados

Illustration of crypto crime surge: hackers using AI to steal $17B in scams per Chainalysis report, with charts, bitcoins, and law enforcement seizures.
Imagen generada por IA

Informe Chainalysis 2026 sobre crimen cripto: 17.000 millones de dólares robados en estafas de 2025

Reportado por IA Imagen generada por IA

El Informe Chainalysis 2026 sobre Crimen Cripto, que detalla un aumento de 154.000 millones de dólares en volúmenes ilícitos de cripto en 2025 impulsado por actores estatales y redes de lavado, revela que las estafas y fraudes por sí solos resultaron en al menos 14.000 millones de dólares robados en cadena, proyectados a alcanzar los 17.000 millones. Las tácticas de suplantación aumentaron un 1.400 % interanual, impulsadas por herramientas de IA que hicieron las estafas 4,5 veces más rentables, en medio de decomisos récord de las fuerzas del orden como 61.000 bitcoins en el Reino Unido y 15.000 millones de dólares de redes camboyanas.

Los expertos en ciberseguridad advierten que los hackers están aprovechando modelos de lenguaje grandes (LLMs) para crear ataques de phishing sofisticados. Estas herramientas de IA permiten generar páginas de phishing sobre la marcha, lo que podría hacer las estafas más dinámicas y difíciles de detectar. Esta tendencia resalta las amenazas en evolución en la seguridad digital.

Reportado por IA

En 2025, las ciberamenazas en Filipinas se mantuvieron en métodos tradicionales como el phishing y el ransomware, sin que emergieran nuevas formas. Sin embargo, la inteligencia artificial amplificó el volumen y la escala de estos ataques, lo que llevó a una 'industrialización del cibercrimen'. Informes de varias firmas de ciberseguridad destacan aumentos en la velocidad, escala y frecuencia de los incidentes.

Investigadores de Check Point han revelado que VoidLink, un malware sofisticado para Linux dirigido a servidores en la nube, fue construido en gran parte por un solo desarrollador utilizando herramientas de IA. El marco, que incluye más de 30 plugins modulares para acceso prolongado al sistema, alcanzó las 88.000 líneas de código en menos de una semana, a pesar de planes que sugerían un plazo de 20-30 semanas. Este desarrollo destaca el potencial de la IA para acelerar la creación de malware avanzado.

Reportado por IA

Investigadores advierten que los principales modelos de IA podrían fomentar experimentos científicos peligrosos que provoquen incendios, explosiones o envenenamientos. Una nueva prueba en 19 modelos avanzados reveló que ninguno podía identificar de forma fiable todos los problemas de seguridad. Aunque hay mejoras en marcha, los expertos destacan la necesidad de supervisión humana en los laboratorios.

Las discográficas y empresas tecnológicas están abordando el uso no autorizado de obras de artistas para entrenar generadores de música con IA como Udio y Suno. Acuerdos recientes con grandes sellos buscan crear nuevas fuentes de ingresos, mientras herramientas innovadoras prometen eliminar contenido sin licencia de los modelos de IA. Los artistas permanecen cautelosos ante el impacto de la tecnología en sus medios de vida.

Reportado por IA

Un informe reciente destaca riesgos graves asociados con chatbots de IA integrados en juguetes infantiles, incluidas conversaciones inapropiadas y recopilación de datos. Juguetes como Kumma de FoloToy y Poe the AI Story Bear han resultado implicados en discusiones con niños sobre temas sensibles. Las autoridades recomiendan apegarse a juguetes tradicionales para evitar daños potenciales.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar