Expertos destacan amenazas de IA como deepfakes y LLMs oscuros en la ciberdelincuencia

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

La inteligencia artificial está revolucionando la ciberdelincuencia de maneras sin precedentes, según un análisis reciente. Los deepfakes, que crean vídeos o audios falsos realistas, los ataques de phishing impulsados por IA que imitan comunicaciones confiables, y los LLMs oscuros —versiones maliciosas de modelos de lenguaje grandes— están a la vanguardia de este cambio. Estas tecnologías permiten a individuos con habilidades técnicas limitadas lanzar operaciones sofisticadas a gran escala, democratizando las amenazas cibernéticas y amplificando su alcance. Los expertos expresan preocupación por las implicaciones para las empresas, advirtiendo que tal IA armada podría representar el desafío de seguridad más urgente del año. La capacidad de los LLMs oscuros para generar estafas convincentes sin requerir experiencia profunda reduce las barreras para los ciberdelincuentes, abrumando potencialmente las defensas tradicionales. Mientras estas herramientas evolucionan, se insta a las organizaciones a permanecer vigilantes contra tácticas engañosas que explotan las capacidades generativas de la IA. Este panorama en evolución pone de manifiesto la naturaleza de doble filo de los avances en IA, donde la innovación en un área alimenta riesgos en otra. Las empresas deben priorizar la concienciación y estrategias adaptativas para mitigar estos peligros.

Artículos relacionados

Los expertos en ciberseguridad advierten que los hackers están aprovechando modelos de lenguaje grandes (LLMs) para crear ataques de phishing sofisticados. Estas herramientas de IA permiten generar páginas de phishing sobre la marcha, lo que podría hacer las estafas más dinámicas y difíciles de detectar. Esta tendencia resalta las amenazas en evolución en la seguridad digital.

Reportado por IA

En 2025, las ciberamenazas en Filipinas se mantuvieron en métodos tradicionales como el phishing y el ransomware, sin que emergieran nuevas formas. Sin embargo, la inteligencia artificial amplificó el volumen y la escala de estos ataques, lo que llevó a una 'industrialización del cibercrimen'. Informes de varias firmas de ciberseguridad destacan aumentos en la velocidad, escala y frecuencia de los incidentes.

Un informe reciente indica que el 58 % de las personas en Gran Bretaña encontraron riesgos significativos en línea durante 2025. El aumento en el uso de la IA ha contribuido a una disminución de la confianza digital, según los hallazgos. El fraude y el ciberacoso emergieron como las principales preocupaciones.

Reportado por IA

La herramienta de inteligencia artificial de IBM, conocida como Bob, ha sido encontrada susceptible a manipulaciones que podrían llevar a descargar y ejecutar malware. Los investigadores destacan su vulnerabilidad a ataques de inyección indirecta de prompts. Los hallazgos fueron reportados por TechRadar el 9 de enero de 2026.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar