
Los deepfakes y la IA generativa redefinirán el cibercrimen en 2026, con ataques más sofisticados y accesibles, mientras la ciberseguridad intenta reducir la brecha tecnológica.
La inteligencia artificial se perfila como uno de los factores decisivos en la evolución del cibercrimen durante 2026. De acuerdo con proyecciones de la firma de seguridad Kaspersky, el próximo año estará marcado por el uso intensivo de IA generativa y agentes automatizados, tanto para reforzar sistemas de defensa como para ampliar el alcance y la sofisticación de los ataques digitales.
El informe Kaspersky Security Bulletin 2025 Statistics advierte que los deepfakes se consolidarán como una de las amenazas más relevantes. Esta tecnología, capaz de manipular imágenes, video y audio con un nivel de realismo cada vez mayor, no solo continuará perfeccionándose, sino que será más fácil de usar. Las herramientas necesarias para crearlos estarán disponibles para un público más amplio, sin necesidad de conocimientos técnicos avanzados, lo que incrementa su potencial de uso malicioso.
Te puede interesar: Cuidado con tus fotos en IA: riesgos de Polaroids digitales
Uno de los aspectos que más preocupa a los especialistas es la posibilidad de alterar rostros y voces en tiempo real, incluso durante videollamadas. Esta capacidad eleva de forma significativa el riesgo de fraudes dirigidos, suplantación de identidad y ataques de ingeniería social altamente personalizados. El avance de modelos de código abierto, que ya alcanzan niveles similares a los sistemas cerrados pero sin mecanismos estrictos de control, también amplía el margen de acción para actores maliciosos.
Actualmente, los ciberdelincuentes ya utilizan IA para redactar correos fraudulentos complejos, clonar la identidad visual de marcas y crear sitios de phishing con apariencia profesional. A esto se suma que muchas empresas han normalizado el uso de contenidos generados por inteligencia artificial en campañas publicitarias, lo que dificulta aún más distinguir entre material auténtico y manipulado.
Según Kaspersky, la IA será empleada a lo largo de toda la cadena de ataque, desde la escritura de código y la detección de vulnerabilidades hasta la distribución de malware, con un esfuerzo creciente por ocultar cualquier rastro del uso de estas tecnologías para entorpecer el análisis forense. En paralelo, las mismas herramientas se integrarán en los sistemas de defensa. Plataformas basadas en agentes inteligentes permitirán monitorear infraestructuras de forma continua, identificar riesgos y ofrecer información contextual a los analistas mediante interfaces de lenguaje natural.
El crecimiento global del uso de internet amplifica este escenario. Con más de 7 mil 500 millones de usuarios conectados en 2025, según Statista, la superficie de ataque se expande de manera exponencial. Tecnologías como la clonación de voz de alta fidelidad y los avatares de video hiperrealistas, disponibles incluso bajo esquemas de suscripción básica, facilitan tanto la innovación como el fraude.
Aunque la Unión Europea avanza en regulaciones como la Ley de Inteligencia Artificial, que exige transparencia y etiquetado de contenidos manipulados, a nivel global persiste una falta de criterios unificados. Las plataformas digitales han comenzado a aplicar marcadores automáticos, pero diversos estudios señalan que estos pueden ser removidos con facilidad.
Frente a este panorama, el desafío para 2026 será equilibrar el desarrollo tecnológico con estrategias de verificación, regulación y alfabetización digital que permitan reducir los riesgos de una realidad cada vez más difícil de distinguir.







