Etiqueta: deepfakes

  • Deepfakes en tiempo real y cibercrimen automatizado amenazan 2026

    Deepfakes en tiempo real y cibercrimen automatizado amenazan 2026

    La evolución de los deepfakes en tiempo real y el auge del cibercrimen automatizado con inteligencia artificial (IA) se posicionan como las principales amenazas para 2026, de acuerdo con las previsiones del informe Kaspersky Security Bulletin 2025 Statistics, divulgado este viernes.

    El informe destaca que la IA generativa y los agentes inteligentes protagonizarán tanto los sistemas de defensa como los métodos de ataque en el nuevo escenario digital. Herramientas cada vez más accesibles permitirán a ciberdelincuentes desarrollar campañas más sofisticadas y con un alto grado de realismo, sin necesidad de conocimientos técnicos avanzados.

    Los deepfakes, una tecnología que manipula imágenes, video y audio mediante IA, seguirán perfeccionándose, especialmente en la calidad del sonido, permitiendo la modificación de rostros o voces durante videollamadas en tiempo real. Esta capacidad abre la puerta a ciberataques más efectivos y personalizados.

    Kaspersky advierte que, aunque muchas plataformas digitales ya implementan sistemas de detección y etiquetado de contenido generado por IA, estos aún carecen de criterios unificados y las etiquetas pueden ser fácilmente eliminadas. Ante este vacío, se prevé el surgimiento de nuevas normativas y soluciones técnicas durante 2026 para intentar cerrar esta brecha de seguridad.

    Otro punto alarmante es la proliferación de modelos de IA de código abierto que igualan en rendimiento a los modelos cerrados, pero sin incorporar mecanismos de control. Esta democratización tecnológica facilita su uso tanto para fines legítimos como maliciosos, incrementando los riesgos para usuarios y empresas.

    En la actualidad, los ciberdelincuentes ya logran crear correos electrónicos falsos altamente convincentes, suplantar identidades visuales de marcas y desarrollar sitios web de phishing con apariencia profesional. Esto ocurre mientras el contenido generado por IA es cada vez más normalizado en la publicidad corporativa, lo que dificulta distinguir entre lo real y lo manipulado.

    Según Kaspersky, la inteligencia artificial será utilizada en cada etapa del ciberataque: desde la escritura de código y detección de vulnerabilidades hasta el despliegue de malware, ocultando sus huellas para evitar el análisis forense.

    A la par, la IA también jugará un papel crucial en la defensa. Herramientas impulsadas por agentes inteligentes permitirán escaneos permanentes en las infraestructuras de las organizaciones, detectando puntos débiles y generando análisis automatizados para los equipos de ciberseguridad. Además, las futuras interfaces utilizarán lenguaje natural, facilitando el uso de sistemas complejos mediante instrucciones sencillas.

  • Los “deepfakes” que evolucionan en tiempo real y la automatización del cibercrimen, principales amenazas de 2026

    Los “deepfakes” que evolucionan en tiempo real y la automatización del cibercrimen, principales amenazas de 2026

    La manipulación digital mediante deepfakes en tiempo real y la automatización completa de ataques informáticos se perfilan como las principales amenazas de ciberseguridad para 2026, según las proyecciones de la firma de seguridad Kaspersky en su informe Security Bulletin 2025 Statistics.

    La compañía alertó que los avances en inteligencia artificial (IA) generativa permitirán a los ciberdelincuentes crear videos y audios falsos de alta calidad, modificables en tiempo real durante videollamadas, lo que representa un salto cualitativo en los métodos de suplantación y fraude. Esta evolución, advirtió Kaspersky, convierte a los deepfakes en herramientas “altamente eficaces” para ciberataques dirigidos.

    Uno de los principales riesgos radica en la facilidad de uso de estas tecnologías. Las nuevas plataformas permiten generar contenido manipulado sin conocimientos técnicos, lo cual multiplica su potencial de uso malicioso. Aunque las redes sociales y algunos servicios digitales han implementado sistemas de detección y etiquetado de contenido creado por IA, el informe remarca que no existen criterios uniformes y que muchas de estas etiquetas pueden eliminarse con facilidad.

    Ante este vacío, Kaspersky prevé que durante 2026 surgirán nuevas regulaciones y soluciones tecnológicas orientadas a frenar los abusos en la generación y distribución de contenidos manipulados.

    Además, la proliferación de modelos de inteligencia artificial de código abierto —que alcanzan niveles similares a los sistemas cerrados pero carecen de los controles necesarios— facilitará el uso de estas herramientas tanto para fines legítimos como para actividades criminales.

    En este contexto, los delincuentes ya son capaces de falsificar correos, replicar la identidad visual de marcas o crear páginas de phishing con apariencia profesional. Esto se agrava ante el uso cada vez más normalizado de contenido generado por IA en campañas publicitarias, lo que dificulta aún más distinguir lo auténtico de lo manipulado.

    El informe también prevé que la IA será utilizada por los criminales a lo largo de toda la cadena de ataque, desde la redacción de código malicioso hasta la explotación de vulnerabilidades y el encubrimiento de huellas digitales para evitar análisis forenses.

    No obstante, la inteligencia artificial también será un recurso clave para los equipos de defensa. Según Kaspersky, las herramientas basadas en agentes permitirán una vigilancia continua de la infraestructura de las empresas, con capacidad para detectar amenazas, proponer soluciones y entregar información precisa en lenguaje natural, reduciendo la necesidad de conocimientos técnicos avanzados,

  • La India exigirá transparencia en contenido con inteligencia artificial en redes sociales

    La India exigirá transparencia en contenido con inteligencia artificial en redes sociales

    El Gobierno de la India anunció este miércoles que impulsará nuevas regulaciones para que las plataformas de redes sociales implementen medidas más transparentes y responsables respecto al contenido generado mediante inteligencia artificial (IA), como parte de su compromiso con un internet “abierto, seguro, confiable y responsable”.

    A través de un comunicado, el Ministerio de Electrónica y Tecnologías de la Información indicó que las empresas intermediarias deberán establecer mecanismos claros de responsabilidad para cualquier publicación sintética o generada por IA, incluyendo los llamados deepfakes, desinformación y otros contenidos ilegales.

    Las nuevas reglas obligarán a las plataformas a incluir etiquetas visibles que permitan a los usuarios identificar si un contenido fue creado mediante IA. En el caso de imágenes o videos, la marca deberá cubrir al menos el 10 % del área visual, mientras que en archivos de audio deberá ocupar al menos el 10 % del inicio del contenido.

    Además, se exigirá que estos identificadores no puedan ser alterados, ocultos o eliminados, y que se incorporen metadatos que garanticen la trazabilidad del material.

    Este anuncio llega en un momento en el que el país fortalece su apuesta por el desarrollo tecnológico. El pasado 14 de octubre, Google anunció una inversión de $15,000 millones para instalar un centro de datos de inteligencia artificial en el estado de Andhra Pradesh, la mayor apuesta de la empresa en la India hasta la fecha.

    En paralelo, Nueva Delhi ha entablado conversaciones con compañías tecnológicas como Qualcomm, Nvidia, Adobe e IBM, con el objetivo de potenciar el crecimiento del sector de IA en el país.

    Pese a las oportunidades económicas que representa esta tecnología para una población de más de 1,400 millones de habitantes, el Gobierno indio también ha advertido sobre los riesgos que implica el uso de IA en un contexto de competencia global, desinformación y tensiones geopolíticas. Por ello, ha llamado a reforzar la autonomía estratégica de las naciones frente a la volatilidad tecnológica y digital actual.

  • Encuesta regional revela que más de la mitad de los que usan Inteligencia Artificial en América Latina no verifica la información

    Encuesta regional revela que más de la mitad de los que usan Inteligencia Artificial en América Latina no verifica la información

    La inteligencia artificial (IA) se ha convertido en una herramienta cada vez más presente en la vida diaria de los latinoamericanos, desde consultas rápidas hasta apoyo en el trabajo y estudios. Sin embargo, su uso descuidado puede exponer a riesgos, según un estudio de ESET Latinoamérica, que analizó los hábitos de más de 1,000 usuarios en 17 países de la región.

    El informe destaca que el 80 % de los encuestados utiliza la IA, aunque el 55 % admitió que no siempre verifica la información obtenida. De ese grupo, un 14 % reconoció que nunca la contrasta y un 39 % solo a veces.

    “Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas”, explicó Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.

    El estudio también mostró que un 40 % comparte datos personales o laborales con estas plataformas, mientras que casi el 60 % no lee las políticas de privacidad. Solo la mitad de los participantes aseguró tomar medidas concretas para proteger su información. ESET advierte que estas prácticas facilitan riesgos como ataques de prompt injection, manipulación de respuestas o almacenamiento de datos sensibles.

    Entre las principales preocupaciones de los usuarios sobre la IA destacan los fraudes y estafas (65 %), los deepfakes y noticias falsas (47 %) y la falta de privacidad (45 %). Los investigadores subrayan que los ciberdelincuentes ya utilizan IA generativa para crear correos de phishing más convincentes y audios falsos con apenas segundos de la voz de una persona.

    A pesar de los riesgos, el 80 % de los encuestados ve la IA como algo positivo, aunque un 43 % cree que su utilidad vendrá acompañada de riesgos.

    “La solución no está en temerle a la herramienta, sino en acciones concretas para usarla de forma crítica y segura”, concluyó Gutiérrez Amaya.