Etiqueta: deepfakes

  • La India exigirá transparencia en contenido con inteligencia artificial en redes sociales

    La India exigirá transparencia en contenido con inteligencia artificial en redes sociales

    El Gobierno de la India anunció este miércoles que impulsará nuevas regulaciones para que las plataformas de redes sociales implementen medidas más transparentes y responsables respecto al contenido generado mediante inteligencia artificial (IA), como parte de su compromiso con un internet “abierto, seguro, confiable y responsable”.

    A través de un comunicado, el Ministerio de Electrónica y Tecnologías de la Información indicó que las empresas intermediarias deberán establecer mecanismos claros de responsabilidad para cualquier publicación sintética o generada por IA, incluyendo los llamados deepfakes, desinformación y otros contenidos ilegales.

    Las nuevas reglas obligarán a las plataformas a incluir etiquetas visibles que permitan a los usuarios identificar si un contenido fue creado mediante IA. En el caso de imágenes o videos, la marca deberá cubrir al menos el 10 % del área visual, mientras que en archivos de audio deberá ocupar al menos el 10 % del inicio del contenido.

    Además, se exigirá que estos identificadores no puedan ser alterados, ocultos o eliminados, y que se incorporen metadatos que garanticen la trazabilidad del material.

    Este anuncio llega en un momento en el que el país fortalece su apuesta por el desarrollo tecnológico. El pasado 14 de octubre, Google anunció una inversión de $15,000 millones para instalar un centro de datos de inteligencia artificial en el estado de Andhra Pradesh, la mayor apuesta de la empresa en la India hasta la fecha.

    En paralelo, Nueva Delhi ha entablado conversaciones con compañías tecnológicas como Qualcomm, Nvidia, Adobe e IBM, con el objetivo de potenciar el crecimiento del sector de IA en el país.

    Pese a las oportunidades económicas que representa esta tecnología para una población de más de 1,400 millones de habitantes, el Gobierno indio también ha advertido sobre los riesgos que implica el uso de IA en un contexto de competencia global, desinformación y tensiones geopolíticas. Por ello, ha llamado a reforzar la autonomía estratégica de las naciones frente a la volatilidad tecnológica y digital actual.

  • Encuesta regional revela que más de la mitad de los que usan Inteligencia Artificial en América Latina no verifica la información

    Encuesta regional revela que más de la mitad de los que usan Inteligencia Artificial en América Latina no verifica la información

    La inteligencia artificial (IA) se ha convertido en una herramienta cada vez más presente en la vida diaria de los latinoamericanos, desde consultas rápidas hasta apoyo en el trabajo y estudios. Sin embargo, su uso descuidado puede exponer a riesgos, según un estudio de ESET Latinoamérica, que analizó los hábitos de más de 1,000 usuarios en 17 países de la región.

    El informe destaca que el 80 % de los encuestados utiliza la IA, aunque el 55 % admitió que no siempre verifica la información obtenida. De ese grupo, un 14 % reconoció que nunca la contrasta y un 39 % solo a veces.

    “Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas”, explicó Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.

    El estudio también mostró que un 40 % comparte datos personales o laborales con estas plataformas, mientras que casi el 60 % no lee las políticas de privacidad. Solo la mitad de los participantes aseguró tomar medidas concretas para proteger su información. ESET advierte que estas prácticas facilitan riesgos como ataques de prompt injection, manipulación de respuestas o almacenamiento de datos sensibles.

    Entre las principales preocupaciones de los usuarios sobre la IA destacan los fraudes y estafas (65 %), los deepfakes y noticias falsas (47 %) y la falta de privacidad (45 %). Los investigadores subrayan que los ciberdelincuentes ya utilizan IA generativa para crear correos de phishing más convincentes y audios falsos con apenas segundos de la voz de una persona.

    A pesar de los riesgos, el 80 % de los encuestados ve la IA como algo positivo, aunque un 43 % cree que su utilidad vendrá acompañada de riesgos.

    “La solución no está en temerle a la herramienta, sino en acciones concretas para usarla de forma crítica y segura”, concluyó Gutiérrez Amaya.