Categoría: Tecnomundo

  • Microsoft alerta de 8,300 millones ataques phishing en 2026

    Microsoft alerta de 8,300 millones ataques phishing en 2026

    Microsoft advirtió sobre un fuerte incremento en los ataques de phishing durante el primer trimestre de 2026, con un total de 8,300 millones de intentos detectados a través del correo electrónico.

    El informe, elaborado por Microsoft Threat Intelligence, revela que estos ataques se han sofisticado mediante el uso de códigos QR y sistemas captcha para evadir controles de seguridad y engañar a los usuarios.

    Según los datos, los intentos mensuales disminuyeron levemente, pasando de 2,900 millones en enero a 2,600 millones en marzo, aunque el volumen total sigue siendo elevado.

    El phishing mediante códigos QR se consolidó como el método de mayor crecimiento, al aumentar 146 %, pasando de 7.6 millones de ataques en enero a 18.7 millones en marzo.

    Esta modalidad consiste en insertar enlaces maliciosos dentro de códigos QR incluidos en correos electrónicos o archivos adjuntos, redirigiendo a las víctimas hacia sitios fraudulentos.

    Además, los ciberdelincuentes han cambiado su estrategia al ocultar estos códigos en archivos PDF, elevando su uso del 65 % en enero al 70 % en marzo para evitar su detección.

    En paralelo, los ataques que utilizan sistemas captcha aumentaron 125 %, con 11.9 millones de intentos detectados, empleando verificaciones falsas para ocultar contenido malicioso.

    “Al obligar a los usuarios a completar el ‘captcha’ antes de acceder al ‘malware’, reducen la probabilidad de que las herramientas de escaneo automatizadas identifiquen la amenaza y aumentan las posibilidades de obtener credenciales o distribuir ‘malware’ con éxito”.

    El objetivo principal de estos ataques sigue siendo el robo de credenciales, representando entre el 89 % y 95 % de los casos, lo que refleja un cambio hacia comprometer la identidad digital de los usuarios.

    Microsoft también informó que, junto a Europol, logró desarticular parcialmente la plataforma de phishing Tycoon2FA, reduciendo en 15 % su actividad, aunque los atacantes han logrado adaptarse para continuar operando.

     

     

  • Claves para proteger los datos de los niños en el mundo digital

    Claves para proteger los datos de los niños en el mundo digital

    La presencia de niños en el entorno digital ya no es excepcional, pero sí plantea nuevos riesgos. Especialistas en ciberseguridad advierten que los datos personales de los menores se han convertido en un recurso atractivo para redes de fraude, incluso cuando no utilizan activamente redes sociales.

    De acuerdo con ESET Latinoamérica, la información de los niños se recopila desde múltiples espacios, como centros educativos, aplicaciones móviles y plataformas de entretenimiento, lo que incrementa las probabilidades de exposición ante vulneraciones de seguridad.

    El problema no es menor. Investigaciones recientes indican que casi la mitad de los padres comparte contenido sobre sus hijos en internet, mientras que un porcentaje significativo de menores ya ha enfrentado situaciones como ciberacoso o violaciones a su privacidad.

    “Antes de hablar con tus hijos sobre cómo proteger sus datos, empieza por explicarles por qué deberían hacerlo. Puedes usar una situación real que ya entiendan. Por ejemplo, antes de irse a la escuela, cierran la puerta principal con llave. Así, mantienen seguros sus juguetes, dispositivos y otras cosas importantes. Si alguien les roba la ropa y sus pertenencias, esa persona podría incluso hacerse pasar por ellos. Eso es esencialmente lo que significa el robo de identidad en el mundo online”, comenta Martina López, investigadora de Seguridad Informática de ESET Latinoamérica.

    Uno de los mecanismos más utilizados por los delincuentes es la creación de identidades sintéticas, que combina datos reales con información falsa para operar sin ser detectados. Estas identidades pueden utilizarse para abrir cuentas bancarias, solicitar servicios o realizar compras fraudulentas.

    Además, las brechas de seguridad en plataformas educativas o videojuegos representan un riesgo adicional, ya que pueden dejar expuestos grandes volúmenes de datos personales de menores en cuestión de minutos.

    “Los niños suelen asumir que sus datos no son valiosos simplemente porque son pequeños. Como padre, es útil explicarles con delicadeza que la información personal tiene valor en el mundo digital, sin importar la edad de quien la posee. Los delincuentes pueden usar indebidamente la identidad de un niño por diversas razones. Algunos buscan datos personales para crear identidades falsas o sintéticas que permiten a los delincuentes abrir cuentas o solicitar servicios bajo el nombre de otra persona. Otros pueden apropiarse de las cuentas de redes sociales o juegos de un menor para hacerse pasar por él, contactar a sus amigos o difundir contenido dañino”, señala López de ESET.

    Frente a este panorama, los expertos insisten en la necesidad de adoptar medidas concretas: contraseñas robustas, autenticación en dos pasos, actualización constante de dispositivos y revisión de configuraciones de privacidad.

    Más allá de la tecnología, la clave sigue siendo la comunicación. Orientar a los menores sobre los riesgos y fomentar hábitos digitales responsables puede reducir significativamente la exposición a amenazas.

    Martina López de ESET Latinoamérica, concluye: “Proteger los datos de tu hijo no se trata de limitar su acceso al mundo digital, sino de brindarle las herramientas y la confianza para navegar por él de forma segura. Con contraseñas o frases de contraseña seguras, autenticación multifactor, dispositivos seguros y una comunicación abierta en casa, los niños aprenden a proteger su identidad en línea de la misma manera que protegen sus pertenencias en la vida real. Pequeños hábitos constantes adquiridos desde pequeños pueden marcar una gran diferencia: ayudar a tu hijo a mantenerse más seguro, más resiliente y a tener más control sobre su futuro digital”.

  • Apple cumple 50 años liderando la revolución de la tecnología personal

    Apple cumple 50 años liderando la revolución de la tecnología personal

    Apple celebró el 1 de abril sus 50 años de fundación consolidada como una de las compañías más influyentes en la historia de la tecnología.

    La empresa, reconocida por su enfoque en la tecnología personal, ha marcado el rumbo del sector con dispositivos y servicios que han transformado la vida cotidiana de millones de personas.

    «Hemos pasado cinco décadas redefiniendo lo que es posible y poniendo potentes herramientas en las manos de la gente», expresó el CEO Tim Cook en una carta conmemorativa.

    Desde sus inicios con el Apple I en la década de 1970, la compañía sentó las bases de la computación personal, que luego consolidó con el Apple II y el Macintosh.

    Tras una etapa de crisis en los años 90, Apple resurgió con el regreso de Steve Jobs y el lanzamiento del iMac G3, que revolucionó el diseño de los ordenadores.

    El verdadero salto llegó en 2007 con el iPhone, un dispositivo que redefinió la industria móvil al integrar teléfono, música e internet en una sola plataforma.

    «El iPhone es un producto revolucionario y mágico que, literalmente, está cinco años por delante de cualquier otro teléfono móvil», afirmó Steve Jobs en su presentación.

    Apple celebró sus 50 años con el lema: «50 años pensando diferente». EP

    A partir de ese momento, Apple consolidó un ecosistema de productos con lanzamientos como el iPod, el iPad y el MacBook Air, además de la creación de la App Store.

    En la era de Tim Cook, la compañía amplió su enfoque hacia los servicios digitales, con plataformas como Apple Music, Apple TV+ y Apple Pay.

    También incursionó en el mercado de dispositivos portátiles con productos como el Apple Watch y los AirPods, que han ganado gran popularidad a nivel global.

    En el ámbito tecnológico, Apple ha apostado por el desarrollo de sus propios procesadores, fortaleciendo su independencia y el rendimiento de sus dispositivos.

    Uno de sus avances más recientes es el visor de realidad mixta Apple Vision Pro, que busca liderar una nueva etapa en la interacción digital.

    No obstante, la compañía enfrenta desafíos en el campo de la inteligencia artificial, donde compite con otras grandes tecnológicas por el liderazgo.

    A pesar de ello, Apple mantiene su posición como referente global, con una visión que combina innovación, diseño y experiencia de usuario.

     

  • Sony suspende temporalmente la venta de tarjetas de memoria en Japón por la crisis de escasez de semiconductores

    Sony suspende temporalmente la venta de tarjetas de memoria en Japón por la crisis de escasez de semiconductores

    Sony anunció la suspensión temporal de la venta de tarjetas de memoria en Japón debido a la escasez de semiconductores que afecta a la industria tecnológica.

    La compañía explicó que la decisión responde a la imposibilidad de garantizar el suministro suficiente para satisfacer la demanda en el corto plazo.

    “Hemos decidido suspender temporalmente la recepción de pedidos de nuestros distribuidores autorizados y de clientes en la tienda Sony a partir del 27 de marzo de 2026”, indicó la empresa en un comunicado oficial.

    La medida afecta a distintos modelos de tarjetas de memoria, incluyendo las CFexpress tipo A y tipo B, así como varias versiones de tarjetas SDXC y SDHC.

    Sony no precisó una fecha para reanudar los pedidos, aunque señaló que dependerá de la evolución del suministro de componentes a nivel global.

    “Pedimos disculpas sinceras por cualquier inconveniente que esto pueda causar a nuestros clientes”, añadió la compañía en su mensaje.

    La crisis de semiconductores ha generado múltiples afectaciones en el sector tecnológico, impactando tanto la producción como la disponibilidad de dispositivos y componentes.

    Recientemente, Sony también anunció incrementos en los precios de sus consolas PlayStation 5, PlayStation 5 Pro y PlayStation Portal debido a las presiones económicas globales.

    Además, esta situación ha provocado retrasos en el desarrollo de la próxima generación de consolas, cuya llegada se prevé entre 2028 y 2029.

  • Violencia digital dirigida a mujeres: desde la sextorsión a las estafas, estos son los 10 ataques que más sufren

    Violencia digital dirigida a mujeres: desde la sextorsión a las estafas, estos son los 10 ataques que más sufren

    La violencia contra las mujeres también se manifiesta en el entorno digital, donde expertos en ciberseguridad advierten un incremento de ataques dirigidos especialmente a este grupo, impulsados por herramientas de inteligencia artificial (IA) que facilitan nuevas formas de acoso, fraude y manipulación en internet.

    El fenómeno fue señalado por especialistas de la empresa Panda Security, quienes alertaron sobre el crecimiento de prácticas como la sextorsión, el ciberacoso y los videos falsos creados con inteligencia artificial, conocidos como ‘deepfakes’. Estas amenazas combinan fraude, chantaje y daño reputacional mediante el uso de redes sociales, plataformas de mensajería y aplicaciones de citas.

    Según datos del Ministerio de Igualdad de España, citados en la Macroencuesta de Violencia contra la Mujer 2024, publicada en 2025, el 12.2 % de las mujeres encuestadas ha sufrido acoso digital en algún momento. Además, el 0.8 % afirmó que alguien difundió en internet imágenes o videos íntimos, reales o manipulados, sin su consentimiento.

    Entre los ataques más frecuentes se encuentran los ‘deepfakes’ íntimos, donde se crean imágenes o videos sexuales falsos utilizando fotografías reales de mujeres. Este contenido suele utilizarse para intimidar, chantajear o dañar la reputación de la víctima.

    También destacan las sextorsiones, en las que los delincuentes amenazan con publicar material íntimo si la víctima no cumple determinadas exigencias. En muchos casos, el contenido puede ser fabricado mediante inteligencia artificial a partir de fotografías públicas.

    Otra modalidad en aumento son las estafas románticas, en las que los atacantes crean perfiles falsos en redes sociales o aplicaciones de citas para establecer relaciones sentimentales con las víctimas y posteriormente solicitar dinero.

    A estas amenazas se suman otras prácticas como el clonado de voz mediante IA, el phishing personalizado, el secuestro de cuentas en redes sociales, así como formas de acoso digital como el brigading (ataques coordinados de múltiples cuentas), el doxing (publicación de datos personales para intimidar) y el uso de stalkerware, programas diseñados para espiar dispositivos móviles sin consentimiento.

    Ante estos riesgos, los expertos recomiendan limitar la exposición de información personal en internet, utilizar autenticación de dos factores en las cuentas y denunciar cualquier intento de chantaje o fraude ante las autoridades y las plataformas digitales.

     

  • Alertan sobre llamadas falsas con IA que atacan empresas

    Alertan sobre llamadas falsas con IA que atacan empresas

    Las llamadas falsas generadas con inteligencia artificial se han convertido en una nueva amenaza para las empresas, según advirtió la compañía de ciberseguridad ESET, que alerta sobre el uso de clonación de voz y audios deepfake para cometer fraudes financieros o secuestrar cuentas corporativas.

    La expansión de la inteligencia artificial generativa facilitó la creación de audios y videos falsos con gran realismo. De acuerdo con ESET, ahora es posible fabricar un clip falso con apenas unos segundos de audio de una persona, lo que permite a los ciberdelincuentes hacerse pasar por ejecutivos o proveedores para engañar a empleados dentro de las organizaciones.

    Datos citados por el Gobierno británico indican que el año pasado se compartieron hasta 8 millones de clips falsos, una cifra muy superior a los 500,000 difundidos en 2023. Los expertos consideran que el número real podría ser incluso mayor y advierten que muchas empresas aún subestiman el riesgo.

    Según ESET, los ataques suelen iniciar cuando un delincuente selecciona a la persona que desea suplantar, como un director ejecutivo o un responsable financiero. Luego obtiene una breve muestra de audio disponible en internet —por ejemplo en entrevistas, redes sociales o conferencias— y utiliza herramientas de inteligencia artificial para generar una voz sintética con la que realiza llamadas a empleados de la empresa.

    “Este tipo de ataque es cada vez más barato, sencillo y convincente. Algunas herramientas son capaces incluso de insertar ruido de fondo, pausas y tartamudeos para que la voz suplantada resulte más creíble. Cada vez imitan mejor los ritmos, las inflexiones y los tics verbales propios de cada orador. Y cuando un ataque se lanza por teléfono, los fallos relacionados con la IA pueden ser más difíciles de detectar para quien atiende”, advirtió Macio Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

    Los atacantes también recurren a técnicas de ingeniería social para presionar a las víctimas con solicitudes urgentes, como transferencias bancarias o cambios en contraseñas.

    Uno de los casos más conocidos ocurrió en 2020, cuando un empleado de una empresa en Emiratos Árabes Unidos transfirió $35 millones tras recibir una llamada que simulaba la voz de su director solicitando fondos para una supuesta operación empresarial.

    Para reducir estos riesgos, ESET recomienda reforzar la capacitación de los empleados, verificar por canales alternativos cualquier solicitud telefónica relacionada con dinero o datos sensibles, y establecer protocolos internos como la aprobación de dos personas para transferencias importantes o el uso de contraseñas acordadas previamente para confirmar la identidad de ejecutivos.

    “Las falsificaciones son sencillas y su producción cuesta poco. Dadas las enormes sumas que pueden obtener los estafadores, es poco probable que veamos pronto el final de las estafas de clonación de voz. Por lo tanto, la mejor opción que tiene una organización para mitigar el riesgo es un triple enfoque basado en las personas, los procesos y la tecnología. Para que se adapte a medida que avanza la innovación en IA, es importante que sea revisado periódicamente. El nuevo panorama del ciberfraude exige una atención constante”, concluyó Micucci.

     

  • Instagram notificará a los padres si sus hijos buscan contenido sobre suicidio o autolesiones

    Instagram notificará a los padres si sus hijos buscan contenido sobre suicidio o autolesiones

    Instagram anunció que «la semana que viene» empezará a notificar a los padres si su hijo «intenta buscar repetidamente términos relacionados con el suicidio o la autolesión» en su red social, según anunció este jueves su compañía matriz, Meta.

    Esta medida se activará para los padres de EE.UU., Reino Unido, Australia y Canadá que usan las herramientas de supervisión parental de la red social, y estará disponible en otras regiones «a finales de este año».

    «Estas alertas están diseñadas para brindar a los padres la información necesaria para apoyar a sus hijos adolescentes e incluyen recursos especializados para ayudarlos a abordar estas conversaciones delicadas», señala en un comunicado la compañía, que está siendo investigada en múltiples juicios por presuntamente fomentar efectos perjudiciales en la salud mental de los menores.

    Las búsquedas que activarán la alerta incluyen frases que sugieran que un adolescente quiere autolesionarse y términos como «suicidio» o «autolesión».

    Instagram ayudará a los padres a prevenir la autolesión

    Dichos avisos se enviarán a los padres por correo electrónico, SMS o WhatsApp, según la información de contacto disponible, así como mediante una notificación en la aplicación.

    «Al hacer clic en la notificación, se abrirá un mensaje a pantalla completa explicando que su hijo adolescente ha intentado buscar repetidamente en Instagram términos relacionados con el suicidio o la autolesión en un corto período de tiempo. Los padres también tendrán la opción de consultar recursos de expertos diseñados para ayudarles a abordar conversaciones potencialmente delicadas con su hijo adolescente», anota Meta.

    La tecnológica subraya que tiene «políticas estrictas contra el contenido que promueve o glorifica el suicidio o la autolesión», pero que permite «que las personas compartan contenido sobre sus propias dificultades con estos problemas», contenido que se oculta «a los adolescentes, incluso si lo comparte alguien a quien siguen».

    «Sabemos que los adolescentes recurren cada vez más a la inteligencia artificial (IA) en busca de apoyo. Si bien nuestra IA ya está entrenada para responder de forma segura a los adolescentes y proporcionar recursos sobre estos temas según corresponda, ahora estamos creando alertas parentales similares para ciertas experiencias de IA», adelanta Meta en su comunicado.

    Estas alertarán a los padres si un adolescente intenta entablar ciertos tipos de conversaciones relacionadas con el suicidio o la autolesión con la IA.

    Según la empresa, este es un trabajo importante y compartirán más información en los «próximos meses».

    Presión judicial contra Meta

    El lanzamiento de las nuevas funciones de supervisión parental de Meta coincide con un aumento de la presión judicial contra la compañía, acusada de diseñar algoritmos en Instagram que perjudican la salud mental de los menores.

    El consejero delegado de Meta y creador de Facebook, Mark Zuckerberg, compareció la semana pasada ante el Tribunal Superior de Los Ángeles en el marco de una demanda interpuesta por una usuaria que alega haber desarrollado adicción a sus plataformas durante su adolescencia.

    Durante su testimonio, Zuckerberg reiteró la postura de la tecnológica: la responsabilidad de verificar la edad de los usuarios debe recaer en los propietarios de los sistemas operativos y tiendas de aplicaciones, como Apple y Google, y no en los desarrolladores de las aplicaciones.

  • Estudio alerta baja transparencia en seguridad de bots de Inteligencia Artificial

    Estudio alerta baja transparencia en seguridad de bots de Inteligencia Artificial

    Un estudio de la Universidad de Cambridge, en Reino Unido, advierte que la mayoría de los principales agentes de inteligencia artificial carecen de información básica de seguridad, pese a su creciente uso en tareas cotidianas y empresariales. La investigación analizó 30 bots de última generación y concluyó que solo cuatro han publicado documentos formales de seguridad y evaluación específicos para cada agente.

    El informe, divulgado en los Informes y Actas de Cambridge, señala que mientras los desarrolladores comparten abundante información sobre las capacidades de estos sistemas, omiten detalles clave sobre prácticas de seguridad y evaluación de riesgos.

    El análisis forma parte del AI Agent Index, un proyecto que involucra a investigadores del MIT, Stanford y la Universidad Hebrea de Jerusalén, y que evaluó transparencia, capacidades y seguridad con base en información pública y consultas directas con desarrolladores.

    Entre los hallazgos, el equipo identificó que 25 de los 30 agentes no revelan resultados de pruebas internas de seguridad y que 23 no ofrecen datos de evaluaciones realizadas por terceros, considerados esenciales para medir riesgos de manera rigurosa. Además, solo cinco agentes han reportado incidentes o preocupaciones de seguridad, y apenas dos documentan vulnerabilidades de “inyección rápida”, que permiten manipular al sistema para ignorar medidas de protección.

    “Muchos desarrolladores cumplen con los requisitos de seguridad de la IA al centrarse en el gran modelo de lenguaje subyacente, mientras que brindan poca o ninguna información sobre la seguridad de los agentes creados sobre él”, advirtió Leon Staufer, autor principal de la actualización del índice.

    Añadió que “los comportamientos críticos para la seguridad de la IA surgen de la planificación, las herramientas, la memoria y las políticas del propio agente, no solo del modelo subyacente, y muy pocos desarrolladores comparten estas evaluaciones”.

    El estudio también detectó que 13 agentes exhiben niveles “fronterizos” de autonomía, pero solo cuatro presentan evaluaciones de seguridad propias.

    Los agentes de navegación web muestran la mayor omisión de datos de seguridad, con 64 % de campos sin reportar, seguidos por los agentes empresariales con 63 % y los agentes de chat con 43 %. Según los investigadores, la creciente dependencia de pocos modelos base como GPT, Claude y Gemini genera posibles puntos únicos de fallo, lo que podría amplificar riesgos ante cambios en precios, interrupciones o regresiones de seguridad.

    El informe concluye que, mientras los agentes de IA se vuelven más autónomos y capaces de actuar en el mundo real, los marcos de transparencia y gobernanza avanzan a un ritmo peligrosamente rezagado.

     

  • Meta ideó modelo de Inteligencia Artificial para simular usuarios fallecidos en redes sociales

    Meta ideó modelo de Inteligencia Artificial para simular usuarios fallecidos en redes sociales

    Meta consideró desarrollar un modelo de inteligencia artificial capaz de simular la actividad de usuarios en Instagram y Facebook después de una larga ausencia o incluso tras su fallecimiento, aunque finalmente no avanzará con esta iniciativa.

    Actualmente, plataformas como Instagram y Facebook permiten convertir los perfiles en cuentas conmemorativas cuando el propietario fallece. Estos perfiles bloquean ciertas funciones para proteger la privacidad, pero se mantienen activos para conservar recuerdos y permitir que familiares designados como “contactos de legado” gestionen algunos aspectos del perfil.

    Sin embargo, la compañía analizó una alternativa distinta: un modelo de lenguaje diseñado para “simular al usuario cuando este está ausente del sistema de redes sociales”.

    La patente, registrada inicialmente en 2023 bajo la autoría del director de tecnología de Meta, Andrew Bosworth, y aprobada a finales de diciembre del año pasado, describe un sistema capaz de publicar contenido, dar ‘likes’ e interactuar con otros usuarios imitando el comportamiento digital de la persona fallecida.

    Según el documento recogido por Business Insider, la empresa argumentó que el impacto para los seguidores “es mucho más severo y permanente” cuando un perfil deja de interactuar abruptamente tras la muerte del usuario. Por ello, la IA se entrenaría con datos específicos del historial de actividad, comentarios y preferencias para reproducir de manera realista el estilo y patrones de interacción del usuario.

    No obstante, un portavoz de Meta aclaró que la compañía no tiene planes de “seguir adelante con este ejemplo” y recordó que muchas patentes se registran para proteger conceptos que no necesariamente se implementan. Aun así, el tema ya había sido abordado por el CEO de la empresa, Mark Zuckerberg, en 2023, cuando señaló que tras la pérdida de un ser querido “puede haber formas en las que poder interactuar o revivir ciertos recuerdos”, abriendo el debate sobre el papel de la inteligencia artificial en la memoria digital.

     

  • Google lanza una herramienta de IA que genera musica mediante un texto o una imagen

    Google lanza una herramienta de IA que genera musica mediante un texto o una imagen

    Google anunció este miércoles que su inteligencia artificial Gemini ya puede generar pistas musicales de hasta 30 segundos, descritas como “realistas y musicalmente complejas”, a partir de una simple descripción escrita o incluso de una imagen como referencia.

    La nueva función, denominada Lyria 3, estará disponible dentro de la aplicación Gemini en varios idiomas —entre ellos español, inglés, alemán, francés, hindi, japonés, coreano y portugués— y también para creadores de contenido en YouTube Shorts. Según explicó Myriam Hamed Torres, gerente senior de producto de Google DeepMind, el sistema traduce en segundos una idea creativa en una pista musical completa.

    “Simplemente describe una idea o sube una foto, como: ‘un lento de R&B cómico sobre un calcetín que encuentra a su pareja’ y, en cuestión de segundos, Gemini lo traducirá en una pista pegadiza y de alta calidad”, señaló la ejecutiva en un comunicado oficial. Además de la música, la herramienta puede generar carátulas personalizadas basadas en la letra y el estilo seleccionado.

    Google detalló que todas las pistas creadas en la aplicación incluyen SynthID, una marca de agua digital imperceptible que identifica el contenido generado por inteligencia artificial. La compañía subrayó que Lyria 3 busca fomentar la creatividad original y no replicar voces o estilos específicos de artistas existentes.

    “Si tu indicación nombra a un artista específico, Gemini lo tomará como una amplia inspiración creativa y creará una pista que comparta un estilo o estado de ánimo similar”, indicó Hamed Torres.

    El anuncio se produce en un contexto de debate sobre los derechos de autor y el uso de IA en la industria musical. En 2024, más de 200 artistas, entre ellos Billie Eilish, Pearl Jam y Katy Perry, solicitaron a las empresas tecnológicas frenar el uso de inteligencia artificial que pudiera “infringir y devaluar los derechos de los artistas humanos”.

    Google no es la única compañía que ofrece este tipo de servicios. Plataformas como Suno y Udio también permiten crear canciones en distintos estilos y lenguas, ampliando la competencia en el mercado de generación musical con inteligencia artificial.