Etiqueta: IA

  • Grupo automovilístico Stellantis y Microsoft sellan alianza para impulsar inteligencia artificial

    Grupo automovilístico Stellantis y Microsoft sellan alianza para impulsar inteligencia artificial

    El grupo automovilístico Stellantis y la empresa tecnológica Microsoft anunciaron una alianza estratégica de cinco años para acelerar la transformación digital del fabricante mediante el uso de inteligencia artificial, ciberseguridad e ingeniería avanzada.

    El acuerdo contempla la integración de capacidades tecnológicas de ambas compañías, combinando la experiencia automotriz y presencia global de Stellantis con las herramientas de nube, inteligencia artificial y seguridad de Microsoft.

    Como parte de esta colaboración, equipos conjuntos desarrollarán más de 100 iniciativas de IA orientadas a áreas clave como ventas, atención al cliente, desarrollo de productos y operaciones industriales.

    Entre las aplicaciones previstas destacan sistemas de validación de productos asistidos por inteligencia artificial, mantenimiento predictivo, pruebas avanzadas y la implementación más rápida de servicios digitales.

    “En Stellantis innovamos desde hace más de 100 años con un único objetivo: crear productos, servicios y experiencias que los clientes valoren”, afirmó el director de Ingeniería y Tecnología del grupo, Ned Curic.

    Por su parte, el vicepresidente ejecutivo del negocio comercial de Microsoft, Judson Althoff, aseguró que la alianza refleja una visión compartida para implementar la transformación digital basada en IA de forma “responsable y segura” en toda la cadena de valor del sector automotriz.

    El acuerdo también incluye el fortalecimiento de la ciberseguridad mediante un centro global de ciberdefensa basado en inteligencia artificial, capaz de anticipar amenazas y proteger datos en vehículos conectados, plantas industriales y sistemas digitales.

    Además, Stellantis modernizará su infraestructura tecnológica con Microsoft Azure, con la meta de reducir en un 60 % la huella de sus centros de datos para 2029, al tiempo que incorporará herramientas internas como Copilot, con al menos 20,000 licencias para sus empleados.

  • Latinoamérica se vuelca en soluciones de inteligencia artificial para combatir al crimen

    Latinoamérica se vuelca en soluciones de inteligencia artificial para combatir al crimen

    Empresas del sector de defensa y tecnología están intensificando su presencia en Latinoamérica con soluciones basadas en inteligencia artificial, en respuesta al crecimiento del crimen organizado y la creciente preocupación ciudadana por la seguridad.

    Según explicó Yon Munilla, directivo de Indra, la demanda por estos productos ha aumentado considerablemente en la región, impulsando nuevas oportunidades de negocio.

    Este interés se refleja en la feria LAAD, celebrada en São Paulo, que reúne a unas 140 empresas y delegaciones de 22 países, con la expectativa de atraer a 18,000 visitantes en el mayor evento de defensa y seguridad de Latinoamérica.

    El auge de estas tecnologías coincide con el fortalecimiento de organizaciones criminales en varios países y con la consolidación de la violencia como una de las principales preocupaciones sociales.

    En Brasil, el presidente Luiz Inácio Lula da Silva sancionó recientemente una ley que endurece las penas contra grupos criminales, mientras ciudades como São Paulo han impulsado sistemas de vigilancia con reconocimiento facial.

    En este contexto, compañías tradicionales como Beretta compiten con empresas tecnológicas que lideran el desarrollo de soluciones con inteligencia artificial.

    Indra, por ejemplo, promueve su plataforma IndraMind, diseñada para ofrecer “inteligencia artificial soberana” aplicada al control fronterizo y la protección de infraestructuras críticas frente a amenazas digitales.

    Otro segmento en crecimiento es el de los drones inteligentes, como los desarrollados por Shield AI, que buscan detectar actividades ilícitas a larga distancia, como el transporte de drogas en embarcaciones.

    “El mundo está convirtiéndose en un lugar cada vez más peligroso y cuando eso sucede las personas quieren sentirse seguras”, afirmó el ingeniero Brandon Tattersall sobre el uso de estas tecnologías.

    Aunque el mercado está dominado por empresas de Estados Unidos, Europa y Asia, también surgen iniciativas regionales como Atech, filial de Embraer, que desarrolla sistemas informáticos para defensa y seguridad pública.

    Su director, Fábio Cocchi, destacó que el incremento del gasto gubernamental en seguridad abre nuevas oportunidades y posiciona a Latinoamérica como un mercado estratégico para el desarrollo tecnológico.

  • OpenAI lanza la variante GPT-5.4-Cyber, diseñada para casos de ciberseguridad defensiva

    OpenAI lanza la variante GPT-5.4-Cyber, diseñada para casos de ciberseguridad defensiva

    La empresa OpenAI anunció el lanzamiento de GPT-5.4-Cyber, una variante especializada de su modelo GPT-5.4 enfocada en fortalecer la ciberseguridad defensiva mediante herramientas avanzadas.

    El nuevo modelo forma parte de la expansión del programa de Acceso Confiable para Ciberseguridad (TAC), una iniciativa presentada en febrero que incluye verificación automatizada de identidad para facilitar el acceso seguro a herramientas tecnológicas.

    La compañía liderada por Sam Altman detalló que GPT-5.4-Cyber tendrá acceso limitado a proveedores de seguridad, organizaciones e investigadores previamente verificados, debido a que incorpora capacidades más permisivas que otros modelos.

    Entre sus principales características, el sistema ofrece menos restricciones para tareas relacionadas con ciberseguridad, lo que permite desarrollar flujos de trabajo defensivos más complejos y eficientes.

    Asimismo, integra funciones avanzadas como la ingeniería inversa binaria, una técnica que permite analizar software sin necesidad de acceder al código fuente, con el objetivo de identificar posibles vulnerabilidades o presencia de malware.

    OpenAI explicó que estas capacidades buscan apoyar a los profesionales en la detección y mitigación de amenazas digitales en entornos reales, ampliando así el alcance de sus herramientas en el ámbito de la seguridad informática.

    El lanzamiento de esta variante se produce pocos días después de que la empresa Anthropic anunciara su modelo Claude Mythos, también enfocado en seguridad, aunque con capacidades que incluyen ataques automatizados a sistemas con protecciones débiles.

    Con este movimiento, OpenAI refuerza su apuesta por el desarrollo de inteligencia artificial aplicada a la defensa digital, en un contexto donde las amenazas cibernéticas continúan evolucionando a nivel global.

  • La IA mejora la precisión en los diagnósticos médicos pero carece de razonamiento crítico

    La IA mejora la precisión en los diagnósticos médicos pero carece de razonamiento crítico

    Los sistemas de inteligencia artificial aplicados a la medicina han demostrado alta precisión en diagnósticos cuando cuentan con información clínica completa, pero presentan fallas importantes en el razonamiento clínico, especialmente en etapas iniciales del análisis.

    Así lo concluye una investigación publicada en JAMA Network Open, desarrollada por científicos de la incubadora MESH perteneciente a la red hospitalaria Mass General Brigham.

    El estudio evaluó 21 modelos de lenguaje avanzados, entre ellos GPT-5, Claude, Gemini, Grok y DeepSeek, para medir su desempeño en escenarios clínicos.

    Los investigadores pidieron a estos sistemas actuar como médicos en distintos casos, encontrando que, aunque logran diagnósticos finales correctos en más del 90 % de las ocasiones con datos completos, fallan en procesos clave como el diagnóstico diferencial.

    Esto implica que los modelos tienen dificultades para identificar múltiples posibles enfermedades a partir de síntomas iniciales, una habilidad esencial en la práctica médica.

    “Pese a las continuas mejoras, los modelos de lenguaje grandes estándar no están listos para un despliegue de grado clínico sin supervisión”, concluyó el investigador Marc Succi.

    El estudio también subraya que el razonamiento clínico sigue siendo una limitación crítica para la IA, ya que no logra replicar el análisis complejo que realizan los médicos en condiciones de incertidumbre.

    “Los diagnósticos diferenciales son fundamentales para el razonamiento clínico y subyacen al ‘arte de la medicina’ que la IA no puede replicar actualmente”, añadió el especialista.

    Para evaluar el rendimiento, el equipo desarrolló la herramienta PriME-LLM, que mide la capacidad de los modelos para generar diagnósticos, proponer pruebas y gestionar tratamientos en distintas etapas.

    Los resultados mostraron que, aunque los modelos más recientes presentan mejoras, todos fallan en más del 80 % de los casos al momento de plantear diagnósticos diferenciales, especialmente cuando la información es limitada.

  • La BBC y la IA: Una vigilancia redoblada cuando se trata de contenidos informativos

    La BBC y la IA: Una vigilancia redoblada cuando se trata de contenidos informativos

    La cadena británica de radiotelevisión BBC ‘ha hecho sus deberes’ con la inteligencia artificial (IA), y lleva varios años aplicándola al trabajo diario, reflexionando sobre sus límites, principalmente en los contenidos informativos, y creando una regulación propia a partir de un principio básico: que su IA esté alineada con el carácter de servicio público de la cadena.

    El jefe de la unidad de IA en la cadena británica es el australiano James Fletcher, que recibe a EFE en el imponente edificio que la BBC tiene en el corazón de Londres. Insiste en recordar un principio básico válido para los 20,000 trabajadores de la cadena: lo que los empleados hacen con la IA en su casa, no pueden hacerlo en la BBC.

    Pero para que no suene demasiado abstracto, el equipo de Fletcher, con una veintena de personas dedicada exclusivamente a gestionar el uso de la IA, ha creado un manual ‘ad hoc’ de uso obligatorio entre el personal, que además está disponible para cualquier usuario.

    El equipo de Fletcher -compuesto por ingenieros de datos, programadores, diseñadores, investigadores…- tiene claro que la transparencia debe guiar todos sus pasos, en línea con una cadena que se jacta de practicar esta transparencia incluso en su icónica sede de Portland Place: una sucesión de pisos con muros de cristal donde es posible observar el trabajo de cada uno.

    Un enfoque principalmente europeo

    La BBC no pierde de vista los desarrollos que la IA está teniendo en los medios de comunicación del mundo entero. De ellos, la principal colaboración la desarrolla con la Unión Europea de Radiodifusión (UER), corporación que agrupa a 113 radios y televisiones del mundo entero.

    Con la UER, las líneas de trabajo son la integridad informativa y la asistencia para la IA. En esta línea, han emprendido algunos trabajos de investigación conjunta sobre cómo la IA da respuestas  sobre contenidos informativos: ¿Son correctas?, ¿de qué fuentes se nutren?, ¿tienden a editorializar y dar opinión?. Y según Fletcher, las conclusiones han arrojado «serias preocupaciones», que demuestran que la IA aún está lejos de ser perfecta.

    La revolución de ChatGPT

    Reconoce Fletcher que la IA sufrió una verdadera revolución hace ahora unos cuatro años, cuando apareció (o más bien se popularizó) ChatGPT, el ‘chatbot’ o robot conversacional que puso la IA al alcance de cualquier persona sin necesidad de conocimientos previos, y que aceleró la competencia de todas las grandes empresas tecnológicas por liderar (y rentabilizar) esta carrera.

    Pero los desafíos que plantea las IA son tan nuevos y tan rápidos que -recuerda el australiano- muchas veces su equipo se encuentra respondiendo a situaciones nunca antes planteadas, con potenciales conflictos que pueden ser de autoría de contenido, de protección de datos, de conflictos comerciales, etc.

    En otras palabras, las implicaciones son deontológicas, legales y económicas. Y por ello la BBC ha desarrollado este manual «no por el gusto de regular, sino con el fin de capacitar a la BBC y a su personal para que hagan lo que la BBC quiere hacer, y lo haga alineado con nuestros valores».

    Algunos usos de la IA generativa son aparentemente inocuos: crear gráficos, ilustrar mapas, resumir contenidos muy largos, pero la cadena se ha marcado algunos límites: por el momento, no permite que se usen imágenes generadas por IA en los programas informativos (pero sí en los divulgativos).

    Etiquetas sí, etiquetas no

    Una de las cuestiones más debatidas en las empresas mediáticas es la obligación o no de ‘etiquetar’ los contenidos generados con inteligencia artificial, pero para Fletcher esta discusión ya está superada por el aluvión de contenidos que, conscientemente o no, han sido producidos en todo o en parte por la IA.

    Traducciones de personas que hablan en otras lenguas, transcripciones de discursos, gráficos para ilustrar una evolución o el resultado de una encuesta: estampar en la pantalla una etiqueta en cada contenido generado con la IA puede terminar resultando molesto si esa etiqueta aparece constantemente sobre la imagen.

    Resultado: la política de la BBC es la de etiquetar solamente aquellos contenidos que puedan confundir o engañar a la audiencia, y dejar que los otros fluyan libremente sin ‘marcas’. Según Fletcher, esta solución viene avalada por la observación de que las audiencias son cada vez más receptivas o menos reticentes a los contenidos generados por la IA.

    Otro ejemplo es el de las voces artificiales: si hace dos años las voces sintéticas sonaban impostadas, ya no es el caso, y algunas de las voces usadas con este propósito -como un exitoso resumen deportivo de 2 minutos de la BBC generado de principio a fin con la IA- suena ya totalmente natural, dice.

    Haber desarrollado este resumen deportivo es un buen ejemplo de los desafíos de la IA: los contenidos originales usados para el resumen han sido generados por personas, pero la IA permite condensar el trabajo de decenas de reporteros para realizar un resumen final. Por el momento con supervisión final de un humano, pero dentro de un tiempo, ¿quién sabe? . 

  • OpenAI se expande al sector mediático con la compra del programa de entrevistas TBPN

    OpenAI se expande al sector mediático con la compra del programa de entrevistas TBPN

    La compañía tecnológica OpenAI anunció este jueves la adquisición de TBPN, un programa de entrevistas en línea enfocado en líderes del sector tecnológico, marcando así su expansión hacia el ámbito mediático.

    La empresa no reveló el monto de la operación, pero destacó que la compra responde a su interés por fomentar el debate en torno al impacto de la inteligencia artificial en la sociedad.

    «Con la misión de llevar la inteligencia artificial general (IAG o AGI, por sus siglas en inglés, una tecnología que podría superar a la inteligencia humana) al mundo, surge la responsabilidad de ayudar a crear un espacio para una conversación real y constructiva sobre los cambios que genera la IA, situando en el centro a los creadores y a las personas que utilizan esta tecnología», afirmó Fidji Simo, directora ejecutiva de aplicaciones de OpenAI.

    El equipo de TBPN, conformado por 11 personas, se integrará a la división de Estrategia de la compañía, bajo la supervisión de Chris Lehane, según detalló la empresa en su comunicado.

    Pese a la adquisición, OpenAI aseguró que el programa mantendrá su independencia editorial, conservando el control sobre sus invitados y contenidos.

    TBPN, creado en octubre de 2024, es conocido por su programa diario conducido por Jordi Hays y John Coogan, en el que participan ejecutivos del sector tecnológico y expertos en inteligencia artificial.

    El espacio registró ingresos por $5 millones el año pasado y proyectaba alcanzar los $30 millones en 2026 antes de concretarse la compra, de acuerdo con reportes citados por medios especializados.

    El programa se transmite en directo de lunes a viernes durante aproximadamente tres horas, a través de YouTube y la red social X, consolidando una audiencia en crecimiento.

    Entre sus invitados han figurado el director ejecutivo de OpenAI, Sam Altman, así como representantes de grandes compañías tecnológicas como Meta, Microsoft y Palantir.

    La adquisición se produce en un contexto de cambios recientes en la empresa, que la semana pasada anunció el cierre de Sora, una red social basada en contenido generado por inteligencia artificial.

    Además, OpenAI concretó recientemente una histórica ronda de financiación por $122,000 millones, aunque también enfrenta cuestionamientos por su cercanía con el sector militar.

  • Violencia digital dirigida a mujeres: desde la sextorsión a las estafas, estos son los 10 ataques que más sufren

    Violencia digital dirigida a mujeres: desde la sextorsión a las estafas, estos son los 10 ataques que más sufren

    La violencia contra las mujeres también se manifiesta en el entorno digital, donde expertos en ciberseguridad advierten un incremento de ataques dirigidos especialmente a este grupo, impulsados por herramientas de inteligencia artificial (IA) que facilitan nuevas formas de acoso, fraude y manipulación en internet.

    El fenómeno fue señalado por especialistas de la empresa Panda Security, quienes alertaron sobre el crecimiento de prácticas como la sextorsión, el ciberacoso y los videos falsos creados con inteligencia artificial, conocidos como ‘deepfakes’. Estas amenazas combinan fraude, chantaje y daño reputacional mediante el uso de redes sociales, plataformas de mensajería y aplicaciones de citas.

    Según datos del Ministerio de Igualdad de España, citados en la Macroencuesta de Violencia contra la Mujer 2024, publicada en 2025, el 12.2 % de las mujeres encuestadas ha sufrido acoso digital en algún momento. Además, el 0.8 % afirmó que alguien difundió en internet imágenes o videos íntimos, reales o manipulados, sin su consentimiento.

    Entre los ataques más frecuentes se encuentran los ‘deepfakes’ íntimos, donde se crean imágenes o videos sexuales falsos utilizando fotografías reales de mujeres. Este contenido suele utilizarse para intimidar, chantajear o dañar la reputación de la víctima.

    También destacan las sextorsiones, en las que los delincuentes amenazan con publicar material íntimo si la víctima no cumple determinadas exigencias. En muchos casos, el contenido puede ser fabricado mediante inteligencia artificial a partir de fotografías públicas.

    Otra modalidad en aumento son las estafas románticas, en las que los atacantes crean perfiles falsos en redes sociales o aplicaciones de citas para establecer relaciones sentimentales con las víctimas y posteriormente solicitar dinero.

    A estas amenazas se suman otras prácticas como el clonado de voz mediante IA, el phishing personalizado, el secuestro de cuentas en redes sociales, así como formas de acoso digital como el brigading (ataques coordinados de múltiples cuentas), el doxing (publicación de datos personales para intimidar) y el uso de stalkerware, programas diseñados para espiar dispositivos móviles sin consentimiento.

    Ante estos riesgos, los expertos recomiendan limitar la exposición de información personal en internet, utilizar autenticación de dos factores en las cuentas y denunciar cualquier intento de chantaje o fraude ante las autoridades y las plataformas digitales.

     

  • Alertan sobre llamadas falsas con IA que atacan empresas

    Alertan sobre llamadas falsas con IA que atacan empresas

    Las llamadas falsas generadas con inteligencia artificial se han convertido en una nueva amenaza para las empresas, según advirtió la compañía de ciberseguridad ESET, que alerta sobre el uso de clonación de voz y audios deepfake para cometer fraudes financieros o secuestrar cuentas corporativas.

    La expansión de la inteligencia artificial generativa facilitó la creación de audios y videos falsos con gran realismo. De acuerdo con ESET, ahora es posible fabricar un clip falso con apenas unos segundos de audio de una persona, lo que permite a los ciberdelincuentes hacerse pasar por ejecutivos o proveedores para engañar a empleados dentro de las organizaciones.

    Datos citados por el Gobierno británico indican que el año pasado se compartieron hasta 8 millones de clips falsos, una cifra muy superior a los 500,000 difundidos en 2023. Los expertos consideran que el número real podría ser incluso mayor y advierten que muchas empresas aún subestiman el riesgo.

    Según ESET, los ataques suelen iniciar cuando un delincuente selecciona a la persona que desea suplantar, como un director ejecutivo o un responsable financiero. Luego obtiene una breve muestra de audio disponible en internet —por ejemplo en entrevistas, redes sociales o conferencias— y utiliza herramientas de inteligencia artificial para generar una voz sintética con la que realiza llamadas a empleados de la empresa.

    “Este tipo de ataque es cada vez más barato, sencillo y convincente. Algunas herramientas son capaces incluso de insertar ruido de fondo, pausas y tartamudeos para que la voz suplantada resulte más creíble. Cada vez imitan mejor los ritmos, las inflexiones y los tics verbales propios de cada orador. Y cuando un ataque se lanza por teléfono, los fallos relacionados con la IA pueden ser más difíciles de detectar para quien atiende”, advirtió Macio Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

    Los atacantes también recurren a técnicas de ingeniería social para presionar a las víctimas con solicitudes urgentes, como transferencias bancarias o cambios en contraseñas.

    Uno de los casos más conocidos ocurrió en 2020, cuando un empleado de una empresa en Emiratos Árabes Unidos transfirió $35 millones tras recibir una llamada que simulaba la voz de su director solicitando fondos para una supuesta operación empresarial.

    Para reducir estos riesgos, ESET recomienda reforzar la capacitación de los empleados, verificar por canales alternativos cualquier solicitud telefónica relacionada con dinero o datos sensibles, y establecer protocolos internos como la aprobación de dos personas para transferencias importantes o el uso de contraseñas acordadas previamente para confirmar la identidad de ejecutivos.

    “Las falsificaciones son sencillas y su producción cuesta poco. Dadas las enormes sumas que pueden obtener los estafadores, es poco probable que veamos pronto el final de las estafas de clonación de voz. Por lo tanto, la mejor opción que tiene una organización para mitigar el riesgo es un triple enfoque basado en las personas, los procesos y la tecnología. Para que se adapte a medida que avanza la innovación en IA, es importante que sea revisado periódicamente. El nuevo panorama del ciberfraude exige una atención constante”, concluyó Micucci.

     

  • Unión Europea financia participación de 11 empresas salvadoreñas en feria tecnológica de Barcelona

    Unión Europea financia participación de 11 empresas salvadoreñas en feria tecnológica de Barcelona

    La Unión Europea anunció este viernes que 11 empresas nacionales del sector digital y de innovación participarán del 2 al 5 de marzo en el Mobile World Congress (MWC) y en el 4YFN, en Barcelona, España, gracias al respaldo financiero y estratégico del bloque europeo a través de su iniciativa Global Gateway.

    La misión empresarial forma parte del Proyecto Ilamatepec, financiado por la Unión Europea y ejecutado por el Centro de Comercio Internacional (ITC), cuyo propósito es facilitar la internacionalización de compañías salvadoreñas y fortalecer su acceso al mercado europeo bajo el Acuerdo de Asociación con Centroamérica.

    La participación no es simbólica, y que las empresas sostendrán reuniones con potenciales clientes, inversionistas y aliados estratégicos, en uno de los escenarios globales más relevantes para la industria tecnológica, mencionó Global Gateway por medio de un comunicado de prensa.

    Las compañías fueron seleccionadas por su trayectoria y capacidad exportadora. Representan una oferta diversa que incluye desarrollo de software y aplicaciones, inteligencia artificial, automatización industrial, ciberseguridad, servicios en la nube, gobierno electrónico y emprendimientos tecnológicos liderados por mujeres.

    Entre las empresas participantes están Vertex Studio, Unplug Studio, Erde Automation, Wingman, S.A. de C.V., Grupo Satélite, WillDom, JDK Outstanding Technologies, Applaudo, ADVICEGROUP LATAM, It Consulting e ITProject41.

    La estrategia Global Gateway promueve conectividad sostenible, transformación digital y crecimiento económico inclusivo. En el caso salvadoreño, la apuesta se centra en fortalecer exportaciones de servicios tecnológicos y consolidar vínculos comerciales duraderos con Europa, aseguró la entidad europea.

  • Gemini supera 750 millones de usuarios y refuerza su modelo por suscripción

    Gemini supera 750 millones de usuarios y refuerza su modelo por suscripción

    Gemini, el asistente de inteligencia artificial desarrollado por Google, superó los 750 millones de usuarios activos mensuales a nivel mundial, impulsado por la adopción de su modelo Gemini 3, lanzado en noviembre pasado con funciones de razonamiento avanzado y comprensión contextual.

    El crecimiento fue anunciado durante la presentación de resultados financieros del cuarto trimestre de 2025 de Alphabet, matriz de Google, que reportó ingresos anuales por más de $400,000 millones por primera vez en su historia, con un destacado rendimiento en sus servicios en la nube y la plataforma YouTube.

    Gemini 3 ha sido “un hito importante” para la compañía, afirmó el CEO Sundar Pichai, quien aseguró que el modelo “ha ofrecido un gran impulso” en el uso del asistente. Según el ejecutivo, las consultas diarias en el modo de inteligencia artificial se han duplicado desde su lanzamiento.

    Además del crecimiento en usuarios, Google informó que actualmente cuenta con más de 325 millones de suscripciones de pago activas, lideradas por Google One y YouTube Premium. No obstante, la compañía busca fortalecer tanto su nivel gratuito como sus opciones de pago.

    El director comercial de Google, Philipp Schindler, explicó a los inversores que están “centrados en un nivel gratuito y suscripciones” donde “están viendo un gran crecimiento”. Actualmente, la opción Google AI Plus ofrece 200 GB de almacenamiento y acceso ampliado a funciones de IA por $8.60 mensuales (equivalentes a 7.99 euros).

    Acuerdo con Apple

    Durante la llamada con inversores, Google fue consultada sobre su reciente alianza con Apple, en la que se confirma que el fabricante del iPhone utilizará los modelos Gemini como base para sus funciones de inteligencia artificial, incluyendo la nueva versión de Siri y Apple Intelligence.

    Aunque Alphabet evitó ofrecer más detalles del acuerdo, Pichai señaló que Google se ha convertido en “el proveedor de nube preferido” de Apple para el desarrollo de “la próxima generación de modelos base” sustentados en Gemini y tecnología en la nube.

    Este pacto marca un giro significativo en la estrategia de ambas compañías, en un momento en que la competencia en el sector de inteligencia artificial se intensifica con otras firmas como Microsoft, Amazon y OpenAI.