Etiqueta: inteligencia artificial

  • «La IA está para que haga lo que yo quiero que haga, no yo hacer lo que la IA me dice”, Juan Carlos Jiménez, gerente de la empresa IAKimi

    «La IA está para que haga lo que yo quiero que haga, no yo hacer lo que la IA me dice”, Juan Carlos Jiménez, gerente de la empresa IAKimi

    Juan Carlos Jiménez dirige la empresa IAKimi, una pionera en la enseñanza de la Inteligencia Artificial en El Salvador. La empresa entrena a personal de otras compañías en el conocimiento y entrenamiento de herramientas de Inteligencia Artificial.

    En una conversación sobre los alcances de la Inteligencia Artificial, Jiménez, un ingeniero colombiano con 17 años de residir en El Salvador, explica que  su metodología parte de enseñar que la IA no es exclusiva de ingenieros, sino una herramienta accesible para cualquier persona interesada en aprender y mejorar su rendimiento laboral.

    ¿Qué hace una empresa como IAKimi? Cómo enseñan a las demás empresas a usar la Inteligencia Artificial?

    AIKimi fue creada para enseñarle a personal de otras compañías a utilizar la Inteligencia Artificial para integrarla en su recurso humano y que su recurso humano entienda qué es para mejorar su rendimiento. La Inteligencia Artificial es para nosotros una herramienta que tienen todas las personas para crecer, para mejorar, para aprender, y en la medida que eso lo apliquen en sus trabajos, van a poder ser personas de mucho más valor para las compañías y también en su vida personal. Les enseñamos que no es un tema de ingenieros sino que es un tema de querer aprender y lo hacemos con la práctica, básicamente les enseñamos a las personas a usar herramientas de inteligencia artificial para mejorar sus tareas diarias y lógicamente, la inteligencia artificial es algo que está hecha para que uno interactúe con palabras y textos naturales, como que le hablara a otra persona. En la medida que yo quiera aprender, él me enseña y en la medida que yo quiera automatizar o generar asistentes que me ayuden, él lo hace.

    ¿Y Cómo debería empezar una empresa interesada en adaptar sus procesos a la IA?

    Nosotros creemos que una compañía debe empezar mirando sus procesos, donde gasta más tiempo su personal o su gente y cómo facilita esos procesos, para eso lo que tiene que tener claro es cuáles son esos procesos, eventualmente hay muchas compañías que no tienen claros esos procesos y eso es importante, lo que tú no mides bien, no lo vas a poder llevar a la inteligencia artificial porque lo que te permite es automatizar o mejorar lo que tú conoces, si no lo conoces, no lo puedes hacer, entonces normalmente lo que hacemos es encontrar con las compañías sus procesos estratégicos y ayudarlos a que su propia gente los automatice para un mejor resultado.

    ¿Con que debería empezar una persona con interés en aprender sobre la IA?

    Una persona tiene que estudiar y practicar, hoy en temas de IA encuentran material en redes sociales, en expertos, coach, y básicamente en su mayoría son personas que tratan de transferir ese conocimiento de una manera muy natural, todos los fabricantes y creadores de plataformas de inteligencia artificial arrancan con herramientas sin costo, tienen tutoriales, modelos como GPT, tú le hablas y ellos entienden lo que dicen. Si una persona quiere aprender, es practicando.

    ¿La IA es para jóvenes o también para los mayores?

    La IA para mí es más para mayores que para jóvenes, porque la IA es un mundo en el que si no sé para dónde voy, no me ayuda, la IA es como tener empleados, algo que hace lo que yo le diga que quiero hacer, entonces normalmente las personas que tienen experiencia son las personas que saben lo que quieren. Los jóvenes tienen la ventaja de que este mundo digital lo absorben más rápido pero pues la IA es tanto para jugar ni que me ayude a hacer cartitas, sino más que más que todo, para que me ayude a solucionar problemas y es ahí donde una persona mayor que se puede demorar un poco más en usar las herramientas pero creo que las va a usar mejor porque sabe lo que está buscando.

    Juan Carlos Jiménez sostiene que «la IA es más para mayores que para jóvenes, porque la IA es un mundo en el que si no sé para dónde voy, no me ayuda».

    ¿Uno de los mayores temores es la pérdida de empleos, cuál es tu experiencia al respecto?

    En el tema de pérdida de empleos yo creo que es al revés, creo que la IA va a quitar empleos a personas que no entiendan la evolución que se está teniendo, un poco como cuando salió el computador que mucha gente creyó que tenían que seguir trabajando como ellos pensaban y sin usar computador, pero otra gente optó por esforzarse y usar el computador y lógicamente, eso te hace más eficiente. Creo que lo mismo va a pasar con la IA, la diferencia va a ser el tiempo, creo que el tema del computador se demoró años que la gente ya la adoptara y se volviera una herramienta de uso diario, pero la IA va a una velocidad increíble y mucho más lo va a aprovechar. Creo que va a reemplazar a las personas que no entiendan que aprender a usar la IA es algo necesario, no es algo accesorio o que no deba tener claro, las personas que lo tengan claro y lo vuelvan una herramienta clave de lo que ellos hacen, y la sepan usar, seguramente no serán reemplazadas. Creo que se van a generar trabajos a nivel superior, a nivel más sofisticado, porque lógicamente se demorará mucho menos y me quedará tiempo para hacer cosas más de pensamiento, de temas humanos, curiosamente creemos que la IA lleva a las personas a cosas más humanas que es interactuar con otras personas, a varios temas, que a lo que se dedican hoy como generar informes, generar control, a cosas que realmente los robots pueden ser más eficientes haciendo eso y a las personas les tocará temas más estratégicos y de relacionamiento personal, entonces creo que la IA llevará a la persona se concentre más en ser humano y eso los va a llevar a otro nivel de desarrollo.

    Lo que puedo hacer yo, lo puedo hacer un robot. ¿Entonces debería preocuparme o cómo debo prepararme ante esa nueva realidad?

    Yo creo que si lo que yo hago lo puede hacer un robot, pues sí tengo que preocuparme, lo que tengo que pensar es que si lo que yo hago lo puede hacer un robot, yo debería entrenar ese robot para que hiciera lo que yo hago y debería ponerme a pensar que con ese potencia de tiempo y de cabeza que me quede, qué hago que no pueda hacer un robot. Es la gran reinvención de las personas y las compañías, es por eso que la empresa se llama Kimi, Kimi es una definición maya del Ave Fénix, que yo tengo que morir para renacer, y eso es lo que va a pasar con muchas personas, todo lo que hoy saben, van a tener que entender que si su mayor tiempo lo gastan en temas mecánicos, van a evolucionar eso a crear robots que hagan eso mecánico y ellos subir de nivel y hacer cosas más sofisticadas.

    Algunos críticos de la IA advierten que te vuelve menos pensante, qué dices al respecto?

    Desafortunadamente la IA es como cualquier cosa, como el internet o como muchas cosas que no es malo de por sí sino como yo lo uso. El internet lo puedo utilizar para conocer o aprender cosas, para hacer cosas buenas, como también puedo usarla para malgastar el tiempo, lo mismo la IA, si la uso bien es porque la uso para aprender y saber más, para que sea mi coach y en hacerme las cosas. Desafortunadamente gran parte de la población va a caer en usarla para que me haga las cosas y lógicamente mi riesgo es que voy a saber menos o voy a ser más bruto, pero el problema no está en la IA sino cómo yo la uso, como muchas cosas en la vida, si la uso mal, el resultado es malo, si la uso bien, el resultado es bueno. Ese es el punto, el que se quiera volver más bruto, se va a volver más bruto y va a tener menos conocimiento, el que quiera aprender más, lo va a hacer, será un tema de la decisión que yo tome.

    Esta encuesta identifica el estado de adopción de la IA en el sector empresarial salvadoreño. Mida su cultura organizacional, infraestructura y visión estratégica. https://diario.elmundo.sv/nosotros/estudio-especializado.html

    ¿Cuáles son los errores más comunes en el uso de IA?

    El mayor error en el uso de la IA es la gobernabilidad, eso quiere decir que yo tengo que entender que la IA está para que haga lo que yo quiero que haga, no yo hacer lo que la IA me dice, en la medida que yo entienda eso, creo que siempre lo voy a saber usar y creo que es muy poco probable que yo cometa errores usando la IA, en la medida que yo pierda esa perspectiva y yo piense lo que la IA me dice, creo que voy a cometer un error fuerte puesto que eventualmente no estoy aprendiendo, sino haciendo lo que él me dice, básicamente es el mayor error que puede cometer la gente. La gente tiene que entender que es el jefe y no la IA pero es un tema de gobernabilidad y de entender lo que uno está haciendo.

    Un estudio reciente de la Universidad de Zúrich advertía de la capacidad de la inteligencia artificial (IA) para manipular a la opinión pública con información falsa. Deberíamos tener ese temor en la sociedad?

    El problema de la manipulación consideraría yo que es real, eso es desde hace mucho tiempo, hoy se hace mucho más masivo, inicialmente era manipular la opinión pública con medios de comunicación, después a través del internet en temas de poner o quitar mandatarios, y con la IA lógicamente ese peligro es mayor, pero al final, es un tema que cada persona tiene que tener un criterio para decidir qué es lo bueno, qué es lo malo, qué es lo cierto, qué no, a qué le debo poner atención y a qué no. El riesgo siempre ha existido en la medida que el internet popularizó mucho las comunicaciones y las acentuó más, y hoy con la IA viene un gran tema de desinformación o polución de la información pero creo que al final el punto es de criterio, creo que esto también va a llevar a un punto donde ya afortunadamente mucho fake news se va a desprestigiar porque va a ser tanta la avalancha que creo que llegará un momento en que pierde mucha credibilidad y creo que el criterio de las personas de a qué le creo y a qué no le creo. La mayoría de personas buscarán otras alternativas informativas porque es un riesgo muy importante con la IA al menos por un tiempo.

    ¿Qué veremos en el futuro cercano en temas de Inteligencia Artificial?

    Creo que viene el tema humanoide, es un tema que lo vamos a ver muy pronto, un año o menos, donde esa parte robótica humanoide va a empezar cosas muy interesantes y vamos a empezar a ver agentes de IA, robots que tú mismo vas a construir y que te van a funcionar casi que todo hablado, diciendo que haga esto o lo otro, y creo que va a funcionar muy bien, de manera que una persona sin mucho conocimiento podrá tener muchos asistentes digitales, un tema que ya se ve pero que le falta. Creo que a futuro habrá muchas herramientas que te permitirán hacer eso por la voz, seguramente vendrá todo el tema en los teléfonos porque la IA se irá a los teléfonos, donde una persona en un teléfono tengo un asistente que le haga todo lo que necesita y lo haga bien y entienda lo que está haciendo.

    Automóviles autónomos también se desarrollarán, pero los expertos dicen que no es solo una cuestión de automóviles sin chofer, sino que dentro de todo el tema humano, se va a volver como un amigo mío, mi carro va a saber donde fui, qué hice, y se crearán relaciones como hoy hay personas que tienen con GPT o varios modelos, entonces será con mi carro sabrá cosas de las que yo hago. Mucha gente se sentirá acompañada porque tendrá amigos virtuales adultos, porque podrá hablar con ellos todos los días, debido a los problemas de soledad y depresión. Son cosas que se van a ver. ¿Qué impacto tenga? Será un tema muy difícil de controlar o reglamentar porque va muy rápido porque no hay forma que las leyes no van a ese ritmo y mucha gente no lo está viendo venir.

  • La ONU advierte que el fraude online crece con fuerza por impulso de IA

    La ONU advierte que el fraude online crece con fuerza por impulso de IA

    El fraude online se ha convertido en el delito de más rápido crecimiento en muchos países, sobre todo en los de ingresos medios y altos, advirtió la Oficina de Naciones Unidas contra la Droga y el Delito, ONUDD, en la víspera de una cumbre internacional en Viena sobre este fenómeno.

    John Brandolino, director interino de la ONUDD, explicó a EFE que las estafas en línea ya concentran la mayor parte de los fraudes, en un contexto en el que el crimen organizado obtiene miles de millones de dólares con estas operaciones.

    La capital austríaca acogerá este lunes y martes la Cumbre Global contra el Fraude, organizada por la ONUDD e Interpol, con la participación de gobiernos, empresas tecnológicas y organizaciones de la sociedad civil para buscar respuestas ante esta amenaza.

    Brandolino indicó que no existe una cifra confiable sobre las pérdidas mundiales provocadas por este delito, aunque aseguró que el impacto económico asciende a “miles y miles de millones” de dólares cada año.

    El funcionario agregó que la magnitud real del problema podría ser todavía mayor, porque muchas víctimas no denuncian por vergüenza o incomodidad, lo que deja fuera de los registros oficiales una parte importante de los casos.

    Según la ONUDD, internet ha facilitado al crimen organizado captar víctimas de forma rápida, barata y sin fronteras, mientras que los fraudes tradicionales exigen mayor cercanía física, infraestructura local y resultan más fáciles de rastrear.

    La inteligencia artificial, añadió Brandolino, se ha vuelto un factor “muy disruptivo” porque permite a los delincuentes ampliar su alcance, operar en más idiomas, procesar datos con velocidad y perfeccionar los mensajes dirigidos a cada potencial víctima.

    El directivo sostuvo que uno de los principales retos es que muchos Estados, especialmente los que están en vías de desarrollo, no cuentan con la tecnología ni con los medios suficientes para enfrentar un delito cada vez más especializado, transnacional y vinculado en algunos casos con otros crímenes como la trata de personas y el blanqueo.

     

  • EEUU confirma el uso de herramientas de Inteligencia Artificial en su ofensiva aérea contra Irán

    EEUU confirma el uso de herramientas de Inteligencia Artificial en su ofensiva aérea contra Irán

    El Ejército de Estados Unidos confirmó este miércoles el uso de herramientas de Inteligencia Artificial en su ofensiva aérea contra Irán, al tiempo que ha insistido en que mandos militares tienen siempre la última palabra sobre los ataques y son quienes «decidirán cuándo disparar».

    «Nuestros combatientes están utilizando una variedad de herramientas avanzadas de Inteligencia Artificial. Estos sistemas nos ayudan a analizar enormes cantidades de datos en cuestión de segundos, de modo que nuestros líderes puedan filtrar el ruido y tomar decisiones más inteligentes más rápido de lo que el enemigo puede reaccionar», ha asegurado el comandante del Mando Central del Ejército estadounidense (CENTCOM), el almirante Brad Cooper, en un mensaje en el que ha repasado la marcha de la ofensiva en Irán.

    En todo caso ha recalcado que los mandos militares «siempre tomarán las decisiones finales», y que son humanos quienes «decidirán cuándo disparar», para defender que estos sistemas hace que procesos que antes «tardaban horas e incluso días», ahora se puedan resolver «en segundos». «Sigo impresionado con todas las ramas del Ejército de Estados Unidos. Todo el equipo está rindiendo de forma sobresaliente», expuso.

    Cooper ha hecho repaso a la situación de la guerra, cuando vive su duodécimo día de ataques, asegurando que Washington está «ejerciendo superioridad aérea» sobre amplias zonas de Irán. Según el CENTCOM, Estados Unidos está infligiendo «un poder de combate devastador contra el régimen iraní», una fuerza que va en aumento mientras que la fuerza iraní tiende a la baja.

    Hasta la fecha, el Ejército norteameriano ha golpeado la capacidad iraní de misiles balísticos y drones con más de 5.500 objetivos y bombardeos a más de 60 medios navales iraníes. «Caracterizaría nuestros ataques como impredecibles, dinámicos y decisivos», expuso, tras informar de que fuerzas estadounidense destruyeron «el último de los cuatro buques de guerra de clase Soleimani». «Toda una clase de barcos iraníes ya está fuera de combate», resumido.

  • El Salvador albergará cumbre SovAI sobre inteligencia artificial

    El Salvador albergará cumbre SovAI sobre inteligencia artificial

    El Salvador será sede de la primera edición del SovAI Summit, una cumbre internacional dedicada al desarrollo de inteligencia artificial soberana, que se llevará a cabo el 20 y 21 de abril de 2026 en el Palacio Nacional, en el Centro Histórico de San Salvador.

    El evento reunirá a desarrolladores, expertos tecnológicos, empresarios y líderes del sector para discutir el papel de la inteligencia artificial en el desarrollo económico, la infraestructura tecnológica y la independencia digital de los países.

    Entre los temas principales del encuentro se encuentran el impulso a la energía de alta capacidad para el desarrollo de inteligencia artificial, la creación de infraestructura tecnológica soberana y el despliegue de nuevas tecnologías como robótica humanoide y sistemas autónomos.

    La agenda también incluye debates sobre modelos de infraestructura tecnológica conocidos como “The Sovereign Stack”, el uso de sistemas descentralizados para servicios financieros, aplicaciones de inteligencia artificial en educación y salud, y el desarrollo de marcos legales que impulsen la innovación tecnológica.

    Según el anuncio del evento, El Salvador apuesta por convertirse en un “Sandbox of Abundance”, un entorno que promueve baja carga fiscal, protección para el software de código abierto y disponibilidad energética para impulsar proyectos tecnológicos.

    “Estamos reuniendo a los arquitectos de la nueva economía de la inteligencia. Esta es una cumbre para constructores, soñadores y creadores. Creemos que la inteligencia artificial no es una amenaza que deba contenerse, sino una de las mayores herramientas para la liberación humana jamás inventadas”, señala el anuncio.

     

  • Alertan sobre llamadas falsas con IA que atacan empresas

    Alertan sobre llamadas falsas con IA que atacan empresas

    Las llamadas falsas generadas con inteligencia artificial se han convertido en una nueva amenaza para las empresas, según advirtió la compañía de ciberseguridad ESET, que alerta sobre el uso de clonación de voz y audios deepfake para cometer fraudes financieros o secuestrar cuentas corporativas.

    La expansión de la inteligencia artificial generativa facilitó la creación de audios y videos falsos con gran realismo. De acuerdo con ESET, ahora es posible fabricar un clip falso con apenas unos segundos de audio de una persona, lo que permite a los ciberdelincuentes hacerse pasar por ejecutivos o proveedores para engañar a empleados dentro de las organizaciones.

    Datos citados por el Gobierno británico indican que el año pasado se compartieron hasta 8 millones de clips falsos, una cifra muy superior a los 500,000 difundidos en 2023. Los expertos consideran que el número real podría ser incluso mayor y advierten que muchas empresas aún subestiman el riesgo.

    Según ESET, los ataques suelen iniciar cuando un delincuente selecciona a la persona que desea suplantar, como un director ejecutivo o un responsable financiero. Luego obtiene una breve muestra de audio disponible en internet —por ejemplo en entrevistas, redes sociales o conferencias— y utiliza herramientas de inteligencia artificial para generar una voz sintética con la que realiza llamadas a empleados de la empresa.

    “Este tipo de ataque es cada vez más barato, sencillo y convincente. Algunas herramientas son capaces incluso de insertar ruido de fondo, pausas y tartamudeos para que la voz suplantada resulte más creíble. Cada vez imitan mejor los ritmos, las inflexiones y los tics verbales propios de cada orador. Y cuando un ataque se lanza por teléfono, los fallos relacionados con la IA pueden ser más difíciles de detectar para quien atiende”, advirtió Macio Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

    Los atacantes también recurren a técnicas de ingeniería social para presionar a las víctimas con solicitudes urgentes, como transferencias bancarias o cambios en contraseñas.

    Uno de los casos más conocidos ocurrió en 2020, cuando un empleado de una empresa en Emiratos Árabes Unidos transfirió $35 millones tras recibir una llamada que simulaba la voz de su director solicitando fondos para una supuesta operación empresarial.

    Para reducir estos riesgos, ESET recomienda reforzar la capacitación de los empleados, verificar por canales alternativos cualquier solicitud telefónica relacionada con dinero o datos sensibles, y establecer protocolos internos como la aprobación de dos personas para transferencias importantes o el uso de contraseñas acordadas previamente para confirmar la identidad de ejecutivos.

    “Las falsificaciones son sencillas y su producción cuesta poco. Dadas las enormes sumas que pueden obtener los estafadores, es poco probable que veamos pronto el final de las estafas de clonación de voz. Por lo tanto, la mejor opción que tiene una organización para mitigar el riesgo es un triple enfoque basado en las personas, los procesos y la tecnología. Para que se adapte a medida que avanza la innovación en IA, es importante que sea revisado periódicamente. El nuevo panorama del ciberfraude exige una atención constante”, concluyó Micucci.

     

  • El FMI advierte sobre inflación global si se prolonga la guerra en Medio Oriente

    El FMI advierte sobre inflación global si se prolonga la guerra en Medio Oriente

    La directora gerente del Fondo Monetario Internacional (FMI), Kristalina Georgieva, advirtió este jueves que una prolongación del conflicto en Oriente Medio podría afectar los precios internacionales, los mercados energéticos y la inflación a nivel mundial.

    Durante su participación en la conferencia Asia en 2050, celebrada en Bangkok, la economista señaló que la economía global vuelve a enfrentar un momento de incertidumbre ante la escalada del conflicto en la región.

    Georgieva afirmó que “si el conflicto se prolonga, tiene un potencial evidente de afectar los precios, los mercados energéticos y a la inflación a nivel mundial”, y agregó que la resiliencia de la economía global está siendo nuevamente puesta a prueba.

    La funcionaria también subrayó que el mundo atraviesa un período marcado por crisis frecuentes e inesperadas.

    “La incertidumbre se ha convertido en la nueva normalidad”, indicó al referirse al contexto económico internacional.

    Según la directora del FMI, una de las regiones más expuestas a los efectos del conflicto es Asia, debido a su fuerte dependencia energética. El estrecho de Ormuz es una vía estratégica por la que transita alrededor del 20 % del petróleo y del gas natural licuado que se comercia en el mundo.

    Datos de la consultora Kpler y de la Administración de Información Energética de Estados Unidos indican que entre 84 % y 90 % del crudo que sale por ese paso marítimo tiene como destino Asia, mientras que el 83 % del gas natural licuado transportado por esa ruta también llega al continente.

    A pesar de los riesgos derivados de la crisis energética, Georgieva destacó que Asia continúa siendo uno de los principales motores de la economía global, ya que la región genera cerca de dos tercios del crecimiento mundial y concentra alrededor del 40 % del comercio internacional.

    La economista también señaló que el continente enfrenta retos para mantener ese liderazgo, entre ellos el aumento de la productividad mediante el desarrollo de la inteligencia artificial. En ese ámbito mencionó a Singapur como uno de los países más preparados, mientras que China y Corea del Sur figuran entre los líderes en su desarrollo.

     

  • Estudio alerta baja transparencia en seguridad de bots de Inteligencia Artificial

    Estudio alerta baja transparencia en seguridad de bots de Inteligencia Artificial

    Un estudio de la Universidad de Cambridge, en Reino Unido, advierte que la mayoría de los principales agentes de inteligencia artificial carecen de información básica de seguridad, pese a su creciente uso en tareas cotidianas y empresariales. La investigación analizó 30 bots de última generación y concluyó que solo cuatro han publicado documentos formales de seguridad y evaluación específicos para cada agente.

    El informe, divulgado en los Informes y Actas de Cambridge, señala que mientras los desarrolladores comparten abundante información sobre las capacidades de estos sistemas, omiten detalles clave sobre prácticas de seguridad y evaluación de riesgos.

    El análisis forma parte del AI Agent Index, un proyecto que involucra a investigadores del MIT, Stanford y la Universidad Hebrea de Jerusalén, y que evaluó transparencia, capacidades y seguridad con base en información pública y consultas directas con desarrolladores.

    Entre los hallazgos, el equipo identificó que 25 de los 30 agentes no revelan resultados de pruebas internas de seguridad y que 23 no ofrecen datos de evaluaciones realizadas por terceros, considerados esenciales para medir riesgos de manera rigurosa. Además, solo cinco agentes han reportado incidentes o preocupaciones de seguridad, y apenas dos documentan vulnerabilidades de “inyección rápida”, que permiten manipular al sistema para ignorar medidas de protección.

    “Muchos desarrolladores cumplen con los requisitos de seguridad de la IA al centrarse en el gran modelo de lenguaje subyacente, mientras que brindan poca o ninguna información sobre la seguridad de los agentes creados sobre él”, advirtió Leon Staufer, autor principal de la actualización del índice.

    Añadió que “los comportamientos críticos para la seguridad de la IA surgen de la planificación, las herramientas, la memoria y las políticas del propio agente, no solo del modelo subyacente, y muy pocos desarrolladores comparten estas evaluaciones”.

    El estudio también detectó que 13 agentes exhiben niveles “fronterizos” de autonomía, pero solo cuatro presentan evaluaciones de seguridad propias.

    Los agentes de navegación web muestran la mayor omisión de datos de seguridad, con 64 % de campos sin reportar, seguidos por los agentes empresariales con 63 % y los agentes de chat con 43 %. Según los investigadores, la creciente dependencia de pocos modelos base como GPT, Claude y Gemini genera posibles puntos únicos de fallo, lo que podría amplificar riesgos ante cambios en precios, interrupciones o regresiones de seguridad.

    El informe concluye que, mientras los agentes de IA se vuelven más autónomos y capaces de actuar en el mundo real, los marcos de transparencia y gobernanza avanzan a un ritmo peligrosamente rezagado.

     

  • Meta ideó modelo de Inteligencia Artificial para simular usuarios fallecidos en redes sociales

    Meta ideó modelo de Inteligencia Artificial para simular usuarios fallecidos en redes sociales

    Meta consideró desarrollar un modelo de inteligencia artificial capaz de simular la actividad de usuarios en Instagram y Facebook después de una larga ausencia o incluso tras su fallecimiento, aunque finalmente no avanzará con esta iniciativa.

    Actualmente, plataformas como Instagram y Facebook permiten convertir los perfiles en cuentas conmemorativas cuando el propietario fallece. Estos perfiles bloquean ciertas funciones para proteger la privacidad, pero se mantienen activos para conservar recuerdos y permitir que familiares designados como “contactos de legado” gestionen algunos aspectos del perfil.

    Sin embargo, la compañía analizó una alternativa distinta: un modelo de lenguaje diseñado para “simular al usuario cuando este está ausente del sistema de redes sociales”.

    La patente, registrada inicialmente en 2023 bajo la autoría del director de tecnología de Meta, Andrew Bosworth, y aprobada a finales de diciembre del año pasado, describe un sistema capaz de publicar contenido, dar ‘likes’ e interactuar con otros usuarios imitando el comportamiento digital de la persona fallecida.

    Según el documento recogido por Business Insider, la empresa argumentó que el impacto para los seguidores “es mucho más severo y permanente” cuando un perfil deja de interactuar abruptamente tras la muerte del usuario. Por ello, la IA se entrenaría con datos específicos del historial de actividad, comentarios y preferencias para reproducir de manera realista el estilo y patrones de interacción del usuario.

    No obstante, un portavoz de Meta aclaró que la compañía no tiene planes de “seguir adelante con este ejemplo” y recordó que muchas patentes se registran para proteger conceptos que no necesariamente se implementan. Aun así, el tema ya había sido abordado por el CEO de la empresa, Mark Zuckerberg, en 2023, cuando señaló que tras la pérdida de un ser querido “puede haber formas en las que poder interactuar o revivir ciertos recuerdos”, abriendo el debate sobre el papel de la inteligencia artificial en la memoria digital.

     

  • Ciberataques en San Valentín: así funcionan los principales fraudes románticos para conquistar a sus víctimas

    Ciberataques en San Valentín: así funcionan los principales fraudes románticos para conquistar a sus víctimas

    Los ciberdelincuentes han convertido el Día de San Valentín en una oportunidad para ejecutar ataques informáticos mediante correos electrónicos fraudulentos, mensajes en aplicaciones de citas, redes sociales y suplantaciones de marcas comerciales, con el objetivo de robar datos personales y dinero a las víctimas.

    Diversas compañías de ciberseguridad alertaron sobre el incremento de estos ataques con temática romántica en fechas cercanas al 14 de febrero. Los delincuentes buscan acceder a dispositivos, obtener información sensible y estafar a usuarios que intentan comprar regalos o establecer relaciones sentimentales.

    Bitdefender señaló que casi cuatro de cada diez correos promocionales relacionados con San Valentín son fraudulentos. Entre los principales señuelos figuran citas falsas, regalos inexistentes y encuestas engañosas. Según la empresa, Estados Unidos concentra alrededor del 55 % del spam temático detectado, lo que lo convierte en el país más atacado bajo esta modalidad.

    La inteligencia artificial también juega un papel clave en estas estafas. Los atacantes utilizan herramientas capaces de crear perfiles y conversaciones sentimentales para manipular emocionalmente a sus víctimas. Además, emplean tecnología de ‘deepfakes’ para suplantar voces e imágenes. “El love bombing digital puede llevar a la víctima a una situación de ansiedad y crear un fuerte enganche con el atacante. Haciendo que crea que está en una relación real cuando, en realidad, el objetivo es obtener dinero, datos personales o algún tipo de beneficio”, advirtió el Global Consumer Operation Manager de Panda Security, Hervé Lambert.

    Los delincuentes incluso generan ‘deepfakes’ de contenido sexual sin necesidad de obtener material íntimo real, una práctica vinculada a la “sextorsión”, mediante la cual amenazan con difundir supuestas imágenes privadas si no reciben un pago.

    Otro método frecuente es la suplantación de marcas comerciales. Los ‘hackers’ crean sitios web casi idénticos a los originales para que los usuarios ingresen datos de tarjetas de crédito al intentar comprar obsequios. Kaspersky identificó también plataformas fraudulentas que ofrecen verificar el saldo o validez de tarjetas regalo digitales. “Estas páginas se dirigen especialmente a quienes han recibido recientemente una tarjeta: al introducir los datos identificativos, los ciberdelincuentes pueden activar el certificado antes que el propio usuario y apropiarse de su valor”, explicó la compañía.

    Operaciones preparadas desde enero

    Los fraudes no comienzan el 14 de febrero. De acuerdo con NordVPN, enero es el mes con mayor actividad vinculada a estafas románticas. Durante ese periodo, los delincuentes intercambian tácticas, adquieren cuentas y promocionan servicios que facilitan los engaños, con el fin de que en febrero las operaciones funcionen a pleno rendimiento.

    Además de aplicaciones de citas como Tinder o Match, los ciberdelincuentes utilizan redes sociales como Instagram, Snapchat e incluso OnlyFans, aprovechando su contenido de pago para adultos. “Los estafadores están aprovechando las mismas plataformas que la gente usa para encontrar el amor y conectar con alguien”, advirtió el director de tecnología (CTO) de NordVPN, Marijus Briedis.

  • México enfrenta riesgo de colapso por falta de estrategia clara, advierte analista

    México enfrenta riesgo de colapso por falta de estrategia clara, advierte analista

    México podría experimentar su crisis más grave en tiempos modernos debido a una transformación tecnológica acelerada, sin una estrategia que permita enfrentar los retos económicos y sociales, advirtió el analista y académico José Ramón López-Portillo.

    En su libro “Tres crisis”, López-Portillo analiza tres etapas clave de la historia económica del país: el nacionalismo económico, el neoliberalismo y la actual Cuarta Transformación, y sostiene que las fracturas sociales y políticas surgen cuando se transita de un modelo a otro sin consenso ni visión clara de futuro.

    “El problema es que seguimos sin aprender del pasado con rigor verificable y, por tanto, sin construir estrategias para evitar el colapso”, explicó.

    Considera que México vive una falsa percepción de estabilidad y advirtió que “estamos como en una línea muy delgadita para llegar a esa crisis otra vez”, impulsada por cambios exponenciales como la inteligencia artificial y la automatización.

    El autor sostiene que uno de los mayores obstáculos ha sido el uso del pasado como arma ideológica para legitimar el poder.

    “Seguir acusando al pasado de nuestros propios males y deficiencias no nos puede llevar sino a la torpeza para enfrentar el futuro”, afirmó.

    Criticó el ambiente político actual, al que calificó de “infantil” por la falta de diálogo real entre ideologías enfrentadas.

    Frente a este panorama, propuso un modelo de “gobernanza adaptativa” que articule esfuerzos entre gobierno, empresa privada, academia y sociedad civil. También advirtió que una crisis sin rumbo puede alimentar nuevos autoritarismos.

    En relación al gobierno de Claudia Sheinbaum, dijo que el reto será romper con la lógica del poder: “No hay manera de que México pueda sobrevivir a esto creciendo al 0.7 % y sin una estrategia”, concluyó.