Categoría: Tecnomundo

  • ChatGPT permitirá ajustar tono y emociones en sus respuestas

    ChatGPT permitirá ajustar tono y emociones en sus respuestas

    OpenAI actualizó ChatGPT con nuevas herramientas de personalización que permitirán a los usuarios ajustar el tono emocional del asistente, como el nivel de entusiasmo o calidez en sus respuestas, así como la frecuencia del uso de emojis.

    La compañía anunció que estas opciones se suman a las ya disponibles que permiten configurar la personalidad del chatbot, como profesional, amigable, sincero, eficiente o empollón. Con esta ampliación, los usuarios podrán indicar si desean que el modelo responda de manera “más” o “menos” cálida o entusiasta, según sus preferencias.

    Estas mejoras forman parte del proceso de actualización del modelo GPT-5.2, recientemente lanzado, que destaca por su mayor precisión, fiabilidad, reducción de errores conocidos como “alucinaciones” y una mayor atención a la salud mental de los usuarios.

    Según OpenAI, las nuevas funciones ya se encuentran disponibles en el menú de configuración de personalización del asistente. Desde ahí, también es posible modificar otros elementos del formato de las respuestas, como el uso de encabezados, listas y la inclusión de emojis, ya sea para reducirlos, aumentarlos o mantenerlos en un nivel estándar.

    Con esta iniciativa, OpenAI busca ofrecer una experiencia más adaptable y centrada en las necesidades individuales de cada usuario, optimizando la interacción con la inteligencia artificial de manera más personalizada.

  • Instagram limita a cinco el número de «hashtags» que se podrán incluir por publicación

    Instagram limita a cinco el número de «hashtags» que se podrán incluir por publicación

    Instagram pretende limitar el número de ‘hashtags’ que los usuarios podrán incluir en sus publicaciones a un máximo de cinco, de cara a evitar su uso excesivo y mejorar su funcionamiento a la hora de impulsar el contenido en la red social.

    Los ‘hashtags’ son un sistema que permite organizar y categorizar publicaciones relacionadas en redes sociales, utilizando el símbolo de la almohadilla ‘#’ antes de una frase o un término que haga referencia a una temática concreta. Este método hace más fácil que los usuarios encuentren contenido específico sobre un tema en las redes sociales.

    En este sentido, aunque hasta ahora los usuarios de Instagram pueden utilizar todos los ‘hashtags’ que consideren necesarios en sus publicaciones, la red social de Meta ha comenzado a limitar su uso a cinco ‘hashtags’ por publicación.

    Así lo ha detallado el director de Instagram, Adam Mosseri, en un mensaje a través en su Canal de ‘Consejos de Instagram’, donde ha explicado que, aunque «puede resultar tentador» utilizar más de cinco ‘hashtags’, «unas pocas etiquetas funcionan mejor que una larga lista genérica».

    Esto se debe a que, que el sistema de ‘hashtags’ funciona mejor si los usuarios seleccionan palabras o términos de ‘hashtag’ más concretos y acorde con la publicación, que incluyendo muchos sobre temas más amplios. «La calidad es más importante que la cantidad», ha sentenciado Mosseri.

    Además, también ha recordado que aunque los ‘hashtags’ ayudan en la búsqueda, no amplían el alcance de las publicaciones automáticamente. Por tanto, ha recomendado que, para aquellos que quieran llegar a más usuarios, se concentren en «averiguar qué tipo de contenido resuena en su audiencia».

  • ChatGPT consume tanta electricidad al año como Madrid en siete meses

    ChatGPT consume tanta electricidad al año como Madrid en siete meses

    El uso masivo de herramientas basadas en inteligencia artificial, como ChatGPT, ha disparado su consumo energético hasta niveles comparables con el de ciudades y países enteros. Según datos del portal de análisis BestBrokers, el modelo desarrollado por OpenAI podría consumir anualmente unos 17.3 teravatios-hora de electricidad, una cantidad suficiente para abastecer a Madrid durante más de siete meses.

    ChatGPT, uno de los asistentes de IA más utilizados en el mundo, cuenta actualmente con cerca de 900 millones de usuarios activos semanales, según cifras citadas por The Information. Su popularidad, impulsada por la capacidad de responder preguntas, redactar textos, generar imágenes y resolver problemas complejos, ha convertido esta herramienta en una de las más demandadas globalmente.

    Sin embargo, este crecimiento también conlleva un elevado impacto energético. Según un estudio del laboratorio de IA de la Universidad de Rhode Island, el modelo ChatGPT-5 consume entre 2 y 45 vatios por mensaje de longitud media, con un promedio de 18.9 vatios-hora. Esto significa que una sola interacción con ChatGPT puede requerir más de 50 veces la energía que utiliza una búsqueda típica en Google.

    El análisis detalla que este consumo energético no solo supera al de miles de hogares, sino que rivaliza con ciudades enteras. En el caso de España, por ejemplo, ChatGPT podría suministrar electricidad a todos los hogares del país durante 23 días. En otras ciudades europeas, como París, Londres y Berlín, el consumo de ChatGPT equivaldría a más de un mes, cinco meses y un año y cinco meses de electricidad, respectivamente. En ciudades más pequeñas como Copenhague o Ámsterdam, alcanzaría para más de cuatro años.

    BestBrokers estima que mantener el funcionamiento de esta tecnología representa un costo energético de alrededor de $2,420 millones al año, según tarifas comerciales actuales.

    El analista de datos Alan Goldberg advierte que el crecimiento exponencial de estos sistemas está generando una presión significativa sobre las infraestructuras energéticas globales. “Las operaciones diarias consumen electricidad a una escala que rivaliza con la de naciones enteras”, señaló. También alertó sobre el riesgo de una expansión tecnológica insostenible si no se aplican estándares de eficiencia y transparencia rigurosos.

    A medida que la inteligencia artificial se integra cada vez más en la vida diaria, el desafío de equilibrar su desarrollo con el impacto ambiental se vuelve más urgente, según los expertos.

  • Meta facilita la edición de música y sonido con su nuevo modelo SAM Audio

    Meta facilita la edición de música y sonido con su nuevo modelo SAM Audio

    Meta presentó este jueves SAM Audio, un nuevo modelo de inteligencia artificial desarrollado para facilitar la edición y procesamiento de audio con un enfoque práctico e intuitivo. Esta herramienta forma parte de la familia Segment Anything Playground y está diseñada para tareas como la separación de sonidos en mezclas complejas, ideal para usos en música, pódcast, televisión, cine, accesibilidad e incluso investigación científica.

    La compañía dirigida por Mark Zuckerberg explicó que SAM Audio es el primer modelo de IA capaz de segmentar sonidos utilizando tres tipos de indicaciones: texto, pautas visuales y lapsos de tiempo. Esto significa que los usuarios pueden extraer sonidos específicos de un vídeo o audio simplemente escribiendo comandos como “voz cantando” o “perro ladrando”, haciendo clic sobre el objeto que emite el sonido, o marcando el momento exacto en que aparece el audio deseado.

    Por ejemplo, un creador de contenido puede aislar la guitarra en un vídeo musical, eliminar el ruido del tráfico en una grabación en exteriores, o quitar el ladrido de un perro en una entrevista, todo mediante comandos simples en lenguaje natural.

    El modelo también permite combinar los diferentes tipos de indicaciones para lograr un mayor control en la edición, eliminando así la necesidad de usar múltiples herramientas especializadas para distintas tareas de procesamiento de audio.

    Meta destacó que SAM Audio no solo mejora la experiencia de edición, sino que ofrece resultados con calidad profesional gracias a su capacidad para adaptarse a la percepción humana del sonido. La herramienta ya está disponible de forma gratuita en la plataforma Segment Anything Playground, y también se puede descargar.

  • Una nueva campaña «hackea» las cuentas de WhatsApp sin robar contraseñas ni duplicar la SIM

    Una nueva campaña «hackea» las cuentas de WhatsApp sin robar contraseñas ni duplicar la SIM

    Una nueva modalidad de ciberataque está afectando a usuarios de WhatsApp a través de un método llamado GhostPairing, que permite a los ciberdelincuentes tomar el control de cuentas sin necesidad de obtener contraseñas ni clonar la tarjeta SIM.

    El ataque inicia con un mensaje que llega a la víctima desde uno de sus propios contactos, lo que le da apariencia de confianza. En el texto se le dice que aparece en una fotografía y se le comparte un enlace para que pueda verla. Al hacer clic, se abre una página falsa que simula ser el inicio de sesión de Facebook.

    En ese sitio, se solicita al usuario su número de teléfono y posteriormente se le indica que escanee un código QR con WhatsApp o ingrese un código numérico. Este proceso, que simula un registro común, en realidad sirve para vincular su cuenta de WhatsApp con un navegador externo que está bajo control del atacante.

    WhatsApp permite de forma legítima que una cuenta se vincule hasta en cuatro dispositivos diferentes sin necesidad de utilizar el celular principal. GhostPairing se aprovecha de esta función para emparejar la cuenta con un navegador del atacante, sin que la víctima lo note. Técnicamente, es el mismo usuario quien autoriza la conexión.

    Una vez logrado el acceso, el atacante puede visualizar el historial de chats, recibir mensajes en tiempo real, descargar archivos, documentos y multimedia. También puede enviar mensajes utilizando la agenda de contactos de la víctima, reproduciendo el ataque a nuevos usuarios.

    La empresa de ciberseguridad Gen Digital advirtió sobre esta amenaza, que no requiere acceso a credenciales ni a la tarjeta SIM, lo que la hace más difícil de detectar. Su nombre, GhostPairing, hace alusión al «emparejamiento fantasma» que el usuario autoriza sin saberlo.

  • Filósofo advierte que nunca sabremos si la Inteligencia Artificial es consciente

    Filósofo advierte que nunca sabremos si la Inteligencia Artificial es consciente

    La comunidad científica aún no tiene forma de saber si la inteligencia artificial (IA) es consciente, ni siquiera si algún día lo será. Así lo sostiene el filósofo Tom McClelland, de la Universidad de Cambridge, quien advierte que cualquier prueba válida para determinar conciencia en sistemas artificiales seguirá siendo inalcanzable en el futuro previsible.

    Las reflexiones del académico británico han sido publicadas en la revista Mind and Language, en un contexto donde el debate sobre derechos, ética y regulaciones para inteligencias artificiales ha ganado terreno en gobiernos, empresas tecnológicas y el ámbito académico.

    McClelland afirma que, si bien la conciencia suele relacionarse con los derechos de la IA, lo que realmente debería preocupar es la sintiencia: la capacidad de experimentar sensaciones positivas o negativas, lo que convierte a una entidad en susceptible al sufrimiento o al disfrute.

    “La consciencia haría que la IA desarrollara la percepción y se volviera consciente de sí misma, pero este todavía puede ser un estado neutral”, explica el filósofo.

    “La sensibilidad implica experiencias conscientes, buenas o malas, que es lo que hace que una entidad sea capaz de sufrir o disfrutar. Aquí es donde entra en juego la ética”, subraya.

    En su análisis, señala que un coche autónomo que «perciba» la carretera no representa un dilema ético, pero si llegara a tener una reacción emocional ante su destino, la discusión cambiaría radicalmente.

    El problema, advierte, es que ni siquiera entendemos qué origina la conciencia en los seres humanos, lo que impide establecer criterios claros para identificarla en una máquina.

    “No hay evidencia que sugiera que la consciencia pueda surgir con la estructura computacional adecuada, ni que sea esencialmente biológica”, aclara. “Estamos a una revolución intelectual de cualquier prueba viable de consciencia”.

    McClelland plantea que los argumentos a favor o en contra de una conciencia artificial dependen más de creencias que de datos. Mientras algunos sostienen que replicar la arquitectura funcional del cerebro en chips de silicio bastaría para generar conciencia, otros creen que esta solo puede emerger en organismos biológicos.

    En este sentido, considera que ambas posturas caen en “un salto de fe”, pues no hay pruebas científicas sólidas que respalden ni una ni otra hipótesis. “Creo que mi gato es consciente… pero eso se basa en el sentido común, no en la ciencia. Y ese mismo sentido común no se puede aplicar a la inteligencia artificial”, ilustra.

    Finalmente, advierte que el entusiasmo con el que la industria tecnológica promueve la noción de una IA consciente puede ser parte de una estrategia publicitaria. “Existe el riesgo de que la industria aproveche la incapacidad de demostrar la conciencia para hacer afirmaciones descabelladas sobre su tecnología”, apuntó.

    Según McClelland, la atención excesiva en este tema podría desviar recursos de investigación que podrían usarse en desafíos más concretos, mientras el misterio de la conciencia —en humanos o máquinas— sigue sin resolverse.

     

  • Threads lanza etiquetas ‘Flair’ y nuevas insignias para destacar a usuarios en comunidades

    Threads lanza etiquetas ‘Flair’ y nuevas insignias para destacar a usuarios en comunidades

    La red social Threads inició la prueba de una nueva herramienta denominada Flair, una etiqueta que permite identificar el talento o rol específico de los usuarios dentro de comunidades temáticas, con el objetivo de enriquecer la interacción y aportar contexto a las publicaciones.

    Threads, la plataforma de microblogging propiedad de Meta, lanzó en octubre sus comunidades: espacios públicos enfocados en intereses comunes como deportes, literatura o tecnología, y que funcionan como hilos de conversación entre usuarios con afinidades similares.

    Con la incorporación de Flair, Threads permitirá a los participantes agregar una etiqueta bajo su nombre de usuario en las publicaciones que hagan dentro de una comunidad específica. Por ejemplo, si un miembro de una comunidad sobre libros es escritor, podrá utilizar el Flair “Autor” en sus publicaciones, facilitando así la identificación de su perfil por parte del resto de la comunidad.

    Esta funcionalidad está en fase de prueba y, por ahora, solo está disponible en algunas comunidades seleccionadas. Para activarla, los usuarios deben acceder al menú de opciones dentro de la comunidad y elegir la opción “Añadir Flair”.

    Además, Threads ha comenzado a implementar una nueva insignia de campeón de la comunidad, un reconocimiento otorgado a quienes mantienen una participación constante y valiosa dentro de las conversaciones. Esta distinción premia tanto la creación de contenido como la interacción continua con otros miembros.

    La insignia, que ya se prueba en docenas de comunidades como la dedicada a la NBA, busca destacar a los usuarios que fortalecen el sentido de pertenencia y conexión dentro de la plataforma.

  • Instagram, ahora también en el televisor para ver los «reels» con amigos

    Instagram, ahora también en el televisor para ver los «reels» con amigos

    Instagram anunció el lanzamiento de una nueva aplicación para dispositivos Fire TV de Amazon, que permitirá a los usuarios reproducir reels directamente en sus televisores y compartir la experiencia con amigos o familiares.

    La plataforma, propiedad de Meta, busca así trasladar el consumo de contenido corto desde el celular a una pantalla más grande, promoviendo una visualización más grupal y social, distinta al uso individual que suele caracterizar a la red social.

    La aplicación, llamada Instagram para TV, está disponible desde este martes únicamente en Estados Unidos como parte de una fase de prueba, según detalló la compañía en un comunicado publicado en su blog. Meta confirmó que planea extender esta funcionalidad a otros mercados próximamente.

    Inicialmente, los reels aparecerán organizados por canales de interés. Una vez el usuario selecciona uno, el video se reproduce de forma automática y con sonido. Además, se pueden vincular hasta cinco cuentas distintas en un mismo dispositivo, o incluso crear una cuenta exclusiva para usar en el televisor.

    La aplicación puede descargarse desde la App Store de Amazon. Entre las funciones en desarrollo, se incluye la posibilidad de usar el smartphone como control remoto, compartir feeds con amigos y acceder fácilmente al contenido de creadores favoritos.

    Instagram aclaró que esta nueva experiencia está pensada para un entorno familiar, por lo que todos los videos mostrados en esta etapa de prueba tienen una clasificación PG-13. Asimismo, se mantienen activos los controles parentales ya establecidos para proteger a los usuarios adolescentes.

  • Deepfakes en tiempo real y cibercrimen automatizado amenazan 2026

    Deepfakes en tiempo real y cibercrimen automatizado amenazan 2026

    La evolución de los deepfakes en tiempo real y el auge del cibercrimen automatizado con inteligencia artificial (IA) se posicionan como las principales amenazas para 2026, de acuerdo con las previsiones del informe Kaspersky Security Bulletin 2025 Statistics, divulgado este viernes.

    El informe destaca que la IA generativa y los agentes inteligentes protagonizarán tanto los sistemas de defensa como los métodos de ataque en el nuevo escenario digital. Herramientas cada vez más accesibles permitirán a ciberdelincuentes desarrollar campañas más sofisticadas y con un alto grado de realismo, sin necesidad de conocimientos técnicos avanzados.

    Los deepfakes, una tecnología que manipula imágenes, video y audio mediante IA, seguirán perfeccionándose, especialmente en la calidad del sonido, permitiendo la modificación de rostros o voces durante videollamadas en tiempo real. Esta capacidad abre la puerta a ciberataques más efectivos y personalizados.

    Kaspersky advierte que, aunque muchas plataformas digitales ya implementan sistemas de detección y etiquetado de contenido generado por IA, estos aún carecen de criterios unificados y las etiquetas pueden ser fácilmente eliminadas. Ante este vacío, se prevé el surgimiento de nuevas normativas y soluciones técnicas durante 2026 para intentar cerrar esta brecha de seguridad.

    Otro punto alarmante es la proliferación de modelos de IA de código abierto que igualan en rendimiento a los modelos cerrados, pero sin incorporar mecanismos de control. Esta democratización tecnológica facilita su uso tanto para fines legítimos como maliciosos, incrementando los riesgos para usuarios y empresas.

    En la actualidad, los ciberdelincuentes ya logran crear correos electrónicos falsos altamente convincentes, suplantar identidades visuales de marcas y desarrollar sitios web de phishing con apariencia profesional. Esto ocurre mientras el contenido generado por IA es cada vez más normalizado en la publicidad corporativa, lo que dificulta distinguir entre lo real y lo manipulado.

    Según Kaspersky, la inteligencia artificial será utilizada en cada etapa del ciberataque: desde la escritura de código y detección de vulnerabilidades hasta el despliegue de malware, ocultando sus huellas para evitar el análisis forense.

    A la par, la IA también jugará un papel crucial en la defensa. Herramientas impulsadas por agentes inteligentes permitirán escaneos permanentes en las infraestructuras de las organizaciones, detectando puntos débiles y generando análisis automatizados para los equipos de ciberseguridad. Además, las futuras interfaces utilizarán lenguaje natural, facilitando el uso de sistemas complejos mediante instrucciones sencillas.

  • Los “deepfakes” que evolucionan en tiempo real y la automatización del cibercrimen, principales amenazas de 2026

    Los “deepfakes” que evolucionan en tiempo real y la automatización del cibercrimen, principales amenazas de 2026

    La manipulación digital mediante deepfakes en tiempo real y la automatización completa de ataques informáticos se perfilan como las principales amenazas de ciberseguridad para 2026, según las proyecciones de la firma de seguridad Kaspersky en su informe Security Bulletin 2025 Statistics.

    La compañía alertó que los avances en inteligencia artificial (IA) generativa permitirán a los ciberdelincuentes crear videos y audios falsos de alta calidad, modificables en tiempo real durante videollamadas, lo que representa un salto cualitativo en los métodos de suplantación y fraude. Esta evolución, advirtió Kaspersky, convierte a los deepfakes en herramientas “altamente eficaces” para ciberataques dirigidos.

    Uno de los principales riesgos radica en la facilidad de uso de estas tecnologías. Las nuevas plataformas permiten generar contenido manipulado sin conocimientos técnicos, lo cual multiplica su potencial de uso malicioso. Aunque las redes sociales y algunos servicios digitales han implementado sistemas de detección y etiquetado de contenido creado por IA, el informe remarca que no existen criterios uniformes y que muchas de estas etiquetas pueden eliminarse con facilidad.

    Ante este vacío, Kaspersky prevé que durante 2026 surgirán nuevas regulaciones y soluciones tecnológicas orientadas a frenar los abusos en la generación y distribución de contenidos manipulados.

    Además, la proliferación de modelos de inteligencia artificial de código abierto —que alcanzan niveles similares a los sistemas cerrados pero carecen de los controles necesarios— facilitará el uso de estas herramientas tanto para fines legítimos como para actividades criminales.

    En este contexto, los delincuentes ya son capaces de falsificar correos, replicar la identidad visual de marcas o crear páginas de phishing con apariencia profesional. Esto se agrava ante el uso cada vez más normalizado de contenido generado por IA en campañas publicitarias, lo que dificulta aún más distinguir lo auténtico de lo manipulado.

    El informe también prevé que la IA será utilizada por los criminales a lo largo de toda la cadena de ataque, desde la redacción de código malicioso hasta la explotación de vulnerabilidades y el encubrimiento de huellas digitales para evitar análisis forenses.

    No obstante, la inteligencia artificial también será un recurso clave para los equipos de defensa. Según Kaspersky, las herramientas basadas en agentes permitirán una vigilancia continua de la infraestructura de las empresas, con capacidad para detectar amenazas, proponer soluciones y entregar información precisa en lenguaje natural, reduciendo la necesidad de conocimientos técnicos avanzados,