Etiqueta: ChatGPT

  • La BBC y la IA: Una vigilancia redoblada cuando se trata de contenidos informativos

    La BBC y la IA: Una vigilancia redoblada cuando se trata de contenidos informativos

    La cadena británica de radiotelevisión BBC ‘ha hecho sus deberes’ con la inteligencia artificial (IA), y lleva varios años aplicándola al trabajo diario, reflexionando sobre sus límites, principalmente en los contenidos informativos, y creando una regulación propia a partir de un principio básico: que su IA esté alineada con el carácter de servicio público de la cadena.

    El jefe de la unidad de IA en la cadena británica es el australiano James Fletcher, que recibe a EFE en el imponente edificio que la BBC tiene en el corazón de Londres. Insiste en recordar un principio básico válido para los 20,000 trabajadores de la cadena: lo que los empleados hacen con la IA en su casa, no pueden hacerlo en la BBC.

    Pero para que no suene demasiado abstracto, el equipo de Fletcher, con una veintena de personas dedicada exclusivamente a gestionar el uso de la IA, ha creado un manual ‘ad hoc’ de uso obligatorio entre el personal, que además está disponible para cualquier usuario.

    El equipo de Fletcher -compuesto por ingenieros de datos, programadores, diseñadores, investigadores…- tiene claro que la transparencia debe guiar todos sus pasos, en línea con una cadena que se jacta de practicar esta transparencia incluso en su icónica sede de Portland Place: una sucesión de pisos con muros de cristal donde es posible observar el trabajo de cada uno.

    Un enfoque principalmente europeo

    La BBC no pierde de vista los desarrollos que la IA está teniendo en los medios de comunicación del mundo entero. De ellos, la principal colaboración la desarrolla con la Unión Europea de Radiodifusión (UER), corporación que agrupa a 113 radios y televisiones del mundo entero.

    Con la UER, las líneas de trabajo son la integridad informativa y la asistencia para la IA. En esta línea, han emprendido algunos trabajos de investigación conjunta sobre cómo la IA da respuestas  sobre contenidos informativos: ¿Son correctas?, ¿de qué fuentes se nutren?, ¿tienden a editorializar y dar opinión?. Y según Fletcher, las conclusiones han arrojado «serias preocupaciones», que demuestran que la IA aún está lejos de ser perfecta.

    La revolución de ChatGPT

    Reconoce Fletcher que la IA sufrió una verdadera revolución hace ahora unos cuatro años, cuando apareció (o más bien se popularizó) ChatGPT, el ‘chatbot’ o robot conversacional que puso la IA al alcance de cualquier persona sin necesidad de conocimientos previos, y que aceleró la competencia de todas las grandes empresas tecnológicas por liderar (y rentabilizar) esta carrera.

    Pero los desafíos que plantea las IA son tan nuevos y tan rápidos que -recuerda el australiano- muchas veces su equipo se encuentra respondiendo a situaciones nunca antes planteadas, con potenciales conflictos que pueden ser de autoría de contenido, de protección de datos, de conflictos comerciales, etc.

    En otras palabras, las implicaciones son deontológicas, legales y económicas. Y por ello la BBC ha desarrollado este manual «no por el gusto de regular, sino con el fin de capacitar a la BBC y a su personal para que hagan lo que la BBC quiere hacer, y lo haga alineado con nuestros valores».

    Algunos usos de la IA generativa son aparentemente inocuos: crear gráficos, ilustrar mapas, resumir contenidos muy largos, pero la cadena se ha marcado algunos límites: por el momento, no permite que se usen imágenes generadas por IA en los programas informativos (pero sí en los divulgativos).

    Etiquetas sí, etiquetas no

    Una de las cuestiones más debatidas en las empresas mediáticas es la obligación o no de ‘etiquetar’ los contenidos generados con inteligencia artificial, pero para Fletcher esta discusión ya está superada por el aluvión de contenidos que, conscientemente o no, han sido producidos en todo o en parte por la IA.

    Traducciones de personas que hablan en otras lenguas, transcripciones de discursos, gráficos para ilustrar una evolución o el resultado de una encuesta: estampar en la pantalla una etiqueta en cada contenido generado con la IA puede terminar resultando molesto si esa etiqueta aparece constantemente sobre la imagen.

    Resultado: la política de la BBC es la de etiquetar solamente aquellos contenidos que puedan confundir o engañar a la audiencia, y dejar que los otros fluyan libremente sin ‘marcas’. Según Fletcher, esta solución viene avalada por la observación de que las audiencias son cada vez más receptivas o menos reticentes a los contenidos generados por la IA.

    Otro ejemplo es el de las voces artificiales: si hace dos años las voces sintéticas sonaban impostadas, ya no es el caso, y algunas de las voces usadas con este propósito -como un exitoso resumen deportivo de 2 minutos de la BBC generado de principio a fin con la IA- suena ya totalmente natural, dice.

    Haber desarrollado este resumen deportivo es un buen ejemplo de los desafíos de la IA: los contenidos originales usados para el resumen han sido generados por personas, pero la IA permite condensar el trabajo de decenas de reporteros para realizar un resumen final. Por el momento con supervisión final de un humano, pero dentro de un tiempo, ¿quién sabe? . 

  • Microsoft integra los modelos de OpenAI y Anthropic en su IA para maximizar su precisión

    Microsoft integra los modelos de OpenAI y Anthropic en su IA para maximizar su precisión

    Microsoft anunció este lunes la incorporación de un sistema multimodelo en su inteligencia artificial Copilot, que integra tecnologías de OpenAI y Anthropic para optimizar la calidad de las respuestas.

    La nueva función, denominada ‘Critique’, permite que el agente de investigación utilice simultáneamente el modelo ChatGPT y el modelo Claude en cada consulta, en lugar de depender de un solo motor.

    Con esta arquitectura, el modelo de OpenAI se encarga de realizar la exploración profunda y redactar un primer borrador, mientras que el modelo de Anthropic actúa como revisor crítico.

    Este segundo modelo valida la información, verifica fuentes y mejora la estructura del contenido antes de entregar la respuesta final al usuario.

    El sistema introduce así un mecanismo de “doble verificación” que busca reducir errores factuales y sesgos, conocidos como “alucinaciones”, frecuentes en herramientas de inteligencia artificial.

    Además, Microsoft presentó la herramienta “Council”, que permite visualizar en paralelo las respuestas generadas por ambos modelos y comparar sus coincidencias y diferencias.

    Esta función destaca los puntos de acuerdo, identifica divergencias en la interpretación de los datos y resume los aportes únicos de cada sistema.

    Según la compañía, este enfoque mejora en un 13.88 % la calidad de la investigación frente a otros sistemas avanzados del mercado.

    Microsoft, principal inversor de OpenAI con más de $13,000 millones desde 2019, también ha comenzado a incorporar tecnología de Anthropic, ampliando su estrategia en el desarrollo de inteligencia artificial.

  • OpenAI lanza un resumen anual de ChatGPT que recoge todas las interacciones con el ‘chatbot’

    OpenAI lanza un resumen anual de ChatGPT que recoge todas las interacciones con el ‘chatbot’

    La empresa tecnológica OpenAI lanzó un resumen anual para su ‘chatbot’ ChatGPT, una herramienta que permite a los usuarios revisar todas las interacciones realizadas a lo largo de 2025, incluyendo conversaciones, mensajes enviados, imágenes generadas y los días con mayor actividad.

    La iniciativa se suma a la tendencia de plataformas digitales que ofrecen balances de fin de año sobre el uso de sus servicios, al estilo de Spotify con su ‘Wrapped’, Xbox con ‘Year in Review’ o Google Fotos con sus resúmenes de recuerdos destacados.

    Bajo el nombre “Tu Año con ChatGPT”, la función muestra un panorama completo de la actividad anual de cada usuario, según explicó OpenAI en una publicación difundida en la red social X. El resumen incluye estadísticas como el número total de conversaciones y mensajes, la cantidad de imágenes creadas, el porcentaje de usuarios con un volumen similar de interacciones y el día con mayor uso del ‘chatbot’.

    Además de los datos numéricos, la herramienta presenta la información mediante gráficos visuales y accesibles, e incorpora elementos creativos como un poema y una imagen generados por la propia IA para resumir la experiencia anual del usuario. También detalla el estilo de conversación predominante y los temas más recurrentes.

    Por el momento, la función está disponible únicamente en Estados Unidos, Reino Unido, Canadá, Nueva Zelanda y Australia, y requiere que los usuarios tengan activadas la memoria de guardado y el historial de chats. El acceso se puede realizar solicitándolo directamente al ‘chatbot’ o pulsando la opción de resumen que aparece en la barra de búsqueda, tanto en la versión gratuita como en los planes Plus y Pro.

  • ChatGPT permitirá ajustar tono y emociones en sus respuestas

    ChatGPT permitirá ajustar tono y emociones en sus respuestas

    OpenAI actualizó ChatGPT con nuevas herramientas de personalización que permitirán a los usuarios ajustar el tono emocional del asistente, como el nivel de entusiasmo o calidez en sus respuestas, así como la frecuencia del uso de emojis.

    La compañía anunció que estas opciones se suman a las ya disponibles que permiten configurar la personalidad del chatbot, como profesional, amigable, sincero, eficiente o empollón. Con esta ampliación, los usuarios podrán indicar si desean que el modelo responda de manera “más” o “menos” cálida o entusiasta, según sus preferencias.

    Estas mejoras forman parte del proceso de actualización del modelo GPT-5.2, recientemente lanzado, que destaca por su mayor precisión, fiabilidad, reducción de errores conocidos como “alucinaciones” y una mayor atención a la salud mental de los usuarios.

    Según OpenAI, las nuevas funciones ya se encuentran disponibles en el menú de configuración de personalización del asistente. Desde ahí, también es posible modificar otros elementos del formato de las respuestas, como el uso de encabezados, listas y la inclusión de emojis, ya sea para reducirlos, aumentarlos o mantenerlos en un nivel estándar.

    Con esta iniciativa, OpenAI busca ofrecer una experiencia más adaptable y centrada en las necesidades individuales de cada usuario, optimizando la interacción con la inteligencia artificial de manera más personalizada.

  • OpenAI lanzará “modo adulto” de ChatGPT en el primer trimestre de 2026

    OpenAI lanzará “modo adulto” de ChatGPT en el primer trimestre de 2026

    La empresa tecnológica OpenAI anunció que prevé habilitar el nuevo “modo adulto” para su asistente de inteligencia artificial ChatGPT durante el primer trimestre de 2026, con el objetivo de reforzar sus mecanismos de control de edad antes de la activación oficial de esta función.

    La compañía, liderada por Sam Altman, trabaja en una nueva herramienta que permitirá detectar con mayor precisión si el usuario es menor de edad. Esta función es clave para garantizar que el acceso a contenidos explícitos se limite exclusivamente a adultos verificados.

    En un primer anuncio, OpenAI había señalado que el “modo adulto” estaría disponible en diciembre de 2025. Sin embargo, la directora ejecutiva de aplicaciones de la compañía, Fidji Simo, confirmó recientemente a la prensa —según reportó el medio especializado The Verge— que el lanzamiento se pospondrá al primer trimestre de 2026. La razón de este retraso es que la empresa busca mejorar las capacidades de predicción de edad del asistente antes de lanzar la herramienta a nivel global.

    El sistema de control de edad se basará en el análisis del comportamiento del usuario para determinar si es menor de 18 años, lo que permitirá activar automáticamente una versión adaptada de ChatGPT con políticas específicas para menores. Esta versión restringirá el acceso a contenido sexual, lenguaje explícito y otro tipo de material considerado dañino.

    Además, el sistema contempla medidas de seguridad adicionales, como la posibilidad de facilitar la intervención de autoridades en casos que lo ameriten.

    OpenAI ya comenzó a probar esta funcionalidad en varios países para garantizar su efectividad, y Simo destacó que el reto principal es “no identificar erróneamente a los adultos”. La empresa busca evitar que menores de edad accedan por error a contenidos para adultos y, al mismo tiempo, asegurar que los mayores de edad puedan tener acceso sin restricciones indebidas.

    Con esta nueva herramienta, OpenAI refuerza su compromiso con la seguridad digital, mientras amplía las capacidades personalizadas de ChatGPT para diferentes rangos de edad.

  • OpenAI niega pruebas de anuncios en ChatGPT y aclara integración de apps

    OpenAI niega pruebas de anuncios en ChatGPT y aclara integración de apps

    OpenAI descartó este viernes que esté probando la incorporación de anuncios en ChatGPT, luego de que circularan capturas de pantalla con supuestas sugerencias de compra integradas al asistente. La compañía aclaró que dichas imágenes corresponden a pruebas limitadas de integración de aplicaciones, y que estas ya fueron desactivadas mientras ajustan su funcionamiento.

    La polémica surgió cuando usuarios, incluyendo el exempleado de xAI, Benjamin De Kraker, compartieron capturas donde aparecían opciones de compra en tiendas como Target, dentro de conversaciones sobre temas no relacionados, como Windows BitLocker. Estas interacciones se produjeron a través de cuentas de suscripción a ChatGPT Plus y Pro.

    Frente a esto, Nick Turley, director de ChatGPT, negó que se tratara de anuncios y sostuvo que las imágenes difundidas “no son reales o no son anuncios”, según publicó en la red social X.

    Por su parte, Daniel McAuley, empleado de OpenAI, explicó que estas sugerencias formaron parte de una prueba de la experiencia de integración de aplicaciones, anunciada en octubre, junto a socios como Devday y Target. Añadió que el objetivo es que estas integraciones “mejoren la experiencia del usuario cuando sean relevantes para una conversación”.

    OpenAI aseguró que está trabajando para que el mecanismo de descubrimiento de aplicaciones dentro de ChatGPT sea más natural y que cualquier empresa podrá crear apps mediante el SDK, cuya disponibilidad pública será anunciada pronto.

    El director de investigación de OpenAI, Mark Chen, también se pronunció sobre las preocupaciones, reconociendo que “todo lo que parezca publicidad debe manejarse con cuidado”, y admitió que en esta ocasión no lograron hacerlo correctamente.

    Como medida, OpenAI decidió desactivar temporalmente estas sugerencias mientras perfeccionan el modelo, y adelantaron que implementarán controles para que los usuarios puedan limitar o desactivar este tipo de funciones si así lo desean.

    Turley concluyó que, en caso de considerar la incorporación de anuncios en el futuro, lo harán “con mucho cuidado”. “La gente confía en ChatGPT y todo lo que hagamos estará diseñado para respetar esa confianza”, aseguró.

  • Un fallo en la red de Cloudflare impide usar la red social X, ChatGPT y el videojuego League of Legends

    Un fallo en la red de Cloudflare impide usar la red social X, ChatGPT y el videojuego League of Legends

    Cloudflare está investigando un fallo en su red global que ha provocado la caída de varios de sus clientes, entre los que se encuentra la red social X, el “chatbot” ChatGPT y el videojuego League of Legends. La empresa de servicios de seguridad de Internet y servidores informó este martes en su página de Estado de un problema en su red, que ha impedido el uso y acceso con normalidad a las aplicaciones o páginas de web.

    En su lugar, los servicios afectados, entre los que también se encuentran Movistar y Canva, muestran un mensaje que indica: «Por favor, desbloquee challenges.clouflare.com para continuar».

    La red social X, previamente conocida como Twitter, sufrió una caída global durante la madrugada de este martes (hora de El Salvador), afectando a millones de usuarios que quedaron incomunicados.

    Numerosos reportes en redes sociales y medios internacionales confirmaron que al intentar acceder, la plataforma mostraba una pantalla de error. Quienes sí lograron conectarse reportaron fallos al publicar, cargar contenido multimedia y usar los mensajes privados.

  • El 60 % de los profesionales y técnicos salvadoreños usa la inteligencia artificial con frecuencia

    El 60 % de los profesionales y técnicos salvadoreños usa la inteligencia artificial con frecuencia

    El 60 % de los profesionales y los técnicos salvadoreños utiliza la inteligencia artificial (IA) con frecuencia, reveló un estudio sobre la percepción de la IA en las empresas elaborado por la firma de relaciones públicas CCK Centroamérica y Datalex Latam.

    Los motores de inteligencia artificial no son un tema desconocido para los salvadoreños, pues un 96.6 % de profesionales y técnicos encuestados afirmó haber escuchado sobre ellos.

    La plataforma ChatGPT es la más utilizada, seguida de Gemini y Canva AI.

    Estas herramientas son empleadas principalmente para tareas creativas y de apoyo, ya que un 34 % dijo que recurre a la IA para crear anuncios y un 37 % para analizar comentarios de clientes.

    Diana Quirós, gerente de Investigación e Inteligencia de Datos de CCK, indicó que El Salvador tiene un alto nivel de adopción tecnológica, a la luz de los resultados del estudio, pero advirtió que “la confianza en las empresas dependerá de su capacidad de demostrar un uso responsable, ético y con propósito”.

     

    Responsabilidad en el uso de la IA

    A medida que aumenta el uso de los asistentes virtuales, también crece el riesgo de incurrir en plagio o de alterar contenidos que puedan enviar mensajes contrarios a los consumidores.

    Al respecto, el estudio encontró que solo un 39 % de los encuestados considera que las empresas son medianamente responsables del uso de la inteligencia artificial, mientras que un 23 % dijo no tener certeza de si se emplea de manera ética y transparente.

    Para Juan Esteban Durango, consultor de Datalex Latam, las empresas deben desarrollar marcos de gobernanza para regular el uso de la inteligencia artificial en sus actividades cotidianas, con el fin de incrementar la confianza y la transparencia que demandan los usuarios.

    Estas “políticas deben equilibrar la innovación con mecanismos claros de rendición de cuentas y sanciones ante el uso indebido de la tecnología”.

    El estudio también encontró que un 48 % de los salvadoreños considera que la IA mejora la imagen de las empresas, frente a un 14 % que cree que la deteriora.

    Los encuestados identificaron como principales riesgos el posible aumento del desempleo, la injusticia algorítmica y el uso excesivo de información personal.

    Además, un 61 % mostró su rechazo a utilizar la IA en tareas sensibles, como la evaluación de hojas de vida.

    Los resultados de este estudio se suman a una investigación de Qudox Growth Marketing Company, publicada en octubre pasado, que encontró que el 31 % de los salvadoreños utiliza la IA al menos una vez al día.

  • El 31 % de los salvadoreños utiliza inteligencia artificial al menos una vez por día

    El 31 % de los salvadoreños utiliza inteligencia artificial al menos una vez por día

    Ya sea para el trabajo, buscar recetas de cocina o estudiar, uno de cada tres salvadoreños utiliza inteligencia artificial (IA) al menos una vez al día, reveló un estudio de Qudox Growth Marketing Company.

    La investigación de la agencia de marketing encontró que el 68 % de los salvadoreños ya ha usado algún asistente de inteligencia virtual, siendo los más populares ChatGPT, Gemini de Google, Copilot de Microsoft, Grok de la red social X, Deepseek y Claude.

    De acuerdo con el estudio, un 16 % de los salvadoreños usa IA al menos una vez al día y un 15 % la utiliza “todo el día, a todas horas”. Además, un 11 % la emplea un par de veces al mes, un 31 % una vez por semana, mientras que un 24 % casi nunca.

    En los últimos tres años, hubo un boom de asistentes virtuales que despertó la curiosidad de los usuarios. Así, los chats de IA pasaron de atender consultas cotidianas a convertirse en herramientas útiles para realizar tareas laborales o académicas.

    El estudio detalla que un 30 % de los salvadoreños usa la inteligencia artificial para el trabajo, un 18 % por curiosidad o diversión y un 16 % para estudiar.

    Además, un 35 % la emplea para consultas sobre cocina, limpieza, arte, salud física, finanzas personales, moda, cuidado personal, compañía, amistad e incluso espiritualidad.

    Se aproximan cambios

    A pesar del uso creciente de la IA, el temor a la pérdida de empleos sigue presente y ha sido objeto de análisis por distintos organismos internacionales. Un estudio del Banco Interamericano de Desarrollo (BID), publicado en abril pasado, advierte que más de 1.2 millones de puestos de trabajo en El Salvador están expuestos a la automatización por IA en la próxima década.

    Según el BID, las ocupaciones más vulnerables son las relacionadas con apoyo administrativo, producción y ventas, debido a que la inteligencia artificial facilita la automatización de datos y la gestión de inventarios.

    Los salvadoreños son conscientes de este cambio, ya que el 80 % de los encuestados por Qudox cree que la IA tendrá un “impacto transformador en sus vidas”, y de ellos, el 57 % considera que será un cambio positivo.

    Por otro lado, el estudio indica que el 60 % de los salvadoreños no sabe si su empresa invertirá en inteligencia artificial durante el próximo año.

  • OpenAI da primer paso para convertir ChatGPT en sistema operativo

    OpenAI da primer paso para convertir ChatGPT en sistema operativo

    ChatGPT avanza en su transformación hacia un sistema operativo con la integración de aplicaciones de terceros, una función que no solo busca facilitar la experiencia del usuario, sino también abrir nuevas vías de monetización para desarrolladores y marcas.

    Nick Turley, responsable de ChatGPT, explicó al medio especializado TechCrunch que su visión está inspirada en el modelo de los navegadores web, los cuales se han convertido en plataformas clave para acceder y gestionar múltiples herramientas digitales desde un solo lugar.

    Como parte de esta estrategia, OpenAI anunció el lunes la integración de aplicaciones dentro del chatbot, permitiendo a los usuarios interactuar con servicios como Spotify, Canva o Coursera sin salir del entorno conversacional de ChatGPT.

    Además de ofrecer una experiencia más fluida y centralizada, la incorporación de estas aplicaciones también tiene un componente comercial: los desarrolladores podrán generar ingresos al ofrecer sus herramientas directamente dentro de ChatGPT, respondiendo a las necesidades de los usuarios en tiempo real y a escala masiva.

    Este movimiento posiciona a ChatGPT como algo más que un asistente de inteligencia artificial, con el potencial de convertirse en el eje central del trabajo digital diario para millones de personas.

    Ante los rumores sobre un posible navegador web propio de OpenAI, Turley calificó la idea como “realmente interesante”, aunque no confirmó si la compañía trabaja actualmente en ese proyecto.