Etiqueta: inteligencia artificial

  • Filósofo advierte que nunca sabremos si la Inteligencia Artificial es consciente

    Filósofo advierte que nunca sabremos si la Inteligencia Artificial es consciente

    La comunidad científica aún no tiene forma de saber si la inteligencia artificial (IA) es consciente, ni siquiera si algún día lo será. Así lo sostiene el filósofo Tom McClelland, de la Universidad de Cambridge, quien advierte que cualquier prueba válida para determinar conciencia en sistemas artificiales seguirá siendo inalcanzable en el futuro previsible.

    Las reflexiones del académico británico han sido publicadas en la revista Mind and Language, en un contexto donde el debate sobre derechos, ética y regulaciones para inteligencias artificiales ha ganado terreno en gobiernos, empresas tecnológicas y el ámbito académico.

    McClelland afirma que, si bien la conciencia suele relacionarse con los derechos de la IA, lo que realmente debería preocupar es la sintiencia: la capacidad de experimentar sensaciones positivas o negativas, lo que convierte a una entidad en susceptible al sufrimiento o al disfrute.

    “La consciencia haría que la IA desarrollara la percepción y se volviera consciente de sí misma, pero este todavía puede ser un estado neutral”, explica el filósofo.

    “La sensibilidad implica experiencias conscientes, buenas o malas, que es lo que hace que una entidad sea capaz de sufrir o disfrutar. Aquí es donde entra en juego la ética”, subraya.

    En su análisis, señala que un coche autónomo que «perciba» la carretera no representa un dilema ético, pero si llegara a tener una reacción emocional ante su destino, la discusión cambiaría radicalmente.

    El problema, advierte, es que ni siquiera entendemos qué origina la conciencia en los seres humanos, lo que impide establecer criterios claros para identificarla en una máquina.

    “No hay evidencia que sugiera que la consciencia pueda surgir con la estructura computacional adecuada, ni que sea esencialmente biológica”, aclara. “Estamos a una revolución intelectual de cualquier prueba viable de consciencia”.

    McClelland plantea que los argumentos a favor o en contra de una conciencia artificial dependen más de creencias que de datos. Mientras algunos sostienen que replicar la arquitectura funcional del cerebro en chips de silicio bastaría para generar conciencia, otros creen que esta solo puede emerger en organismos biológicos.

    En este sentido, considera que ambas posturas caen en “un salto de fe”, pues no hay pruebas científicas sólidas que respalden ni una ni otra hipótesis. “Creo que mi gato es consciente… pero eso se basa en el sentido común, no en la ciencia. Y ese mismo sentido común no se puede aplicar a la inteligencia artificial”, ilustra.

    Finalmente, advierte que el entusiasmo con el que la industria tecnológica promueve la noción de una IA consciente puede ser parte de una estrategia publicitaria. “Existe el riesgo de que la industria aproveche la incapacidad de demostrar la conciencia para hacer afirmaciones descabelladas sobre su tecnología”, apuntó.

    Según McClelland, la atención excesiva en este tema podría desviar recursos de investigación que podrían usarse en desafíos más concretos, mientras el misterio de la conciencia —en humanos o máquinas— sigue sin resolverse.

     

  • Deepfakes en tiempo real y cibercrimen automatizado amenazan 2026

    Deepfakes en tiempo real y cibercrimen automatizado amenazan 2026

    La evolución de los deepfakes en tiempo real y el auge del cibercrimen automatizado con inteligencia artificial (IA) se posicionan como las principales amenazas para 2026, de acuerdo con las previsiones del informe Kaspersky Security Bulletin 2025 Statistics, divulgado este viernes.

    El informe destaca que la IA generativa y los agentes inteligentes protagonizarán tanto los sistemas de defensa como los métodos de ataque en el nuevo escenario digital. Herramientas cada vez más accesibles permitirán a ciberdelincuentes desarrollar campañas más sofisticadas y con un alto grado de realismo, sin necesidad de conocimientos técnicos avanzados.

    Los deepfakes, una tecnología que manipula imágenes, video y audio mediante IA, seguirán perfeccionándose, especialmente en la calidad del sonido, permitiendo la modificación de rostros o voces durante videollamadas en tiempo real. Esta capacidad abre la puerta a ciberataques más efectivos y personalizados.

    Kaspersky advierte que, aunque muchas plataformas digitales ya implementan sistemas de detección y etiquetado de contenido generado por IA, estos aún carecen de criterios unificados y las etiquetas pueden ser fácilmente eliminadas. Ante este vacío, se prevé el surgimiento de nuevas normativas y soluciones técnicas durante 2026 para intentar cerrar esta brecha de seguridad.

    Otro punto alarmante es la proliferación de modelos de IA de código abierto que igualan en rendimiento a los modelos cerrados, pero sin incorporar mecanismos de control. Esta democratización tecnológica facilita su uso tanto para fines legítimos como maliciosos, incrementando los riesgos para usuarios y empresas.

    En la actualidad, los ciberdelincuentes ya logran crear correos electrónicos falsos altamente convincentes, suplantar identidades visuales de marcas y desarrollar sitios web de phishing con apariencia profesional. Esto ocurre mientras el contenido generado por IA es cada vez más normalizado en la publicidad corporativa, lo que dificulta distinguir entre lo real y lo manipulado.

    Según Kaspersky, la inteligencia artificial será utilizada en cada etapa del ciberataque: desde la escritura de código y detección de vulnerabilidades hasta el despliegue de malware, ocultando sus huellas para evitar el análisis forense.

    A la par, la IA también jugará un papel crucial en la defensa. Herramientas impulsadas por agentes inteligentes permitirán escaneos permanentes en las infraestructuras de las organizaciones, detectando puntos débiles y generando análisis automatizados para los equipos de ciberseguridad. Además, las futuras interfaces utilizarán lenguaje natural, facilitando el uso de sistemas complejos mediante instrucciones sencillas.

  • Los “deepfakes” que evolucionan en tiempo real y la automatización del cibercrimen, principales amenazas de 2026

    Los “deepfakes” que evolucionan en tiempo real y la automatización del cibercrimen, principales amenazas de 2026

    La manipulación digital mediante deepfakes en tiempo real y la automatización completa de ataques informáticos se perfilan como las principales amenazas de ciberseguridad para 2026, según las proyecciones de la firma de seguridad Kaspersky en su informe Security Bulletin 2025 Statistics.

    La compañía alertó que los avances en inteligencia artificial (IA) generativa permitirán a los ciberdelincuentes crear videos y audios falsos de alta calidad, modificables en tiempo real durante videollamadas, lo que representa un salto cualitativo en los métodos de suplantación y fraude. Esta evolución, advirtió Kaspersky, convierte a los deepfakes en herramientas “altamente eficaces” para ciberataques dirigidos.

    Uno de los principales riesgos radica en la facilidad de uso de estas tecnologías. Las nuevas plataformas permiten generar contenido manipulado sin conocimientos técnicos, lo cual multiplica su potencial de uso malicioso. Aunque las redes sociales y algunos servicios digitales han implementado sistemas de detección y etiquetado de contenido creado por IA, el informe remarca que no existen criterios uniformes y que muchas de estas etiquetas pueden eliminarse con facilidad.

    Ante este vacío, Kaspersky prevé que durante 2026 surgirán nuevas regulaciones y soluciones tecnológicas orientadas a frenar los abusos en la generación y distribución de contenidos manipulados.

    Además, la proliferación de modelos de inteligencia artificial de código abierto —que alcanzan niveles similares a los sistemas cerrados pero carecen de los controles necesarios— facilitará el uso de estas herramientas tanto para fines legítimos como para actividades criminales.

    En este contexto, los delincuentes ya son capaces de falsificar correos, replicar la identidad visual de marcas o crear páginas de phishing con apariencia profesional. Esto se agrava ante el uso cada vez más normalizado de contenido generado por IA en campañas publicitarias, lo que dificulta aún más distinguir lo auténtico de lo manipulado.

    El informe también prevé que la IA será utilizada por los criminales a lo largo de toda la cadena de ataque, desde la redacción de código malicioso hasta la explotación de vulnerabilidades y el encubrimiento de huellas digitales para evitar análisis forenses.

    No obstante, la inteligencia artificial también será un recurso clave para los equipos de defensa. Según Kaspersky, las herramientas basadas en agentes permitirán una vigilancia continua de la infraestructura de las empresas, con capacidad para detectar amenazas, proponer soluciones y entregar información precisa en lenguaje natural, reduciendo la necesidad de conocimientos técnicos avanzados,

  • DoctorSV atendió a 350,000 pacientes en su primer mes de operación

    DoctorSV atendió a 350,000 pacientes en su primer mes de operación

    El programa DoctorSV, impulsado por el Gobierno de El Salvador, atendió a 350,000 pacientes en su primer mes de funcionamiento, con un promedio diario de 12,000 consultas, según confirmó el gerente de Operaciones Médicas del programa, Dr. Reynaldo Reina, en una entrevista con Diario El Mundo.

    El Dr. Reina recordó que DoctorSV inició operaciones el 13 de noviembre, como un nuevo modelo de atención en salud impulsado por el gobierno de Nayib Bukele con el fin de permitir a los salvadoreños recibir consultas médicas gratuitas, las 24 horas del día, desde cualquier punto del país, a través de una aplicación móvil.

     

    Ver esta publicación en Instagram

     

    Una publicación compartida de Diario El Mundo (@elmundosv)

    El funcionamiento del sistema es sencillo: el paciente descarga la aplicación, se registra con su DUI y fecha de nacimiento, ingresa un correo electrónico y número telefónico, y desde ese momento puede agendar consultas médicas inmediatas o programadas.

    La atención médica no tiene límites de edad. “Ya que el presidente inauguró la fase 6, atendemos desde los 0 años en adelante. A cada uno se le brinda atención médica gratuita, desde cualquier lugar del país”, destacó Reina.

    El paciente descarga la aplicación, se registra con su DUI y fecha de nacimiento, ingresa un correo electrónico y número telefónico, y desde ese momento puede agendar consultas médicas inmediatas o programadas

    Los doctores se conectan a una agenda médica digital que muestra las citas solicitadas por los usuarios. “Cuando un paciente agenda una cita, le aparece al médico en su sistema. Termina una consulta y pasa a la siguiente, en un proceso ininterrumpido”, dijo Reina.

    Los médicos trabajan en turnos escalonados, ingresan a una agenda digital y atienden consultas en bloques de 30 minutos, lo que permite una atención continua e ininterrumpida. El médico concluye una consulta y automáticamente continúa con la siguiente, optimizando el tiempo de atención.

    Durante la visita tuvimos oportunidad de hacer un recorrido por las instalaciones y pudimos observar a cientos de médicos atendiendo a pacientes a través de videollamadas. En las instalaciones hay 618 cubículos con igual número de médicos atendiendo al mismo tiempo.

    El servicio se enfoca en enfermedades comunes o de primer nivel. “Estamos viendo picos de enfermedades respiratorias agudas, infecciones urinarias e intestinales… lo que normalmente arruina el día del paciente”, añadió.

    DoctorSV también maneja emergencias médicas gracias a una red articulada con el Sistema de Emergencias Médicas. “Si detectamos una situación de riesgo, activamos un protocolo, coordinamos una ambulancia y aseguramos que el paciente llegue a un hospital”, explicó.

    La IA, un pilar del programa

    Uno de los pilares del programa es el uso de inteligencia artificial como herramienta de apoyo clínico. Esta tecnología no reemplaza al médico, sino que actúa como asistente: resume historiales médicos, evalúa antecedentes, alerta sobre interacciones medicamentosas y sugiere tratamientos basados en protocolos científicos validados.

    “El objetivo es automatizar procesos para que el médico tenga más tiempo de calidad con el paciente”, explicó el Dr. Reina, un profesional especializado en Medicina Interna.

     “Nuestra IA resume los casos, revisa alergias y antecedentes, y le sugiere al médico un tratamiento basado en guías médicas internacionales”, afirmó Reina.

    También alerta sobre posibles interacciones entre medicamentos y enfermedades preexistentes.

    Actualmente, más de 1,400 médicos generales forman parte del equipo de DoctorSV que funciona en el Megacentro ubicado frente al Hospital El Salvador.

    “Hicimos una convocatoria y evaluación rigurosa para seleccionar a los mejores. También derivamos a nutrición o salud mental cuando se necesita”, indicó.

    Actualmente, más de 1,400 médicos generales forman parte del equipo de DoctorSV.

    La plataforma tiene además un componente de inclusión. “Hemos atendido a personas sordomudas con médicos que conocen lenguaje de señas. También permite que un hijo gestione la salud de sus padres desde su celular”, señaló Reina.

    En cuanto a la evaluación del servicio, el sistema permite que cada usuario califique su experiencia. “La nota promedio que nos dan es 4.87 de 5. Buscamos mejorar cada día para ofrecer la mejor atención posible”, afirmó.

    DoctorSV también alivia la carga del sistema presencial.

    “Nosotros absorbemos el 80 % de las consultas comunes que saturan emergencias. El que consulta con nosotros se beneficia directamente y el que no, encontrará menos congestión en hospitales”, explicó.

    Los picos de consulta se registran entre las 10:00 a.m. y 12:00 p.m., y entre las 4:00 p.m. y 9:00 p.m., aunque también se reporta alta demanda durante la madrugada. La mayoría de usuarios son mujeres y personas en edad productiva, entre 25 y 45 años.

  • OpenAI lanzará “modo adulto” de ChatGPT en el primer trimestre de 2026

    OpenAI lanzará “modo adulto” de ChatGPT en el primer trimestre de 2026

    La empresa tecnológica OpenAI anunció que prevé habilitar el nuevo “modo adulto” para su asistente de inteligencia artificial ChatGPT durante el primer trimestre de 2026, con el objetivo de reforzar sus mecanismos de control de edad antes de la activación oficial de esta función.

    La compañía, liderada por Sam Altman, trabaja en una nueva herramienta que permitirá detectar con mayor precisión si el usuario es menor de edad. Esta función es clave para garantizar que el acceso a contenidos explícitos se limite exclusivamente a adultos verificados.

    En un primer anuncio, OpenAI había señalado que el “modo adulto” estaría disponible en diciembre de 2025. Sin embargo, la directora ejecutiva de aplicaciones de la compañía, Fidji Simo, confirmó recientemente a la prensa —según reportó el medio especializado The Verge— que el lanzamiento se pospondrá al primer trimestre de 2026. La razón de este retraso es que la empresa busca mejorar las capacidades de predicción de edad del asistente antes de lanzar la herramienta a nivel global.

    El sistema de control de edad se basará en el análisis del comportamiento del usuario para determinar si es menor de 18 años, lo que permitirá activar automáticamente una versión adaptada de ChatGPT con políticas específicas para menores. Esta versión restringirá el acceso a contenido sexual, lenguaje explícito y otro tipo de material considerado dañino.

    Además, el sistema contempla medidas de seguridad adicionales, como la posibilidad de facilitar la intervención de autoridades en casos que lo ameriten.

    OpenAI ya comenzó a probar esta funcionalidad en varios países para garantizar su efectividad, y Simo destacó que el reto principal es “no identificar erróneamente a los adultos”. La empresa busca evitar que menores de edad accedan por error a contenidos para adultos y, al mismo tiempo, asegurar que los mayores de edad puedan tener acceso sin restricciones indebidas.

    Con esta nueva herramienta, OpenAI refuerza su compromiso con la seguridad digital, mientras amplía las capacidades personalizadas de ChatGPT para diferentes rangos de edad.

  • Spotify lanza lista que permite ajustar el algoritmo con descripciones personalizadas

    Spotify lanza lista que permite ajustar el algoritmo con descripciones personalizadas

    Spotify inició las pruebas de una innovadora función llamada «Prompted Playlists», una lista de reproducción que se adapta a los gustos del usuario mediante indicaciones personalizadas, lo que representa un paso más en su estrategia por ofrecer mayor control sobre su algoritmo de recomendación.

    Esta nueva lista aprovecha todo el historial de escucha del usuario desde el primer día en la plataforma para ofrecer sugerencias musicales personalizadas y actualizadas. Sin embargo, su principal novedad es la posibilidad de introducir descripciones o comandos específicos que modifiquen el contenido que se desea escuchar.

    Por ejemplo, los usuarios pueden solicitar listas basadas en preferencias como: “música de mis artistas favoritos de los últimos cinco años” o “música de las películas más taquilleras del año y de las series más comentadas que se ajusten a mi gusto”. Esta opción permite configurar la lista desde cero o modificarla en cualquier momento, con la posibilidad de programar su actualización diaria o semanal.

    Spotify asegura que esta herramienta forma parte de un cambio más profundo en la manera de entender la personalización, al brindar al usuario “más control que nunca” sobre lo que escucha y cómo el algoritmo interpreta sus preferencias.

    «Prompted Playlists» se encuentra actualmente en fase beta y está disponible únicamente para usuarios con suscripción Premium en Nueva Zelanda.

    Este lanzamiento se suma a otras funcionalidades recientes como el perfil de gusto, implementado en octubre, que permite excluir canciones individuales del algoritmo, además de las listas completas, optimizando aún más la experiencia del usuario en la plataforma.

  • Diputados oficialistas aplauden programa de educación en Inteligencia Artificial con Grok

    Diputados oficialistas aplauden programa de educación en Inteligencia Artificial con Grok

    Diputados de la bancada oficialista celebraron este jueves la reciente alianza entre el Gobierno de El Salvador y la empresa tecnológica xAI, dirigida por Elon Musk, para implementar un programa educativo basado en inteligencia artificial en el sistema público. El acuerdo contempla el uso de la herramienta Grok en más de 5,000 centros escolares a nivel nacional.

    La segunda vicepresidente de la Asamblea Legislativa y diputada de Nuevas Ideas, Alexis Rivas, calificó el acuerdo como un avance significativo.

    “El Salvador vuelve a estar a la vanguardia: ahora lidera la educación impulsada por IA”, expresó.

    Según el gobierno, el programa permitirá brindar tutorías adaptativas alineadas con el currículo escolar, personalizadas según el ritmo y nivel de cada estudiante, incluyendo zonas rurales.

    El jefe de fracción de la bancada cian, Christian Guevara, también reaccionó al anuncio mediante una publicación en su cuenta de X, donde enumeró los beneficios que, a su criterio, traerá la implementación de la IA en la educación. Entre ellos mencionó “un salto cuántico en competitividad nacional en 10 a 20 años” y la posibilidad de que El Salvador se convierta en “el Singapur de Centroamérica” en el ámbito tecnológico.

    Guevara añadió que se formarán millones de personas con conocimientos en prompt engineering, aprendizaje automático básico, automatización y ética en inteligencia artificial.

    En la misma línea, el diputado William Soriano aseguró que esta tecnología preparará “una fuerza laboral más competitiva, atrayendo inversiones en tech en el mediano plazo”.

    Soriano sostuvo que, con la infraestructura y programas existentes como computadoras gratuitas, internet satelital Starlink, escuelas nuevas, becas universitarias y seguridad, el país “redefine cómo las naciones emergentes educan a sus ciudadanos para la economía liderada por las tecnologías”.

    El programa será desarrollado de forma conjunta entre el Gobierno salvadoreño y xAI, con el objetivo de cerrar brechas educativas y tecnológicas, y dotar a los estudiantes de herramientas cognitivas de alto nivel. La iniciativa es considerada una de las más ambiciosas en América Latina en cuanto a transformación digital en la educación pública.

     

     

  • Gobierno salvadoreño y empresa de Elon Musk lanzan plan de educación nacional con Inteligencia Artificial 

    Gobierno salvadoreño y empresa de Elon Musk lanzan plan de educación nacional con Inteligencia Artificial 

    La empresa tecnológica xAI, liderada por Elon Musk, anunció este jueves una alianza histórica con el Gobierno de El Salvador para implementar el primer programa educativo nacional impulsado por inteligencia artificial (IA). El plan contempla el despliegue de Grok, el asistente conversacional de IA de la compañía, en más de 5,000 escuelas públicas durante los próximos dos años, beneficiando a más de un millón de estudiantes salvadoreños.

    El programa ofrecerá tutorías adaptativas alineadas con el currículo escolar, ajustadas al ritmo y nivel de cada estudiante, con el fin de proporcionar una educación personalizada y de calidad tanto en zonas urbanas como rurales. Además, miles de docentes participarán como aliados clave en el proceso de transformación digital del sistema educativo salvadoreño.

    “Desde establecer el estándar global en seguridad hasta ahora liderar la educación con inteligencia artificial, El Salvador demuestra que los países pueden dar saltos hacia el futuro con políticas audaces y visión estratégica”, expresó el presidente Nayib Bukele, citado en el comunicado de xAI.

    “Con xAI a la vanguardia en modelos de frontera, y El Salvador como laboratorio de innovación, esta alianza está destinada a entregar algo extraordinario para toda la humanidad”, añadió el mandatario.

    Elon Musk también destacó la importancia de esta colaboración.

    “Al asociarnos con el presidente Bukele para llevar Grok a cada estudiante en El Salvador, estamos poniendo la IA más avanzada directamente en manos de toda una generación. El Salvador no espera el futuro de la educación: lo está construyendo con xAI”, escribió Musk.

    El presidente salvadoreño Nayib Bukele se reunió en septiembre de 2024 con Elon Musk.

    xAI subrayó que esta iniciativa no solo busca cerrar brechas educativas, sino también generar nuevos marcos de referencia global para el uso responsable de la IA en el aula, centrados en la seguridad, el contexto local y el impacto humano. La empresa reiteró su compromiso con la ciencia y el conocimiento universal, y aseguró que este proyecto marcará un precedente mundial.

    Tras el anuncio, el presidente Bukele comentó en redes sociales: “Como todas las invenciones transformadoras, la IA no es en sí misma ni la salvación ni la perdición; es un espejo. Refleja las intenciones de quienes la utilizan, y somos nosotros quienes determinamos si contribuye a la destrucción o al florecimiento humano”.

    Bukele visitó en septiembre de 2024 a Musk, dueño de la red social X, Tesla y SpaceX, con quien conversó durante «varias horas». Bukele describió entonces a Musk como «una de las grandes mentes de la actualidad».

  • Threads permitirá ajustar algoritmo con solo un mensaje

    Threads permitirá ajustar algoritmo con solo un mensaje

    Meta inició pruebas en su red social Threads para que los usuarios puedan controlar el tipo de publicaciones que desean ver con solo pedirlo al algoritmo, mediante un comando sencillo.

    La herramienta funcionará escribiendo el mensaje «Dear Algo» (“Querido algoritmo”) y añadiendo una indicación específica sobre el contenido que se desea ver más o menos, como “moda” o “baloncesto”. Así lo explicó Connor Hayes, responsable de la red social, en una publicación.

    Esta opción busca dar mayor personalización al contenido, ya que el sistema actual se basa en los patrones de interacción del usuario, pero en ocasiones no ofrece recomendaciones acertadas.

    La prueba se realiza en un momento en el que otras plataformas como TikTok y Pinterest también han anunciado ajustes para mejorar la experiencia del usuario. TikTok, por ejemplo, ya permite marcar temas que se quieren evitar, mientras que Pinterest limita esta opción a contenido generado con inteligencia artificial.

    Meta no ha confirmado cuándo estará disponible esta función de forma general, pero asegura que busca reforzar el control del usuario sobre su experiencia en la red social.

  • OpenAI niega pruebas de anuncios en ChatGPT y aclara integración de apps

    OpenAI niega pruebas de anuncios en ChatGPT y aclara integración de apps

    OpenAI descartó este viernes que esté probando la incorporación de anuncios en ChatGPT, luego de que circularan capturas de pantalla con supuestas sugerencias de compra integradas al asistente. La compañía aclaró que dichas imágenes corresponden a pruebas limitadas de integración de aplicaciones, y que estas ya fueron desactivadas mientras ajustan su funcionamiento.

    La polémica surgió cuando usuarios, incluyendo el exempleado de xAI, Benjamin De Kraker, compartieron capturas donde aparecían opciones de compra en tiendas como Target, dentro de conversaciones sobre temas no relacionados, como Windows BitLocker. Estas interacciones se produjeron a través de cuentas de suscripción a ChatGPT Plus y Pro.

    Frente a esto, Nick Turley, director de ChatGPT, negó que se tratara de anuncios y sostuvo que las imágenes difundidas “no son reales o no son anuncios”, según publicó en la red social X.

    Por su parte, Daniel McAuley, empleado de OpenAI, explicó que estas sugerencias formaron parte de una prueba de la experiencia de integración de aplicaciones, anunciada en octubre, junto a socios como Devday y Target. Añadió que el objetivo es que estas integraciones “mejoren la experiencia del usuario cuando sean relevantes para una conversación”.

    OpenAI aseguró que está trabajando para que el mecanismo de descubrimiento de aplicaciones dentro de ChatGPT sea más natural y que cualquier empresa podrá crear apps mediante el SDK, cuya disponibilidad pública será anunciada pronto.

    El director de investigación de OpenAI, Mark Chen, también se pronunció sobre las preocupaciones, reconociendo que “todo lo que parezca publicidad debe manejarse con cuidado”, y admitió que en esta ocasión no lograron hacerlo correctamente.

    Como medida, OpenAI decidió desactivar temporalmente estas sugerencias mientras perfeccionan el modelo, y adelantaron que implementarán controles para que los usuarios puedan limitar o desactivar este tipo de funciones si así lo desean.

    Turley concluyó que, en caso de considerar la incorporación de anuncios en el futuro, lo harán “con mucho cuidado”. “La gente confía en ChatGPT y todo lo que hagamos estará diseñado para respetar esa confianza”, aseguró.