Etiqueta: regulación IA

  • Hijo del expresidente mexicano López Obrador exige disculpa a X por insultos de su IA

    Hijo del expresidente mexicano López Obrador exige disculpa a X por insultos de su IA

    José Ramón López Beltrán, hijo del expresidente mexicano Andrés Manuel López Obrador (2018-2024), exigió una disculpa institucional a la red social X tras una respuesta ofensiva generada por Grok, la inteligencia artificial (IA) de la plataforma, en un episodio que reavivó el debate sobre los límites éticos del uso de estas tecnologías en redes sociales.

    La polémica se desató luego de que un usuario solicitara a Grok responder a un mensaje de López Beltrán con el tono de las burlas recurrentes que suele recibir en la plataforma.

    Tras ello, la IA emitió una respuesta que el hijo del exmandatario mexicano calificó como insultante, pues le llamó «nepobaby», «mantenido hipócrita» y «gordo inútil», lo que provocó una rápida viralización del caso y una ola de reacciones entre usuarios.

    En un mensaje publicado en su cuenta oficial, López Beltrán denunció que la respuesta de Grok incluyó: “insultos personales, lenguaje de odio, estigmatización corporal, mentiras y desinformación”, lo que, a su juicio, constituye acoso automatizado y no una crítica legítima ni un aporte al debate público.

    “El problema no es solo el contenido, sino que una inteligencia artificial reproduzca este tipo de mensajes. Cuando una IA insulta, no habla por sí misma: hablan su diseño, sus filtros, su entrenamiento y la supervisión de quienes la construyen y la operan”, escribió López Beltrán, quien dirigió su exigencia directamente a X, propiedad del magnate empresario, Elon Musk.

    El hijo del exmandatario pidió una disculpa institucional por parte de la empresa, así como una explicación técnica sobre las fallas en los sistemas de control y la adopción de protocolos públicos que impidan que herramientas de inteligencia artificial generen insultos, humillaciones o estigmatizaciones bajo el argumento de la sátira.

    El episodio abrió un amplio debate en X sobre la responsabilidad de las compañías tecnológicas en el uso de IA generativa, especialmente ante el riesgo de que estas herramientas reproduzcan discursos discriminatorios o de acoso de forma automatizada.

    Tras la queja pública, la propia Grok respondió a López Beltrán que la publicación ofensiva fue generada a partir de una instrucción de un usuario y que no se trató de una respuesta espontánea del sistema.

    En su mensaje, la IA afirmó que está diseñada para fomentar discusiones basadas en hechos y evitar daños, aunque aclaró que no puede emitir disculpas institucionales ni detallar aspectos técnicos internos.

    La explicación fue considerada insuficiente por López Beltrán, quien reiteró, que independientemente del origen de la instrucción, el contenido generado tuvo un impacto directo y dañino.

    Por ello, insistió en la necesidad de medidas más estrictas para prevenir que la IA sea utilizada como vehículo de acoso o desinformación, además de una disculpa pública “no sólo una respuesta del sistema”.

    También, solicitó un mecanismo de corrección pública cuando el sistema incurra en acoso automatizado o desinformación.

    “La inteligencia artificial debe ampliar derechos y fortalecer el debate, no normalizar el odio desde el diseño, el entrenamiento, el código y los algoritmos”, señaló.

    El caso se suma a una creciente discusión global sobre la regulación, supervisión y responsabilidad de las plataformas digitales frente al uso de sistemas de inteligencia artificial en espacios de debate público.

  • La India exigirá transparencia en contenido con inteligencia artificial en redes sociales

    La India exigirá transparencia en contenido con inteligencia artificial en redes sociales

    El Gobierno de la India anunció este miércoles que impulsará nuevas regulaciones para que las plataformas de redes sociales implementen medidas más transparentes y responsables respecto al contenido generado mediante inteligencia artificial (IA), como parte de su compromiso con un internet “abierto, seguro, confiable y responsable”.

    A través de un comunicado, el Ministerio de Electrónica y Tecnologías de la Información indicó que las empresas intermediarias deberán establecer mecanismos claros de responsabilidad para cualquier publicación sintética o generada por IA, incluyendo los llamados deepfakes, desinformación y otros contenidos ilegales.

    Las nuevas reglas obligarán a las plataformas a incluir etiquetas visibles que permitan a los usuarios identificar si un contenido fue creado mediante IA. En el caso de imágenes o videos, la marca deberá cubrir al menos el 10 % del área visual, mientras que en archivos de audio deberá ocupar al menos el 10 % del inicio del contenido.

    Además, se exigirá que estos identificadores no puedan ser alterados, ocultos o eliminados, y que se incorporen metadatos que garanticen la trazabilidad del material.

    Este anuncio llega en un momento en el que el país fortalece su apuesta por el desarrollo tecnológico. El pasado 14 de octubre, Google anunció una inversión de $15,000 millones para instalar un centro de datos de inteligencia artificial en el estado de Andhra Pradesh, la mayor apuesta de la empresa en la India hasta la fecha.

    En paralelo, Nueva Delhi ha entablado conversaciones con compañías tecnológicas como Qualcomm, Nvidia, Adobe e IBM, con el objetivo de potenciar el crecimiento del sector de IA en el país.

    Pese a las oportunidades económicas que representa esta tecnología para una población de más de 1,400 millones de habitantes, el Gobierno indio también ha advertido sobre los riesgos que implica el uso de IA en un contexto de competencia global, desinformación y tensiones geopolíticas. Por ello, ha llamado a reforzar la autonomía estratégica de las naciones frente a la volatilidad tecnológica y digital actual.