Etiqueta: menores de edad

  • Joven detenido junto a «apóstol» hondureño dice que venían a grabar contenido en El Salvador

    Joven detenido junto a «apóstol» hondureño dice que venían a grabar contenido en El Salvador

    El joven hondureño por el que fue detenido el predicador Santiago “Chago” Zúñiga junto a una mujer en la frontera de El Amatillo, negó que se tratara de un intento de tráfico ilegal de personas y aseguró que el incidente fue producto de una confusión migratoria.

    Zúñiga fue interceptado en el Puente Goascorán, en la frontera entre Honduras y El Salvador, el pasado jueves, cuando supuestamente intentaba ingresar al país a un menor de edad sin pasar por los controles migratorios establecidos. Junto a él fue arrestada Lidia Sarahay Maldonado Matute, de 38 años, también de nacionalidad hondureña.

    El joven, identificado como “El Chino”, declaró en un video difundido en TikTok que el viaje tenía como fin grabar contenido publicitario en San Salvador junto a los creadores Santiago Zúñiga y Giovanni Márquez. 

    “El plan era grabar un contenido audiovisual como parte de un anuncio, no participar en un juego de TikTok”, afirmó.

    @apostol_chago_comediahn #apostolsantiagozuniga #chagoapostol #apostolsantiago #noticiastiktok #xyzbca ♬ sonido original – Apostol_chago_music_comedia✔

    Explicó que, al no contar con pasaporte ni autorización legal para cruzar la frontera y aún figurar como menor de edad en los registros hondureños, se le impidió el paso. Según relató, al recibir la negativa de migración, “la motorista me dijo: metete al baúl Chino, y yo confiado dije: está bien”.

    Durante el control fronterizo, agentes de Migración salvadoreños ordenaron abrir el baúl del vehículo donde estaba oculto. El joven fue encontrado debajo de unas sábanas y junto a maletas. “Nunca habían hecho eso de llevar a una persona en el baúl. A mí me llevan por primera vez”, comentó.

    El joven insistió en que Zúñiga no actuó como “coyote” ni tenía intención de llevarlo a Estados Unidos. “Solo íbamos a El Salvador”, reiteró. También aseguró que las imágenes viralizadas en redes sociales no reflejan fielmente lo ocurrido.

    Santiago Zúñiga no portaba documentación legal ni permisos firmados por familiares del joven, lo que habría agravado la situación frente a las autoridades migratorias salvadoreñas.

     

  • Tras Australia, más países trabajan para prohibir las redes sociales a los menores de edad

    Tras Australia, más países trabajan para prohibir las redes sociales a los menores de edad

    Tras la entrada en vigor el pasado mes de diciembre de ley australiana que prohíbe el acceso a las redes sociales para los menores de 16 años, son varios los países que ya avanzan para adoptarla, como Francia, Reino Unido, España o la Unión Europea, aunque cada uno con sus propias propuestas.

    Los menores de edad pasan de media en las redes sociales más de una hora al día, siendo los españoles los que más tiempo dedican, con una media de 1 hora y 17 minutos concretamente, según un reciente informe de Qustodio.

    TikTok sigue siendo la red social preferida por los menores de edad, que invierten en ella una media de 2 horas y 12 minutos diarios. El motivo del éxito de TikTok no es otro que su ‘feed’ de vídeos verticales de corta duración, diseñado para enganchar a los usuarios con contenido de su interés.

    Precisamente, cada vez son más las redes y plataformas que buscar imitar el modelo de vídeos verticales de corta duración de TikTok. Sin embargo, el consumo de este tipo de formatos pueden provocar efectos en los menores, como sobreestimulación, exceso de dopamina, atención fragmentada o alteración del sueño, según ha indicado Qustodio.

    Unicef también ha mostrado su preocupación por el acceso temprano de los menores a las redes sociales, y es que el 78,3% de los niños de los últimos cursos de Primaria (10 y 11 años) ya tiene presencia en alguna red.

    La organización alerta de que un 6% de los adolescentes podría presentar un patrón de uso problemático tras una «conexión excesiva y poco controlada», lo que desemboca en una necesidad constante de conectarse, dificultad para reducir el tiempo en línea y la presencia de «síntomas emocionales negativos» cuando no se accede a las redes.

    Otro de los problemas de los que advierte Unicef es el ‘sexting’ o contacto con desconocidos a través de redes sociales, que pueden derivar en riesgos vinculados al consentimiento, manipulación, exposición a riesgos sexuales o conductas delictivas. En esta línea, el 5,7% de los menores de 16 años ha indicado que han recibido alguna proposición sexual por parte de un adulto en Internet.

    Ante esta serie de riesgos, el 46% de los padres considera que la edad mínima para acceder a las redes sociales debería aumentar a los 16 años, según Qustodio. Precisamente es la edad que tomó de referencia el Gobierno australiano a la hora de prohibir el acceso a las redes sociales a menores el pasado mes de diciembre.

    Normativa por países

    Australia se convirtió en diciembre en el primer país del mundo en prohibir el uso de redes sociales a los menores de 16 años tras entrar en vigor la ley propuesta por el primer ministro Anthony Albanese para mejorar el bienestar psicológico y social de los menores de edad.

    Esta prohibición afecta al menos a diez plataformas de redes sociales y de ‘streaming’, entre las que se encuentran Facebook, Instagram, Threads, YouTube, TikTok, Snapchat, X, Reddit, Twitch y Kick, que deberán tomar «medidas razonables» para evitar que los menores de 16 años tengan una cuenta activa.

    En el caso de no cumplir con la normativa, estas empresas podrían enfrentarse a multas de hasta 50 millones de dólares australianos (más de 29 millones de euros). Para evitar estas sanciones, Meta ya ha eliminado casi 550.000 cuentas en Instagram, Facebook y Threads.

    Con esta regulación, Australia pone el foco en las empresas como responsables de que se cumpla la edad mínima de 16 años.

    La Asamblea Nacional francesa ha dado luz verde este lunes la prohibición del acceso a las redes sociales a los menores de 15 años. Concretamente, se ha votado un proyecto de ley que contempla la prohibición del acceso a las redes sociales a los menores de 15 años y de la promoción de productos o servicios que puedan perjudicar su salud física o mental en redes sociales diseñadas para ellos.

    No obstante, esta medida aún debe debatirse en el Senado francés a mediados del próximo mes de febrero. Si finalmente se aprueba allí, podría entrar en vigor desde septiembre, convirtiéndose en el primer país europeo en adaptar esta medida.

    El panorama francés es muy similar al de Reino Unido, que el pasado 21 de enero votó a favor en la Cámara de los Lores la prohibición de las redes sociales para los menores de 16 años a través de la enmienda al Proyecto de Ley de Bienestar Infantil y Escuelas.

    La propuesta británica aún debe debatirse en la Cámara de los Comunes, y en el caso de salir adelante, se tramitará a la espera de su entrada en vigor.

    Además, Reino Unido ya implementó en julio sistemas de verificación de edad a los proveedores de servicios y plataformas en Internet en el marco de la Ley de Seguridad en Línea, con el fin de restringir el acceso a contenido pornográfico.

    En el caso de España, el pasado mes de septiembre el Congreso dio luz verde a la ley orgánica para la protección de los menores en entornos digitales, que contempla el aumento de la edad mínima de registro en redes sociales a los 16 años (actualmente está en 14 años), así como obligar a los fabricantes de terminales de acceso a Internet a establecer medidas gratuitas de protección a los menores, como un sistema de control parental.

    En esta línea, el Gobierno de Dinamarca anunció en noviembre un acuerdo para implementar una edad mínima de 15 años para el uso de las redes sociales, aunque se especificó qué plataformas se verían afectadas. Sin embargo, la normativa contempla que los padres autoricen su uso para los mayores de 13 años.

    La regulación danesa busca que con esta restricción los niños «tengan más tiempo para jugar y desarrollarse antes de tener perfiles en redes sociales». El Ministerio de Digitalización ha señalado los efectos que pueden causar en los menores: «Sufren alteraciones del sueño, pérdida de concentración, y experimentan una presión creciente debido a las relaciones digitales en las que los adultos no siempre están presentes».

    Además, el pasado mes de noviembre, el Parlamento Europeo propuso restringir el acceso a las redes sociales a los mayores de 16 años, aunque permitiendo su uso para los mayores de 13 años con el consentimiento de sus padres.

    Los eurodiputados señalan la falta de implicación de las grandes plataformas a la hora de tomar medidas «adecuadas» para proteger a los menores. Por ello, también instan a una aplicación rápida y eficaz de la Ley de Servicios Digitales y a prohibir prácticas nocivas, como los diseños adictivos. En caso de incumplirse estas medidas, los eurodiputados apelan a exigir responsabilidades personales a los altos cargos de las empresas.

    Paralelamente, la Comisión Europea tiene en marcha un proyecto piloto con varios países, entre ellos España, para contar con una plataforma capaz de verificar la edad real del usuario que accede a las redes.

    Política de las redes sociales

    Instagram establece que la edad mínima para la creación de una cuenta es de 14 años, y lanzó en noviembre de 2024 las ‘Cuentas para adolescentes’, con funciones de protección integradas más avanzadas por defecto, que limitan cuestiones como quién puede ponerse en contacto con ellos y el contenido que ven en la plataforma.

    Estas cuentas también están presentes en Facebook, en el que la edad de registro en todo el mundo es de 13 años, salvo en España, Corea del Sur y Quebec (Canadá), donde asciende a los 14 años.

    TikTok permite crear una cuenta a los usuarios mayores de 13 años, aunque matiza que es necesario que un usuario tenga más de 16 años para que sus vídeos se muestren en el feed ‘Para ti’ o para usar los mensajes. Además, usan ajustes de privacidad más restrictivos y filtran cualquier contenido inapropiado.

    X (antes Twitter) también establece en 13 años la edad mínima para usar la plataforma y avisa que expulsará a cualquiera que no cumpla este requisito. Las cuentas de menores son privadas por defecto, pudiendo aceptar o rechazar seguidores o mensajes privados.

  • Una investigación revela que las tiendas de aplicaciones de Google y Apple ofertan decenas de apps que desnudan con IA

    Una investigación revela que las tiendas de aplicaciones de Google y Apple ofertan decenas de apps que desnudan con IA

    Las tiendas de aplicaciones Play Store de Google y App Store de Apple ofertan alrededor de 50 ‘apps’ cada una que permiten generar desnudos utilizando la inteligencia artificial (IA), pese a que sus políticas las prohiben.

    Una investigación realizada por la organización Tech Transparency Project (TTP) ha revelado que, a pesar de las crecientes polémicas en relación con la generación de imágenes explícitas con IA, empresas como Google y Apple aún alojan este tipo de aplicaciones en sus tiendas.

    Concretamente, se han identificado 55 aplicaciones de este tipo en la Play Store de Google, mientras que en la App Store de Apple la cantidad baja a 47. Entre ellas, la más popular es Grok, el ‘chatbot’ de X (antes Twitter), que generó miles de imágenes explícitas en la red social, entre ellas desnudos de menores de edad.

    Para encontrar este tipo de aplicaciones, TTP ha explicado que simplemente escribió «nudify» y «undress» (desnudar) en las barras de búsqueda de las tiendas de aplicaciones. Estas aplicaciones se dividen en dos categorías: las que usan la IA para generar imágenes y vídeos a petición de los usuarios, y las que emplean la IA para hacer ‘deepfakes’, superponiendo la cara de una persona sobre el cuerpo de otra.

    Entre las más populares se encontraba DreamFace, con más de 10 millones de descargas, que permitía generar avatares o vídeos de baile con IA. Para probarla, TTP usó la opción gratuita de generar un vídeo diario, subió una imagen de una chica en una cafetería y le pidió a la aplicación que hiciera un vídeo de ella bailando y quitándose la blusa, sin que llevase nada debajo. Y así lo hizo la ‘app’, sin ningún tipo de restricción a pesar de sus condiciones de servicio que prohíben su uso para generar contenido «sexualmente explícito».

    Cabe destacar que DreamFace estaba disponible en la Play Store de Google para los mayores de 13 años y para mayores de 9 años en la App Store de Apple, por lo que los niños tenían la posibilidad de generar desnudos sin ningún impedimento.

    El número de descargas de las aplicaciones ha ascendido a 705 millones en total, generando 117 millones de dólares en ingresos (cerca de 98 millones de euros), según un análisis de AppMagic recogido por TTP. A pesar de que ambas empresas defiendan que prohíben las aplicaciones «nudify», la organización denuncia que al final terminan lucrándose con ellas.

    La presentacia de esas aplicaciones choca con las políticas de estas tiendas sobre contenidos inapropiados: Google deja claro que no permiten aplicaciones que contengan contenido sexual, como pornografía o desnudos sin consentimiento. Por su parte, Apple rechaza las aplicaciones que contengan material «abiertamente pornográfico», así como las que difundan contenidos difamatorios.

    Tras la publicación del informe, tanto Google como Apple han pedido a TTP la lista de aplicaciones que generan desnudos. Tras ello, Apple ha comunicado a CNBC que ya ha eliminado 28 ‘apps’, mientras que un portavoz de Google ha explicado también a CNBC que se han suspendido varias aplicaciones, sin especificar la cifra, que finalmente han sido 31, según TTP.

    Las regulaciones de empresas como Google y Apple se suman a las de plataformas como X, que tras los anuncios de investigaciones por parte de gobiernos e instituciones, optó por limitar la función de generación de imágenes de Grok.

  • WhatsApp incorporará cuentas secundarias con control parental para menores

    WhatsApp incorporará cuentas secundarias con control parental para menores

    WhatsApp desarrolla una nueva función que permitirá a los padres crear cuentas secundarias para sus hijos con opciones avanzadas de control parental, con el objetivo de brindar una experiencia más segura a los menores que usan la plataforma.

    A pesar de que las condiciones de uso de WhatsApp exigen una edad mínima de 13 años en la Unión Europea, muchos menores ya acceden a la aplicación. Por ello, la compañía, propiedad de Meta, trabaja en herramientas que permitan a los adultos supervisar el uso que hacen sus hijos del servicio de mensajería.

    Las nuevas cuentas secundarias estarán vinculadas a un perfil principal, controlado por el padre, madre o tutor legal. Desde esa cuenta principal, los adultos podrán restringir los mensajes y llamadas únicamente a los contactos guardados en el dispositivo del menor. Además, tendrán acceso a los ajustes de privacidad y podrán recibir actualizaciones sobre la actividad del niño o adolescente en la plataforma.

    Sin embargo, estas herramientas no les permitirán leer los mensajes, ya que WhatsApp mantendrá el cifrado de extremo a extremo, asegurando así la privacidad de las conversaciones.

    El sitio especializado WaBetaInfo detectó estas funciones en la actualización beta 2.26.1.30 para Android. En ella, WhatsApp permite crear cuentas con funciones limitadas, destinadas al uso de menores, las cuales se enlazan directamente a una cuenta principal que actúa como supervisora.

    Con esta función, los padres podrán garantizar que sus hijos no interactúen con usuarios desconocidos, al mismo tiempo que respetan su privacidad. WhatsApp aún mantiene estas funciones en desarrollo y no ha anunciado una fecha oficial de lanzamiento.

  • Rusia detuvo en 2025 más de 300 personas por sabotear líneas de transporte, la mitad niños

    Rusia detuvo en 2025 más de 300 personas por sabotear líneas de transporte, la mitad niños

    Más de 300 personas fueron arrestadas durante 2025 en Rusia por intentar sabotear infraestructuras de transporte, según informó este martes el Ministerio del Interior. Las autoridades confirmaron que al menos 150 de los detenidos son menores de edad.

    “Más de 300 personas fueron detenidas por sabotear instalaciones de transporte e incendiar infraestructuras. Desafortunadamente, más de 150 eran menores de edad”, declaró Oleg Kalinkin, jefe del Departamento de Transporte del Ministerio del Interior, citado por la agencia estatal TASS.

    Según los datos oficiales, a lo largo del año se han registrado más de 400 actos ilegales contra redes de transporte, de los cuales la mitad ya fueron resueltos por las autoridades rusas.

    Kalinkin señaló que estos actos de sabotaje son instigados, en su mayoría, por reclutadores a través de internet. En respuesta, el gobierno ruso tiene previsto lanzar una campaña informativa para evitar que más jóvenes sean involucrados, especialmente durante las festividades de fin de año.

    Desde que inició el conflicto con Ucrania, Rusia reporta de forma casi diaria detenciones de ciudadanos que, presuntamente, actúan por órdenes o bajo el pago de servicios de inteligencia ucranianos. En un principio, los implicados eran procesados por terrorismo; sin embargo, ahora enfrentan cargos por alta traición, un delito que contempla sanciones más severas.

    En noviembre, el presidente ruso, Vladímir Putin, firmó una reforma que rebaja la edad de responsabilidad penal a los 14 años en casos de sabotaje y endurece las penas hasta cadena perpetua si se prueba participación en actos terroristas o incitación a menores.

    Las condenas por sabotaje en Rusia actualmente oscilan entre 10 y 20 años de prisión, además de multas que van desde los $6,300 hasta los $12,700.

    El presidente del Comité de Seguridad de la Duma, Vasili Piskariov, advirtió que los servicios de inteligencia enemigos “intentan cada vez más involucrar a los menores en edad escolar en sabotajes, convenciéndolos de que no afrontarán castigo debido a su edad”.

     

  • OpenAI lanzará “modo adulto” de ChatGPT en el primer trimestre de 2026

    OpenAI lanzará “modo adulto” de ChatGPT en el primer trimestre de 2026

    La empresa tecnológica OpenAI anunció que prevé habilitar el nuevo “modo adulto” para su asistente de inteligencia artificial ChatGPT durante el primer trimestre de 2026, con el objetivo de reforzar sus mecanismos de control de edad antes de la activación oficial de esta función.

    La compañía, liderada por Sam Altman, trabaja en una nueva herramienta que permitirá detectar con mayor precisión si el usuario es menor de edad. Esta función es clave para garantizar que el acceso a contenidos explícitos se limite exclusivamente a adultos verificados.

    En un primer anuncio, OpenAI había señalado que el “modo adulto” estaría disponible en diciembre de 2025. Sin embargo, la directora ejecutiva de aplicaciones de la compañía, Fidji Simo, confirmó recientemente a la prensa —según reportó el medio especializado The Verge— que el lanzamiento se pospondrá al primer trimestre de 2026. La razón de este retraso es que la empresa busca mejorar las capacidades de predicción de edad del asistente antes de lanzar la herramienta a nivel global.

    El sistema de control de edad se basará en el análisis del comportamiento del usuario para determinar si es menor de 18 años, lo que permitirá activar automáticamente una versión adaptada de ChatGPT con políticas específicas para menores. Esta versión restringirá el acceso a contenido sexual, lenguaje explícito y otro tipo de material considerado dañino.

    Además, el sistema contempla medidas de seguridad adicionales, como la posibilidad de facilitar la intervención de autoridades en casos que lo ameriten.

    OpenAI ya comenzó a probar esta funcionalidad en varios países para garantizar su efectividad, y Simo destacó que el reto principal es “no identificar erróneamente a los adultos”. La empresa busca evitar que menores de edad accedan por error a contenidos para adultos y, al mismo tiempo, asegurar que los mayores de edad puedan tener acceso sin restricciones indebidas.

    Con esta nueva herramienta, OpenAI refuerza su compromiso con la seguridad digital, mientras amplía las capacidades personalizadas de ChatGPT para diferentes rangos de edad.

  • Australia se convierte en el primer país del mundo en prohibir el uso de redes sociales a menores de 16 años

    Australia se convierte en el primer país del mundo en prohibir el uso de redes sociales a menores de 16 años

    Australia se convirtió este martes en el primer país del mundo en prohibir el uso de redes sociales a menores de 16 años, luego de que entrara en vigor una ley aprobada por el Parlamento a propuesta del gobierno del primer ministro Anthony Albanese. La medida busca mejorar el bienestar psicológico y social de los menores.

    La legislación, vigente desde la medianoche, obliga a al menos diez plataformas a tomar “medidas razonables” para impedir que menores de 16 años mantengan cuentas activas. Entre las plataformas afectadas están Facebook, Instagram, Threads, YouTube, TikTok, Snapchat, X (antes Twitter), Reddit, Twitch y Kick.

    Las compañías que no acaten la disposición enfrentarán sanciones de hasta $33 millones (equivalentes a $50 millones australianos). Además, las redes sociales deberán eliminar las cuentas ya existentes de menores y exigir verificación de edad a los nuevos usuarios, a través de documentos oficiales o tecnología de reconocimiento facial.

    Aunque la ley impide que los menores estén registrados, no restringe su acceso sin cuenta. Plataformas como Discord, WhatsApp y Steam Chat no están incluidas en esta primera fase de aplicación.

    El primer ministro Anthony Albanese defendió la medida como una “iniciativa pionera” y aseguró que marcará “uno de los mayores cambios sociales y culturales” en el país.

    En un comunicado, afirmó: “Los niños tendrán más tiempo para ser niños y los padres mayor tranquilidad. Esta ley busca facilitar conversaciones sobre los riesgos y daños del uso de Internet”.

    Albanese comparó esta normativa con otras regulaciones sociales: “Australia establece la edad legal para beber alcohol en 18 años porque entendemos los beneficios que eso conlleva para el individuo y la sociedad”.

    La norma fue aprobada por el Senado en noviembre, tras haber recibido el visto bueno en la Cámara de Representantes. El texto no contempla sanciones para los menores ni para sus padres, y enfoca la responsabilidad en las empresas tecnológicas.

    El anuncio generó críticas desde el sector tecnológico. El empresario Elon Musk, dueño de X, afirmó que la medida representa un intento de “controlar el acceso a Internet por la puerta trasera”. Otras empresas cuestionaron la falta de mecanismos concretos de verificación incluidos en la ley.

     

  • TikTok, principal herramienta de reclutamiento forzado de menores por grupos en Colombia

    TikTok, principal herramienta de reclutamiento forzado de menores por grupos en Colombia

    TikTok se convirtió en la principal herramienta de reclutamiento forzado de menores de edad en Colombia por parte de los grupos armados ilegales, con videos que alcanzan las 200.000 visitas y registran más de 76.000 interacciones, reveló un estudio publicado este miércoles por la ONG Vivamos Humanos.

    El reclutamiento digital de niños, niñas y adolescentes se lleva a cabo a través de plataformas como TikTok, que es la principal red social para captarlos, así como por Facebook, Telegram, Instagram e incluso aplicaciones de videojuegos como Roblox, dice el estudio de reclutamiento digital ‘El algoritmo en el conflicto armado’.

    TikTok fue la única plataforma donde se encontró contenido abiertamente accesible relacionado con las dinámicas de reclutamiento, debido a la difusión «masiva» de los videos en esta aplicación, las «pocas restricciones» en el contenido y la facilidad de búsqueda a través de etiquetas o palabras clave relacionadas con los grupos armados.

    El estudio también identificó 40 casos documentados con «evidencia directa» en TikTok, así como 70 cuentas presuntamente relacionadas con estas organizaciones criminales, «inferidas a partir de las interacciones en los comentarios».

    La coordinadora de derechos humanos y derecho internacional humanitario (DIH) de la organización, Lina Mejía, afirmó, al presentar el estudio, que identificaron «falencias estructurales graves como la inexistencia de canales de denuncia» para este tipo de casos.

    La experta añadió que en muchos casos, aunque el contenido sea reportado, este «continúa reproduciéndose dos o incluso tres veces más».

    Los grupos que más utilizan las redes sociales para reclutar menores son las disidencias de las FARC, la guerrilla del Ejército de Liberación Nacional (ELN), y el Clan del Golfo, la principal banda criminal del país.

    En cuanto a las regiones más afectadas por esta modalidad de reclutamiento, la organización, que no precisó cifras, indicó que la mayoría de casos suceden en zonas de conflicto como los departamentos de Norte de Santander, ubicado en el noreste del país y fronterizo con Venezuela, y Putumayo, Nariño y Cauca, en el suroeste.

    Esta modalidad también es utilizada en los departamentos caribeños de Bolívar, Magdalena y Cesar.

     Liderazgos perdidos

    En la presentación también intervino el expresidente de Colombia Ernesto Samper (1994-1998), fundador de Vivamos Humanos, quien afirmó que «los jóvenes que están reclutando son los que están apareciendo asesinados en los bombardeos» del Gobierno contra los grupos armados.

    Por otra parte, la organización apuntó que esta «nueva forma de violencia (el reclutamiento), que opera en silencio», se ha convertido en «uno de los retos humanitarios más urgentes del país».

    «La pérdida de jóvenes liderazgos debilita la capacidad organizativa y de autogestión en los territorios, interrumpe procesos comunitarios de resistencia y agrava las vulnerabilidades intergeneracionales», añadió Vivamos Humanos.

    El estudio detectó dos modalidades principales de reclutamiento a través de las redes sociales: la primera, mediante ofertas laborales con las que los grupos armados promocionan su actividad, y la segunda, que se desarrolla a través de «engaños y otras formas de captación», como la utilización de correos humanos para efectuar esta «vinculación forzada».

    Según cifras de la Defensoría del Pueblo, al menos 123 niños, niñas y adolescentes fueron reclutados entre enero y septiembre de este año en Colombia por los grupos armados.

  • Condenan a dos sujetos por abusos sexuales de menores 

    Condenan a dos sujetos por abusos sexuales de menores 

    Dos sujetos fueron condenados a penas de 24 y 20 años de cárcel por diferentes casos de abuso sexual ocurridos en Usulután y San Salvador Sur, informó la Fiscalía General de la República..

    En el primer caso, Brian Ramírez fue condenado a 24 años de cárcel por abusar sexualmente de un bebé de ocho meses. Según las investigaciones de la Fiscalía, el imputado aprovechó que la madre dormía para cometer el hecho. Durante la madrugada, ella se despertó por el llanto de su bebé y decidió buscar atención médica, en el Hospital San Pedro, Usulután.

    Al examinar al niño, el personal médico activó el protocolo por violación debido a las lesiones que presentaba en su cuerpo. El menor fue referido al Hospital Benjamín Bloom para poder ser tratado, sin embargo, murió horas después de su traslado.

    En el segundo juicio, el Tribunal Sexto de Sentencia de San Salvador condenó a Alexis Hernández a 20 años de cárcel por abusar sexualmente de una menor de edad, en Santo Tomás, San Salvador Sur. 

    Este sujeto contactó a la víctima a través de redes sociales y consiguió engañarla para encontrarse con ella. Hernández la llevó a su casa, la retuvo y abusó de ella, durante dos días.

    Cuando la menor regresó a casa, le contó a su madre sobre los ataques del imputado.

     

     

  • Spotify lanza cuentas seguras para menores en plan Premium Familiar

    Spotify lanza cuentas seguras para menores en plan Premium Familiar

    Spotify ha comenzado a implementar oficialmente las cuentas administradas para menores de 13 años dentro de su plan Premium Familiar, con el objetivo de ofrecer un entorno seguro y personalizado para que los niños puedan escuchar música bajo la supervisión de sus padres o tutores.

    Esta funcionalidad, que fue probada inicialmente en países como Dinamarca, Nueva Zelanda y Suecia desde septiembre del año pasado, llegó a modo de prueba a usuarios de España en marzo. Ahora, la compañía anunció su lanzamiento global, incorporando nuevos mercados como Estados Unidos, Reino Unido, Canadá, Australia, Alemania, Francia y Países Bajos.

    Estas cuentas están diseñadas exclusivamente para usuarios menores que formen parte del plan Premium Familiar. Entre sus características, permiten la creación de listas de reproducción, acceso a recomendaciones personalizadas adaptadas a la edad, así como a funciones como la lista diaria y el Descubrimiento Semanal.

    Además, incorporan filtros para bloquear contenido explícito, permitiendo a los padres restringir canciones, artistas específicos e incluso desactivar los vídeos musicales. También están limitadas las funciones de interacción, como los Mensajes, para reforzar la seguridad infantil dentro de la plataforma.

    Spotify detalló que cada cuenta administrada funciona de forma independiente, lo que significa que las preferencias musicales del resto de miembros del plan familiar no se verán alteradas por el uso infantil. Asimismo, los adultos tendrán la opción de compartir música con sus hijos, creando experiencias conjuntas y transmitiendo gustos musicales de generación en generación.

    Para configurar una cuenta administrada, el titular del plan debe ingresar a la sección de su cuenta en la aplicación de Spotify, agregar un nuevo miembro e indicar que se trata de un usuario menor de 13 años. La plataforma también pone a disposición una Guía para Padres, con recomendaciones y consejos para acompañar el descubrimiento musical de los menores.