Las principales redes sociales y plataformas de ‘streaming’ han comenzado a ofrecer a sus usuarios nuevas herramientas para ajustar los contenidos que ven, aunque los expertos advierten que estos controles son limitados y no corrigen el funcionamiento central de los algoritmos de recomendación.
El algoritmo es un sistema automatizado que, mediante inteligencia artificial, selecciona y ofrece contenidos en función de la actividad previa del usuario: los clics, el tiempo de visualización, las reacciones y las búsquedas, entre otros parámetros. Este mecanismo está presente en plataformas como Instagram, TikTok, YouTube, Spotify o Netflix, con el fin de captar la atención del usuario y mantenerlo activo en la aplicación.
Aunque los usuarios pueden borrar su historial, eliminar búsquedas o marcar contenidos como «no interesantes», estas acciones no siempre influyen significativamente en las recomendaciones. Incluso una mínima interacción no deseada puede alterar el comportamiento del algoritmo y arruinar los ajustes hechos con anterioridad.
En los últimos meses, plataformas como Pinterest, TikTok, Instagram, Threads y Spotify han introducido configuraciones que permiten al usuario solicitar ver más o menos contenido de ciertos temas. TikTok, por ejemplo, ofrece una barra de ajuste para reducir o aumentar la frecuencia de contenidos por tema, incluida la generación por IA. Instagram permitirá seleccionar temas de preferencia para mejorar la experiencia con los videos cortos o ‘reels’. Threads, propiedad de Meta, ha optado por un comando llamado «Dear Algo» que facilita al usuario indicar directamente sus preferencias al algoritmo.
Pinterest limita esta opción a contenidos generados por inteligencia artificial, y Spotify prueba una lista de reproducción ajustable, mientras mantiene su ‘perfil de gusto’ que permite eliminar canciones o listas que no interesan.
Sin embargo, esta pequeña apertura al control no resuelve la crítica más importante: la opacidad del algoritmo y su capacidad para atrapar al usuario con una avalancha interminable de contenidos.
Este diseño ha originado fenómenos como el ‘doom scrolling’, la navegación compulsiva por contenidos recomendados, que puede generar ansiedad, fatiga o culpa por el tiempo excesivo frente a la pantalla. El impacto ha sido particularmente preocupante entre adolescentes, con crecientes casos de adicción, dismorfia corporal, pérdida de habilidades sociales y afectaciones a la salud mental.
Un estudio de OnePlus reveló que los españoles pierden, en promedio, casi dos días al mes haciendo ‘scroll’ en redes sociales, siendo los momentos más comunes para esta práctica cuando están en la cama, viendo televisión o incluso en el baño.
Como respuesta, algunas plataformas han habilitado notificaciones de uso excesivo, límites de tiempo, cuentas especiales para menores de edad y controles parentales para intentar reducir los efectos negativos, aunque estas medidas tampoco han frenado el crecimiento del problema.
A todo esto se suma que, pese a sus propias normas, las plataformas a menudo recomiendan contenido que promueve desinformación o discursos de odio, que los usuarios consumen pasivamente sin ser plenamente conscientes del impacto.
Diversas organizaciones han pedido a las tecnológicas mayor transparencia sobre cómo funcionan sus algoritmos, qué factores influyen en las recomendaciones y cómo se entrenan estos sistemas, especialmente ante las acusaciones por sesgos raciales, ideológicos u otros presentes en los datos que alimentan estos modelos de inteligencia artificial.
