ESPEJISMOS DIGITALES
Glosario
La fórmula es conocida: sobreestimar lo que se cree entender. Las personas en este grupo aseguraban conocer los algoritmos y sentirse protegidas digitalmente, pero no sabían explicar cómo operan estos sistemas ni adoptaban conductas coherentes con esa supuesta comprensión. Todas tenían formación universitaria. Ninguna había leído los términos de uso. Una de ellas nunca había ajustado la configuración de privacidad de sus redes. El resultado es una falsa sensación de control que impide actuar con conciencia sobre un sistema que no terminan de comprender.
Las plataformas no han sido inocentes en este proceso. Y aunque se escudan en discursos de neutralidad tecnológica o en supuestas optimizaciones de la experiencia de usuario, hay aquí una ética postergada, que algunos actores simplemente prefieren esquivar.
Su diagnóstico recuerda que el mercado de la información no es ajeno al problema, sino parte activa de él, aunque no siempre lo reconozca.
Durante esta investigación también se analizó el tratamiento mediático del tema. Se revisaron noticias publicadas entre octubre de 2024 y abril de 2025 en medios digitales chilenos. Si bien fue común encontrar artículos donde se usaban conceptos como “algoritmo”, “desinformación”, “fake news” o “polarización”, en ningún caso se ofreció una explicación profunda o contextualizada de estos términos. Más bien, se recurrió a definiciones breves —casi decorativas— que, lejos de aportar comprensión, contribuyen a la banalización del concepto. Así, el periodismo nacional también queda al debe en su rol educativo frente a sistemas que hoy determinan buena parte de la experiencia informativa.
En el fondo, este es un escenario donde cada actor —Estado, industria y ciudadanía— tiene un papel que cumplir. Sería ingenuo atribuir toda la responsabilidad a uno solo. El Estado tiene la obligación de educar y proteger, pero no siempre lo hace. Las plataformas saben exactamente cómo funcionan sus sistemas, pero prefieren reducir todo a métricas de experiencia. Y nosotros, como usuarios, solemos delegar en otros el deber de pensar críticamente lo que consumimos. Tal vez porque resulta más cómodo. Tal vez porque nadie nos enseñó cómo hacerlo.
Lo preocupante no es sólo que las personas no entiendan cómo operan los algoritmos. Lo preocupante es que creen que sí lo entienden. Esta ilusión de saber ha sido documentada en otros ámbitos por la psicología cognitiva. Según Rozenblit y Keil (2002), las personas tienden a sobreestimar su comprensión de sistemas complejos cuando estos son familiares o rutinarios, como sucede con el uso cotidiano de redes sociales.
Este punto ciego tiene consecuencias políticas, educativas y regulatorias. Si la ciudadanía cree comprender cómo opera el entorno digital, pierde el incentivo para cuestionarlo, exigir transparencia o adoptar medidas de protección. Es lo que advierte también la literatura sobre protección de datos en Europa, donde regulaciones como el RGPD parten del supuesto de que los usuarios deben entender las decisiones automatizadas que les afectan (Morcillo Pazos, 2021).
Tal vez sea ingenuo esperar que el Estado regule todo, o que el mercado digital se autorregule por ética propia. Tal vez el mayor desafío está en otra parte: en asumir que la libertad de expresión y elección también implica responsabilidad, y que esa responsabilidad empieza por educarse de verdad. No basta con saber que el algoritmo existe. Hay que aprender a entenderlo, a cuestionarlo, a protegerse de él cuando sea necesario. Porque la democracia, en esta era de plataformas, también se juega en el terreno del conocimiento y la información.