Glosario
ECOS INFORMATIVOS
Los algoritmos no solo intermedian la comunicación digital contemporánea: la moldean. Organizan jerarquías de visibilidad, estructuran flujos de información y delimitan el espacio de lo decible. Desde la planificación institucional hasta el consumo cotidiano de noticias, los algoritmos se han convertido en los editores invisibles del discurso público, desplazando en muchos casos el rol histórico de los medios de comunicación.
Tal como se advierte en el estudio «Las redes sociales on-line: Espacios de socialización y definición de identidad» (Castells, 2015), los algoritmos no actúan como simples filtros, sino como dispositivos simbólicos que orientan la construcción de lo real. La lógica algorítmica reemplaza la curaduría editorial por patrones de consumo, reemplazando pluralismo por engagement.
La influencia de estas plataformas no se limita a lo que se muestra, sino también a lo que se oculta. Un contenido no impulsado algorítmicamente puede permanecer invisible para audiencias enteras, aunque sea socialmente relevante. Así, la arquitectura algorítmica no solo propone una lógica de lo visible, sino también una censura estructural que opera por omisión.
Comunicación institucional bajo lógica algorítmica
El uso de CRM (Customer Relationship Management) potenciados por algoritmos permite anticipar conductas, intervenir en decisiones de consumo e incluso modelar expectativas. Esta sofisticación instrumentaliza la comunicación como una secuencia de estímulos calibrados. Tal como analiza el informe «Social Media and Me: How Community Identity Influences Click Speech» (Barlett et al., 2021), el microtargeting ha permeado incluso la esfera política, adaptando mensajes según perfiles emocionales y culturales.
La lógica algorítmica transforma la relación entre emisores y públicos, reemplazando la comunicación masiva por interacciones fragmentadas, ajustadas a perfiles psicológicos e históricos de navegación. Esto no solo implica una eficiencia instrumental, sino también una redefinición de la noción misma de ciudadanía informada.
La transformación del periodismo
Este fenómeno, profundizado por plataformas como TikTok, empuja al periodismo a competir en un entorno donde la narrativa visual y experiencial domina. Según «The Impact of Social Media on Identity Formation» (Ahmad, 2021), esta mutación reduce la tolerancia a contenidos argumentativos o densos, debilitando la capacidad de los ciudadanos para sostener debates complejos.
A su vez, esta lógica de contenidos adaptados a la métrica algorítmica ha transformado el propio perfil del periodista. Ya no basta con informar: ahora debe entretener, impactar y generar reacción inmediata. Esta presión ha dado paso a un periodismo más espectacular que investigativo, y más emocional que explicativo, limitando la profundidad del análisis y comprometiendo su función crítica.
Los algoritmos también han alterado la percepción de credibilidad. Un estudio publicado en Digital Journalism demostró que los lectores reaccionan con menor confianza ante contenidos identificados como generados por inteligencia artificial, aunque no siempre distinguen entre estos y los escritos por periodistas humanos.
Más aún, investigaciones del MIT confirman que las noticias falsas tienen un 70% más de probabilidades de viralizarse en Twitter y se difunden seis veces más rápido que las verdaderas. Este sesgo de amplificación incentiva estrategias de clickbait, incluso por parte de medios con trayectoria, erosionando su capital simbólico. Valenzuela lo resume con crudeza: “Es pan para hoy, hambre para mañana”.
La confianza, una vez quebrada, resulta difícil de recuperar. Y en un ecosistema donde lo más visto se asocia automáticamente con lo más creíble, el riesgo de manipulación no es hipotético: es estructural.
Opinión pública y polarización
El poder de los algoritmos no se limita a mostrar contenidos relevantes: también define qué temas aparecen en la conversación pública. La noción de «algorithmic public opinion», desarrollada por Saurwein y Just en 2023, propone que la opinión pública ya no se forma exclusivamente a través de los medios tradicionales, sino en plataformas digitales donde los algoritmos priorizan ciertos discursos, invisibilizan otros y moldean la percepción de consenso. Es decir, más allá de mostrar contenido, los algoritmos configuran las condiciones estructurales del debate social.
Durante procesos electorales, estas plataformas pueden convertirse en arenas de manipulación sutil. Investigaciones recientes han mostrado que los algoritmos de Twitter tienden a amplificar contenido proveniente de la derecha política en seis de siete países analizados, generando un sesgo en la exposición ideológica de los usuarios. Este tipo de distorsión es especialmente preocupante en contextos donde la información política condiciona decisiones de voto.
El efecto SEME (Search Engine Manipulation Effect), acuñado por Epstein y Robertson (2015), sostiene que pequeñas modificaciones en el orden de los resultados de búsqueda pueden alterar las preferencias de votantes indecisos hasta en un 20 %. Cuando se replica sistemáticamente a gran escala, esta manipulación imperceptible puede inclinar elecciones sin que el votante sea consciente del condicionamiento.
Identidad digital: algoritmos y subjetividad
La construcción de la identidad en entornos digitales no es un proceso individual autónomo, sino uno mediado por la lógica algorítmica. Los usuarios ajustan su comportamiento en función de las métricas visibles: likes, vistas, retweets. Esta performatividad mediatizada genera presiones para adecuarse a formatos, estéticas y narrativas premiadas por el sistema.
Estudios como «Social Media and Identity Formation – The Influence of Self-Presentation and Social Comparison», muestran cómo los adolescentes, en especial mujeres, internalizan estándares de éxito y atractivo determinados por la dinámica algorítmica. El resultado es una autoimagen modelada por validación externa, lo que puede derivar en problemas de autoestima, ansiedad y dismorfia social.
En Chile, el estudio «Identidad en la era digital» (Urrutia & Jiménez, 2021) evidencia que los jóvenes no solo adaptan sus contenidos para ser visibles, sino que también gestionan múltiples identidades digitales (cuentas secundarias, privadas o temáticas) como estrategia de segmentación algorítmica. Esta multidentidad refleja un intento consciente por controlar la exposición pública ante audiencias distintas —lo cual, paradójicamente, refuerza la vigilancia emocional.
La socióloga Safiya Noble denuncia en su libro Algorithms of Oppression (2018) que los algoritmos replican sesgos estructurales de género, clase y raza. Por ejemplo, búsquedas como “Black girls” en Google solían arrojar resultados hipersexualizados, demostrando cómo el sesgo de entrenamiento de los algoritmos perpetúa estereotipos y discriminaciones históricas.
Gobernanza, conciencia algorítmica y conciencia mediática
La Unión Europea ha dado pasos concretos en esta dirección con el Digital Services Act, una legislación que obliga a las grandes plataformas a explicar el funcionamiento de sus algoritmos, ofrecer alternativas no personalizadas y permitir auditorías externas. Este tipo de regulaciones busca equilibrar el poder asimétrico entre usuarios y corporaciones tecnológicas.
En Estados Unidos, empresas como Meta han experimentado con mecanismos de verificación colaborativa (crowdsourced fact-checking), integrando la valoración de usuarios sobre la veracidad de un contenido como señal para sus sistemas de distribución. No obstante, estas medidas siguen siendo marginales en América Latina, donde la opacidad algorítmica es la norma. Valenzuela enfatiza que “no se trata de eliminar los algoritmos, sino de someterlos al escrutinio democrático. No pueden ser cajas negras que decidan el futuro de nuestras conversaciones”.
La alfabetización crítica en entornos digitales requiere diferenciar entre dos conceptos clave: la conciencia mediática y la conciencia algorítmica. Aunque están vinculadas, no son lo mismo.
Promover esta conciencia no es tarea exclusiva del usuario. Las plataformas deben facilitarla, mediante medidas de transparencia. Por ejemplo, explicando por qué cierto contenido ha sido sugerido, qué variables han influido en su aparición, y dando opción de modificar manualmente las preferencias algorítmicas.
Emociones, vigilancia y exclusión digital
Uno de los aspectos menos explorados pero más relevantes es el papel de los algoritmos en la gestión emocional de las audiencias. Tal como han señalado estudios como «Affective publics and structures of storytelling» (Papacharissi, 2014), las plataformas optimizan la visibilidad de contenidos que generen emociones intensas: indignación, tristeza, miedo, o euforia. Esta dinámica no es casual, sino diseñada para prolongar la permanencia del usuario y estimular interacciones. El resultado es una esfera pública emocionalmente sobrerregulada por la lógica de la viralidad.
Esto se conecta con la vigilancia algorítmica: cada clic, cada pausa sobre un video, cada interacción, se convierte en insumo para entrenar modelos predictivos. Esta información es almacenada y utilizada no solo para personalizar contenidos, sino también para segmentar, clasificar e incluso excluir. Usuarios que interactúan con contenido que la plataforma considera sensible o riesgoso pueden ser relegados a una menor visibilidad. Este tipo de exclusión algorítmica opera sin notificación ni derecho a réplica.
En consecuencia, se consolida un nuevo tipo de control social: no a través de la censura explícita, sino de la invisibilización estructural. Los algoritmos, al seleccionar qué contenidos son premiados y cuáles ignorados, establecen un régimen simbólico de reconocimiento que define quién tiene voz, cuándo y cómo.
Cultura digital y participación democrática
Otro eje clave es el impacto de los algoritmos en la cultura política y la participación ciudadana. El uso de plataformas como Twitter, TikTok o Instagram durante movimientos sociales —desde el estallido social en Chile hasta Black Lives Matter— demuestra que los algoritmos pueden funcionar tanto como impulsores del cambio como mecanismos de cooptación.
Por un lado, permiten que voces históricamente marginales accedan a visibilidad. Pero por otro, estas mismas plataformas tienden a diluir el contenido político en una lógica de entretenimiento, donde la crítica se transforma en performance y el disenso se neutraliza por saturación.
Además, la dinámica algorítmica impone una participación cuantificable: se mide el éxito de una denuncia por su número de visualizaciones, su potencial de viralización, o su compatibilidad con tendencias. Esto empobrece el sentido de lo público, reduciendo la acción política a métricas de engagement.
Datos, comercio y poder
Finalmente, resulta indispensable incorporar una mirada crítica sobre la economía política de los algoritmos. Las plataformas no son entes neutros: responden a modelos de negocio donde el dato es la mercancía y el usuario, el producto. En este esquema, la comunicación no tiene como fin el intercambio de ideas, sino la maximización del valor transaccional de cada interacción.
El uso intensivo de técnicas como el perfilamiento psicográfico —documentado en casos como Cambridge Analytica— demuestra que los datos recolectados por algoritmos de recomendación no solo sirven para vender productos, sino también para influir en decisiones políticas y sociales. Esta es una forma de poder que opera silenciosamente, desde los márgenes del código, sin instituciones que la fiscalicen ni mecanismos que la legitimen.
Por ello, la discusión sobre algoritmos debe también ser una discusión sobre soberanía digital, transparencia económica y responsabilidad corporativa. En un contexto globalizado donde pocas corporaciones concentran la infraestructura de la comunicación pública, regular el uso de algoritmos es, en última instancia, regular el poder mismo.