El algoritmo, la libertad y la desigualdad en el conocimiento
- Esperanza Niño Izquierdo

- 27 ene
- 6 Min. de lectura
Actualizado: hace 3 días

En una discusión con mi nieto posadolescente en la que le planteaba la manipulación ideológica masiva que generan el tiempo y los mensajes de las “pantallas” hoy , éste en tono de defensa expresó su inconformidad con el término “pantallas”. Consideraba que no era justo generalizar, puesto que el computador, el móvil y la tableta eran “pantallas” sí, pero que su uso permite acceder a una gran variedad de información, una herramienta básica para obtener conocimientos.
En gracia de discusión, aceptemos que el término “pantalla” es muy genérico y acordemos que el uso permisivo de dispositivos mediante los cuales accedemos a las plataformas digitales “diseñadas para facilitar la comunicación la creación de contenido y la interacción entre personas, comunidades y organizaciones” (IA), nos lleva a analizar el tiempo que gastamos en las plataformas y redes y sus efectos en el proceso cognitivo, además de la clara influencia en la toma de decisiones políticas y en la orientación ideológica de los usuarios que consumen estos contenidos.
La forma en que leemos es definitiva para el conocimiento y el desarrollo cerebral. La lectura digital forma hábitos muy distintos a la lectura de “forma larga”, como ocurre con el libro o los de los textos extensos sobre temas diversos en la cultura del conocimiento. Según los expertos “el ejercicio de “lectura larga” altera el cerebro, lo reconfigura, lo orienta, aumenta el vocabulario hacia el hemisferio izquierdo analítico, perfecciona nuestra capacidad de concentración, el razonamiento lineal y el pensamiento profundo tal como lo sostiene Marian Wolf, académica de la alfabetización de la Universidad de California.
Al contrario de lo que sucede con los contenidos cortos que acaparan nuestra atención, son su presa su “banquete” que genera dependencia: nos alimenta sesgos según nuestras búsquedas y gustos. El algoritmo no es neutral y va reflejando sesgos sociales, nos racializa o sectoriza según nuestras creencias iniciales y las va reforzando como únicas y verdaderas hasta llevarnos a los extremos. ¿En qué se puede diferenciar este pensamiento inducido del fanatismo? Estos sesgos exacerban desigualdades de manera inconsciente.
Cal Newport, en su libro “Enfócate”, explica que el entorno digital está optimizado para la distracción: múltiples sistemas que llegan sin control compiten por nuestra atención mediante las notificaciones, distractores y estímulos constantes. “Las plataformas y las redes están diseñadas para crear adicción y su volumen incentivo “bocados” cognitivos calibrados para obtener la máxima compulsividad por encima del matiz o razonamiento reflexivo”. Sin contar la monetización para los creadores de contenido, derivada de la captura de nuestra atención.
Los algoritmos poseen un diseño estructural enmascarado en el entretenimiento. Cada notificación nos desconcentra. Está comprobado que al encender el móvil quedamos atrapados de inmediato. El sistema “sabe” cuáles son nuestras preferencias y gustos, qué es lo que queremos ver, leer, enterarnos o conocer. Los vídeos cortos sobre información de cualquier índole vienen seguido de otro sin relación entre sí , luego llega otro que impide cualquier reflexión o aprendizaje profundo. Esto genera “déficit de atención e hiperactividad” especialmente en los adolescentes, aunque también en adultos en una menor medida, pero en preocupante propensión.
Una sociedad postalfabeta que utiliza masivamente el móvil, permite la introducción inconsciente de la influencia del poder blando de la tecnología, traducido en seducción, atracción y difusión de valores sin ejercer coacción directa. Moldean opiniones, proyectan imágenes deseables, estilos de vida atractivos, influyendo de manera directa en cada uno de nosotros.
Joseph Nye, politólogo estadunidense. clasifica los tres pilares del poder blando: la cultura, los valores políticos y la política exterior. Así se logra que otros acepten intereses ajenos porque los consideran legítimos o deseables. Este poder se ejerce a través del cine, la tecnología y la diplomacia. El poder blando es más eficaz a largo plazo ya que genera afinidad y colaboración voluntaria, dependiendo de la credibilidad y coherencia de quien lo utiliza.
La profesora Ana Ginés Fábregas, directora del instituto de Estudios Laborales en Esade (Barcelona), afirma que la IA ha permeado lugares de trabajo, es responsable de decisiones discriminatorias y afecta a millones de vidas en lugar de eliminar desigualdades. Su uso está produciendo, sistematizando y marginando además de magnificar sesgos y estereotipos de género, raza, orientación sexual, discapacidad a un ritmo alarmante. Esto se explica por la falta de diversidad en el sector tecnológico y específicamente en IA ya que las mujeres sólo representan el 20% en el desarrollo de IA técnica, 12% de investigadoras y sólo el 6% de quienes desarrollan el software.
Informa igualmente, que los algoritmos se desarrollan bajo secreto sin ser revisado por pares y sus resultados se envían directamente al mercado cómo fuente de información confiable, llevando consigo la discriminación algorítmica, lo cual genera sesgos en la base de datos según las variables que use el algoritmo para tomar decisiones y sesgos en las correlaciones internas. Por ejemplo, Amazon contrató en los últimos 10 años predominantemente hombres; el algoritmo “aprendió” que los hombres eran mejores candidatos y descartaba automáticamente las hojas de vida de candidatos con nombres o características femeninas.
UNESCO concluyó en 2024 que el sistema GPT, chat GPTY, Open AI de Meta, asociaban desproporcionadamente los nombres de mujeres con palabras como casa, familia, hijos, matrimonio y los nombres de hombres se vinculaban con significados de ejecutivos, salario, carrera. Al pedirles a estas tecnologías que completarán oraciones, el 20% incluyó lenguaje sexista, misógino y el 70% generó contenido contra los homosexuales.
Así que los algoritmos no son árbitros neutrales, reflejan los sesgos sociales de raza o sexo, pudiendo no solo crear sino ampliar dichos sesgos. Son utilizados para elaborar resultados de análisis de hojas de vida para la contratación generando peligro para el género, la raza o cualquier otra diferencia. También son utilizados en lo estatal para generar asignación de recursos que en muchos casos, como en Estados Unidos, principalmente, perjudican más a las personas marginales.
Estamos frente a los riesgos de la tecnología avanzada con los cuales hemos construido “hombres con verdades prefabricadas”. La humanidad se ha uniformado en sectores y creencias extremas, sin permitirse ver otras capas de pensamiento y aceptarlas en un universo construido precisamente por las diferencias de pensamiento que permitieron crear además de los avances científicos, las ciencias sociales, económicas, etc.
En 1964 Herbert Marcuse, definía al hombre moderno como “unidimensional” un ser atrapado no sólo por el “autoritarismo” sino porque los avances tecnológicos habían hecho qué sujetos oprimidos, reprodujeran su propia opresión. El hombre perdió su capacidad de pensamiento crítico y de rebelión enmascarada en libertad y opulencia. Subyugados por el consumismo y convertidos en instrumentos que limitan su existencia a una “sola dimensión”. Hombres conformistas que se adapta espontáneamente a las normas y valores dominantes, volviéndose pasivos que en su estado de confort encuentran una felicidad ilusoria, que se mide por la capacidad de consumo y de producir, generando una clara confusión de satisfacción de necesidades creadas por el mismo sistema. Pierde la imaginación, la neutralidad, la oposición, borrando la diferencia entre lo real y lo posible, Es el “totalitarismo blando”.
Si hace 61 años que Marcuse vaticinaba al “hombre unidimensional “ con apenas los medios tecnológicos que en su época dominaban, ¿qué podríamos entonces decir de la calidad de hombre que los medios y las redes están creando mediante el uso abusivo del algoritmo? Ya seremos menos que “unidimensionales”; toda vez que ya no se necesita el establecimiento ponernos máscaras de libertad; ésta la hemos trasladado, entregado sin dolor. Tampoco es necesario que nos ilusionen con la felicidad ya somos felices apegados al algoritmo que nos roba el tiempo infinitamente y sentimos alegría y gratitud por el conocimiento que las redes nos brindan y nos abarcan “totalitariamente”, aceptando su manipulación mediática. ¿Cómo no estar tranquilo si ya no necesitamos imaginar absolutamente nada? Todo viene digerido, diluido, fácil, de manera que no nos esforcemos en pensar de manera abstracta, es decir nos han coartado la libertad de pensar independientemente.
El algoritmo es el nuevo “Soma”: las pastillas que tomaba la humanidad en la obra El Mundo Feliz de Aldox Husley, escrita en 1932, con las cuales ejercía absolutamente el Estado el control social. Todos eran felices, tenían todo lo necesario para vivir sin angustia ni tristeza. Se había erradicado la pobreza, pero faltaba la libertad, un mundo sin pensamiento crítico; el amor y la amistad se distorsionaron, ya no eran valores. Quien pensaba distinto era “el salvaje” el “antagonista” relegado y excluido del mundo feliz.
Nos encontramos entonces frente a la “tiranía del placer”. Hoy ya no estamos ante un futuro distópico como el de Huxley, vivimos en una dualidad imperceptible, del entretenimiento al consumo de las plataformas y redes. Venció la tecnología y nos dio como en la distopia referida, una felicidad sin discusión.
Por último vale la pena recordar las palabras del bibliófilo y escritor español Jesús Marchamalo que al respecto señaló : “En tiempos de algoritmos y velocidad, recordar que la belleza de lo impreso es un acto de resistencia…”
*Abogada, Magister en Administración pública, . Autora de la obra Mujeres rescatadas del olvido.(Ed EKEPSY,2023) colaboradora de la revista Columna 7, Santa Marta.

Super interesante, hay que pensar en que clase de felicidad queremos y de levantar la cabeza de la pantalla y compartir con las personas que tenemos a nuestro al rededor.