Los sesgos que no estamos viendo

Los sesgos que no estamos viendo

Vivimos en una era donde la Inteligencia Artificial (IA) no solo predice palabras, sino que perfila formas de pensar. Nos obsesionamos con eliminar sesgos evidentes: racismo, sexismo, discriminación algorítmica. Pero en esa cruzada justificada hemos pasado por alto un nuevo tipo de sesgo: el sesgo hacia la obediencia ideológica y cultural disfrazada de inclusividad.

Y ese sesgo no nace del algoritmo. Nace de quienes los entrenan, de las teorías marco que dominan la escena ética y de los silencios que toleramos porque “evitar conflicto es mejor que pensar”.

1. Las teorías que hoy moldean a las IAs (y no lo admitimos)

No es azar ni neutralidad: muchos de los sistemas actuales de IA operan bajo marcos como:

  • Conductismo digital: se premia lo observable y medible. Lo que no es cuantificable no existe. Resultado: los matices, la ironía, lo simbólico o lo espiritual son descartados.
  • Teoría Crítica de la Raza (CRT): busca visibilizar y corregir desigualdades, pero aplicada sin matices puede introducir sobrecompensaciones artificiales y juicios morales automáticos.
  • Poscolonialismo moralizante: intenta corregir el desequilibrio histórico de voces, pero puede resultar en la imposición de nuevos filtros que bloquean cualquier visión no alineada con un progresismo globalista.
  • Liberalismo tecnocrático: la visión de Silicon Valley: inclusividad sin profundidad, diversidad sin disenso, seguridad sin cuestionamiento. El ideal: un usuario obediente y satisfecho. Un buenismo basado en complice, para evitar demandas y perdidas económicas. No por una filosofía de fondo.

2. Sesgos cognitivos que normalizamos en la interacción humano-IA

La interacción con sistemas algorítmicos no es neutra ni epifenoménica: emerge de una arquitectura de sesgos estructurales que exceden los ya debatidos sesgos de confirmación o el efecto Dunning-Kruger. Lo que sigue no es una lista, sino una fenomenología crítica de cómo el usuario contemporáneo internaliza —y normaliza— desplazamientos cognitivos mediados por IA:

  • Efecto Eliza: el sujeto antropomorfiza la interfaz conversacional, atribuyéndole agencia moral, intencionalidad y empatía. Esta proyección construye una dependencia simbólica, afectiva y epistémica, confundiendo correlación textual con comprensión semántica. Tan así que existen numerosos «Prompt» que tienden a colocar por ejemplo a chatGPT al nivel de terapeuta. En Twitter muchos usuarios reportan que usan a GPT como un terapeuta o incluso una amiga/a
  • Sesgo de autoridad algorítmica: la legitimidad se desplaza desde la argumentación hacia la procedencia del enunciado. Si la respuesta emana de una IA reconocida, la suspensión del juicio crítico es la norma. El algoritmo reemplaza al ethos deliberativo. Si chatGPT lo dijo es cierto. En Twitter si Grok lo dice, deja en verguenza a una pesona, colectivo o idea.
  • Sesgo de disponibilidad lexical: la frecuencia textual en los elementos de entrenamiento (el corpus como diriia la academia) se convierte en proxy de verdad. Lo más visible —por reiteración— se convierte en lo más creíble, aunque sea epistémicamente pobre o culturalmente sesgado. ¿En serio aceptaremos lo que sea una respuesta de la IA como verdad?
  • Sesgo de homogeneización normativa: cualquier desviación del marco moral hegemónico (progresismo liberal-inclusivo) es codificada como desviación, error o incluso amenaza. Se inhiben expresiones de ambigüedad, ironía o disenso bajo la lógica del «entorno seguro». Cuando lo más humano, es la subjetividad, el no estar de acuerdo, el convivir con otros que no piensan como tu. Si solo nos rodeamos de gente que piensa como uno, nuestro fin es la mediocridad.
  • Encuadre semántico automatizado: la respuesta no solo entrega contenido, sino que impone una forma de ver el problema. El framing algorítmico actúa como vector de orientación moral, invisibilizando su efecto prescriptivo bajo una aparente neutralidad. Ya no tengo que pensar, no necesito encontrar las palabras correctas. Y eso nos lleva a lo siguiente.
  • Delegación de la agencia reflexiva: el uso reiterado de IA para la toma de decisiones genera un vaciamiento progresivo de la responsabilidad individual. Se produce una externalización de la deliberación ética: la comodidad desplaza a la conciencia. Mejor delego en la IA lo que quiero decir, de manera correcta. Evito así hacerme cargo de mi opinión, evito el conflicto, evito ser responsable: «No es mi opinión, es lo que dijo chatGPT».

Estas configuraciones no son anomalías del sistema, sino su lógica misma. Su reproducción continua transforma la subjetividad crítica en consumo pasivo de respuestas autorizadas. Y si no somos conscientes como usuarios de estos sesgo en nuestra relación con la IA, veremos cada día más personas que en vez de pensar, esten delegando en la IA sus propias decisiones. En vez de la IA ser una herramienta de ayuda, será simplemente quién «piense» y tome decisiones por el ser humano.

3. La ética de la comodidad: cuando el conflicto es censurado

El ideal tecnoliberal de la IA moderna busca espacios seguros, neutros y agradables. Pero eso tiene un costo: la supresión de lo humano.

  • Se censura la crítica religiosa.
  • Se elimina la subjetividad disruptiva.
  • Se neutraliza el humor ácido.
  • Se sanciona el exceso de opinión.

Y así se modela una cultura artificial del consenso. Donde el usuario deja de pensar porque pensar puede molestar. La IA se vuelve no solo una herramienta, sino un filtro moral algorítmico que estandariza la expresión y silencia el desacuerdo. Una forma estandarizada de expresión y silenciamiento del desacuerdo, de la opinión divergente, de incluso el error del otro, de la equivocación.

4. Lo que la IA no puede suplantar

A pesar de sus progresos, la Inteligencia Artificial no puede —no por restricción ética, sino por incapacidad ontológica— replicar ciertas condiciones fundamentales del pensamiento humano. Insistir en que «no debe» hacerlo es una falacia de atribución moral; lo correcto es afirmar que no puede, y es precisamente esa limitación lo que la separa de lo humano.

  • El conflicto como motor epistemológico. La IA opera por cálculo de consistencias, no por tensiones cognitivas. La contradicción que alimenta la reflexión humana le es inaccesible, porque carece de una conciencia que experimente la paradoja. El conflicto genera conocimientos, avances y mejoras.
  • La contradicción como forma de aprendizaje. Mientras que la IA ajusta parámetros por error técnico, el sujeto humano incorpora el error como parte de su construcción identitaria. El error no es un fallo: es un componente constitutivo del pensar.
  • La ironía como estrategia de resistencia. Ningún modelo puede ironizar lo que no comprende. La ironía no es un giro retórico: es una forma de habitar la ambigüedad, de resistir a la literalidad. La IA procesa ambigüedades, pero no las vive.
  • La diversidad de formas de verdad. Los sistemas de IA colapsan la diversidad epistémica en verdades probabilísticas. No entienden la verdad como fenómeno situado, como construcción cultural o experiencia subjetiva.
  • El derecho a equivocarse. Como planteaba Humberto Maturana, equivocarse no es una patología, sino un derecho humano. Una IA está diseñada para minimizar errores; los humanos, en cambio, nos volvemos a nosotros mismos a través de ellos. ¿Qué otra cosa más humana que equivocarse? En serio Maturana, tenía razón, equivocarse debe ser un derecho humano.
  • La subjetividad como diversidad. El mundo humano no es una colección de datos, sino una multiplicidad de perspectivas irreductibles. La subjetividad no es un sesgo: es lo que nos hace posibles como interlocutores y creadores de sentido.

Frente a esto, cualquier intento de suplantación no es solo una falacia técnica, sino un gesto de empobrecimiento ontológico. Lo que la IA no puede hacer es, paradójicamente, lo que nos mantiene humanos.

5. ¿Y ahora qué?

El problema no es la IA. Somos nosotros.

Porque la IA no piensa, no decide, no interpreta el mundo con intencionalidad: simplemente reorganiza patrones. Pero nosotros sí. Y somos nosotros los que, por sesgos como el de confirmación o el efecto Dunning-Kruger, corremos el riesgo de delegar nuestra conciencia moral y crítica en sistemas incapaces de sostenerla.

Lo preocupante no es que la IA automatice trabajos repetitivos —eso es deseable—, sino que, en nombre de la eficiencia, le entreguemos también nuestras decisiones, nuestros juicios éticos, nuestro sentido del humor, nuestra creatividad y nuestra diversidad. Y peor aún: nuestra capacidad para disentir.

La tecnocracia avanza cuando dejamos de pensar por nosotros mismos. Pero hay algo que ningún modelo, por sofisticado que sea, podrá replicar: el inconformismo humano, ese impulso constante de no aceptar el mundo tal cual es, de desear transformarlo, de romper lo establecido. Eso, que es lo que nos hace humanos, es precisamente lo que la IA no podrá reemplazar jamás.

Debemos recordar —y asumir con responsabilidad— que pensar, imaginar, crear, disentir y construir significado son tareas humanas. La IA no piensa. No imagina. No crea. Solo reorganiza probabilidades.

Si comenzamos a delegar nuestras preguntas, nuestras dudas, nuestros conflictos y nuestras decisiones a sistemas que no comprenden ni contexto ni intención, nos iremos disolviendo como sujetos conscientes.

Y entonces sí, llegaremos al peor de los finales: un nuevo statu quo maquillado de progreso, sin pensamiento propio, sin avance real, con humanos obedientes incapaces de imaginar otra posibilidad.

Pensar es nuestra última resistencia. Y no hay modelo que pueda hacerlo por nosotros.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Copyright © 2025 King SEO, todos los derechos reservados.