Este es el último artículo de una trilogía que empezó desempolvando los libros de pensadores africanos y afrodescendientes que llevan décadas en las estanterías correctas y en las conversaciones equivocadas, pero que sobre todo rara vez aparecen en las conversaciones sobre tecnología. Rodney explicó cómo te roban los recursos. Fanon explicó lo que eso le hace a tu mente. Mudimbe explicó cómo borran las herramientas que necesitarías para entenderlo. Mbembe explica que todo eso no es un error del sistema.


Esta es la noticia

En 2010, Michelle Alexander publicó El nuevo Jim Crow. Su argumento, incómodo y preciso, era que el sistema de encarcelamiento masivo en Estados Unidos no es un fallo del sistema de justicia. Es el sistema. Un mecanismo sofisticado de control social que opera bajo un velo de neutralidad racial mientras reproduce, con precisión quirúrgica, las jerarquías de la era de la esclavitud y las leyes Jim Crow.

En 2003, Achille Mbembe, filósofo camerunés, publicó Necropolítica. Su concepto central: el poder soberano no se define solo por quién tiene derecho a vivir, sino por quién tiene el poder de decidir quién puede ser dejado morir. La necropolítica no requiere campos de concentración. Requiere sistemas que gestionen poblaciones enteras como sujetos prescindibles.

Dos pensadores. Dos países. Una misma arquitectura de poder.

Fuentes: El nuevo Jim Crow, Michelle Alexander, 2010. Necropolítica, Achille Mbembe, 2003.


Lo que mi cabeza me dice

La muerte social no requiere violencia física. Mbembe lo sabía. Alexander lo documentó. Y los dos describieron el mismo mecanismo con palabras distintas: no hace falta matar a alguien para borrarlo. Basta con relegarlo a un estado de existencia invivible sostenido por tres pilares: la degradación jurídica, que despoja al individuo de derechos; la precariedad material, que le niega acceso a recursos; y la deshumanización simbólica, que lo marca permanentemente como subclase.

En 2010, ese mecanismo tenía nombre de política penal. En 2026 tiene nombre de producto.

El algoritmo de scoring crediticio no te declara culpable. Te declara de riesgo. El sistema de contratación automatizado no te rechaza. Simplemente no te ve. El modelo generativo no te insulta. Solo te asigna sistemáticamente ciertos roles, ciertos espacios, ciertas narrativas. Sin violencia explícita. Por diseño.

Degradación jurídica algorítmica: sistemas de evaluación de riesgo criminal predictivo como COMPAS, utilizados en tribunales estadounidenses para determinar libertad condicional, penalizan patrones estadísticamente asociados a raza y clase. No juzgan lo que hiciste. Juzgan lo que el modelo predice que harás. Y el modelo aprendió de un sistema que ya era racista antes de que existiera el algoritmo.

Precariedad material automatizada: si tu nombre no suena familiar, si tu universidad no está en el dataset de universidades prestigiosas, si tu trayectoria no es lineal, el algoritmo de contratación no te rechaza activamente; simplemente no procesa tu existencia como relevante. No hay discriminador humano al que apelar. Hay una función de probabilidad que nunca supo que existías.

Deshumanización simbólica escalada: cuando los modelos generativos producen imágenes de CEOs, científicos o jueces, producen automáticamente ciertos cuerpos en ciertos roles y otros cuerpos en otros. No están describiendo el mundo. Están entrenando la próxima generación de percepciones sobre quién pertenece dónde. A escala de millones de interacciones diarias.

Mbembe llamó a esto necropolítica: la gestión de poblaciones enteras como sujetos cuya muerte social es administrada, no accidental. El sistema no falla con estas personas. Funciona exactamente como fue diseñado. La pregunta no es por qué el algoritmo discrimina. La pregunta es para quién fue diseñado el algoritmo.

Y aquí entra la capa más perturbadora. En el colonialismo clásico, en el régimen de Jim Crow, en el encarcelamiento masivo, había un responsable visible. Una ley. Un juez. Un gobernador. Alguien a quien señalar. Alguien ante quien recurrir.

El algoritmo no tiene cara. No tiene intención declarada. No tiene ideología confesada. Tiene parámetros, pesos y funciones de pérdida optimizadas para objetivos que alguien definió en algún momento, en alguna sala de reuniones en San Francisco o Seattle. Y cuando produce muerte social, no hay culpable. Hay un modelo que estaba haciendo su trabajo.

Eso no es un avance tecnológico. Es la forma más eficiente de necropolítica que ha existido: invisible, escalable y cubierta por el lenguaje aséptico de la optimización.

Es el sistema.

¿Y si la pregunta no es cómo hacer la IA más justa, sino para quién fue diseñada la justicia que la IA replica?


Lo que los datos dicen

  • Riesgo criminal predictivo. El sistema COMPAS, usado en tribunales de varios estados de EE.UU., clasificó erróneamente a acusados negros como de alto riesgo el doble de veces que a acusados blancos: 45% frente a 23%. Las investigaciones de seguimiento hasta 2024 confirman que el sesgo persiste porque el dataset de entrada, arrestos policiales históricos, ya estaba sesgado por décadas de patrullaje selectivo. Fuente: ProPublica, 2016; investigaciones de seguimiento 2020–2024.
  • Discriminación en contratación automatizada. Currículums idénticos con nombres percibidos como afroamericanos reciben entre un 30% y un 50% menos de respuestas. En 2025 se ha documentado que los sistemas de selección automatizada como los ATS de LinkedIn y plataformas corporativas heredan este sesgo al entrenarse con datos de "empleados exitosos" de décadas pasadas, cuando la diversidad era prácticamente inexistente. Fuente: universidades de Chicago y MIT, 2022–2025.
  • Representación generativa. Ante el prompt "CEO", menos del 5% de las imágenes generadas por los principales modelos muestran mujeres o personas racializadas. Ante prompts asociados a criminalidad, los modelos oscurecen sistemáticamente el tono de piel y sitúan a los sujetos en entornos urbanos degradados. La IA no inventa el racismo. Lo escala y lo normaliza como probabilidad estadística. Fuente: Bloomberg; Stanford AI Index, 2024–2025.
  • Vigilancia predictiva. El estudio Gender Shades de Joy Buolamwini y Timnit Gebru en el MIT demostró que los sistemas de reconocimiento facial cometen errores en el 34% de los casos con mujeres de piel oscura frente al 1% con hombres de piel clara. Buolamwini lo descubrió cuando el sistema no reconocía su propio rostro y tuvo que ponerse una máscara blanca para que el algoritmo la viera. Auditorías independientes de 2024 y 2025 confirman que la brecha persiste en condiciones reales de uso. Fuente: MIT Media Lab, Joy Buolamwini y Timnit Gebru, 2018; actualizaciones 2023–2025.