Necro-logos y bio-poiesis: La administración algorítmica de lo vivo

TEDIC
Blog Inclusión digital

Por: Araceli Ramírez

Resumen

La IA generativa ya no es “una herramienta más”: se viene instalando como una infraestructura cultural para producir lenguaje. Puede generar discursos coherentes y funcionales, sí, pero en ese mismo movimiento desplaza elementos centrales de la vida social de la palabra: el conflicto, la opacidad, el territorio, el cuerpo y la historicidad. En diálogo con Éric Sadin, este artículo propone llamar necro-logos a ese “lenguaje muerto”: una economía lingüística espectral cuyo principio rector es la optimización (fluidez, aceptabilidad, compatibilidad con normas dominantes) y cuyo efecto cultural es cerrar el paso a lo inesperado (Sadin, 2024; Sadin, 2020).

Como contrapunto, propongo bio-poiesis: la creación situada, encarnada y relacional que los feminismos y las epistemologías del Sur sostienen como práctica política de resistencia y de producción de mundo (D’Ignazio & Klein, 2020; Ricaurte, 2019). Con foco en Paraguay y América Latina, argumento que la IA generativa intensifica una doble colonización: la de los datos (extractivismo epistémico) y la de la imaginación (homogeneización cultural), con efectos glotopolíticos sobre lenguas y registros locales y con impactos diferenciados por género y desigualdad estructural (Ricaurte, 2019). A partir de experiencias regionales de intervención (como EDIA/Vía Libre y Latam-GPT), cierro proponiendo líneas de acción desde derechos digitales: gobernanza feminista de datos, auditoría situada de sesgos, alfabetización crítica y diseño tecnológico orientado al cuidado (Costanza-Chock, 2020; D’Ignazio & Klein, 2020).

Palabras clave: IA generativa; lenguaje; glotopolítica algorítmica; feminismo de datos; Sur Global; derechos digitales; creatividad; soberanía de datos.

Cuando la predicción se vuelve cultura

Hay una escena que se repite, con variaciones mínimas, en oficinas, aulas y redacciones de toda la región. Alguien abre un chat, escribe dos líneas (“haceme un comunicado formal”, “redactá un resumen ejecutivo”, “armame un texto para prensa”), y recibe un resultado pulido, educado, casi impecable. La sensación es ambivalente: alivio por la rapidez y, al mismo tiempo, una inquietud difícil de nombrar. No porque el texto sea malo, sino porque el texto suena como si no viniera de ningún lugar. Es un lenguaje sin temperatura, sin fricción, sin huellas. Una lengua “correcta” que parece flotar.

Esa flotación no es un detalle estético. En el corazón de la IA generativa hay una operación que, de tan cotidiana, se vuelve invisible: convertir el lenguaje en un problema de predicción. Donde antes el lenguaje era acontecimiento (decir algo en un momento, con un cuerpo, con un riesgo), ahora se administra como probabilidad: qué palabra sigue a cuál, qué frase “funciona”, qué tono “encaja”, qué forma minimiza conflicto y maximiza aceptabilidad. El resultado es una especie de prosa de aeropuertos: útil, universal, sin territorio.

Éric Sadin viene describiendo este desplazamiento en términos de una mutación más amplia: el paso hacia una administración algorítmica de la existencia, donde lo vivo se organiza mediante capas técnicas que no solo asisten, sino que deciden, orientan, normalizan (Sadin, 2020, 2023). En esa lectura, la IA generativa no es un software simpático: es una tecnología cultural que reconfigura la palabra como recurso gestionable. Y si la palabra se vuelve gestionable, también lo hace la creatividad; y si la creatividad se vuelve gestionable, la cultura entra en un nuevo régimen de gobernanza.

Este artículo parte de una hipótesis fuerte: la IA generativa está produciendo un cambio de época en la ecología cultural del lenguaje. No solo por la automatización de textos, sino porque instala la predicción como un criterio de legitimidad expresiva. Lo que se escribe (y cómo se escribe) empieza a ser evaluado, sugerido, corregido o reescrito por máquinas entrenadas sobre grandes bases de datos. De ese modo, el promedio estadístico del pasado se transforma en norma del presente.

Desde Paraguay y el Sur Global, esta transformación no llega a un terreno neutro. Llega a sociedades marcadas por desigualdades estructurales, por historias coloniales, por tensiones lingüísticas y por luchas feministas y disidentes que han hecho del lenguaje una práctica de ruptura. Por eso, más que preguntar si la IA “es creativa”, importa preguntar: ¿qué tipo de creatividad se vuelve dominante cuando el lenguaje se vuelve predicción? ¿Qué pasa con las narrativas situadas, las que emergen de los márgenes, de lo contrahegemónico, del conflicto social, cuando el estándar cultural se define desde la optimización?

Para nombrar ese régimen propongo necro-logos: un lenguaje muerto en el sentido político del término. No porque no produzca frases, sino porque reduce el lenguaje a su rendimiento: fluidez, coherencia, plausibilidad, utilidad. Frente a eso, propongo bio-poiesis: la creación viva como práctica situada, feminista y decolonial, orientada a sostener la potencia de lo inesperado.

Una crítica filosófica situada

En el artículo adopto un enfoque de teoría crítica de la tecnología con anclaje en derechos digitales y estudios culturales del lenguaje. Metodológicamente combino:

  1. Análisis conceptual (necro-logos, bio-poiesis, glotopolítica algorítmica) en diálogo central con Sadin y con aportes feministas y decoloniales (Haraway, 1988; D’Ignazio & Klein, 2020; Ricaurte, 2019; Costanza-Chock, 2020).
  2. Una lectura desde la sociología cultural sobre la IA generativa como infraestructura de producción simbólica, atendiendo a la economía política de datos y plataformas (Zuboff, 2019; Crawford, 2021).
  3. Estudios de caso regionales como prácticas de intervención: EDIA (Vía Libre) y Latam-GPT, entendidos no como “soluciones técnicas” sino como disputas por gobernanza de datos, lenguaje y soberanía tecnológica.

Mi objetivo no es ofrecer una “evaluación técnica” de estos modelos de lenguaje, sino disputar el sentido cultural y político de la IA generativa desde el Sur Global.

La vida espectral: la mutación del lenguaje en mercancía

Sadin describe un presente donde lo digital deja de ser una herramienta externa y pasa a operar como una capa que reorganiza la experiencia: una “vida espectral” en la que la mediación técnica produce un mundo de presencias sin cuerpo, decisiones sin deliberación y acciones sin sujeto plenamente responsable (Sadin, 2023). Lo espectral no significa “falso”, sino desencarnado: una forma de presencia que opera sin el peso del cuerpo, del tiempo y del conflicto.

La IA generativa intensifica esa espectralidad porque toca la materia prima de la vida cultural: el lenguaje. Si el lenguaje es el lugar donde una comunidad discute, imagina, pelea, acuerda, recuerda y se proyecta, entonces convertirlo en una salida optimizada no es un cambio menor. Es una reconfiguración de la cultura.

En la tradición filosófica, el lenguaje no es solo un vehículo. Es un espacio de disputa por el sentido. En cambio, el modelo generativo opera como una máquina de estabilización: produce frases “correctas”, previsibles, en un registro que tiende a la conciliación y la neutralidad. En ese gesto hay una política del lenguaje: menos conflicto, menos singularidad, más compatibilidad.

Aquí aparece la primera tesis del artículo:

Tesis 1. La IA generativa introduce una economía cultural de la palabra basada en la optimización, donde el criterio de “buen lenguaje” se desplaza hacia la fluidez y la aceptabilidad, desactivando la dimensión conflictiva y situada del sentido (Sadin, 2023).

Esto no significa que todo texto generado sea “malo”. Significa que el régimen cultural que se instala privilegia un tipo de lenguaje: el lenguaje que no incomoda.

Necro-logos: el lenguaje muerto como régimen de predicción

Decir que los modelos de lenguaje “predicen la próxima palabra” suele sonar a explicación técnica de divulgación, como si se tratara de un detalle mecánico. Pero en el marco de este artículo, esa operación mínima —la predicción— no es un mecanismo neutro: es una ontología cultural. La IA generativa no “participa” del lenguaje como acontecimiento; lo trata como un espacio probabilístico en el que la continuidad vale más que la ruptura. Y esa prioridad no es solo computacional: se vuelve un principio normativo cuando estos sistemas pasan a ser infraestructura cotidiana de escritura en escuelas, medios, empresas, organizaciones civiles y Estado.

Un modelo de lenguaje se entrena sobre grandes corpus textuales producidos en condiciones históricas específicas: archivos de prensa, libros digitalizados, foros, redes sociales, sitios web, manuales, documentos burocráticos, etc. En ese entrenamiento, el lenguaje aparece reducido a una estructura de regularidades estadísticas: el modelo aprende qué secuencias son frecuentes, qué asociaciones se repiten, qué giros son “esperables”. El punto decisivo es que lo que llamamos “salida” del sistema es la selección, bajo distintas técnicas de muestreo y ajuste, de lo que resulta más probable (o lo suficientemente probable) dentro de ese espacio (Bender et al., 2021). No produce “lo que quiere decir” un sujeto; produce lo que encaja.

Desde esta perspectiva, el modelo es extraordinario en tareas que dependen de la continuidad: resumir, reescribir, estandarizar, completar, homogeneizar. Pero allí mismo se revela el núcleo de su conservadurismo: su creatividad no es ruptura histórica, sino recombinación estadística de lo ya dicho. En términos culturales, su potencia se parece más a un collage que a una irrupción. Puede mezclar estilos, imitar voces, variar registros; pero lo hace en el marco de un criterio rector: maximizar la plausibilidad dentro del universo que heredó. Su “originalidad” queda subordinada a la verosimilitud.

La crítica de los “loros estocásticos” lo dijo con brutal claridad: estos modelos pueden producir lenguaje convincente sin comprensión, y esa capacidad de convincencia habilita un error social recurrente: confundir fluidez con verdad, coherencia con conocimiento, corrección sintáctica con responsabilidad epistémica (Bender et al., 2021). Sin embargo, para el argumento del necro-logos, el problema no se agota en la epistemología (“no saben lo que dicen”), sino que se desplaza a la sociología de la cultura: ¿qué cultura emerge cuando la infraestructura de escritura está organizada por la predicción?

Asimetría temporal: el futuro como derivación del pasado

Hay un rasgo estructural en la IA generativa que la vuelve ontológicamente conservadora incluso cuando se presenta como futurista: se alimenta del pasado para producir presente. Los corpus de entrenamiento son, por definición, archivos ya producidos; y aunque puedan incorporar actualizaciones, siempre hay una distancia temporal, una “capa de pasado”, que opera como condición de posibilidad del output. En sentido estricto, el modelo no “imagina” el futuro: lo extrapola. Esta asimetría temporal no es anecdótica: tiene implicancias culturales profundas, porque tiende a hacer del pasado un árbitro silencioso de lo decible.

En el lenguaje humano, el sentido no es solo continuidad: también es interrupción. La vida social produce neologismos, resignificaciones, injurias resemantizadas, giros irónicos, tácticas del habla para esquivar censuras o nombrar lo indecible. Mucha creatividad política, y en particular feminista, consiste en producir un quiebre en el diccionario dominante: forzar el lenguaje a alojar experiencias nuevas, o experiencias históricamente negadas. En cambio, cuando el lenguaje se procesa como espacio de probabilidad, el quiebre queda reabsorbido como rareza, y la rareza es penalizada por el criterio de plausibilidad.

Esta es una forma de clausura del futuro: no porque el modelo no pueda generar frases nuevas, sino porque su “novedad” tiende a ser compatible con el archivo. Un feminismo que busca la anomalía como horizonte de posibilidad es decir, un feminismo entendido como práctica de ruptura que aparece como desviación. Y la desviación, en un régimen de predicción, se vuelve estadísticamente costosa.

El necro-logos transforma la política en estilo

Si el primer movimiento del necro-logos era ontológico (predicción como modo de ser del lenguaje), el segundo es cultural (estandarización como modo de circular). En ese punto aparece la segunda tesis del artículo:

Tesis 2. La IA generativa transforma la política en estilo: al privilegiar la fluidez y la aceptabilidad, reescribe el conflicto social como neutralidad discursiva y convierte la “razonabilidad” en un formato estandarizado de enunciación, con efectos de despolitización y homogenización cultural (Sadin, 2023; D’Ignazio & Klein, 2020).

Esta tesis no afirma que el modelo “censure” contenidos políticos. Afirma algo más sutil y quizá más potente: que el modelo modula la forma en que se vuelve posible hablar políticamente. Y la forma importa. La violencia patriarcal, el racismo, el extractivismo y la desigualdad no se discuten en tono de manual. Se discuten, cuando se discuten de verdad, con lenguaje que incomoda, que acusa, que exige. Si el lenguaje dominante se vuelve uno que “no molesta”, la esfera pública se vuelve menos apta para la disputa.

Los feminismos conocen bien este problema: la acusación de “exageradas”, “radicales”, “agresivas” ha sido históricamente una tecnología disciplinaria contra voces que rompen el consenso. Si la IA generativa refuerza un estándar de “moderación” como forma superior de escritura, ese estándar puede funcionar como una nueva capa de disciplinamiento: un filtro estético que es político.

En la perspectiva del feminismo de datos, la neutralidad es sospechosa porque suele ocultar jerarquías: el “dato” aparentemente objetivo reproduce el mundo tal como fue producido por relaciones de poder. Lo mismo ocurre con el estilo: el registro “neutral” suele ser el registro de los grupos dominantes, convertido en universal (D’Ignazio & Klein, 2020). Y en clave de colonialidad, los regímenes de datos y conocimiento tienden a convertir el Norte en medida de lo legítimo (Ricaurte, 2019).

Regresión al promedio: el estilo como disciplina cultural

La desviación “cuesta” porque el régimen de predicción premia lo reconocible. En la práctica, esto significa que la IA generativa tiende a empujar el lenguaje hacia un centro de gravedad: el registro medio, el tono aceptable, la sintaxis sin asperezas. Esa tendencia no solo se observa en el contenido, sino en la forma: estructuras de párrafo previsibles, transiciones “limpias”, cierres conciliadores, prudencia retórica. El resultado es una regresión al promedio que opera como disciplina cultural: escribir “bien” se vuelve escribir “como se espera”.

Aquí la pregunta se vuelve sociológica: si millones de personas usan estos sistemas como prótesis de escritura, el problema ya no es “qué puede hacer” el modelo, sino qué hace el modelo con la cultura, qué estilos consolida, qué tonos convierte en estándar, qué repertorios de enunciación deja fuera. Si el lenguaje es el soporte material de la vida pública, entonces estandarizarlo equivale a intervenir en la infraestructura misma de la deliberación, la imaginación y el conflicto social.

Esta dinámica encaja con la lectura de Sadin: cuando la técnica deja de ser instrumento y se convierte en capa organizadora, la vida social se reconfigura desde criterios de funcionalidad y rendimiento. La “administración algorítmica” no opera solo sobre decisiones explícitas; opera sobre las condiciones de lo decible, sobre los moldes desde los que se habla y se escribe (Sadin, 2020, 2023). En ese marco, la IA generativa no es únicamente una herramienta de redacción: es una tecnología que administra la forma de la palabra, empujándola hacia la previsibilidad.

Diferencias lingüísticas y culturales: no “variedades”, sino formas de vida (y de disputa)

En contextos como Paraguay, hablar de “diferencias lingüísticas” como si fueran simples variaciones de registro es quedarse corto. Las lenguas y los modos de hablar no son solo sistemas de signos; son formas de vida, repertorios de vínculo, tecnologías de cuidado, maneras de sobrevivir. Y, sobre todo, son territorios donde se disputa quién puede hablar, cómo puede hablar, con qué autoridad y con qué consecuencias. En ese marco, el efecto homogeneizador del necro-logos no es un problema estético: es un problema de justicia cultural y, en última instancia, de derechos digitales.

La crítica feminista y decolonial insiste en que no existe una neutralidad lingüística inocente. Lo que suele presentarse como “español neutro”, “lenguaje claro”, “tono profesional” funciona históricamente como una vara que premia a quienes ya hablan desde posiciones legitimadas, por clase, por educación formal, por geografía, por género, y penaliza a quienes producen sentido desde los márgenes. En otras palabras: el estándar no es universal; es hegemónico. Por eso, cuando la IA generativa empuja hacia un registro medio, no está “mejorando” el lenguaje: está reforzando un orden cultural que decide qué voces suenan serias y cuáles suenan “impropias” (D’Ignazio & Klein, 2020; Ricaurte, 2019).
En términos de Silvia Rivera Cusicanqui, esa universalidad funciona muchas veces como un dispositivo de encubrimiento: palabras e ideologías igualitarias que, en la práctica, permiten “escamotear” derechos y sostener jerarquías coloniales (Rivera Cusicanqui, 2010).

Este punto se vuelve especialmente nítido si pensamos el lenguaje como práctica situada, en el sentido de Haraway: todo conocimiento habla desde un lugar, desde un cuerpo, desde una vulnerabilidad, desde una historia. Lo que se presenta como vista desde ninguna parte es, con frecuencia, el punto de vista dominante disfrazado de universalidad (Haraway, 1988). La IA generativa, al producir una voz sin cuerpo y sin territorio, tiende a convertir esa ilusión de universalidad en norma expresiva: un estilo sin marcas, sin genealogía visible, sin conflicto declarado. Pero justamente ahí reside su poder: al no marcarse, se impone.

Guaraní, jopara y el “derecho” a no traducirse

En Paraguay, el guaraní y el jopara no son decorado cultural: son lenguas de intimidad, de comunidad, de humor, de cuidado, de enojo, de vínculo cotidiano. Traducirlos al español estándar no es neutro: muchas veces implica cambiar el mundo que traen consigo. Hay cosas que no “pasan” igual: ritmos, formas de cercanía, modos de nombrar, densidades afectivas, gestos de ironía o de respeto. Cuando un modelo entrenado en grandes corpus donde el guaraní y el jopara están subrepresentados empuja hacia el español neutro, opera una forma de glotopolítica algorítmica: lo situado aparece como “ruido”, como excepción, como error.

Pero acá es clave el giro feminista: el problema no es solo la lengua; es quién tiene que traducirse. Históricamente, traducirse es una exigencia que recae sobre quienes están en el margen: mujeres, pueblos indígenas, disidencias, comunidades precarizadas. El centro rara vez se traduce. El centro se define como “lo normal”. Cuando la IA generativa normaliza un registro “limpio”, intensifica esa asimetría: el margen vuelve a cargar con el trabajo de adecuarse.

En términos de derechos digitales, esto plantea una pregunta incómoda: ¿qué significa “acceso” a tecnologías lingüísticas si el acceso exige renunciar a la propia forma de hablar? La inclusión que se paga con borramiento no es inclusión: es asimilación.

Lenguajes LGTBIQ+ y la violencia del estándar

Lo mismo sucede, aunque de modo distinto, con los lenguajes y repertorios de la comunidad LGTBIQ+. Las disidencias sexuales y de género han producido, en múltiples contextos latinoamericanos, formas de hablar que no son solo identitarias: son tácticas de cuidado, de reconocimiento mutuo, de creación de mundo. El lenguaje inclusivo, los giros comunitarios, el humor interno, las resignificaciones (“marica”, “trava”, “no binarie”, según contextos), las formas de nombrar afectos y violencias, funcionan como herramientas para existir en sociedades que sistemáticamente niegan esas existencias.

Cuando la IA generativa privilegia “lo aceptable”, por predicción y por alineamiento, tiende a hacer dos cosas a la vez: (1) volver más raro lo que ya era marginal y (2) reescribirlo en un registro “tolerante” pero despolitizado. Ese gesto es sutil: el modelo puede “aceptar” la diversidad en abstracto, pero producir un lenguaje donde la diferencia aparece como tema, no como modo de vida. Y en esa operación se pierde algo central: el carácter conflictivo y situado de esas luchas.

Aquí se conecta con la tesis general: el necro-logos transforma la política en estilo. En el caso LGTBIQ+, la política no es una opinión; es una condición de existencia. Lo que está en juego no es si el texto suena amable, sino si puede sostener la densidad de experiencias atravesadas por violencia, precariedad, expulsión familiar, discriminación institucional. Un lenguaje “suave” puede volverse una forma de borramiento: no niega, pero neutraliza.

Desde la perspectiva del feminismo de datos, este efecto no es accidental: los sistemas tienden a reproducir desigualdad cuando “optimizar” se vuelve el objetivo. Y optimizar, en culturas hegemónicas, suele equivaler a minimizar conflictos. Pero para los márgenes, el conflicto no es un defecto del lenguaje: es la forma que toma la verdad social cuando no hay justicia (D’Ignazio & Klein, 2020).

Colonialidad y desigualdad: quién queda dentro del archivo y quién queda fuera

Desde el Sur Global, además, la marginalidad no es solo identitaria; es geopolítica. Los corpus que alimentan los modelos están atravesados por desigualdades históricas de publicación, digitalización, acceso a infraestructura, prestigio lingüístico. Ricaurte lo plantea en términos de colonialidad de datos: lo que se extrae y se computa responde a relaciones de poder; el archivo global no es neutral, es un mapa desigual de quién pudo dejar huella y quién fue borrado (Ricaurte, 2019).

Si lo que el modelo aprende como “probable” proviene mayoritariamente de repertorios hegemónicos, entonces el necro-logos tiende a convertir esa hegemonía en “sentido común” automático. Y cuando esa automatización se integra a instituciones (educación, Estado, medios), la desigualdad se vuelve infraestructura.

Por eso, insistir en el guaraní, en el jopara, en los lenguajes LGTBIQ+, en los registros populares y comunitarios, no es un gesto culturalista: es una disputa por el derecho a producir sentido desde los márgenes, sin tener que traducirse permanentemente al idioma del poder.

La homogeneización que produce el necro-logos no afecta a “todas las personas por igual”. Opera como una máquina que favorece a quienes ya escriben desde el estándar y exige a los márgenes la tarea de adecuarse. Allí, la pregunta por el lenguaje se convierte en pregunta por justicia: ¿quién puede hablar sin traducción?, ¿quién puede equivocarse?, ¿quién puede sostener conflicto sin ser expulsadx de lo “razonable”? En la sección siguiente, esta discusión desemboca en la bio-poiesis: la creación situada como resistencia, donde el error no es falla, sino método para abrir futuro.

Bio-poiesis y resistencia: reabrir el lenguaje a lo vivo

Si el necro-logos describe un régimen donde la predicción deviene norma cultural, la bio-poiesis nombra la operación inversa: hacer del lenguaje un acontecimiento. No se trata de negar la potencia técnica de la IA generativa ni de abrazar una nostalgia por una “escritura pura” previa a lo digital. Se trata de recuperar algo que el régimen de optimización tiende a desplazar: el lenguaje como práctica situada que produce mundo, no solo textos; como espacio donde se juega la agencia colectiva; como zona de fricción donde los cuerpos, las diferencias y los conflictos se vuelven decibles.

Bio-poiesis, entonces, no es un “estilo alternativo”: es una política del sentido. Y en el sur global, donde la infraestructura tecnológica suele ser ajena y las relaciones de extracción son históricas, esa política se vuelve un programa de derechos: defender condiciones materiales, culturales y jurídicas para que las comunidades puedan nombrarse sin traducción obligatoria, imaginar sin asimilación y disputar la norma sin quedar expulsadas del espacio público.

La potencia del error: del “fallo” al método

El necro-logos penaliza el error porque lo improbable es costoso. Pero para los feminismos (y para muchas prácticas culturales marginalizadas), el error no es un accidente: es un método. Un “fallo en la matrix” no significa incoherencia, sino interrupción creativa de la norma. Allí donde el modelo busca lo más probable, la escritura feminista insiste en lo posible: inventa palabras, fuerza pronombres, mezcla lenguas, arriesga metáforas, sostiene el conflicto cuando la gramática del consenso se vuelve una forma de violencia.

La historia de los lenguajes feministas y disidentes está hecha de errores productivos: reapropiaciones, resignificaciones, torsiones sintácticas, formas de hablar que emergen para sobrevivir y para crear comunidad. Ese trabajo es, a la vez, cultural y político: construye sentidos que no estaban disponibles en el diccionario dominante. Por eso, cuando la IA generativa se convierte en infraestructura de escritura, el desafío no es simplemente “usar la herramienta de forma correcta”, sino no perder la potencia de desviación que hace posible abrir futuro.

Aquí es útil recuperar una intuición central del feminismo de datos: los sistemas que se presentan como neutrales tienden a consolidar desigualdades si no se diseñan deliberadamente para justicia (D’Ignazio & Klein, 2020). Traducido al lenguaje: si el criterio por defecto es la optimización de lo aceptable, el resultado es una prosa que parece “mejor”, pero que suele ser mejor para el orden existente. La bio-poiesis propone lo contrario: que la calidad de un lenguaje también se mida por su capacidad de hacer lugar a experiencias negadas y de sostener la disputa por el sentido.

Ejemplo 1: escribir contra el promedio

En términos prácticos, la bio-poiesis puede operar como una ética de escritura que reconoce la tentación del texto “perfecto” y la combate deliberadamente. Allí donde el output optimizado ofrece un párrafo impecable, la escritura situada se permite densidades: el giro local, la palabra sin traducción, sin glosa inmediata, el chiste interno de comunidad, la frase que incomoda porque nombra violencia sin amortiguarla. No es romanticismo: es política cultural. Significa no delegar la forma de lo decible a un estándar entrenado sobre archivos hegemónicos.

Conocimiento situado vs. vista desde ninguna parte: la falsa objetividad como estilo

En el necro-logos, la voz “sin marcas” se impone como ideal: un texto que suena universal. Pero Haraway mostró hace tiempo que la universalidad suele ser un truco: lo que se presenta como “vista desde ninguna parte” suele ser el punto de vista dominante que oculta su localización (Haraway, 1988). La bio-poiesis toma esa crítica y la radicaliza para el contexto de IA generativa: el problema no es que la máquina no tenga cuerpo; es que su falta de cuerpo se usa como autoridad.

La IA generativa puede sonar objetiva porque escribe con distancia, con tono “equilibrado”, con prudencia. Pero ese equilibrio es una estética producida por incentivos industriales y por una economía de alineamiento. En otras palabras, la supuesta objetividad es un estilo. Y cuando el estilo se vuelve autoridad, la política se vuelve administración: se reemplaza la deliberación por la plausibilidad.

D’Ignazio y Klein insisten en que la “objetividad” de los datos suele encubrir relaciones de poder: lo que se mide y lo que cuenta responde a prioridades, no a verdades naturales (D’Ignazio & Klein, 2020). En el caso del lenguaje generativo, la analogía es directa: lo que el modelo considera “buena respuesta” se define por criterios de utilidad, seguridad, aceptabilidad y coherencia. Pero la vida social del lenguaje, especialmente en disputas feministas, indígenas y LGTBIQ+, no siempre puede ser aceptable. A veces la verdad llega como conflicto.

En ese sentido, la bio-poiesis propone recuperar una ética del decir situado: asumir desde dónde se habla, quién habla, para quién se habla y qué riesgos se corren al hablar. Solo un cuerpo vulnerable (finito, mortal, expuesto), puede producir ciertos sentidos porque solo ese cuerpo enfrenta consecuencias. La máquina, en cambio, puede producir sintaxis; pero no puede asumir responsabilidad por lo que enuncia. Ese límite es siempre político, no técnico.

De la crítica a la intervención: derechos digitales para sostener bio-poiesis

Hasta aquí, bio-poiesis podría leerse como una defensa cultural de la escritura situada. Pero en clave de derechos digitales, el punto es más fuerte: sostener bio-poiesis requiere gobernanza, infraestructura y políticas. Si el necro-logos se reproduce por escala y conveniencia, la resistencia no puede quedar solo en lo individual (“escribí distinto”); necesita prácticas colectivas e institucionales que disputen el diseño, los datos y los usos legítimos.

En este marco, dos tipos de intervención regional funcionan como laboratorios de futuro: EDIA (Vía Libre) y Latam-GPT. No porque “resuelvan” problemas de la IA generativa, sino porque muestran cómo se puede intervenir desde los márgenes en la pregunta por quién gobierna el lenguaje.

EDIA (Vía Libre): auditar el necro-logos desde el Sur Global

El proyecto EDIA de Vía Libre, orientado al diagnóstico y mitigación de sesgos en modelos de lenguaje desde América Latina, puede leerse como una práctica de bio-poiesis en sentido estricto: reintroduce la pregunta política allí donde el modelo promete neutralidad. En lugar de aceptar que el sistema “habla bien”, EDIA invita a preguntar: ¿qué representaciones reproduce?, ¿qué estereotipos fija?, ¿qué voces normaliza?, ¿qué identidades vuelve caricatura?

Lo importante acá es el gesto metodológico: auditar sesgos no es solo medir errores; es disputar la cultura que el modelo tiende a estabilizar. En términos feministas, es insistir en que la desigualdad no es un bug, sino una estructura que se incrusta en datos y diseños (D’Ignazio & Klein, 2020). En términos decoloniales, es reconocer que la distribución desigual de voz en el archivo global produce desigualdad en el output. Y en términos de derechos digitales, es construir capacidad regional para exigir transparencia, rendición de cuentas y reparaciones.

Una auditoría situada, como las que promueve EDIA, también funciona como práctica pedagógica: enseña a ver el modelo no como oráculo, sino como dispositivo cultural. Esa alfabetización crítica es central para sostener bio-poiesis: permite que organizaciones, docentes, periodistas y activistas no adopten el output como texto “final”, sino como insumo a interrogar. La IA deja de ser autoridad; vuelve a ser objeto de disputa.

Latam-GPT: soberanía cultural del lenguaje y disputa por los datos

Latam-GPT, como proyecto regional, abre otra dimensión propositiva: la posibilidad de construir modelos con anclaje latinoamericano. Pero desde la bio-poiesis, el punto no es celebrar “un GPT nuestro” sin más. El punto es reconocer que la soberanía lingüística depende de la soberanía de datos y de gobernanza. Un modelo puede estar alojado “en la región” y, aun así, reproducir colonialidad si:

  • se entrena con datasets extraídos sin consentimiento;
  • privilegia registros dominantes;
  • no integra lenguas y repertorios marginalizados;
  • y no establece mecanismos de retorno y control comunitario.

Si el necro-logos convierte el pasado fosilizado en norma, la bio-poiesis exige preguntar: ¿de quién es ese pasado?, ¿quién autorizó su captura?, ¿quién decide qué se incorpora?, ¿quién se beneficia cuando ese archivo se convierte en servicio?

Ricaurte describe este proceso como colonialidad de datos: extracción, procesamiento y valor capturado fuera de las comunidades que producen sentido (Ricaurte, 2019). En un proyecto regional como Latam-GPT, la pregunta se vuelve estratégica: ¿puede un modelo latinoamericano convertirse en un dispositivo de reparación, visibilización y pluralización lingüística? Sí, pero solo si su diseño incorpora una ética feminista y de justicia: participación, consentimiento, cuidado y mecanismos de gobernanza.

Otras prácticas de resistencia: periodismo, educación, arte, activismo

La bio-poiesis no se reduce a proyectos “de IA”. También se expresa en prácticas que reconfiguran el uso social de la IA generativa, evitando que se convierta en norma cultural.

Periodismo: usar IA sin entregar la voz

En periodismo, una práctica bio-poiética sería usar IA para tareas instrumentales (clasificar, transcribir, ordenar) pero preservar la escritura como espacio de responsabilidad: no delegar el tono, no delegar el encuadre, no delegar la ética narrativa. Esto responde a la advertencia de Bender et al. (2021): la fluidez no debe sustituir a la verificación. En sociedades con alta vulnerabilidad informativa, la responsabilidad editorial es parte del derecho a la información.

Educación: alfabetización crítica, no “optimización de tareas”

En educación, la bio-poiesis implica enseñar a leer el output como producción cultural: detectar sesgos, localizar el punto de vista, identificar neutralizaciones, reescribir desde el territorio. En vez de evaluar “eficiencia”, se evalúa agencia: ¿podés devolverle cuerpo a un texto?, ¿podés devolverle conflicto?, ¿podés devolverle lengua?

Arte y activismo: el error como estética política

En arte y activismo, bio-poiesis puede operar de forma explícita: usar IA para producir fricción, no para suavizar. Trabajar con prompts que fuerzan contradicciones, o con reescrituras que evidencian estereotipos. La IA, en este caso, se vuelve objeto de crítica performativa: un espejo que muestra la norma para poder romperla.

Cuatro líneas de acción en clave de derechos digitales

Para que bio-poiesis no quede como ética individual, cierro este eje con un programa mínimo de intervención:

  1. Alfabetización crítica del lenguaje generativo
    No solo “cómo pedirle cosas”, sino cómo leer sesgos, detectar neutralizaciones, reconocer estilos hegemónicos y reescribir desde lo situado (Bender et al., 2021; D’Ignazio & Klein, 2020).
  2. Auditoría situada y feminista (modelo EDIA)
    Desarrollar metodologías regionales que evalúen sesgos lingüísticos, culturales y de género, con participación de comunidades y organizaciones (D’Ignazio & Klein, 2020).
  3. Gobernanza y soberanía de datos
    Leyes y políticas que reconozcan la dimensión cultural de los datos: consentimiento, trazabilidad, retorno, límites a extracción y reglas públicas para uso de corpus (Ricaurte, 2019).
  4. Diseño con justicia y cuidado (Latam-GPT como disputa)
    Si se construyen modelos regionales, que incorporen principios de Design Justice: participación real, decisiones colectivas sobre corpus, y métricas orientadas a pluralidad cultural (Costanza-Chock, 2020).

Reabrir el futuro

El necro-logos no es una metáfora apocalíptica: es una descripción política de un régimen cultural emergente donde la predicción se vuelve norma y la norma se vuelve mundo. Frente a eso, la bio-poiesis no es nostalgia por “lo humano puro”: es una apuesta por sostener la creatividad como potencia vital, situada y conflictiva.

En Paraguay y el Sur Global, la disputa no es técnica: es cultural y política. Se juega en los datos, en las lenguas, en las instituciones, en la educación, en el periodismo, en los feminismos. Y se juega en una pregunta simple, pero decisiva: ¿vamos a delegar la producción de sentido a una infraestructura que optimiza el pasado, o vamos a insistir en escribir futuro desde nuestros cuerpos, territorios, activismos y la potencia del error?

Bibliografía

A. Filosofía de la Técnica y Teoría Crítica (El Núcleo Duro)

  1. Sadin, É. (2024). La vie spectrale: Penser l’ère du métavers et des IA génératives. Éditions Grasset. (Fuente primaria para el concepto de espectralidad).
  2. Sadin, É. (2020). La inteligencia artificial o el desafío del siglo: Anatomía de un antihumanismo radical. Caja Negra Editora.
  3. Sadin, É. (2022). La era del individuo tirano: El fin de un mundo común. Caja Negra Editora.
  4. Han, B.-C. (2022). Infocracia: La digitalización y la crisis de la democracia. Taurus.

B. Feminismo de datos, decolonialidad y sur global

  1. Ricaurte, P. (2019). Data Epistemologies, The Coloniality of Power, and Resistance. Television & New Media, 20(4), 350–365.
  2. Rivera Cusicanqui, S. (2010). Ch’ixinakax utxiwa: Una reflexión sobre prácticas y discursos descolonizadores (1.ª ed.). Tinta Limón.
  3. D’Ignazio, C., & Klein, L. (2020). Data Feminism. MIT Press.
  4. Varon, J., & Peña, P. (2021). Decolonising AI: A transfeminist methodology. Coding Rights.
  5. Costanza-Chock, S. (2020). Design Justice: Community-Led Practices to Build the Worlds We Need. MIT Press.
  6. Birhane, A. (2021). Algorithmic injustice: a relational ethics approach. Patterns, 2(2).

C. Lingüística computacional crítica y ética de la IA

  1. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency.
  2. Crawford, K. (2021). The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
  3. Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

D. Artículos de divulgación y ensayos recientes (2023-2025)

  1. Chiang, T. (2023, February 9). ChatGPT Is a Blurry JPEG of the Web. The New Yorker. Recuperado de newyorker.com
  2. Lanier, J. (2023, April 20). There Is No A.I. The New Yorker.
  3. Bogost, I. (2024, January). The Age of AI has Begun. The Atlantic.
  4. LaFrance, A. (2023). The Rise of Techno-Authoritarianism. The Atlantic.
  5. Shipper, D. (2024). Think First, AI Second. Every.to.
  6. Koebler, J. (2024). The Internet Is Filling Up With AI Sludge. 404 Media.
  7. Warzel, C. (2023, February). The Enshittification of Everything. The Atlantic. (Útil para explicar la degradación de la calidad del contenido online).
  8. Klein, N. (2023, May 8). AI machines aren’t ‘hallucinating’. But their makers are. The Guardian.
  9. The Atlantic. (2025). A tool that crushes creativity (AI “slop” y erosión de vínculos/valor cultural). The Atlantic
  10. The Atlantic. (2022). Your creativity won’t save your job from AI. The Atlantic
  11. The New Yorker. (2025). Will the humanities survive artificial intelligence? The New Yorker
  12. The New Yorker. (2025). A.I. is coming for culture. The New Yorker
  13. The New Yorker. (2025). A.I. is homogenizing our thoughts. The New Yorker
  14. Nature. (2025). Can AI be truly creative? Nature
  15. Every.to. (2025). Think first, AI second. Every

E. Informes regionales y locales

  1. TEDIC. (2023). Violencia de género en línea y algoritmos: Una mirada desde Paraguay. CyborgFeminista.
  2. Access Now. (s. f.). Artificial intelligence and human rights (recursos y FAQ sobre generativa). Access Now
  3. Access Now. (2025). The use of artificial intelligence and the UN Guiding Principles on Business and Human Rights (submission a ONU). OHCHR
  4. Derechos Digitales. (2024). Inteligencia artificial, derechos humanos y justicia social: Construyendo futuros desde América Latina (PDF). Derechos Digitales
  5. Karisma. (2023). Informe sobre políticas de IA y derechos de autor en América Latina. Fundación Karisma
  6. DataGénero. (2023). AymurAI: IA responsable para una justicia abierta y con perspectiva de género. DataGénero
  7. UNDP (RBLAC). (2025). Gender bias in AI: Risks and opportunities… (working paper/report). UNDP
  8. International IDEA. (2025). Artificial intelligence and information integrity: Latin American experiences (PDF). International IDEA
  9. Latin America and the Caribbean Feminist AI Network. (2025). Call for concept notes / feminist data governance & AI (PDF). Red IA Feminist