La Nada sintética: El colapso de lo real ante lo artificial

TEDIC
Acceso a la información Blog

Por: Guillermo Ramírez Lovera

1. El avión de botellas

Todo empezó un martes cualquiera de octubre pasado, mientras hacía lo que la mayoría de las personas hacemos para «desconectarnos» y que, irónicamente, nos conecta a una red actualmente llena de dudas: scrollear en redes sociales. De pronto, apareció una publicación en Facebook de una de las mentes más lúcidas y una de las miradas más entrenadas del arte y la curaduría en Paraguay. Sin embargo, ahí estaba él, compartiendo conmovido la imagen de un niño que supuestamente había construido un avión con botellas de plástico ya que su familia, de escasos recursos, no le podía comprar uno.

La imagen era impactante, perfecta, emocional. Y era, también, falsa.

Me tomó un menos de segundo darme cuenta de que nada en la escena era real, desde la perfección del avión de botellas de plástico, la iluminación de la imagen, la expresión del niño, todo era producto de una inteligencia artificial generativa. En ese momento sentí una picazón distinta. Si una eminencia estética -alguien que dedicó su vida a mirar y entender la imagen- podía ser engañado por la IA, ¿qué nos queda al resto? Le saqué una captura de pantalla y se la envié a varias personas con quienes comparto conversaciones sobre el impacto de la tecnología en la vida cotidiana. Esa captura fue la chispa que inspiró la redacción de este texto.

No escribo esto para decir que la IA es el diablo, ni para pedirte que tires tu smartphone al río. Eso sería un lujo de pocos y una ceguera frente a la utilidad de estas herramientas. Escribo porque estamos ante un dilema social que no podemos seguir ignorando: la realidad se está deshilachando en sus costuras que la mantenían unida y funcional.

Para explicarlo, quiero recurrir a una analogía que las personas de más de 40 años quizás recuerdan: «La Nada». En La Historia Sin Fin, novela de Michael Ende que fue adaptada con éxito al cine en los 80s, el mundo de la imaginación se está muriendo. En esta historia el villano no es un monstruo que muerde, es algo conocido como la Nada. Es un vacío que avanza y desaparece todo lo que toca. Lo más inquietante es que, en la historia, las cosas que caen a la Nada no mueren, simplemente pasan a nuestro mundo (el real) convertidas en mentiras.

Eso es exactamente lo que siento hoy frente a mis pantallas. La IA generativa está funcionando como esa Nada, que avanza sin parar. Ya no estamos solamente ante sofisticadas «fotos falsas», estamos perdiendo el piso de lo que es real. Cuando todo lo que se nos ocurre o puede ocurrir puede ser creado con un comando de texto, nuestra capacidad de asombro se devalúa y la verdad se vuelve algo extremadamente difícil de definir.

¿Por qué está pasando esto tan rápido? Porque no es solo un avance científico o tecnológico, es una carrera por el dinero. Las grandes empresas tecnológicas se metieron en un baile de miles de millones de dólares y ahora necesitan que usemos sus herramientas para que el negocio les cierre. Hay una sensación de burbuja financiera gigantesca (CBS News, 2024; Estrategias de Inversión, 2024) que necesita que te suscribas, que generes imágenes, que las compartas en tus redes, que te asombres con lo que se crea y podés crear. No están esperando a ver si la sociedad está lista para distinguir un deepfake de una foto real, están lanzando productos a una velocidad a la que no le interesa la cuestión moral porque los mercados financieros no buscan nada más que retorno sobre la inversión.

2. Soporte epistémico: Por qué nuestro cerebro elige el engaño

Si la Nada avanza, es porque encuentra un terreno fértil. Y en nuestro mundo digital e hiperconectado, ese terreno es nuestra propia psicología. La IA generativa no necesita ser perfecta para engañarnos, solo necesita ser «suficientemente buena» para que nuestro cerebro, que siempre está apurado mientras vamos saltando de contenido en contenido, rellene los espacios vacíos.

Hay un concepto que la académica canadiense Regina Rini explica muy bien: el «soporte epistémico» (Rini, 2020). Durante décadas, las fotos y los videos fueron la prueba última de que algo pasó. «Si hay foto, es verdad». Ese era nuestro suelo firme. Pero hoy, ese suelo se parece más a la arena movediza. Ya no podemos distinguir un rostro real de uno sintético, lo dice la ciencia: estudios recientes muestran que las caras creadas por IA ya nos parecen más reales que las humanas (Miller et al., 2023).

Este fenómeno se vuelve particularmente peligroso cuando sale del laboratorio y entra en el barro de la política o la vida cotidiana. Miremos el caso del deepfake de TikTok que mostraba a Horacio Cartes y «Nenecho» Rodríguez en un beso apasionado. Aunque era una manipulación evidente y hecha con humor, circuló con una fuerza increíble. ¿Por qué? Porque la Nada se alimenta de nuestros sesgos, de lo que ya creemos. No compartimos esas cosas porque creamos que son fotos periodísticas, sino porque refuerzan lo que ya pensamos del otro. La imagen sintética es el combustible perfecto para el fanatismo: ya no necesito que algo sea verdad, me basta con que «parezca» lo que yo quiero que sea verdad.

Pero hay un lado todavía más oscuro, y es cuando la IA ataca la soledad. Quizás leíste sobre la mujer francesa que poco tiempo atrás perdió 850.000 dólares porque creía que estaba de novia con Brad Pitt (Pascual, 2024). Un Brad Pitt sintético, claro. La IA en este caso no es solo un meme, es un arma quirúrgica que grupos criminales utilizan para explotar la vulnerabilidad emocional. Y en esta línea de fuego, las personas adultas mayores son las más expuestas. Datos recientes confirman que a mayor edad, más difícil es discernir lo artificial de lo real (Nightingale et al., 2024). Mientras las empresas de tecnología corren para ganar la carrera financiera, están dejando atrás a toda una generación que creció en un mundo donde lo que se veía, aunque sea en una pantalla, era real.

Incluso figuras como el Papa León XIV han tenido que salir a advertir sobre estos peligros (Diario HOY, 2026). No es una preocupación de tinte religioso, es una preocupación por la dignidad humana. Cuando personales médicos creados con IA en forma de influencers empiezan a dar consejos de salud que nadie supervisa (CBS News, 2024), o cuando el contenido basura -el llamado AI Slop que inunda las redes- empieza incluso a reescribir historias tan sensibles como el Holocausto (UNESCO, 2024; CBS News, 2026), lo que estamos perdiendo es nuestro archivo social, nuestra historia, nuestra memoria colectiva. Si permitimos que este fenómeno arrasador se coma nuestro pasado y confunda nuestro presente, nos vamos a quedar sin nada sobre lo que construir un futuro común.

3. El día que dejamos de creerle a los ojos


Si aceptamos, como vimos antes, que el soporte epistémico de Rini se rompió, lo que nos queda es un territorio donde la evidencia ya no es prueba, sino un trámite libre a la interpretación. La ingeniera y periodista Karen Hao, en su investigación sobre el «Imperio de la IA» (Hao, 2024), revela una estructura inquietante detrás de empresas como OpenAI. Bajo el liderazgo de figuras como Sam Altman, la prioridad absoluta no ha sido la precisión, la seguridad o la integridad de la información, sino la dominación del mercado a través de una escala masiva y agresiva. Estas herramientas no se entrenaron en laboratorios asépticos buscando la verdad, se entrenaron engullendo datos de todo internet de forma opaca y sin permiso, con un objetivo único: que la máquina sea, ante todo, convincente y que salga al mercado lo antes posible.

En esta carrera armamentista del capital, la verdad es tratada como un costo de oportunidad o, en el peor de los casos, como una molestia. El éxito de los modelos generativos actuales no radica en su capacidad de reflejar la realidad, sino en su capacidad de simularla con tal perfección que nuestras defensas cognitivas se desactivan. Cuando nos encontramos con un deepfake no estamos ante una falla del sistema, estamos ante un sistema funcionando exactamente como fue diseñado, para que lo sintético sea indistinguible de lo real, priorizando la captura de nuestro asombro, nuestro tiempo y dinero por encima de la integridad de nuestra percepción.

Este colapso del soporte epistémico no es una falla de atención individual; es el resultado de un sistema diseñado para hackear nuestra biología. Lo vimos en el ejemplo inicial cuando una mirada entrenada en la estética y la curaduría es superada por un algoritmo, lo que cae no es solo un prestigio personal, sino nuestra confianza colectiva en lo visual. El fenómeno del hiperrealismo de la IA -confirmado por estudios de psicología cognitiva (Miller et al., 2023)- demuestra que nuestro cerebro ya juzga lo sintético como ‘más humano’ que lo real. La IA ha logrado saltarse el famoso «valle inquietante» -esa sensación de rechazo instintivo ante lo que parece casi humano pero no lo es- para instalarnos en una zona de confort visual donde lo falso nos resulta más coherente, más nítido e incluso estéticamente más satisfactorio que la realidad misma.

Al romperse este soporte, la consecuencia más grave no es que nos engañen con una imagen tierna, sino la disolución del testimonio. Regina Rini advierte que si perdemos la capacidad de confiar en el registro visual, perdemos la capacidad de sostener la verdad frente al poder. En un mundo sin soporte epistémico, la realidad se vuelve una cuestión de opinión, algo que todos de alguna u otra manera estamos viviendo actualmente, especialmente en las redes sociales al discutir eventos globales. La Nada no necesita ocultar los hechos ya que le basta con inundar el ecosistema de versiones sintéticas hasta que la ciudadanía común, agotada por la duda constante, decida que «nada es verdad y todo es posible». Esta es la verdadera derrota metafísica, una sociedad que ya no puede ponerse de acuerdo sobre lo que sus ojos están viendo es una sociedad que ha perdido la capacidad de coordinarse para exigir justicia, para construir memoria o para defender sus derechos.

La responsabilidad del discernimiento se ha trasladado de forma violenta al individuo, pero en un entorno donde la herramienta principal de nuestra vida -el smartphone– es la misma que nos inunda de simulacros a una velocidad que el pensamiento crítico no puede seguir. Estamos navegando en un mar de imágenes sin brújula, donde la «Nada» informativa se encarga de llenar cada espacio de duda con ruido, sospecha y, finalmente, con un cansancio cultural que termina por manchar todo con un negro océano de dudas que llevan a la indiferencia.


4. Del “dividendo del mentiroso” a la amnesia colectiva.

Si la quiebra de la evidencia visual fuera solo un problema de percepción individual, el dilema sería menor, una cuestión de educación visual o de «mirar mejor». El problema real es que esta erosión ocurre en un ecosistema de poder donde la verdad ya no es una meta compartida, sino una moneda de cambio sujeta a la ley de la oferta y la demanda. Al desaparecer el suelo firme de lo que es real, entramos en un escenario que les investigadores Kaylyn Schiff y Daniel Schiff denominan el «Liar’s Dividend» o el Dividendo del Mentiroso (Schiff et al., 2023). Es una trampa lógica perfecta y aterradora ya que en un mundo donde las mayorías sabemos que existen los deepfakes, los actores políticos y las figuras de poder ganan un salvoconducto automático, una excusa perfecta, para negar la realidad.

Ahora, cualquier prueba comprometedora -un video de un soborno grabado con un celular, un audio de una confesión o una foto de una negligencia estatal- puede ser descartada bajo la excusa de que «es una creación de IA». No hace falta demostrar técnicamente que es falso ya que basta con sembrar la duda suficiente para paralizar la indignación pública y la rendición de cuentas. En Paraguay, un país con una fragilidad institucional histórica, el «Dividendo del Mentiroso» actúa como un acelerador de la impunidad, hoy la mera existencia de la IA generativa le regala a los corruptos una duda razonable permanente. El mayor peligro de esta Nada digital no es la creación de mentiras creíbles, sino la ejecución pública de las verdades.

Esta vulnerabilidad estructural se ve potenciada por lo que el emprendedor tecnológico británico Mustafa Suleyman define, en su libro “The Coming Wave” (“La Ola Venidera”) (Suleyman & Bhaskar, 2023), como la naturaleza de «proliferación masiva» de esta ola tecnológica. A diferencia de otras tecnologías críticas de la historia, como la energía nuclear o la aviación, la capacidad de generar desinformación hiperrealista no requiere de grandes infraestructuras, uranio enriquecido o permisos estatales. Es una tecnología de costo marginal casi nulo, fácil de copiar y prácticamente imposible de contener una vez que el código está en la red. Esta «democratización del engaño» significa que la capacidad de inundar el discurso público con simulacros ya no es exclusividad de servicios de inteligencia estatales, hoy está en manos de cualquier grupo con un interés político o económico o incluso de cualquier persona con ganas de crear confusión.

Suleyman advierte que estamos ante una fuerza que desborda cualquier capacidad de monitoreo humano. Cuando la producción de contenido sintético supera por órdenes de magnitud nuestra capacidad de verificarlo, la «relación señal-ruido» se desbarata. El resultado es un cansancio ciudadano, ante la imposibilidad de saber qué es cierto, la gente opta por creer únicamente a su propia “tribu”, convirtiendo la imagen sintética en el combustible perfecto para el fanatismo, especialmente el digital. Esto es algo que cualquier persona que use “X” (anteriormente Twitter) puede comprobar en cualquier momento.

Pero el riesgo escala cuando la IA abandona el terreno de la política y ataca nuestra seguridad emocional y física más íntima. Estamos viendo cómo la manipulación de identidades para estafas -usando el hiperrealismo para simular secuestros virtuales o relaciones afectivas inexistentes- está destruyendo el tejido de confianza más básico de la sociedad. Esta brecha de detección no es solo técnica, es generacional y, por ende, política. Si en el análisis inicial veíamos cómo el sesgo de confirmación afecta incluso a miradas entrenadas, en el ecosistema electoral esto se convierte en una vulnerabilidad sistémica. Las poblaciones con menor alfabetización digital, como nuestros adultos mayores, no solo son las más expuestas al engaño, sino que son utilizadas como vectores involuntarios para viralizar desinformación que erosiona la conversación pública. La ‘Nada’ no solo deshace la imagen, deshace los puentes de entendimiento entre generaciones.

Sin embargo, el peligro más profundo y el que debería preocuparnos como sociedad es el que afecta a nuestra memoria histórica. El llamado AI Slop (contenido sintético de mala calidad que inunda redes sociales y plataformas de video) ya está empezando a «contaminar» los registros del pasado ya que las inteligencias artificiales empiezan a retroalimentarse de lo la gente produce con ellas. Como advierte la UNESCO, corremos el riesgo de entrar en una era de amnesia organizada (UNESCO, 2024). Las bases de datos que usaremos en diez o veinte años para entender quiénes fuimos estarán inundadas de versiones alteradas de manera sintética de la historia. Imaginemos un Paraguay donde las fotos de las luchas sociales o de los períodos dictatoriales se mezclen con imágenes generadas por IA que «suavizan» los hechos o inventan protagonistas.

La Nada no destruye los hechos por la fuerza, sencillamente los vuelve irrelevantes al enterrarlos bajo una montaña de simulacros más brillantes, estéticos y fáciles de digerir que la cruda y a veces aburrida realidad. Un pueblo que ya no puede distinguir su historia real de una generada por un servidor extranjero es un pueblo que ha perdido su soberanía cultural e histórica. Los informes de TEDIC sobre la vulnerabilidad estratégica en el ciberespacio cobran aquí un significado existencial (Heduvan, 2025), si no protegemos la integridad de nuestra información y nuestra memoria, estamos entregando nuestra identidad a algoritmos opacos que no tienen compromiso alguno con la verdad, sino con la persistencia del usuario en la pantalla. Al final, si la Nada se come el pasado, nos deja sin mapa para navegar el futuro, convirtiendo nuestra cultura en un presente perpetuo y sintético donde nada tiene peso y nada, realmente, importa.

5. La dictadura de la perfección: Cuando lo real se vuelve aburrido

Hay, además, un peligro silencioso en la capacidad infinita de la IA generativa: la devaluación de lo que existe, de la “realidad real”. Si con un comando de texto puedo generar un atardecer «perfecto» sobre un paisaje que solo existe en mi deseo, ¿qué incentivo me queda para salir a buscar el atardecer real, con sus mosquitos, su calor paraguayo y la imperfección del horizonte repleto de cables de la ANDE?

Estamos entrando en lo que podríamos llamar la dictadura de la estética algorítmica. La IA no nos ofrece la realidad, nos ofrece una versión «optimizada» de ella. Nos da el paisaje que debería ser, no el que es. Y aquí aparece el síntoma más grave para mi de la Nada, la erosión de nuestra capacidad de asombro. El asombro humano nace de lo inesperado, de lo imperfecto, de la limitación, de saber que algo es único y que mañana quizás no será igual. Pero cuando lo infinitamente ilimitado está a un clic de distancia, la sorpresa se devalúa.

El riesgo es que empecemos a percibir la «realidad real» como un borrador defectuoso de lo sintético. Si los videos generados por IA -incluso sabiendo que lo son- son más vibrantes, más emocionantes y responden exactamente a nuestro capricho y estímulos puntuales, la realidad empieza a sentirse aburrida, lenta y, sobre todo, no-customizable. La naturaleza y la sociedad no se pueden «promptear» (generar con un comando de texto). Un encuentro real con un desconocido en la calle tiene roces, silencios incómodos y riesgo, la IA, en cambio, es un artefacto que nos devuelve siempre lo que queremos ver, de la manera en que lo queremos ver.

Esta es la forma definitiva de la Nada, una sociedad que prefiere la comodidad de su smartphone, donde puede crear paraísos a medida, antes que el riesgo de salir a descubrir un mundo que no le pertenece y que no puede controlar. Cuando «lo real» deja de ser suficiente, no es que la tecnología haya ganado, es que nosotros le entregamos nuestra curiosidad y humanidad en bandeja. Nos convertimos en la ciudadanía de “Fantasía” que, al dejar de creer en el valor de lo auténtico, permiten que el vacío se coma su mundo poco a poco.

6. Caminos de resistencia: La soberanía de lo real.

Llegados a este punto, la pregunta es inevitable ¿estamos condenados a vivir en la «Nada»? Si aceptamos que la tecnología ya no va a dar marcha atrás y que la carrera financiera de Silicon Valley seguirá inundando nuestras pantallas de contenido sintético, la respuesta no puede ser la rendición ni el aislamiento. La salida no es un interruptor de «apagado», sino la construcción de una resistencia colectiva y consciente. No hay una solución única, pero hay caminos que podemos empezar a recorrer hoy mismo.

El primer camino es el institucional y político, siempre. No podemos dejar que la seguridad de nuestra realidad dependa únicamente de la buena voluntad de las empresas tecnológicas. Como sociedad, necesitamos exigirle al Estado exijan regulaciones claras. Un paso fundamental es la implementación obligatoria de marcadores de IA (marcas de agua digitales o metadatos de autenticidad). Así como exigimos que los alimentos tengan etiquetas con sus ingredientes, debemos exigir que cualquier imagen o video generado sintéticamente lleve un sello que lo identifique y que sea difícil de eliminar. La Unión Europea ya ha empezado a investigar a plataformas como Grok, de Elon Musk, por la creación de imágenes sexualizadas y desinformativas sin control (Reuters, 2026). Paraguay no puede ser una isla en esto, necesitamos pelear y colaborar por estándares de transparencia globales que nos otorguen el derecho a saber qué estamos consumiendo y cómo se produjo.

El segundo camino es el de la alfabetización y la «pausa crítica». Tenemos que aprender a ser escépticos de nuevo, pero no un escepticismo cínico que lo niega todo, sino uno más metódico. Como individuos, nuestra mejor herramienta es la duda antes del clic. Antes de compartir esa imagen que nos genera una indignación instantánea o esa noticia que parece «demasiado buena para ser verdad», tenemos que hacernos preguntas básicas: ¿Quién lo publica? ¿Hay otras fuentes que lo confirmen? ¿Hay rastros de IA (manos con seis dedos, texturas demasiado lisas, fondos desenfocados de forma extraña)? Educarnos para identificar estos marcadores -ojo, mientras todavía existan- es una forma de higiene digital básica en los tiempos que corren.

Sin embargo, el camino más profundo y el que más me interesa resaltar es el de la «realidad real». Aquí es donde quiero ser muy claro, proponer «dejar de usar el smartphone» es una postura que hoy encierra un privilegio de clase. Para la gran mayoría de las personas en todo el mundo, ese aparato es el vínculo con la familia que está lejos, es la herramienta de trabajo, es el medio para recibir un giro o para coordinar el día a día. Pedirle a la gente que se desconecte es pedirle que se margine. La resistencia no es el exilio digital, la resistencia es la reconexión física, la construcción de un tejido social diverso, rico y fuerte.

Nuestra humanidad existe y se fortalece por fuera de los algoritmos. La salida a la erosión del asombro es volver a mirar lo que tenemos cerca. Es habitar los espacios compartidos sean estos la plaza, el mercado, la mesa larga del domingo o la conversación en la calle con el vecino. En esos espacios, la IA todavía no tiene jurisdicción. El asombro que la Nada nos roba en la pantalla -donde todo es perfecto pero vacío- lo recuperamos en la imperfección de lo tangible, buscando belleza en las cosas reales y cercanas. Una conversación cara a cara nos ofrece algo que ningún modelo de lenguaje puede replicar: la presencia, el tono de voz real, el gesto que no ha sido procesado por una tarjeta de video.

Construir un tejido social resistente significa entender que, aunque el smartphone e incluso las inteligencias artificiales sean útiles, no pueden ser nuestro espejo del mundo. Si dejamos que toda nuestra vida pase por el filtro de la pantalla, le estamos entregando las llaves de nuestra realidad a un puñado de corporaciones que solo ven en nosotros suscriptores y datos. Salir a lo real es un acto político de soberanía personal. Es decidir que mi capacidad de asombrarme con una fotografía real de un yaguareté en el Chaco o con el rostro de mi madre tiene más peso que cualquier imagen generada por un prompt. En esa insistencia por lo humano, por lo que se puede tocar y oler, es donde la Nada finalmente se detiene.

7. Nombrar la Realidad: Una negociación con el vacío

Al final de La Historia Sin Fin, el reino de Fantasía ha sido reducido a un solo grano de arena. Todo lo demás -sus paisajes, sus criaturas, su historia- ha sido devorado por la Nada. La Emperatriz Infantil le explica al protagonista que el mundo puede renacer, pero solo si él tiene el valor de darle un nombre. Entonces la salvación no viene de una gran batalla épica, sino de un acto de reconocimiento y voluntad: nombrar la realidad para devolverle su existencia.

Nosotros estamos hoy en una situación similar. La IA generativa es una tecnología que personalmente encuentro fascinante, pero si permitimos que avance sin nombre y sin límites, acabará por devorar nuestra capacidad de distinguir lo que es verdad. El riesgo no es que las máquinas se vuelvan inteligentes, el riesgo es que nosotros nos volvamos indiferentes. Que nos demos cuenta cómo las imágenes o videos creados con IA vayan ocupando cada vez más espacio en las plataformas, los medios e incluso nuestros chats con amigos y simplemente nos encojamos de hombros pensando que «así nomás ya son las cosas ahora».

Esa indiferencia es la que alimenta a la Nada. Por eso, este artículo es un llamado a «nombrar» las cosas de nuevo. Nombrar a la IA como lo que es, una herramienta poderosa de síntesis y replicación, pero nunca una fuente de verdad o humanidad, mucho menos de asombro real. Nombrar a nuestra realidad como algo sagrado que merece ser protegido con regulaciones, con educación y, sobre todo, con presencia física.

Cuando aquel octubre compartí con amigos el posteo del niño con su avión de botellitas de plástico, lo hice porque sentí que algo se estaba rompiendo. Hoy, después de analizar los riesgos y los caminos de salida, estoy convencido de que la rotura no tiene por qué ser permanente. Tenemos la oportunidad de renegociar nuestra relación con la tecnología. Podemos elegir no ser cómplices de una amnesia colectiva.

Recuperar el asombro por lo auténtico, dudar antes de compartir y, fundamentalmente, volver a mirarnos a los ojos sin una pantalla de por medio, son los actos de resistencia que van a mantener a salvo nuestro “grano de arena”. Al igual que en la historia que usé como analogía durante toda esta redacción, el futuro de nuestra «Fantasía» -que no es otra cosa que nuestra propia realidad humana- depende enteramente de nosotros. Es hora de darle un nombre y reclamar nuestro derecho a vivir en un mundo donde ver algo con nuestros propios ojos vuelva a ser, de una vez por todas, una forma de creer.

8. Bibliografía

CBS News (2 de agosto de 2024). Is the AI boom a bubble? Here’s what some experts say. Recuperado de https://www.cbsnews.com/news/artificial-intelligence-ai-bubble-stock-market-economy-dotcom

CBS News (29 de febrero de 2024). Deepfake videos impersonating real doctors push false medical advice and treatments. Recuperado de https://www.cbsnews.com/news/deepfake-videos-impersonating-real-doctors-push-false-medical-advice-treatments/

CBS News (27 de enero de 2026). As world marks International Holocaust Remembrance Day, concern over «AI slop» rewriting history. Recuperado de https://www.cbsnews.com/news/holocaust-remembrance-day-concern-ai-slop-rewriting-history/

Diario HOY (24 de enero de 2026). El papa León XIV vuelve a advertir sobre los peligros de la IA. Recuperado de https://www.hoy.com.py/mundo/2026/01/24/el-papa-leon-xiv-vuelve-a-advertir-sobre-los-peligros-de-la-ia

Estrategias de Inversión (6 de agosto de 2024). Las inversiones en IA y los préstamos arriesgados: ¿una nueva burbuja? Recuperado de https://www.estrategiasdeinversion.com/analisis/bolsa-y-mercados/informes/las-inversiones-en-ia-y-los-prestamos-arriesgados-n-869339

Hao, K. (2024). The AI empire: OpenAI and the cost of scale.

Heduvan, J. H. (2025). Paraguay en el ciberespacio: vulnerabilidades estratégicas en la frontera digital. TEDIC, Asunción, Paraguay.

Miller, E. J., et al. (2023). AI hyperrealism: why AI-generated faces are perceived as more real than human faces. Psychological Science, 34(12). https://doi.org/10.1177/09567976231207095

Nightingale, S. J., et al. (2024). Age-related differences in the ability to detect AI-generated images. Journal of Media Psychology.

Pascual, M. G. (21 de septiembre de 2024). La estafa de los falsos Brad Pitt: cómo dos mujeres perdieron cientos de miles de euros. El País. Recuperado de https://elpais.com/tecnologia/2024-09-21/la-estafa-de-los-falsos-brad-pitt-como-dos-mujeres-perdieron-cientos-de-miles-de-euros.html

Reuters (26 de enero de 2026). EU opens investigation into X over Grok’s sexualised imagery, lawmaker says. Recuperado de https://www.reuters.com/world/europe/eu-opens-investigation-into-x-over-groks-sexualised-imagery-lawmaker-says-2026-01-26/

Rini, R. (2020). Deepfakes and the epistemic backstop. Philosophers’ Imprint, 20(24).

Schiff, K. J., Schiff, D. S. y Bueno, N. S. (2023). The liar’s dividend: can politicians claim misinformation to evade accountability? [Working Paper].

Suleyman, M. y Bhaskar, M. (2023). The coming wave: technology, power, and the twenty-first century’s greatest dilemma. Crown, Nueva York, Estados Unidos.

UNESCO (2024). AI and the Holocaust: rewriting history? The impact of artificial intelligence on understanding the Holocaust. Recuperado de https://unesdoc.unesco.org/