(por Fernanda Carlés)
En los últimos años, el uso de herramientas de inteligencia artificial se volvió casi inevitable. En muchos espacios laborales, y particularmente en organizaciones de la sociedad civil, la IA aparece como una forma de “hacer más con menos”: escribir más rápido, ordenar ideas, resumir documentos extensos, preparar borradores de informes, pensar proyectos o analizar información.
Las exigencias del propio mercado laboral empujan en esa dirección: se espera rapidez, eficiencia y capacidad de respuesta inmediata. En ese contexto, los chatbots pueden ser una herramienta útil e incluso positiva para el trabajo en derechos humanos, ambiente, educación, salud o comunicación. Negarlo sería poco realista.
El problema es que estas herramientas no existen en el vacío; al menos de la manera en que están construidas y disponibilizadas al público actualmente. Operan dentro de una lógica de negocios basada en la acumulación de datos. La mayoría de los sistemas de IA generativa actuales son desarrollados por empresas privadas cuyo modelo se apoya, directa o indirectamente, en recolectar información, entrenar modelos y escalar productos. Eso tiene implicancias claras para la privacidad y la seguridad.
Por otro lado, muchas de estas tecnologías son relativamente nuevas. Son startups o productos en rápido desarrollo, con historiales de incidentes de seguridad, filtraciones y fallas ya documentadas1 2. No estamos hablando de riesgos hipotéticos. La extracción de datos, accesos indebidos o cambios poco transparentes en las políticas de uso ya ocurrieron y seguirán ocurriendo.
En ese escenario, este artículo no busca demonizar la IA ni promover su uso acrítico. Busca algo más modesto y más urgente: proponer algunos lineamientos básicos de seguridad para usar IA sin poner en riesgo a personas, comunidades u organizaciones.
Consejo 1: anonimizar los prompts no es opcional
En las organizaciones sociales, el riesgo no suele estar en un uso “malintencionado” de la IA, sino en su uso apurado y rutinario. Abrimos el chatbot para destrabar una tarea, escribimos un prompt casi sin pensarlo y, sin darnos cuenta, introducimos información que no necesitaba salir de nuestro espacio de trabajo.
Cuando trabajamos con personas, especialmente en contextos de vulnerabilidad, violencia, denuncia o exclusión, ese exceso de información puede vulnerar derechos. No solo los derechos de quienes acompañamos, sino también los de nuestras propias organizaciones. No es raro que en un prompt aparezcan datos sobre integrantes del equipo, dinámicas internas, conflictos, proyectos en curso, fuentes de financiamiento o incluso movimientos bancarios, simplemente porque creemos que eso “ayuda a que la IA entienda mejor”.
El problema es que, una vez compartida, esa información sale de nuestro control directo. Y es importante reconocer que no hace falta poner en riesgo nuestra privacidad, la de la organización o la de las personas con las que trabajamos para obtener buenos resultados. Existen formas de usar IA de manera efectiva sin exponer información sensible, y una de las más importantes es la anonimización de los prompts.
Anonimizar la información que compartimos en un chatbot no solo nos protege frente a un escenario extremo, como una filtración masiva de datos por parte de la empresa que provee el servicio, un riesgo que –como ya mencionamos– no es meramente hipotético, sino también frente a situaciones mucho más simples y cotidianas. Errores de seguridad en cuentas personales, hackeos, accesos indebidos o incluso el robo o extravío de dispositivos sin medidas de protección adecuadas pueden convertir un prompt descuidado en una fuente de exposición innecesaria.
¿Qué significa realmente anonimizar un prompt?
Anonimizar no es solo borrar nombres propios. Es un proceso mucho más amplio que empieza por identificar qué es un dato personal o sensible, y por comprender que en la práctica, la identificación rara vez ocurre únicamente a través de una etiqueta explícita como un nombre o un número de documento. Muy a menudo, las personas se vuelven identificables por el conjunto de información que las rodea.
Edad exacta, barrio o zona donde vive, tipo de trabajo, fecha aproximada de un hecho, composición familiar, condición de salud, institución involucrada, rol dentro de una organización. Cada uno de esos datos, tomado de manera aislada, puede parecer inofensivo. Pero cuando se combinan, funcionan como una huella digital. Incluso sin nombres propios, esa combinación puede permitir que alguien reconozca a la persona, especialmente en comunidades pequeñas, contextos territoriales acotados o sectores de trabajo muy específicos, como suele ocurrir en el ámbito de las organizaciones de la sociedad civil.
Este fenómeno es particularmente relevante cuando trabajamos con poblaciones vulnerabilizadas. En muchos casos, no hace falta que un tercero tenga mala intención para identificar a alguien. A veces basta con conocer el territorio, el equipo de trabajo o el contexto local para que una descripción “anonimizada” resulte obvia. Por eso, la anonimización no puede reducirse a un gesto mecánico de borrar datos, sino que requiere un ejercicio consciente de abstracción y cuidado.
Como regla general, hay cierto tipo de información que no debería incluirse nunca en un prompt, incluso si la intención es “solo pedir ayuda”:
- Nombres reales de personas
- Direcciones específicas o ubicaciones exactas
- Números de teléfono o correos electrónicos
- Números de identificación personal (CI, RUC, pasaporte)
- Información médica asociada a personas identificables
- Datos financieros personales
- Detalles contextuales que permitan reconocer a alguien aunque no esté nombrado
A partir de ahí, la lógica de uso de la IA cambia. En lugar de trabajar con casos individuales, se trabaja con perfiles generales. En lugar de hechos fechados y localizados, con patrones. En lugar de historias reales, con ejemplos ficticios construidos a partir de múltiples situaciones.
Por ejemplo, no es lo mismo pedirle a un chatbot que “reformule el testimonio de una mujer que vive en tal barrio y sufrió tal situación”, que pedir ayuda para estructurar testimonios anónimos sobre violencia doméstica manteniendo impacto emocional y cuidado de identidad. El objetivo es el mismo, pero el riesgo es radicalmente distinto.
Otra buena práctica es pedir plantillas o estructuras en lugar de entregar textos ya redactados con información real. La IA puede ayudarte a pensar cómo organizar un informe, qué secciones incluir, qué tono usar o qué preguntas hacer, sin necesidad de conocer el contenido sensible. De este modo, se aprovecha la herramienta sin trasladar al chatbot datos que no deberían salir del espacio de la organización.
Consejo 2: cuidado con las alucinaciones y la falsa seguridad
El segundo gran riesgo al usar IA tiene menos que ver con lo que le damos y más con lo que recibimos. Los chatbots generan respuestas que suenan seguras, coherentes y bien escritas, incluso cuando están equivocadas.
Esto ocurre porque la IA no “sabe” en el sentido humano del término. No verifica información, no contrasta fuentes y no comprende las consecuencias de lo que afirma3. Genera texto probable a partir de patrones estadísticos, sin ningún tipo de comprensión que le permita evaluar la validez de sus propias respuestas. A veces acierta, a veces no, pero casi siempre responde con una convicción que da la impresión de estar diciendo la verdad.
En el trabajo en el área de derechos humanos, esto puede ser especialmente problemático. Marcos legales incorrectos, interpretaciones erróneas, datos desactualizados o recomendaciones inapropiadas pueden generar daños reales. Por eso, usar IA sin validación experta es un riesgo que no debería subestimarse.
Cabe mencionar, además, que el riesgo de incorporar información errada a nuestro trabajo no es algo nuevo ni exclusivo de la inteligencia artificial. Desde siempre, las personas construimos conocimiento en sociedad y decidimos en qué creer, en función de la confianza que depositamos en determinadas personas, grupos, instituciones o autoridades. Lo que cambia con la IA no es la existencia del error, sino la forma en que hoy accedemos a las respuestas.
Hasta hace algunos años, investigar un tema implicaba recorrer distintas fuentes: libros, artículos académicos, páginas web, documentos institucionales. Cada quien, consciente o no, tomaba una decisión sobre a qué fuente otorgar mayor credibilidad. En los primeros años de Internet, esta lógica se profundizó con una descentralización sin precedentes de la información: podíamos elegir entre un libro escrito por un profesional reconocido, una entrada de Wikipedia consensuada por miles de personas de contextos diversos, o un blog de un activista con una mirada del mundo cercana a la nuestra.
El uso actual de la IA modifica radicalmente ese proceso. Nos empuja a obtener respuestas casi inmediatas de una máquina que muchas veces no cuenta con información actualizada ni necesariamente veraz, que no asume ninguna responsabilidad por lo que produce y que, sin embargo, responde con una seguridad que puede hacernos creer que habla desde una verdad incuestionable.
Frente a este escenario, y más allá del hecho de que la IA ya está reemplazando a los humanos en muchas tareas e incluso en algunos puestos, queda en evidencia que el rol humano de responsabilidad sobre lo producido por una IA no debería ser opcional, jamás. Siempre debería haber una persona responsable que revise, verifique y tome decisiones: un abogado, una trabajadora social, un profesional de la salud, una ingeniera ambiental, un comunicador. La IA puede asistir, sugerir o ayudar a ordenar ideas, pero la responsabilidad final es siempre humana.
Usar IA de forma responsable implica asumir que ninguna respuesta es definitiva y que toda información relevante debe ser chequeada con fuentes externas, experiencia profesional y conocimiento local.
Consejo 3: elegir mejor las herramientas también es una decisión política
No todas las herramientas de IA son iguales. Algunas están diseñadas con mayor preocupación por la privacidad, otras priorizan abiertamente la recolección de datos. Elegir una u otra no es solo una cuestión técnica, sino también política y ética.
Existen plataformas que apuntan a la privacidad por diseño, con menor nivel de identificación, menos retención de datos o mayor transparencia. También existen alternativas para usar IA sin cuentas personales o incluso modelos locales en contextos donde la información es especialmente sensible.
En otros casos, la decisión puede ser más simple; no usar IA para ciertos contenidos: estrategias legales, listas de personas en riesgo, denuncias activas o información crítica no siempre se benefician de la automatización. A veces, la mejor práctica de seguridad es no pasar esos datos por ninguna IA.
Sobre este punto ya desarrollamos un artículo específico sobre privacidad y chatbots4, donde analizamos distintas plataformas y enfoques. Vale la pena leerlo en conjunto con este texto para tomar decisiones más informadas.
En conclusión
La inteligencia artificial llegó para quedarse, también en el trabajo de las organizaciones de la sociedad civil. Usarla no es, en sí mismo, un problema. El problema es usarla sin pensar desde dónde se produce, qué lógica la atraviesa y qué riesgos introduce.
Prompting seguro no es una técnica avanzada ni un lujo. Es una práctica cotidiana de cuidado. Cuidado de las personas con las que trabajamos, de nuestras organizaciones y de la información que manejamos.
Si algo no debería circular fuera de tu equipo, probablemente tampoco debería estar en un chatbot.
Y si una respuesta parece demasiado segura, siempre conviene desconfiar un poco y verificar.
Usar IA con criterio no nos hace menos eficientes. Nos hace más responsables.
La presente publicación ha sido financiada por la Unión Europea. Su contenido es responsabilidad exclusiva de TEDIC y no refleja necesariamente los puntos de vista de la Unión Europea.
Notas:
- OpenAI revela filtración de datos y alerta a sus usuarios sobre posibles ataques de phishing (Wired, 2025): https://es.wired.com/articulos/openai-revela-filtracion-de-datos-y-alerta-a-sus-usuarios-sobre-posibles-ataques-de-phishing.
- Violaciones de datos de IA: causas fundamentales e impacto en el mundo real (LayerX, 2025): https://layerxsecurity.com/es/generative-ai/ai-data-breaches/
- Un chatbot que no “alucine” es simplemente imposible (Wired, 2025): https://es.wired.com/articulos/un-chatbot-que-no-alucine-es-simplemente-imposible
- Artículo sobre Privacidad y Chatbots de TEDIC.


Fairwork Paraguay 2025: El afianzamiento del trabajo en plataformas en Paraguay
Primer cuatrimestre del 2025: nuestra hoja de ruta por los derechos digitales a nivel internacional
[Oportunidad laboral] Asistencia de Administración y Contabilidad