Las emergencias no deberían ser un cheque en blanco

Maricarmen Sequera Buzarquis
Blog Datos Personales

En el artículo anterior de la serie #Antivirus reflexiono sobre la importancia de la gobernanza en tiempos de emergencia de la salud para desarrollar soluciones tecnológicas eficaces, y resalto el bajo impacto que tienen las experiencias locales de desarrollo de tecnologías y datos abiertos por su falta de sostenimiento en el tiempo, generando información precaria para mitigar la enfermedad de COVID-19. En este segundo capítulo voy a señalar la importancia del desarrollo de soluciones tecnológicas y las preocupantes desmedidas de vigilancia y control social sobre los datos personales en contextos adversos.

La protección de los datos personales y la privacidad también promueve la salud pública de calidad

En tiempos de emergencia la gente se ha venido movilizando, utilizando lo mejor de sus capacidades para responder y proponer soluciones, y esas respuestas tienen que ver cada vez más con las tecnologías digitales. En este marco de acciones, existe una creciente cantidad de agentes de la sociedad civil, comunidad técnica y sector privado que construyen o lanzan aplicaciones de autovigilancia y notificación a la comunidad, para una participación ciudadana activa.

Muchas de estas soluciones tecnológicas desconocen estándares de privacidad y protección de datos personales, cuando estas consideraciones deberían ser la base de cualquier desarrollo, pues realizan tratamientos de datos de salud, es decir, información sensible. En cambio, siguiendo las recomendaciones de expertos en datos personales, deberían estudiar y aplicar las guías para el desarrollo de apps basadas en los estándares de datos personales del RGPD1.

Algunos principios y consideraciones tecnológicas2 que se deberían implementar en estas soluciones tecnológicas son:

  • aviso de privacidad y datos personales accesible a los usuarios y usuarias, que incluya: consentimiento informado, finalidad, calidad del dato, confidencialidad, seguridad, identificación del responsable del tratamiento de los datos personales
  • permitir que las personas usuarias elijan y controlen la configuración de privacidad3
  • que incluya privacidad por diseño4
  • que sólo almacene datos necesarios para que funcione la app
  • disociación de los datos
  • realizar informes anonimizados de transparencia a la ciudadanía
  • publicar en formato de datos abiertos
  • entrega de información sensible sólo por orden judicial al sistema penal5
  • notificar a la persona usuaria en caso que instituciones del estado soliciten su información
  • transferencia informada de los datos
  • desarrollar instrumentos de testeo: qué es un caso sospechoso, qué es un caso confirmado, cuál es la metodología detrás de estas definiciones

También se advierte la existencia y desarrollo de programas maliciosos (spyware y malware) que se hacen pasar por aplicaciones relacionadas al coronavirus a nivel global. Se ha generado un mercado ilegal que utiliza información de aplicaciones y plataformas web mal diseñadas con fines de espionaje, chantaje, y otros delitos.

1) Esta falta de buenas prácticas en el tratamiento de datos sensibles se evidencia en las propuestas locales

La aplicación Rastreo COVID19, creada por un grupo de jóvenes informáticos, es una app que “registra contactos con otras personas y recibe notificaciones en caso de que se confirme un infectado”. En un primer análisis, no se observa ninguna de las recomendaciones mencionadas, y sin las salvaguardas legales necesarias, existe un alto riesgo de que este tipo de iniciativas termine en abusos, sea por filtración de información, fallas de ciberseguridad, venta de la bases de datos, vigilancia desproporcionada, etc.

A esta preocupación se suman iniciativas municipales como el Programa Ñangareko de la Gobernación de Paraná, que es una plataforma web para la distribución de kits de alimentos y la entrega de recursos económicos para personas en situación de vulnerabilidad. Para recibir esta ayuda, la persona debe completar un formulario con datos personales, por lo que la plataforma está construyendo una base de datos sensibles de toda la población vulnerable de Paraná. Un primer problema que se puede observar, es que la plataforma no cuenta con un elemento básico de seguridad digital como es la conexión segura (https), lo que implica que el intercambio de información se realiza sin cifrar. Otro problema es el alojamiento de la base de datos sensibles, que está en una empresa denominada host.com.py, cuando debería estar en servidores del Estado6. Tampoco cuenta con las recomendaciones desarrolladas más arriba.

Otro ejemplo es el formulario del supuesto Censo de emergencia COVID19, a través del cual se recolecta información sensible, sin responsable del tratamiento de datos personales y sin el aval del Ministerio de Salud Pública de Paraguay. Las instituciones del Estado comunicaron que no es un sitio oficial y solicitaron a la población que no se inscriba en portales falsos.

Por otro lado, la iniciativa ciudadana autoreporte.org ofrece información sobre los síntomas de la enfermedad, para intentar evitar la saturación del sistema de atención primaria del Ministerio de Salud, y además brinda información estadística.

Y por último, tenemos la plataforma del Ministerio de Salud, que es de acceso restringido y de uso interno de la institución, así como para las personas diagnosticadas con COVID19. Esta plataforma almacenará datos personales y datos sensibles, trámites médicos y geolocalización, de acuerdo con las indicaciones de la Dirección General de Vigilancia de la Salud.

Una publicación del Ministerio de Tecnología de la Información y Comunicación (MITIC) señaló que

esta aplicación cruzará por primera vez las bases de datos de Migraciones (de quienes ingresaron al país), de la Policía Nacional (que valida los datos personales de los ciudadanos) y los datos de Salud (del cumplimiento de la cuarentena), para el envío de reportes médicos (…). El ministro Alejandro Peralta Vierci detalló que “estas personas van a recibir un SMS para conectarse a la aplicación donde van a certificar sus datos, responder a un primer reporte médico de su estado clínico actual y permitir el registro de su geolocalización. La Dirección General de Vigilancia de la Salud del MSPBS contará con estos datos para hacer más eficiente el control de las personas en cuarentena”.

Aunque esta plataforma no se encuentra disponible al público y no hay una ley de datos personales, se sugiere la publicación de informes estadísticos y de impacto, ya que utiliza bases de datos con información sensible. Además, deberían publicar una política de privacidad y datos personales, así como también protocolos de salvaguarda de los datos.

Es fundamental que cada iniciativa pública o privada tenga en cuenta estas políticas de privacidad y seguridad digital para proteger los datos personales que serán almacenados. Un buen ejemplo es el MIT, de EEUU, que desarrolló una aplicación móvil denominada Private Kit: Safe Paths que tiene el principio de privacidad por diseño y comparte de forma detallada cómo será el procesamiento de los datos personales7.

2) El terreno fantasioso de la geolocalización de las personas a través de las apps o el rastreo a través de las ISP, y otras vulneraciones de la privacidad para combatir la pandemia

Los enfoques institucionales que utilizan el rastreo de contactos para determinar nuevos casos se basan en pruebas médicamente aprobadas. Tanto el rastreo de los contactos como la presunción de enfermedad, tienen un enorme impacto en el derecho a la intimidad de las personas8. Además, es importante tener en cuenta que las políticas de geolocalización de los smartphones rastrearán los teléfonos de las personas, no el virus.

Según una publicación del NY Times sobre la vigilancia masiva en China9, la aplicación móvil denominada Alipay (filial del gigante del comercio Alibaba) es capaz de clasificar a las personas en tres categorías (roja, amarilla y verde), indicando qué deben hacer frente a cada código. Los datos provienen del Estado, las proveedoras de Internet, la propia aplicación móvil y el cruzamiento de las empresas de servicios comerciales y financieros. Se desconoce el tipo de software que utilizan, así como el algoritmo que clasifica a las personas. Además, el artículo afirma que realizaron auditorías al software y encontraron que la aplicación permite a las autoridades acceder a los teléfonos utilizando una puerta trasera (backdoor).

En el caso de Corea del Sur10 están haciendo el seguimiento de las personas a través de su posición geográfica, utilizando los móviles, y se están usando las grabaciones de las cámaras de seguridad y el historial de compras con tarjeta de crédito. Esta aplicación es conocida como «Corona 100m».

Según una publicación de The Guardian11, la industria de la telefonía móvil a través del consorcio internacional GSMA, ha explorado la creación de un sistema global de intercambio de datos que podría rastrear a las personas en todo el mundo, como parte de un esfuerzo para frenar la propagación de COVID-19.

Por otro lado, se destaca otro esfuerzo global de tracking de personas, el caso de la empresa Facebook que lanza el proyecto “Mapas de Prevención de Enfermedades” 12. En estos mapas se muestran variables como las tendencias de movilidad: información sobre órdenes de confinamiento, tracking de contactos y el grado de «conexión social» entre distintas regiones. El proyecto tiene varias similitudes con el anunciado por Google, que registra datos de geolocalización de los teléfonos móviles para elaborar estadísticas sobre la movilidad de las personas en países o regiones, con el propósito de evaluar los efectos y el grado de cumplimiento del confinamiento. Según estas dos empresas, los datos que publican son genéricos y anonimizados.

Cómo lo expresa Access Now, organización internacional en defensa de los derechos digitales13:

Estos datos de localización son muy reveladores. Simplemente siguiendo los movimientos de una persona basados en los datos de localización de un teléfono inteligente, se puede deducir la dirección de su casa y su lugar de trabajo, trazar un mapa de su interacción con los demás, identificar sus visitas al médico, inferir su estatus socioeconómico y más. Sin las medidas de seguridad adecuadas, las herramientas de rastreo y geolocalización pueden permitir la vigilancia ubicua”.

Por tanto, el uso de la geolocalización para ayudar a hacer frente a la propagación del coronavirus debe llevarse a cabo de una manera que respete los derechos, promueva la confianza en el gobierno y proteja la seguridad individual, dado el mayor riesgo de que se produzca un aumento de la vigilancia masiva patrocinada por el Estado14.

En Singapur el gobierno implementó una app de auto-reporte llamada TraceTogether que ofrece información relacionada con el COVID19, el stock de farmacias, los servicios de salud y además rastrea los contactos con los que se haya cruzado la persona, sin utilizar GPS sino el sistema Bluetooth. Esta solución de auto-reporte surge frente al problema del establecimiento de distancias en los casos en que las personas viven en edificios: con el mecanismo de GPS se arrojarían datos erróneos, ya que se observarían aglomeraciones donde en realidad no las hay15.

Según una publicación del Center for International Governance Innovation 16, un tipo de abordaje como el de China, Corea del Sur o Singapur, que permite generar un mapeo de su población en tiempo real, no garantiza que toda esa información recopilada ayude en la predicción de la evolución de la pandemia.

Por otro lado, uno de los primeros casos de rastreo de contactos digitales COVID-19 por parte de plataformas de contenidos fue Uber, donde las autoridades utilizaron el historial de un presunto infectado para rastrear posibles contactos en México17. Lo bueno de este mecanismo es que se encontró al paciente, pero lo malo es que Uber suspendió temporalmente las cuentas de 240 personas, basándose en que viajaron con dos conductores que estaban bajo sospecha de estar infectados.

La economía de las plataformas y la dimensión cada vez más privada de la respuesta a los desastres implican un riesgo fundamental, que es que perdemos la capacidad de saber si las decisiones (como la que tomó Uber) son o no adecuadas. La forma en que se utiliza la ley para evaluar un problema específico, es considerar si se utilizó un enfoque legítimo de eficacia comprobada, si las medidas adoptadas fueron necesarias para lograr el objetivo, y si la invasión y los daños que las medidas causan son proporcionales a la magnitud del problema que resuelven. En el ejemplo de Uber, la empresa pensó que actuaba en favor del interés público, pero su enfoque fue aplicar una prohibición específica de viajar, lo que resultó ser ineficaz desde el punto de vista jurídico ya que afectó a 240 personas sin saber realmente si estaban en riesgo.

Uno de los usos de datos sensibles puede ser el rastreo de conexiones sociales para encontrar posibles infectados, pero para garantizar su eficacia y su legalidad, debe ser realizado en el marco de una sospecha específica, a través de pruebas científicamente aprobadas y utilizando los mecanismos institucionales.

Desde el Alto Comisionado de la ONU se insiste18 en la necesidad de evitar excesos en las medidas de seguridad que se toman con respecto al brote de coronavirus, y recuerdan que las facultades de emergencia no deben utilizarse para reprimir la disidencia:

«Si bien reconocemos la gravedad de la actual crisis de salud y reconocemos que el derecho internacional permite el uso de poderes excepcionales en respuesta a amenazas significativas, recordamos urgentemente a los Estados que cualquier respuesta de emergencia al coronavirus debe ser proporcionada, necesaria y no discriminatoria».

La coalición Al Sur, integrada por organizaciones de la sociedad civil de América Latina para trabajar en la defensa de los derechos digitales (de la que TEDIC es parte), emitió un comunicado19 que expresa una preocupación similar: “El uso de tecnologías digitales para combatir esta pandemia no puede quedar excluido de un examen de necesidad y proporcionalidad ante eventuales efectos en nuestros derechos fundamentales”.

Teniendo en cuenta que los sistemas de salud se están acercando a su capacidad de contención y tratamiento de la COVID-19, hay que tener especial precaución en no utilizar mecanismos seudocientíficos o tecno-solucionistas, ya que pueden dificultar la modelización efectiva de la pandemia y confundir innecesariamente tanto al propio Ministerio de Salud como a las personas.

3) Transparencia en la información sensible de salud: un virus que no discrimina y personas que sí lo hacen

En entrevista con Última Hora, el director de Vigilancia de la Salud de Paraguay, Guillermo Sequera, subraya que la información de geolocalización de la ciudadanía genera una seguridad falsa y además estigmatiza a la persona enferma:

La gente quiere saber dónde está la persona afectada. No nos estamos dando cuenta que haciendo eso le estoy estigmatizando y yo podría ser el portador, me voy a enfermar y enfermaré a los que están a mi alrededor. Está circulando el virus, tomemos precauciones con todos. […] En todos los lugares del mundo se da y es un problema ético. Ahora la discusión ética es la confidencialidad del dato y la estigmatización del caso”.

El gobierno de Singapur mantiene una base de datos abierta de casos, con información personal (aunque sin nombre), historias de localización e información actualizada. Incluso en este ejemplo, hay que tener en cuenta que cuando se combina toda esta información con elementos como pánico, escasez y desesperación, pueden aparecer problemas de sesgo y tener finalmente consecuencias peligrosas e imprevistas.

En países como Paraguay, la publicación de información georreferenciada sobre las infecciones, a diferencia de lo que ocurre en Singapur, genera un efecto secundario muy peligroso para la vida de las personas: amenazas de muerte y escraches (persecuciones públicas)20 que se dan a causa de la estigmatización de las personas con COVID-1921.

En este marco, el Ministerio de Salud destacó la vigencia de los tratados internacionales sobre derechos humanos ratificados por el país, así como del derecho a la intimidad (CN art. 33) y de la Resolución S.G. 146/2012, que afirma lo siguiente:

Artículo N.º 4: “(El personal de salud) tiene la obligación de respetar y de proteger los derechos a la intimidad y a la privacidad de las personas, por lo que en los servicios de salud queda terminantemente prohibido filmar o fotografiar a usuarios sin su consentimiento (…)”.

Artículo N.º 6: “(…) todo personal de salud está obligado a respetar el carácter confidencial de la información y datos de todas las personas que reciben una atención en salud o acuden para recibir información y orientación en un servicio de salud y, -por tanto-, garantizar el secreto profesional”.

La población en general no tiene los instrumentos para gestionar adecuadamente una respuesta a este tipo de crisis y a menudo se puede dar paso al miedo y la discriminación. Por ejemplo, las personas parecen no entender que el principal determinante de la mortalidad por COVID-19 es la baja capacidad de los sistemas de salud para dar respuesta a tantas personas infectadas en tan corto tiempo.

Este tipo de mirada distorsionada puede desembocar en la aprobación popular de medidas de vigilancia y control social, que podrían ser utilizadas más adelante en otros contextos y afectar negativamente los derechos individuales y colectivos.

Control social: la preocupante vigilancia tecnológica en manos de Estados corruptos o autoritarios

La preocupación principal por el uso de tecnologías de vigilancia de la salud no es la tecnología en sí misma, sino la forma en que se despliega. El control sobre lo social que genera suele eludir las garantías incorporadas en nuestras estructuras institucionales, que son vitales en tiempos de emergencia prolongada. En contextos institucionales con alto grado de transparencia y confianza ciudadana se generan controles independientes del ejercicio de la autoridad y también un fuerte apoyo a las políticas estatales. Sin embargo, en contextos con alto grado de corrupción, como el de Paraguay22, utilizar estas tecnologías y generar estos mecanismos de control social implica un gran riesgo para toda la población.

Lamentablemente, las herramientas y tácticas de control social que se desarrollen durante una crisis de salud pública como la COVID-19, se vuelven a utilizar incluso cuando terminan los estados de emergencia. Un ejemplo de esto es Corea del Sur, donde la licencia social creada para utilizar los registros de llamadas en una emergencia anterior, se ha vuelto a utilizar para el análisis del tráfico en otras ocasiones23. Es previsible que las herramientas, tácticas y poderes digitales que desarrollemos durante esta respuesta conduzcan a futuros intentos de manipular los mercados, las fronteras y la política.

En los últimos años, las empresas y las plataformas tecnológicas han utilizado su maquinaria para realizar experimentos durante diferentes crisis humanitarias. Ejemplos de ello han sido la implementación de inteligencia artificial, big data y machine learning24. Con la pandemia actual se está generando toda una industria de la vigilancia, que se puede apreciar por ejemplo en el rápido desarrollo de tecnologías para la identificación facial, incluso cuando se utilizan tapabocas o máscaras25. Mientras que la vigilancia epidemiológica se realiza dentro de los límites de la ética médica, las tecnologías que permiten la vigilancia personal no cumplen protocolos científicos, ni cuentan con mecanismos para probar su calidad o su aplicabilidad contextual enfocada en derechos humanos.

Además, dado que estas plataformas se construyen como una “caja negra”, es decir, sin posibilidad de auditoría, no tenemos forma de comprender la equidad subyacente, los derechos que están en juego o el debido proceso que pueden vulnerar, ni de evaluar la legitimidad de las acciones de ciertos gobiernos. El uso del control estatal como sustituto de la legitimidad es una forma muy peligrosa que toma el poder en tiempos de desastre o emergencia.

Los expertos en ética médica destacan que no es necesario conocer el estado de salud a través de una aplicación móvil de rastreo y vigilancia de una persona, si esta puede comunicar de manera eficaz y segura lo que le pasa, y tomar acciones según la orientación de los profesionales. De manera similar, no hay necesidad de «vigilar» a la población a través de tecnologías indirectas, si existe la capacidad de comunicar y confiar en las instituciones del Estado.

A menudo las grandes tragedias inspiran cambios normativos y una reestructura de poderes. Algunas de las leyes e instituciones internacionales más importantes de ética biomédica se fundaron tras la Segunda Guerra Mundial, basándose en las conclusiones del Juicio de los Médicos de Nuremberg y el consiguiente Informe Belmont. Si bien los efectos del brote de COVID-19 no pueden compararse con la escala de mortalidad causada por la Segunda Guerra Mundial, vale la pena preguntarse cuán profunda debe ser una crisis para lograr construir un sistema de salud público universal que pueda resolver los problemas de la población y en el que se pueda confiar.

Con demasiada frecuencia se desdibuja fácilmente la línea entre la vigilancia de las enfermedades y la vigilancia de la población, y se suelen pasar por alto las consecuencias de la utilización de la tecnología, que a menudo son muy preocupantes.

Conclusión

Estos dos artículos se han centrado en analizar los usos y abusos de las intervenciones tecnológicas dirigidas a dar respuesta a esta emergencia mundial sin precedentes en cuanto a su velocidad. Se excluyen intencionadamente los sistemas y tecnologías que intervienen en los efectos de segundo orden: la comunicación pública, el estímulo económico y la aplicación de la ley. En cambio, profundizo en las medidas extraordinarias y experiencias a nivel global y local para responder al coronavirus desde el punto de vista tecnológico, entre ellas la geolocalización en tiempo real, el uso de modelos algorítmicos y apps específicas para la cuarentena.

El impulso que han tenido las comunidades de tecnología en «hacer algo» en este momento de crisis es inspirador, sin embargo este tipo de abordajes no tiene en cuenta que las soluciones deberían ser estructurales e integrales. Para que ello sea así, es importante contar con el respaldo de grupos de expertos de varias disciplinas, así como de grupos de gobernanza, para garantizar un camino que nos sirva a todos los sectores.

Paraguay no se escapa de esta tendencia en el uso de tecnologías, pero tiene varias falencias estructurales como para poder generar soluciones que garanticen los derechos de las personas. Desde TEDIC se advierte la ausencia de una ley integral de protección de datos personales en Paraguay como normativa que obligue a todos los sectores a la salvaguarda y protección de los datos de las personas. Ante esta falta de normativa local, se apela a que las iniciativas que utilicen tecnología para esta situación de emergencia tengan en cuenta los estándares de la normativa europea sobre datos personales (RGPD), para así lograr mayor competitividad y un adecuado respeto de los derechos a la intimidad (art 33 de la CN) y los demás derechos fundamentales.

No es nuevo ni políticamente radical sugerir que cuando el Estado toma medidas utilizando poderes excepcionales, los controles constitucionales y contractuales deben incluir una supervisión sólida, cláusulas de extinción y disposiciones para la solución de controversias.

Por último, es importante recalcar que cuando se habla de implementación de tecnología que implica el tratamiento de datos personales de carácter sensible, el debate se debe centrar en la privacidad, así como también en el control que se ejerce sobre la población y de qué forma esto impacta los derechos fundamentales, tanto en el presente como en el futuro.

Notas:

  1. Reglamento General de Protección de Datos de la Unión Europea: https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:32016R0679&from=ES#d1e2307-1-1
  2. La protección de datos personales en bases de datos públicas en Paraguay: https://www.tedic.org/wp-content/uploads/2017/09/La-protecci%C3%B3n-de-Bases-de-Datos-en-Paraguay_Documento-Final.pdf
  3. Guía de Buenas Prácticas para el desarrollo de Apps: http://www.jus.gob.ar/media/3075908/guiabpsoftware.pdf
  4. La importancia de la seguridad en la economía digital: https://www.tedic.org/la-importancia-de-la-seguridad-en-la-economia-digital-ciberseguridad/
  5. ¿Quién defiende tus datos? https://qdtd.tedic.org/
  6. Desde la publicación de este artículo, el programa se ha extendido a todo el país y su página web está ahora alojada en un sitio web gubernamental con una conexión https segura
  7. Apps Gone Rogue: Maintaining Personal Privacy in an Epidemic: https://arxiv.org/pdf/2003.08567.pdf
  8. Phones Could Track the Spread of Covid-19. Is It a Good Idea? https://www.wired.com/story/phones-track-spread-covid19-good-idea/
  9. China y la vigilancia en tiempos de COVID19: https://www.nytimes.com/2020/03/01/business/china-coronavirus-surveillance.html
  10. South Koreans are using smartphone apps to avoid the novel coronavirus: https://qz.com/1810651/south-koreans-are-using-smartphone-apps-to-avoid-coronavirus/
  11. Mobile phone industry explores worldwide tracking of users: https://www.theguardian.com/world/2020/mar/25/mobile-phone-industry-explores-worldwide-tracking-of-users-coronavirus
  12. Covid-19: Facebook crea mapas de prevención con datos anónimos de usuarios: https://www.ultimahora.com/covid-19-facebook-crea-mapas-prevencion-datos-anonimos-usuarios-n2878853.html
  13. Recommendations on privacy and data protection in the fight against COVID-19: https://www.accessnow.org/cms/assets/uploads/2020/03/Access-Now-recommendations-on-Covid-and-data-protection-and-privacy.pdf
  14. European Data Protection Board: Processing of personal data in the context of the COVID-19 outbreak: https://edpb.europa.eu/news/news/2020/statement-edpb-chair-processing-personal-data-context-covid-19-outbreak_es
  15. La ingeniosa APP de Singapur para frenar el coronavirus: https://www.elconfidencial.com/tecnologia/2020-03-26/singapur-app-coronavirus-covid19-smartphones_2516539/
  16. The Digital Response to the Outbreak of COVID-19: https://www.cigionline.org/articles/digital-response-outbreak-covid-19
  17. Uber temporarily suspends 240 accounts in Mexico over coronavirus fears: https://www.theverge.com/2020/2/3/21120643/uber-coronavirus-mexico-accounts-suspension
  18. COVID-19: los Estados no deben abusar de las medidas de emergencia para reprimir los DD HH – Expertos de la ONU: https://www.ohchr.org/SP/NewsEvents/Pages/DisplayNews.aspx?NewsID=25722&LangID=S
  19. Sociedad civil pide a gobiernos de América Latina y el Caribe que tecnologías digitales aplicadas ante la pandemia COVID-19 respeten los DDHH: https://www.tedic.org/sociedad-civil-pide-a-gobiernos-de-america-latina-y-el-caribe-que-tecnologias-digitales-aplicadas-ante-la-pandemia-covid-19-respeten-los-ddhh/
  20. Familia de paciente con Covid-19 recibe amenazas: https://www.ultimahora.com/familia-paciente-covid-19-recibe-amenazas-n2875197.html
  21. Contagiada de #COVID19 relata su experiencia de diagnóstico y represalias por parte de la ciudadanía: https://twitter.com/SomosGEN/status/1247329375399358469
  22. Según IDEA Internacional, Paraguay ocupa el penúltimo lugar en transparencia de la región. Ver: El estado de la democracia en el mundo y en las Américas 2019: https://www.idea.int/publications/catalogue/summary-global-state-of-democracy-2019?lang=es
  23. Creepy Or Comforting? South Korea Tracks Smartphones To Curb MERS: https://www.npr.org/sections/goatsandsoda/2015/06/10/413183459/creepy-or-comforting-south-korea-tracks-smartphones-to-curb-mers
  24. Scientists Crunch Data to Predict How Many People Will Get Coronavirus: https://www.wsj.com/articles/scientists-crunch-data-to-predict-how-many-people-will-get-coronavirus-11584479851
  25. Empresa china logra el reconocimiento facial incluso con mascarilla: https://cnnespanol.cnn.com/video/mascarilla-reconocimiento-facial-coronavirus-tecnologia-china-hanwang-huang-lei-clix-cnnee-vo/

One comment

Comments are closed.