investigar. formar. incidir.

Menú
Actualidad | Artículos propios | Sin categorizar

Riesgos, dilemas y horizontes de la innovación tecnológica en la acción humanitaria

En las dos últimas décadas, los avances tecnológicos y la innovación han transformado profundamente múltiples dimensiones de la vida humana, incluido el ámbito humanitario. El desarrollo de herramientas como la inteligencia artificial (IA), los sistemas biométricos, los drones o la conectividad satelital, ha abierto nuevas oportunidades para mejorar la acción humanitaria, aunque también ha generado dilemas éticos, jurídicos, políticos y ambientales de gran complejidad. A pesar de su creciente uso, la mayoría de estas innovaciones carecen aún de una reflexión crítica y de una regulación sólida que oriente su aplicación de manera responsable y ética. La brecha entre la rápida adopción tecnológica y la lenta formulación de marcos normativos y protocolos adecuados está generando consecuencias tangibles, como riesgos para la privacidad y la protección de datos, sesgos algorítmicos, o impactos ambientales significativos.

Ante este panorama, resulta urgente promover un debate informado sobre los impactos y límites del uso de tecnologías emergentes en la acción humanitaria, así como definir estrategias de mitigación que garanticen su alineación con los principios humanitarios. Este artículo se propone contribuir a esa reflexión, analizando los principales riesgos asociados a la adopción de tecnologías innovadoras en el ámbito humanitario y ofreciendo orientaciones para avanzar hacia un uso ético, regulado y verdaderamente centrado en el bienestar de las personas. En este contexto de transformación tecnológica, una de las tecnologías que mayor impulso ha adquirido recientemente es la inteligencia artificial. Esta se emplea en áreas diversas del sector humanitario: el análisis predictivo de crisis o desplazamientos, la automatización de tareas repetitivas, o la optimización logística. Sin embargo, la falta de regulación y formación en el uso de esta tecnología en el ámbito humanitario incrementa los riesgos relacionados con la privacidad, la protección de datos, y en general, su aplicación ética y eficiente (Beduschi, 2022).

En esta línea, el estudio How Are Humanitarians Using Artificial Intelligence in 2025?, elaborado por la Humanitarian Leadership Academy, indica que el 70% del personal humanitario afirma utilizar herramientas o plataformas de IA con una frecuencia diaria o semanal. Sin embargo, este uso individual contrasta con la limitada capacidad institucional: menos del 25% de las organizaciones humanitarias cuenta con políticas de implementación y menos de la mitad ofrece una formación sólida al respecto. Además, solo el 8% de las organizaciones declara haber integrado la IA de forma estructural en sus actuaciones. Esto vuelve a evidenciar el
contraste entre un frecuente uso individual y una escasa preparación institucional respecto a la innovación tecnológica en el ámbito humanitario.

Además de los riesgos derivados de la falta de regulación y formación en este ámbito, el uso de IA también puede afectar la equidad en la acción humanitaria. Los modelos de IA reflejan los puntos de vista, valores y limitaciones de sus diseñadores y de los datos con los que son entrenados. Esto significa que pueden reproducir o incluso amplificar desigualdades estructurales existentes, como la discriminación racial, de género o socioeconómica. Por lo tanto, lejos de ser neutrales, los algoritmos pueden incorporar prejuicios y estereotipos humanos que influyen en la toma de decisiones dentro del sector humanitario, generando riesgos de exclusión y desigualdad si no se aplican de manera responsable (Beduschi, 2022).

Otra tecnología que se ha expandido notablemente en los últimos veinte años es la biometría, que se ha consolidado como una herramienta estándar para registrar y verificar la identidad de las personas beneficiarias de los programas humanitarios, mejorando de esta manera la trazabilidad de las operaciones, y facilitando el acceso a la ayuda. El ACNUR, por ejemplo, ha implementado sistemas biométricos en más de 90 operaciones en todo el mundo, registrando huellas dactilares, iris y rasgos faciales de millones de refugiados a través de su plataforma PRIMES. Esta tecnología ha sido adoptada también por agencias como el Programa Mundial de Alimentos (PMA) y la Organización Internacional para las Migraciones (OIM), estableciéndose como un elemento clave para la gestión de identidad en el ámbito humanitario (RAND Europe, 2024).

A pesar de sus beneficios operativos, la biometría plantea también riesgos considerables en materia de privacidad y protección de datos. Recopila y almacena información sensible, cuya filtración o uso indebido puede tener consecuencias graves. En la gestión de estos datos intervienen varios actores – gobiernos, agencias internacionales, empresas tecnológicas y ONGs-, lo que dificulta establecer responsabilidades claras en lo que se refiere a su manejo y protección (Siad, 2024).

Las agencias humanitarias, en particular, suelen tener un control limitado de los datos una vez que estos se comparten con terceros. Un ejemplo ilustrativo ocurrió en 2021, cuando el Gobierno de Bangladesh compartió con Myanmar los datos biométricos de 830.000 refugiados rohinyás, recopilados originalmente por el ACNUR, con el objetivo de evaluar su repatriación (Human Rights Watch, 2021). Ese mismo año, los talibanes capturaron dispositivos biométricos del ejército estadounidense al retomar el poder en Afganistán, generando preocupación por la posible exposición de bases de datos humanitarias con información de personal y beneficiarios civiles (Human Rights Watch, 2022).

Los riesgos asociados a la falta de privacidad y protección de datos también se extienden al uso de otras tecnologías, como es el caso de los drones humanitarios. Estas aeronaves sin piloto, capaces de operar en zonas inseguras o de difícil acceso, se han convertido en herramientas clave para la gestión de emergencias. Según el artículo Humanitarian Drones: A Review and Research Agenda, los drones son cada vez más imprescindibles para responder a desastres, ya que permiten transportar suministros, mapear áreas afectadas y recopilar imágenes de alta resolución que mejoran la planificación y la intervención humanitaria. Sin embargo, su uso también plantea dilemas éticos, como la captura sin consentimiento de imágenes o datos sensibles -por ejemplo, la ubicación de comunidades desplazadas- lo que puede poner a estas personas en riesgo de persecución o vigilancia indebida (Rejeb et al., 2021).

Otra problemática digna de reflexión es el uso dual de algunas de estas tecnologías emergentes, es decir, su empleo tanto con fines humanitarios como militares. Esta ambigüedad genera tensiones en contextos donde la neutralidad de las organizaciones y la confianza de las comunidades locales son esenciales para la acción humanitaria. Un ejemplo ilustrativo es la misión MONUSCO en la República Democrática del Congo, donde los drones se introdujeron para mejorar la protección de civiles mediante la vigilancia y recopilación de información en tiempo real. Sin embargo, estos mismos drones también se utilizaron con fines militares, como monitorizar movimientos de milicias o apoyar operaciones de las tropas de la ONU. En 2014, varias ONG internacionales rechazaron servirse para fines humanitarios de los datos recopilados por MONUSCO, debido al riesgo de uso dual de esta tecnología. El problema principal radica en que la población civil y los grupos armados no pueden distinguir si una misión de drones tiene fines humanitarios o militares, lo que genera desconfianza y pone en peligro la seguridad de civiles y personal humanitario. Por este motivo, las ONG advirtieron de que cualquier uso de los datos recogidos por los drones de MONUSCO podría vincularlas indirectamente a operaciones militares, comprometiendo los principios humanitarios de neutralidad, imparcialidad e independencia (Karlsrud & Rosén, 2013; The New Humanitarian, 2014).

La problemática del uso dual de la tecnología también aplica al caso de la conectividad satelital. Destaca el caso de Starlink, la red de satélites de SpaceX, que ofrece acceso a internet rápido y estable en zonas sin infraestructura terrestre, convirtiéndose en una herramienta potencialmente muy útil en crisis humanitarias y desastres derivados de fenómenos naturales. Starlink ha demostrado su utilidad en situaciones de emergencia, al restablecer la conexión a internet en contextos críticos como los terremotos de Vanuatu y Ecuador, permitiendo mantener las comunicaciones y coordinar las labores de respuesta. Sin embargo, durante la
guerra en Ucrania, el servicio ha sido utilizado tanto por organizaciones humanitarias y población civil como por las fuerzas armadas, evidenciando los riesgos asociados a su uso dual (Martin & Tsui, 2025; Sacchi, 2023).

En el caso de Starlink, se añade el riesgo de depender de una infraestructura controlada por intereses privados, que puede condicionar el acceso a este servicio a decisiones comerciales o personales. En este caso, la activación de la red depende directamente de la aprobación de Elon Musk y se realiza tras solicitudes públicas de autoridades estatales o actores humanitarios. Un ejemplo es Ucrania, donde la red se habilitó pocos días después de que el entonces viceprimer ministro y responsable de Transformación Digital, Mykhailo Fedorov, solicitara el acceso (Martin & Tsui, 2025). Esta dependencia coloca a humanitarios y poblaciones en situación de vulnerabilidad, ya que la continuidad del servicio puede verse afectada por intereses corporativos, políticos o incluso personales.

También es importante considerar el impacto ambiental de estas tecnologías. Empresas de conectividad satelital como Starlink llenan la órbita terrestre baja (LEO) con miles de satélites. Concretamente, hasta agosto de 2024 se contabilizaban más de 6.000 satélites, lo que representa más de la mitad de los aproximadamente 10.000 operativos en esa órbita. Su vida útil es de unos cinco años, lo que obliga a lanzar nuevos aparatos de forma constante para mantener el servicio. Esta saturación genera una congestión orbital que aumenta el riesgo de colisiones y produce una enorme cantidad de residuos. Aunque muchos satélites se desintegran al reingresar a la atmósfera, la Union of Concerned Scientists advierte de que contribuyen al calentamiento de la estratosfera y a la contaminación espacial (Roldan, 2025; Ashworth, 2024).

De manera similar, el uso masivo de la inteligencia artificial también tiene un impacto ambiental considerable. Particularmente, los modelos de aprendizaje profundo consumen grandes cantidades de energía para su entrenamiento y funcionamiento. En un contexto humanitario cada vez más comprometido con la sostenibilidad, un uso intensivo de estas tecnologías puede resultar contradictorio. (IECAH, 2024).

Por lo tanto, teniendo en cuenta que la normalización del uso de estas tecnologías en contextos humanitarios está generando múltiples riesgos -principalmente para las personas beneficiarias de los programas- es necesario redoblar esfuerzos para garantizar que su implementación sea cuidadosamente evaluada, supervisada y limitada. Así, la tecnología podrá aportar valor operativo sin comprometer la protección y dignidad de las poblaciones afectadas por su uso.

En la práctica, para mitigar estos riesgos, toda implementación tecnológica debe estar precedida por un análisis de necesidad y proporcionalidad, evaluando si la herramienta aporta un valor humanitario real, considerando los posibles riesgos de su aplicación y valorando alternativas menos intrusivas.

En caso de implementación, es muy recomendable que las organizaciones humanitarias desarrollen marcos internos de regulación y protocolos claros para su uso, los cuales deben incluir consideraciones éticas. De manera complementaria, resulta urgente fortalecer la regulación y los estándares internacionales que orienten el uso de estas tecnologías, con el fin de garantizar aspectos como la equidad en el acceso a los servicios, la sostenibilidad ambiental y la protección de los derechos humanos. En este ámbito, las organizaciones humanitarias pueden ejercer presión política para promover normativas que aseguren un uso responsable de la innovación tecnológica.

Por otra parte, resulta fundamental promover la capacitación de los actores humanitarios en este ámbito, facilitando programas internos de formación dirigidos al personal de las organizaciones. Esto permitirá implementar un uso adecuado de herramientas tecnológicas que, cada vez más, se integran en la labor humanitaria.

Además, es preciso aplicar el principio de “privacidad desde el diseño”, que consiste en integrar la protección de datos y la privacidad en todas las fases de desarrollo e implementación de un sistema o tecnología. Este enfoque garantiza que la información personal se gestione de forma segura, transparente y responsable, minimizando los riesgos asociados a su tratamiento.

En esta línea, las organizaciones humanitarias deben informar de manera clara y accesible del uso de las tecnologías, y obtener el consentimiento informado de las comunidades afectadas.
Asimismo, resulta recomendable cifrar los datos sensibles y realizar evaluaciones periódicas para identificar posibles sesgos o errores en los sistemas de inteligencia artificial y de biometría. La incorporación de mecanismos de supervisión externa y la participación activa de las comunidades en las decisiones sobre la implementación tecnológica fortalecen la legitimidad de las intervenciones, contribuyendo a que respondan a necesidades reales y reduciendo la probabilidad de daño o exclusión (Cantillo Velázquez, 2018; Saavedra Espinoza, 2024).

Por último, es recomendable evaluar de forma sistemática los impactos sociales, éticos y ambientales de cada tecnología antes de su despliegue, teniendo en cuenta las particularidades de cada contexto.

En definitiva, garantizar un uso responsable, ético y supervisado de estas tecnologías es esencial para que la innovación humanitaria cumpla su objetivo: proteger y asistir a las poblaciones en situación de vulnerabilidad sin generar nuevos riesgos ni desigualdades.

Referencias

  • Ashworth, B. (2024, 8 de agosto). ONG pide a Estados Unidos suspender los lanzamientos de satélites de Starlink por la sobreproducción de basura espacial. WIRED (edición en español). Recuperado de https://es.wired.com/articulos/ong-pide-a-estados-unidos-suspender-lanzamientos-de-satelites-de-starlink-por-sobreproduccion-de-basura-espacial
  • Beduschi, A. (2022). Harnessing the potential of artificial intelligence for humanitarian action: Opportunities and risks. International Review of the Red Cross (919). Recuperado de https://international-review.icrc.org/articles/harnessing-the-potential-of-artificial-intelligence-for-humanitarian-action-919
  • Cantillo-Velásquez, I. (2018). Los drones y su debate en el marco del Derecho Internacional Humanitario (Documento de docencia N.º 30). Bogotá, Colombia: Ediciones Universidad Cooperativa de Colombia. Recuperado de https://doi.org/10.16925/gclc.05
  • Humanitarian Leadership Academy (HLA). (2025, 7 de agosto). How are humanitarians using artificial intelligence in 2025? Mapping current practice and future potential – Initial insights report. Recuperado de https://www.humanitarianleadershipacademy.org/resources/initial-insights-report-how-are-humanitarians-using-artificial-intelligence-in-2025/
  • Human Rights Watch. (2021, 15 de junio). UN Shared Rohingya Data Without Informed Consent. Recuperado de https://www.hrw.org/news/2021/06/15/un-shared-rohingya-data-without-informed-consent
  • Human Rights Watch. (2022, 30 de marzo). New Evidence that Biometric Data Systems Imperil Afghans. Recuperado de https://www.hrw.org/news/2022/03/30/new-evidence-biometric-data-systems-imperil-afghans
  • IECAH (Instituto de Estudios sobre Conflictos y Acción Humanitaria). (2024, 12 de diciembre). La inteligencia artificial desde una perspectiva humanitaria. Recuperado de https://iecah.org/la-inteligencia-artificial-desde-una-perspectiva-humanitaria/
  • Karlsrud, J., & Rosén, F. (2013). In the Eye of the Beholder? UN and the Use of Drones to Protect Civilians. Stability: International Journal of Security & Development, 2(2), 27. Recuperado de https://stabilityjournal.org/articles/10.5334/sta.bo
  • Martin, A., & Tsui, Q. (2025, 2 de junio). Humanitarian Connectivity in Crisis. Global Policy (blog). Recuperado de: https://www.thenewhumanitarian.org/analysis/2014/07/23/ngos-against-monusco-drones-humanitarian-work

Publicaciones relacionadas