BUENOS AIRES (ANP).- Durante la última cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM por sus siglas en Inglés) el gobierno de la República Popular de China se negó a firmar un acuerdo voluntario y no vinculante para ponerle un límite a la pregunta: ¿Deberían las máquinas tomar decisiones sobre el uso de armas nucleares?
El encuentro que se llevó a cabo en Seúl dejó con un sabor amargo a los representantes de los países occidentales, y a sus aliados sobre el Pacífico, como Japón y Corea del Sur.
Todos, menos China (y Rusia que no estaba invitada a raíz de su protagonismo en la invasión a Ucrania, país cuyos representantes sí estuvieron en la cumbre), firmaron el acuerdo que especifica que los humanos deben mantener el control sobre las decisiones en el uso de armas nucleares.
Además, resalta que las capacidades de la Inteligencia Artificial (IA) en el ámbito militar deben aplicarse conforme al derecho nacional e internacional y ser éticas y estar centradas en el bienestar del ser humano.
Desde el principio China se mostró reluctante a apoyar el acuerdo. Los estrategas militares de la potencia asiática perciben en la IA Militar (IAM) una ventaja crítica.
Durante la discusión se coló en el temario el uso no regulado de drones y otros sistemas militares basados en la IA en conflictos recientes, como el que enfrenta a Ucrania y a Rusia desde la invasión decidida por el presidente Vladimir Putin.
El uso de vehículos no tripulados (las imágenes de la destrucción que provocan pueden verse libremente a través de las redes sociales) se acrecentó en los últimos años, lo que llevó a los especialistas a la necesidad urgente de evaluar las posibles consecuencias no deseadas de sus operaciones.
La postura de China, que a simple vista parece chocar con la del resto de los países de alto desarrollo militar como los Estados Unidos, Francia o Gran Bretaña, en realidad ensombrece una realidad: los países que la han perfeccionado tienen pocos incentivos para frenar el desarrollo de las tecnologías de IAM ya que las consideran esenciales para su seguridad nacional.
Desde que la IA llegó al público masivo a través de Chat GPT o de Copilot, todos los países encontraron dificultades en su regulación. Su alcance operativo, en realidad, está limitado sólo por sus desarrolladores.
Copilot, por ejemplo, se niega sistemáticamente a responder cuestiones sobre, por ejemplo, las próximas elecciones en los Estados Unidos.
Aunque abordar los desafíos éticos y legales de la IAM es una tarea compleja, durante la reunión de Seúl, los presentes se acercaron a reconocer el camino que habría que recorrer.
Una de las ideas, por ejemplo, es llegar a acuerdos globales (como el que acaba de rechazar China) que establezcan normas claras sobre el uso de la IA militar. Otro, fomentar la transparencia y la cooperación entre países para compartir información y mejores prácticas.
Pero, además, cada nación debería implementar leyes propias que regulen el desarrollo de la IAM asegurando que se alineen con los principios éticos y legales internacionales; crear organismos independientes supervisores que aseguren el cumplimiento de las normativas; integrar principios éticos en el diseño y desarrollo de los sistemas de inteligencia artificial y, por último, realizar evaluaciones de impacto ético y social; entre otros aspectos.
Por ahora, sólo, en lo formal, parece haber buenas intenciones y la IA sigue siendo un desafío constante debido a la rápida evolución de la tecnología en comparación con el lento proceso de regulación gubernamental.