Militarismo
La dignidad humana y nuevas armas autónomas. Campaña “Stop Killer Robots”

La creación de robots o sistemas robóticos de uso militar puede dejar en manos de algoritmos decisiones sobre a quién atacar, o incluso matar. Que una máquina tome esta decisión está en contra de la dignidad humana, por lo que estas nuevas armas nos abren a un debate jurídico y ético.
programacion
Unsplash. Mitchell Luo
Centre Delàs d’Estudis per la Pau
8 oct 2021 08:00

Seguramente los pensamientos los tendremos centrados en la pandemia, las secuelas y los cambios que se producirán o que se tendrían que producir; pero también es momento para reflexionar sobre algunos temas que afectan a la dignidad humana, y en concreto podemos reflexionar sobre el diseño de nuevas armas, las armas robóticas que pueden tomar la decisión de matar sin la intervención humana.

Los robots son máquinas programables o auto-controlables que pueden llevar a cabo tareas complejas de manera automática y repetitiva (todos hemos visto robots en la industria de coches). Cabe señalar que los robots no tienen por qué ser objetos materiales; podemos encontrar robots informáticos que son piezas de software (aplicaciones o programas), por ejemplo los chat bots o social bots, un ejemplo de estos son programas que envían tuits en la red haciéndose pasar por personas reales.

Esta revolución está siendo incorporada para el uso militar, se están creando robots o sistemas robóticos de uso militar. Un ejemplo serían los sistemas de defensa antimisiles; un sistema complejo de radares y computadoras que detectan misiles, cohetes o aviones y los ordenadores ponen en marcha un sistema de ataque que prioriza, selecciona y ataca de manera automática esta amenaza. Este sería un sistema robótico de arma automática. En este sistema el algoritmo de toma de decisiones sigue unas reglas programadas.

Los ordenadores ponen en marcha un sistema de ataque que prioriza, selecciona y ataca de manera automática

Si el sistema de decisiones no se basa en reglas determinadas, sino en un modelo de la realidad obtenido con redes neuronales de aprendizaje profundo (forma parte de la Inteligencia Artificial) diremos que el sistema es autónomo, las reglas no están programadas, el propio sistema aprende por sí mismo, a partir de analizar millones de informaciones (big data). Hay cinco tareas claves en estas armas: buscar (a los posibles enemigos), definir objetivos, hacer el seguimiento del objetivo, decidir atacar, y atacar. Lo que llamamos sistemas de armas autónomos se caracterizan por no tener ningún tipo de intervención humana en estas cinco tareas y en la toma de decisiones.

Estas nuevas armas están en fase de investigación y producción, todavía no se dispone de armas totalmente autónomas, pero ya existen sistemas de armas dotados de muchos grados de autonomía y en algunos casos tienen desconectada la decisión de matar, que ha quedado delegada en un humano.

Estos nuevos sistemas de armas autónomas nos sitúan en un escenario de deshumanización en delegar en una máquina la decisión de quién debe vivir o quién debe morir

Estos nuevos sistemas de armas autónomas nos sitúan en un escenario de deshumanización en delegar en una máquina la decisión de quién debe vivir o quién debe morir. Que una máquina tome esta decisión está en contra de la dignidad humana. Estas nuevas armas nos abren a un debate jurídico y ético. El debate jurídico se centra en si estos sistemas de armas autónomas pueden cumplir los tres pilares del Derecho Internacional Humanitario: por un lado, el principio de responsabilidad: si se produce un error o un crimen de guerra ¿quién es el responsable? Las víctimas ¿a quién pueden acusar? Por otro, el principio de proporcionalidad que analiza si los daños causados ​​son proporcionales a las ganancias militar o si los daños a civiles son excesivos. Finalmente, se atenta contra el principio de distinción, que obliga a distinguir entre combatientes y no combatientes, si puede distinguir entre un civil con miedo o un enemigo amenazante. En este debate jurídico nos encontramos con posiciones de los que piensan que la Inteligencia Artificial aún no ha podido responder a este reto de que los sistemas de armas autónomos estén programados para respetar el Derecho Internacional y el Derecho Internacional Humanitario, pero que es cuestión de tiempo y que hay que dejar continuar con la búsqueda. Otros alegan que, si tenemos presente el debate sobre las armas nucleares y que no ha habido suficiente consenso para ilegalizarlas o para comprometerse con eliminarlas, es necesario que no lleguemos a la misma situación: primero las creamos, después descubrimos el monstruo que hemos creado y luego no nos ponemos de acuerdo para ilegalizarlas. Por esta razón hay muchas organizaciones civiles, de científicos y de académicos que plantean considerarlas ilegales y prohibir estas nuevas armas antes de que existan. El sentido común nos invita, cuando no hay consenso, a aplicar el principio de precaución, y parar antes de que el daño sea irreversible, por lo tanto, prohibir el diseño y fabricación de armas autónomas.

Los defensores de las armas totalmente autónomas nos recuerdan que en situaciones de conflicto armado los humanos cometen vilezas como violar a mujeres o torturar a humanos, y que causarían menos bajas; pero también es cierto que las máquinas o los robots no estarán dotados de sentido común, intuición, lástima, compasión o culpabilidad, que son emociones que nos retraen a los humanos de cometer barbaridades. Podemos continuar con el debate de si la Inteligencia Artificial puede o no puede reproducir sentimientos o la ética humana en las máquinas. Muchos científicos y especialistas en Inteligencia Artificial creen que no es posible.

Estos sistemas de armas autónomas nos sitúan en un escenario de deshumanización. Decisiones sobre la vida o la muerte no pueden radicar en las máquinas

Estos sistemas de armas autónomas nos sitúan en un escenario de deshumanización. Es cierto que los humanos somos falibles, es cierto que los humanos podemos cometer atrocidades, pero esta es la característica esencial de los seres humanos. Decisiones sobre la vida o la muerte no pueden radicar en las máquinas, deben recaer en otro ser humano. La Inteligencia Artificial entrará a formar parte de nuestra vida pero este avance científico solo puede hacer posible un mundo mejor si va unido al bien común, si pone la dignidad humana y el cuidado del planeta en el centro.

Sobre o blog
Antimilitarimo y Noviolencia
Ver todas as entradas
Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra na túa conta.

Relacionadas

Antimilitarismo
Rearme Indignaos, el gasto militar español es muy superior al 2,1% del PIB
Urge un cambio de rumbo a la indignación. Una indignación transversal, pues el gasto militar es un agravio comparativo para cualquier lucha social
Antimilitarismo
Antimilitarismo En la Junta de accionistas de Indra
Entramos en la Junta de accionistas de Indra para denunciar su complicidad con el genocidio israelí en Palestina
Palestina
Marcha Global a Gaza Bloqueados a 200 kilómetros de Gaza
Cuando se cumplen diez días del inicio de la Marcha Global a Gaza, el fotoperiodista Álvaro Minguito, que acudió como enviado de El Salto a participar en la movilización, relata cómo fueron esos días.
Sobre o blog
Antimilitarimo y Noviolencia
Ver todas as entradas
Altri
Altri Galiza elixe o rumbo da loita contra Altri nas eleccións á directiva da plataforma Ulloa Viva
A veciñanza da comarca máis afectada presenta dúas listas separadas logo de non chegar a unha proposta de consenso. Por unha banda, concorre unha candidatura continuísta e, pola outra, unha alternativa que se achega máis o nacionalismo institucional.
Medio rural
Medio rural A esperanza da xestión colectiva fronte ao espolio: os comuneiros de Tameiga contra o Celta
Mentres varios proxectos industriais tentan privatizar e destruír os ecosistemas galegos, algúns grupos de veciños e veciñas organizadas fan oposición social construíndo alternativas comunitarias. Ás veces, tamén gañan ao xigante.
Ourense
Ourense Ourense organízase para loitar contra patrullas de extrema dereita nos barrios máis empobrecidos da cidade
A veciñanza e os movementos sociais responden ao discurso do medo promovido por Frente Obrero e sinalan a súa estratexia de criminalizar a pobreza e sementar odio en contextos de exclusión e abandono institucional.
O Salto medra contigo
Crowdfunding O Salto Galiza abre un crowdfunding para empapelar Altri
Queremos investigar os responsables políticos e empresarias do que podería ser o maior atentado ambiental da historia recente de Galiza.

Últimas

O Teleclube
O Teleclube 'O Teleclube' alucina no deserto con Óliver Laxe e 'Sirat'
Laxe leva o seu cuarto premio de Cannes, esta vez en competitición, polo seu novo filme que explosiona na gran pantalla.
A Catapulta
A Catapulta O tempo, o espazo e a poesía de Estíbaliz Espinosa
A poeta visita A Catapulta para conversar sobre o seu traballo e a súa traxectoria literaria
Medio ambiente
Medio ambiente A loita polo monte galego: lumes, eucalipto e ameazas á propiedade común
Galiza concentra un terzo dos incendios forestais rexistrados no Estado. Mentres a Xunta apunta aos montes veciñais, comuneiros e ecoloxistas denuncian unha estratexia política para favorecer a privatización e a expansión da industria madereira.

Recomendadas

Feminismos
Feminismo Dous anos sen reparación tras sufrir lesbofobia nun Rexistro Civil de Pontevedra cando ían inscribir a seu fillo
Un funcionario negouse a inscribir ao fillo de Antía e a súa parella. Un erro de redacción na lei trans está detrás dos argumentos que o funcionario esgrime para defender a súa actuación.
Culturas
Erika Lust y Sara Torres “El deseo tiene una potencia inagotable para transformar la realidad si lo liberamos de las normas”
Sexo, deseo o ética del placer son algunos de los temas que hilan la escritora Sara Torres y la productora de cine porno Erika Lust en ‘La abundancia del deseo’.