En busca dun 'código militar' para os soldados robóticos do futuro

Os robots militares autónomos que combaterán nas guerras do futuro deben ser programados para rexerse por un estrito "código militar". Pola contra, o mundo arríscase a sufrir atrocidades indicibles nas súas mans de aceiro.

Fotograma da película "Eu Robot" / Digital DomainUn prolixo informe preparado e financiado pola Oficina de Investigación Naval, un organismo secreto e de alta tecnoloxía pertencente á Mariña de Estados Unidos, realiza esta crua advertencia e inclúe tamén consideracións acerca dun eventual escenario ao estilo de 'Terminator' no que os robots se volvan contra os seus donos humanos.

O informe, o primeiro traballo serio desta índole sobre a ética dos robots soldados, prefigura para un futuro cada vez próximo unha era na que os robots serán suficientemente intelixentes como para tomar decisións no campo de batalla que ata agora se reservaron os humanos. Ao final, advirte, os robots poderían chegar a desenvolver vantaxes cognitivas relevantes sobre os soldados da especie Homo Sapiens.

"Hai un erro moi común que consiste en crer que os robots só farán o que estean programados para facer", afirma Patrick Lin, o coordinador do informe. "Desgraciadamente, tal crenza é gravemente obsoleta: data dun tempo no que os programas só podían ser escritos e comprendidos por unha única persoa".

A realidade, di Lin, é que os programas modernos teñen códigos de millóns de liñas e que os escriben equipos de programadores, ningún dos cales coñece o programa completo. En consecuencia, ningún individuo podería predicir con exactitude como interactuar as distintas partes dos programas grandes sen realizar análises extensivas sobre o terreo; unha opción que podrecía ou ben non estar dispoñible ou ben ser deliberadamente desactivada polos deseñadores dos robots soldados.

A solución, suxire, é combinar unha programación baseada nas normas cun período de 'aprendizaxe' das cousas que se se poden e non poden facer na guerra.

Avances en intelixencia artificial

O informe cobre unha rica variedade de escenarios nos que se perfilan os asuntos éticos, legais, sociais e políticos que se formularán cando a tecnoloxía robótica progrese. ¿Como protexeremos os nosos exércitos de robots contra os 'hackers' de bandas terroristas ou os fallos informáticos? ¿A quen se culparía se un robot tolea ante unha multitude de civís: ao robot, ao seu programador, ao presidente de EEUU? ¿Deberían ter os robots unha 'opción suicidio' ou deberían ser programados para defender a súa vida?

O informe, coordinado polo departamento de Ética e Tecnoloxía Emerxente da Universidade Politéctica Estatal de California, advirte duramente ao exército estadounidense contra a compracencia e os atallos, agora que os deseñadores de robots militares están metidos na carreira por chegar ao mercado e se está a incrementar o ritmo dos avances en intelixencia artificial.

A sensación de présa entre os deseñadores pódese ver acentuada polo mandato do Congreso para que en 2010 unha terceira parte de todos os avións de ataque operativos sexan non pilotados e en 2015 o sexan tamén unha terceira parte de todos os vehículos de combate de infantaría.

"A carreira por chegar ao mercado incrementa o risco dun deseño ou unha programación inadecuados. Peor aínda: sen un esforzo importante e sostido para inculcar códigos éticos aos sistemas autónomos, hai pouca esperanza de que as primeiras xeracións de tales sistemas e robots resulten apropiados, pois cometerían erros que poderían custar vidas humana,", advirte o informe.

Un sinxelo código ético na liña das 'Tres Leis da Robótica que postulou en 1950 Isaac Asimov, o escritor de ciencia ficción, non será suficiente para garantir un comportamento ético por parte das máquinas militares autónomas.

"Imos necesitar un código", sentenza Lin. "Estes dispositivos son militares, e non poden ser pacifistas, así que temos que pensar en termos da ética da guerra. Imos necesitar un código do guerreiro".