viernes, 20 de febrero de 2009

Inteligencia artificial para las guerras del futuro



El código para los soldados robóticos

Los robots militares autónomos que combatirán en las guerras del futuro deben ser programados para regirse por un estricto "código militar". De lo contrario, el mundo se arriesga a sufrir atrocidades indecibles en sus manos de acero.

Un prolijo informe preparado y financiado por la Oficina de Investigación Naval, un organismo secreto y de alta tecnología perteneciente a la Marina de Estados Unidos, realiza esta cruda advertencia e incluye también consideraciones acerca de un eventual escenario al estilo de 'Terminator' en el que los robots se vuelvan contra sus dueños humanos.

El informe, el primer trabajo serio de esta índole sobre la ética de los robots soldados, prefigura para un futuro cada vez próximo una era en la que los robots serán suficientemente inteligentes como para tomar decisiones en el campo de batalla que hasta ahora se han reservado a los humanos. Al final, advierte, los robots podrían llegar a desarrollar ventajas cognitivas relevantes sobre los soldados de la especie Homo Sapiens.

"Hay un error muy común que consiste en creer que los robots sólo harán lo que estén programados para hacer", afirma Patrick Lin, el coordinador del informe. "Desgraciadamente, tal creencia es gravemente obsoleta: data de un tiempo en el que los programas sólo podían ser escritos y comprendidos por una única persona".

La realidad, dice Lin, es que los programas modernos tienen códigos de millones de líneas y que los escriben equipos de programadores, ninguno de los cuales conoce el programa completo. En consecuencia, ningún individuo podría predecir con exactitud cómo interactuarían las distintas partes de los programas grandes sin realizar análisis extensivos sobre el terreno; una opción que podría o bien no estar disponible o bien ser deliberadamente desactivada por los diseñadores de los robots soldados.

La solución, sugiere, es combinar una programación basada en las normas con un periodo de 'aprendizaje' de las cosas que se pueden y no se pueden hacer en la guerra.

Avances en inteligencia artificial

El informe cubre una rica variedad de escenarios en los que se perfilan los asuntos éticos, legales, sociales y políticos que se plantearán cuando la tecnología robótica progrese. ¿Cómo protegeremos nuestros ejércitos de robots contra los 'hackers' de bandas terroristas o los fallos informáticos? ¿A quién se culparía si un robot se vuelve loco ante una multitud de civiles: al robot, a su programador, al presidente de EEUU? ¿Deberían tener los robots una 'opción suicidio' o deberían ser programados para defender su vida?

El informe, coordinado por el departamento de Ética y Tecnología Emergente de la Universidad Politéctica Estatal de California, advierte duramente al ejército estadounidense contra la complacencia y los atajos, ahora que los diseñadores de robots militares están metidos en la carrera por llegar al mercado y se está incrementando el ritmo de los avances en inteligencia artificial.

La sensación de premura entre los diseñadores puede haberse visto acentuada por el mandato del Congreso para que en 2010 una tercera parte de todos los aviones de ataque operativos sean no pilotados y en 2015 lo sean también una tercera parte de todos los vehículos de combate de infantería.

"La carrera por llegar al mercado incrementa el riesgo de un diseño o una programación inadecuados. Peor aún: sin un esfuerzo importante y sostenido para inculcar códigos éticos a los sistemas autónomos, hay poca esperanza de que las primeras generaciones de tales sistemas y robots resulten apropiados, pues cometerían errores que podrían costar vidas humana", advierte el informe.

Un sencillo código ético en la línea de las 'Tres Leyes de la Robótica' que postuló en 1950 Isaac Asimov, el escritor de ciencia ficción, no será suficiente para garantizar un comportamiento ético por parte de las máquinas militares autónomas.

"Vamos a necesitar un código", sentencia Lin. "Estos artilugios son militares, y no pueden ser pacifistas, así que tenemos que pensar en términos de la ética de la guerra. Vamos a necesitar un código del guerrero".

Los robots militares autónomos que combatirán en las guerras del futuro deben ser programados para regirse por un estricto "código militar". De lo contrario, el mundo se arriesga a sufrir atrocidades indecibles en sus manos de acero.

Un prolijo informe preparado y financiado por la Oficina de Investigación Naval, un organismo secreto y de alta tecnología perteneciente a la Marina de Estados Unidos, realiza esta cruda advertencia e incluye también consideraciones acerca de un eventual escenario al estilo de 'Terminator' en el que los robots se vuelvan contra sus dueños humanos.

El informe, el primer trabajo serio de esta índole sobre la ética de los robots soldados, prefigura para un futuro cada vez próximo una era en la que los robots serán suficientemente inteligentes como para tomar decisiones en el campo de batalla que hasta ahora se han reservado a los humanos. Al final, advierte, los robots podrían llegar a desarrollar ventajas cognitivas relevantes sobre los soldados de la especie Homo Sapiens.

"Hay un error muy común que consiste en creer que los robots sólo harán lo que estén programados para hacer", afirma Patrick Lin, el coordinador del informe. "Desgraciadamente, tal creencia es gravemente obsoleta: data de un tiempo en el que los programas sólo podían ser escritos y comprendidos por una única persona".

La realidad, dice Lin, es que los programas modernos tienen códigos de millones de líneas y que los escriben equipos de programadores, ninguno de los cuales conoce el programa completo. En consecuencia, ningún individuo podría predecir con exactitud cómo interactuarían las distintas partes de los programas grandes sin realizar análisis extensivos sobre el terreno; una opción que podría o bien no estar disponible o bien ser deliberadamente desactivada por los diseñadores de los robots soldados.

La solución, sugiere, es combinar una programación basada en las normas con un periodo de 'aprendizaje' de las cosas que se pueden y no se pueden hacer en la guerra.

Avances en inteligencia artificial

El informe cubre una rica variedad de escenarios en los que se perfilan los asuntos éticos, legales, sociales y políticos que se plantearán cuando la tecnología robótica progrese. ¿Cómo protegeremos nuestros ejércitos de robots contra los 'hackers' de bandas terroristas o los fallos informáticos? ¿A quién se culparía si un robot se vuelve loco ante una multitud de civiles: al robot, a su programador, al presidente de EEUU? ¿Deberían tener los robots una 'opción suicidio' o deberían ser programados para defender su vida?

El informe, coordinado por el departamento de Ética y Tecnología Emergente de la Universidad Politéctica Estatal de California, advierte duramente al ejército estadounidense contra la complacencia y los atajos, ahora que los diseñadores de robots militares están metidos en la carrera por llegar al mercado y se está incrementando el ritmo de los avances en inteligencia artificial.

La sensación de premura entre los diseñadores puede haberse visto acentuada por el mandato del Congreso para que en 2010 una tercera parte de todos los aviones de ataque operativos sean no pilotados y en 2015 lo sean también una tercera parte de todos los vehículos de combate de infantería.

"La carrera por llegar al mercado incrementa el riesgo de un diseño o una programación inadecuados. Peor aún: sin un esfuerzo importante y sostenido para inculcar códigos éticos a los sistemas autónomos, hay poca esperanza de que las primeras generaciones de tales sistemas y robots resulten apropiados, pues cometerían errores que podrían costar vidas humana", advierte el informe.

Un sencillo código ético en la línea de las 'Tres Leyes de la Robótica' que postuló en 1950 Isaac Asimov, el escritor de ciencia ficción, no será suficiente para garantizar un comportamiento ético por parte de las máquinas militares autónomas.

"Vamos a necesitar un código", sentencia Lin. "Estos artilugios son militares, y no pueden ser pacifistas, así que tenemos que pensar en términos de la ética de la guerra. Vamos a necesitar un código del guerrero".

Google hace añicos las esperanzas de haber hallado la Atlántida


El periódico ´The Sun´ publicó el supuesto hallazgo, mediante el buscador Google Ocean, de lo que parecería ser la isla de Atlantis.



Las esperanzas de haber descubierto la isla sumergida de la Atlántida se rompieron hoy cuando Google dijo que lo que un ingeniero británico había visto a través de su satélite no era la mítica civilización hundida, sino un moderno mapa del suelo oceánico.

El periódico "The Sun" publica hoy en portada el supuesto hallazgo por parte de un ingeniero aeronáutico del Reino Unido Bernie Bamford, mediante el buscador Google Ocean (parte de Google Earth) de lo que parecería ser la isla de Atlantis, mencionada por primera vez por el filósofo griego Platón (427-347 aC).

En el artículo, que incluye una fotografía, el periódico señala que lo que se ve en la imagen, una especie de plano cuadriculado, no puede ser una formación natural, sino que debe haber sido construida por el hombre.

"The Sun" afirma que, a juzgar por la imagen de Google Ocean, la supuesta civilización hundida hace casi 12.000 años -según el relato de Platón- se encontraría en el océano Atlántico a unos 965 kilómetros al oeste de las islas Canarias, a una profundidad de unos 5,6 kilómetros.

Sin embargo, la empresa Google se ha apresurado a aclarar que lo captado por su buscador -en el mismo sitio, aproximadamente, en que debería hallarse la antigua metrópolis-, son las trazas dejadas por barcos mientras recogen datos de sónar para elaborar un mapa del fondo oceánico.

"Lo que están viendo los usuarios son artefactos del proceso de recolección de datos", explicó una portavoz de la compañía, en declaraciones recogidas por la agencia británica PA.

"Los datos batimétricos (del fondo del mar) se recogen a menudo desde embarcaciones que utilizan el sónar para tomar medidas del suelo marítimo", prosiguió.

Las líneas que se ven en la fotografía captada por el Google Ocean -que combina imágenes de satélite con estudios marítimos-, "reflejan el trazo de los barcos a medida que recogen los datos", añadió.

El pasado diciembre se supo que un equipo de científicos del Reino Unido había descubierto, gracias al Google Earth, un bosque hasta entonces desconocido en la cima de un monte en Mozambique, que albergaba en su interior nuevas especies animales y vegetales. 

Powered By Blogger