worldcantwait.org
ESPAÑOL

Español
English-LA
National World Can't Wait

Pancartas, volantes

Temas

Se alzan las voces

Noticias e infamias

De los organizadores

Sobre nosotros

Declaración
de
misión

21 de agosto de 2015

El Mundo no Puede Esperar moviliza a las personas que viven en Estados Unidos a repudiar y parar la guerra contra el mundo y también la represión y la tortura llevadas a cabo por el gobierno estadounidense. Actuamos, sin importar el partido político que esté en el poder, para denunciar los crímenes de nuestro gobierno, sean los crímenes de guerra o la sistemática encarcelación en masas, y para anteponer la humanidad y el planeta.



Del directora nacional de El Mundo No Puede Esperar

Debra Sweet


Invitación a traducir al español
(Nuevo)
03-15-11

¡NO MAS!
¡Ningún ser humano es ilegal!

EL Mundo no Puede Esperar exhorta a cada persona a protestar contra las leyes racistas como Arizona SB1070, a desacatarlas y a DESOBEDECERLAS



"¿Por qué hacer una donación a El Mundo No Puede Esperar?"

"Lo que la gente esta diciendo sobre El Mundo No Puede Esperar


FIRME ESTE LLAMADO. DONE PARA SU PUBLICACIÓN INTERNACIONAL. WORLDCANTWAIT.NET

ÚNETE CON: John Cusack • Wallace Shawn • Junot Diaz • Noam Chomsky • Daniel Ellsberg Eve Ensler Dave Eggers • Glenn Greenwald • Paul Haggis • Bianca Jagger • Ariel Dorfman Erica Jong • Michael Moore • Ron Kovic • Moby • Tom Morello • Mark Ruffalo • James Schamus Carl Dix • Oliver Stone • Cindy Sheehan • Cornel West con los abogados de los prisioneros en Guantánamo y muchos otros

Firmar esta declarción

“Alexa, ¡lanza nuestras armas nucleares!”

La inteligencia artificial y el futuro de la guerra.

Por Michael T. Klare
18 de diciembre de 2018

No podría haber una decisión más consecuente que lanzar armas atómicas y posiblemente desencadenar un holocausto nuclear. El presidente John F. Kennedy enfrentó un momento así durante la crisis de los misiles cubanos de 1962 y, después de imaginar el resultado catastrófico de un intercambio nuclear soviético-estadounidense, llegó a la conclusión de que los poderes atómicos deberían imponer fuertes barreras al uso precipitado de tales armas. Entre las medidas que él y otros líderes mundiales adoptaron se encuentran las directrices que requieren que los altos funcionarios, no solo el personal militar, Tener un papel en cualquier decisión de lanzamiento nuclear.

Eso fue entonces, por supuesto, y esto es ahora. ¡Y qué ahora es! Con inteligencia artificial, o AI, que pronto desempeñará un papel cada vez más importante en los asuntos militares, como en casi todo lo demás en nuestras vidas, el papel de los humanos, incluso en la toma de decisiones nucleares, Es probable que disminuya progresivamente. De hecho, en algún futuro mundo saturado de IA, podría desaparecer por completo, Dejando máquinas para determinar el destino de la humanidad.

Esta no es una conjetura ociosa basada en películas de ciencia ficción o novelas distópicas. Es demasiado real, todo aquí y ahora, o al menos aquí y pronto lo será. Mientras el Pentágono y los comandos militares de las otras grandes potencias miran hacia el futuro, lo que ven es un campo de batalla altamente disputado. – Algunos lo han llamado un entorno de “hiper guerra”. – donde vastos enjambres de armas robóticas guiadas por la IA lucharán entre sí a velocidades muy superiores a la capacidad de los comandantes humanos para seguir el curso de una batalla. En tal momento, se piensa, Los comandantes podrían verse cada vez más obligados a confiar en máquinas cada vez más inteligentes para tomar decisiones sobre qué armamento emplear, cuándo y dónde. Primero, esto no puede extenderse a las armas nucleares, pero a medida que aumenta la velocidad de la batalla y el “cortafuegos” entre ellos y el armamento convencional se reduce, puede resultar imposible evitar la automatización progresiva de incluso la toma de decisiones de lanzamiento nuclear.

Tal resultado solo puede ser más probable a medida que los militares de los Estados Unidos completen una realineación de arriba a abajo con la intención de transformarlo de una guerra fundamentalmente pequeña. La organización antiterrorista vuelve a centrarse en el combate de igual a igual con China y Rusia. Este cambio fue ordenado por el Departamento de Defensa en su Estrategia de Seguridad Nacional de diciembre de 2017. En lugar de centrarse principalmente en el armamento y las tácticas dirigidas a combatir a los insurgentes mal armados en conflictos interminables en pequeña escala, El ejército estadounidense ahora se está rediseñando para combatir a las fuerzas rusas y chinas cada vez mejor equipadas en múltiples dimensiones. Compromisos (aire, mar, tierra, espacio, ciberespacio) que involucran múltiples sistemas de ataque (tanques, aviones, misiles, cohetes) operando con un mínimo de supervisión humana.

“El principal efecto / resultado de todas estas capacidades será una guerra de innovación nunca vista antes: la minimización de la toma de decisiones humanas en la gran mayoría de los procesos tradicionalmente necesarios para librar la guerra”. observó al general de marina retirado John Allen y al empresario de AI Amir Hussain. “En esta próxima era de hiperguerra, veremos que los humanos proporcionan una amplia entradas de alto nivel mientras que las máquinas hacen la planificación, ejecución, y adaptarse a la realidad de la misión y asumir la carga de miles de decisiones individuales sin aportaciones adicionales“.

Esa “minimización de la toma de decisiones humanas” tendrá profundas implicaciones para el futuro del combate. Por lo general, los líderes nacionales buscan controlar el ritmo y la dirección de la batalla para garantizar el mejor resultado posible. incluso si eso significa detener la lucha para evitar mayores pérdidas o prevenir desastres humanitarios. Es poco probable que las máquinas, incluso las muy inteligentes, sean capaces de evaluar el contexto social y político del combate, por lo tanto, activarlos podría llevar a situaciones de escalada incontrolada.

Pueden pasar años, posiblemente décadas, antes de que las máquinas reemplacen a los humanos en roles militares críticos de toma de decisiones, pero ese momento está en el horizonte. Cuando se trata de controlar los sistemas de armas habilitados para la IA, como el Secretario de Defensa Jim Mattis lo puso en una entrevista reciente, “En el futuro cercano, habrá un elemento humano significativo. Tal vez por 10 años, tal vez por 15. Pero no por 100”.

¿Por qué AI?

Incluso hace cinco años, eran pocos los militares que pensaban mucho en el papel de la inteligencia artificial o la robótica cuando se trataba de operaciones de combate importantes. Sí, aeronaves pilotadas a distancia (RPA), o drones, han sido ampliamente utilizados en África y Gran Oriente Medio para cazar combatientes enemigos, pero esas son operaciones en gran parte auxiliares (y a veces de la CIA), destinado a aliviar la presión sobre los comandos estadounidenses y las fuerzas aliadas que enfrentan bandas dispersas de extremistas violentos. Además, las RPA de hoy todavía están controladas por operadores humanos, incluso si se encuentran en ubicaciones remotas, y hasta ahora no hace mucho uso de los sistemas de ataque e identificación de objetivos impulsados ​​por la IA. En el futuro, sin embargo, se espera que tales sistemas pueblan gran parte de cualquier espacio de batalla, Reemplazando a los humanos en muchas o incluso en la mayoría de las funciones de combate.

Para acelerar esta transformación, el Departamento de Defensa ya está gastando cientos de millones de dólares en investigación relacionada con AI. “No podemos esperar el éxito combatiendo los conflictos de mañana con el pensamiento de ayer, “Armas o equipo”, dijo Mattis al Congreso en abril. Para asegurar la supremacía militar continua, agregó, el Pentágono tendría que concentrarse más en “invertir en innovación tecnológica para aumentar la letalidad, Incluyendo la investigación en sistemas autónomos avanzados, Inteligencia artificial, e hipersónicos.

¿Por qué el repentino énfasis en la inteligencia artificial y la robótica? Comienza, por supuesto, con el asombroso progreso realizado por la comunidad tecnológica. – Gran parte de ella con sede en Silicon Valley, California – para mejorar la IA y aplicarla a una multitud de funciones, incluida la identificación de imágenes y el reconocimiento de voz. Una de esas aplicaciones, Alexa Voice Services, es el sistema informático detrás del altavoz inteligente de Amazon que no solo puede usar Internet para hacer su oferta sino también interpretar sus comandos. (“Alexa, toca la música clásica”.”Alexa, dime el clima de hoy”. “Alexa, enciende las luces”. Otro es el tipo de tecnología de vehículo de auto-conducción que se espera revolucione el transporte.

La Inteligencia Artificial es una tecnología de “uso múltiple”, explicar los analistas en el Servicio de Investigación del Congreso, una agencia de información no partidista, “Como tiene el potencial de integrarse en prácticamente todo”. También es una tecnología de “doble uso” en el sentido de que se puede aplicar tanto a fines militares como civiles. Los autos autónomos, por ejemplo, dependen de algoritmos especializados para procesar datos desde una serie de sensores que monitorean las condiciones del tráfico y así decidir qué rutas tomar, cuándo cambiar de carril, etc. La misma tecnología y las versiones reconfiguradas de los mismos algoritmos se aplicarán algún día a los tanques automáticos que se desatarán en los campos de batalla futuros. Del mismo modo, algún día aviones no tripulados – sin operadores humanos en lugares distantes – será capaz de recorrer un campo de batalla en busca de objetivos designados (tanques, sistemas de radar, combatientes), determinar que algo que “ve” está de hecho en su lista de objetivos, y “decidir” lanzar un misil hacia él.

No hace falta un cerebro especialmente ágil para darse cuenta de por qué los funcionarios del Pentágono buscarían aprovechar esa tecnología: piensan que les dará una ventaja significativa en las guerras futuras. Cualquier conflicto a gran escala entre los Estados Unidos y China o Rusia (o ambos), Por lo menos, sé extraordinariamente violento. posiblemente con cientos de buques de guerra y muchos miles de aviones y vehículos blindados, todos enfocados en espacios de batalla densamente llenos. En tal entorno, la velocidad en la toma de decisiones, el despliegue, y el compromiso, sin duda, será un activo crítico. Dado el futuro armamento súper inteligente y guiado de precisión, quien dispare primero tendrá una mejor oportunidad de éxito, O incluso la supervivencia, que un adversario de fuego lento. Los seres humanos pueden moverse rápidamente en tales situaciones cuando se les obliga a hacerlo, pero las máquinas futuras actuarán mucho más rápidamente, al mismo tiempo que seguirán el registro de más variables del campo de batalla.

Como el general Paul Selva, vicepresidente del Estado Mayor Conjunto, dijo al Congreso en 2017:

“Es muy convincente cuando uno mira las capacidades que la inteligencia artificial puede aportar a la velocidad y precisión del comando y control y las capacidades que la robótica avanzada puede aportar a un espacio de batalla complejo”. particularmente la interacción máquina a máquina en el espacio y el ciberespacio, donde la velocidad es esencial“.

Además de tratar de explotar la IA en el desarrollo de su propio armamento, los oficiales militares de los Estados Unidos son muy conscientes de que sus principales adversarios también están avanzando en el armamentismo de la IA y la robótica, buscando nuevas formas de superar las ventajas de Estados Unidos en armamento convencional. Según el Servicio de Investigación del Congreso, por ejemplo, China está invirtiendo fuertemente en el desarrollo de la inteligencia artificial y su aplicación a fines militares. Aunque carece de la base tecnológica de China o Estados Unidos, Rusia también está apresurando el desarrollo de la inteligencia artificial y la robótica.  Cualquier líder chino o ruso significativo en tales tecnologías emergentes que podrían amenazar la superioridad militar de este país sería intolerable para el Pentágono.

No en vano, a la manera de pasadas carreras de armamentos. (desde el desarrollo de acorazados antes de la Primera Guerra Mundial hasta el armamento nuclear de la Guerra Fría), una “carrera de armamentos en la IA” está en marcha, con los Estados Unidos, China, Rusia y otras naciones (incluidos Gran Bretaña, Israel y Corea del Sur) que buscan obtener una ventaja crítica en el armamentismo de la inteligencia artificial y la robótica. Los funcionarios del Pentágono citan regularmente los avances chinos en IA cuando buscan fondos del Congreso para sus proyectos, Al igual que los oficiales militares chinos y rusos, sin duda, citan a los estadounidenses para financiar sus propios proyectos favoritos. En la verdadera moda armamentista, esta dinámica ya está acelerando el ritmo de desarrollo y despliegue de los sistemas habilitados para AI y asegurando su prominencia futura en la guerra.

Comando y control

A medida que se desarrolle esta carrera de armamentos, la inteligencia artificial se aplicará a todos los aspectos de la guerra, Desde la logística y la vigilancia hasta la identificación de objetivos y la gestión de batallas.  Los vehículos robóticos acompañarán a las tropas en el campo de batalla, transportando suministros y disparando en posiciones enemigas; Enjambres de drones armados atacarán tanques, radares y centros de comando enemigos; Los vehículos submarinos no tripulados, o UUV, perseguirán tanto a los submarinos enemigos como a las naves de superficie. Al comienzo del combate, todos estos instrumentos de guerra, sin duda, serán controlados por los humanos. Sin embargo, a medida que se intensifican los combates, las comunicaciones entre la sede y las líneas del frente pueden perderse y tales sistemas se De acuerdo con los escenarios militares que ya se han escrito, estar solos, facultado para tomar acción letal sin más intervención humana.

La mayor parte del debate sobre la aplicación de la inteligencia artificial y su futura autonomía en el campo de batalla se ha centrado en la moralidad de habilitar armas totalmente autónomas. – a veces llamados “robots asesinos” – con la capacidad de tomar decisiones de vida o muerte por su cuenta, o sobre si el uso de tales sistemas violaría las leyes de guerra y el derecho internacional humanitario. Tales estatutos requieren que los creadores de la guerra puedan distinguir entre combatientes y civiles en el campo de batalla y evitar que estos últimos sufran daños en la mayor medida posible. Los defensores de la nueva tecnología afirman que las máquinas se volverán lo suficientemente inteligentes como para resolver tales distinciones por sí mismas,  mientras que los oponentes insisten en que nunca serán capaces de hacer distinciones críticas de ese tipo en el fragor de la batalla y no podrían mostrar compasión cuando sea apropiado. Varias organizaciones humanitarias y de derechos humanos incluso han lanzado la Campaña para detener a los robots asesinos con el objetivo de adoptar una prohibición internacional sobre el desarrollo y despliegue de sistemas de armas totalmente autónomos.

Mientras tanto, está surgiendo un debate quizás aún más importante en el ámbito militar sobre la aplicación de la IA a los sistemas de comando y control (C2) – Es decir, a la manera en que los oficiales superiores comunicarán órdenes clave a sus tropas. Los generales y los almirantes siempre buscan maximizar la confiabilidad de los sistemas C2 para garantizar que sus intenciones estratégicas se cumplan de la manera más completa posible. En la era actual, tales sistemas dependen en gran medida de sistemas seguros de comunicaciones por radio y satélite que se extienden desde las oficinas centrales hasta las líneas del frente. Sin embargo, a los estrategas les preocupa que, en un futuro entorno de hiper-guerra, tales sistemas podrían ser bloqueados o degradados al igual que la velocidad de la lucha comienza a exceder la capacidad de los comandantes para recibir informes del campo de batalla, Procesar los datos, y despachar los pedidos oportunamente. Considera esta definición funcional de la infame niebla de la guerra multiplicada por la inteligencia artificial. – Con la derrota un resultado probable. La respuesta a tal dilema para muchos oficiales militares: Deje que las máquinas también se hagan cargo de estos sistemas. Como lo señala un informe del Servicio de Investigación del Congreso, en el futuro “los algoritmos de inteligencia artificial pueden proporcionar a los comandantes cursos de acción viables basados ​​en el análisis en tiempo real del espacio de batalla, lo que permitiría una adaptación más rápida a los eventos en desarrollo“.

Y algún día, por supuesto, es posible imaginar que las mentes detrás de tal toma de decisiones dejarán de ser humanas. Los datos entrantes de los sistemas de información del campo de batalla se canalizarán a procesadores de inteligencia artificial enfocados en evaluar amenazas inminentes y, Dadas las limitaciones de tiempo involucradas, ejecutando lo que consideraron las mejores opciones sin instrucciones humanas.

Los funcionarios del Pentágono niegan que nada de esto sea la intención de su investigación relacionada con la IA. Sin embargo, reconocen que al menos pueden imaginar un futuro en el que otros países delegan la toma de decisiones en las máquinas y los Estados Unidos no tienen más remedio que seguir el ejemplo. Para que no pierda el terreno estratégico. “No delegaremos autoridad letal para que una máquina tome una decisión” El entonces subsecretario de Defensa, Robert Work, le dijo a Paul Scharre, del Center for a New American Security, en una entrevista de 2016. Pero añadió la advertencia habitual: en el futuro,  “Podríamos enfrentarnos a un competidor que está más dispuesto a delegar autoridad a las máquinas que nosotros y a medida que se desarrolla esa competencia, Tendremos que tomar decisiones sobre cómo competir“.

La decisión del día del juicio final

El supuesto en la mayoría de estos escenarios es que los EE. UU. Y sus aliados participarán en una guerra convencional con China y / o Rusia. Tenga en cuenta, entonces, que la naturaleza misma de tal hiperguerra futura impulsada por la IA solo aumentará el riesgo de que los conflictos convencionales puedan cruzar un umbral que nunca se ha cruzado antes: Una guerra nuclear real entre dos estados nucleares. Y si eso sucede, esos sistemas C2 empoderados por la IA podrían, Tarde o temprano, se encuentran en una posición para lanzar armas atómicas.

Tal peligro surge de la convergencia de múltiples avances en la tecnología: no solo inteligencia artificial y robótica, pero el desarrollo de capacidades de ataque convencionales como misiles hipersónicos capaces de volar a cinco o más veces la velocidad del sonido, cañones de rieles electromagnéticos y láseres de alta energía. Dichas armas, aunque no son nucleares, cuando se combinan con los sistemas de vigilancia de AI y de identificación de objetivos, Incluso podría atacar las armas de represalia móviles de un enemigo y amenazar con eliminar su capacidad para lanzar una respuesta a cualquier ataque nuclear. Dado tal escenario de “usarlos o perderlos”, cualquier poder podría estar inclinado a no esperar sino a lanzar sus armas nucleares a la primera señal de un posible ataque, o incluso, por temor a perder el control en un compromiso incierto y acelerado, Delegar autoridad de lanzamiento a sus máquinas. Y una vez que esto ocurrió, podría resultar casi imposible evitar una mayor escalada.

Entonces surge la pregunta: ¿Las máquinas tomarían mejores decisiones que los humanos en tal situación? Ciertamente, son capaces de procesar grandes cantidades de información durante breves períodos de tiempo y sopesar los pros y los contras de las acciones alternativas de una manera totalmente impasible. Pero las máquinas también cometen errores militares y, sobre todo, carecen de la capacidad de reflexionar sobre una situación y concluir: Detén esta locura. Ninguna ventaja de batalla vale la aniquilación humana global.

Como Paul Scharre lo puso en Army of None, un nuevo libro sobre inteligencia artificial y guerra, “Los seres humanos no son perfectos, pero pueden empatizar con sus oponentes y ver el panorama general. A diferencia de los humanos, las armas autónomas no tendrían la capacidad de comprender las consecuencias de sus acciones, No hay capacidad para alejarse del borde de la guerra“.

Así que tal vez deberíamos pensar dos veces antes de darle a alguna versión militarizada futura de Alexa el poder de lanzar un Armageddon hecho a máquina.


Michael T. Klare, un miembro habitual de TomDispatch, es el catedrático emérito de cinco estudios universitarios de paz y seguridad mundial en el Hampshire College y un miembro visitante de la Asociación de Control de Armas. Su libro más reciente es La carrera por lo que queda. Su próximo libro, All Hell Breaking Loose: Climate Change, Global Chaos, and American National Security, se publicará en 2019.

Copyright 2018 Michael T. Klare

Fuente: https://kenzocaspi.wordpress.com/2018/12/21/tomgram-michael-klare-la-llegada-de-la-hiper-guerra/


 

¡Hazte voluntario para traducir al español otros artículos como este! manda un correo electrónico a espagnol@worldcantwait.net y escribe "voluntario para traducción" en la línea de memo.

 

¡El mundo no puede esperar!

E-mail: espagnol@worldcantwait.net