¿Podría la IA provocar una guerra nuclear?
My Press

Domingo, 23 de septiembre de 2018

¿Podría la IA provocar una guerra nuclear?

  Una IA suficientemente avanzada podría causar una guerra nuclear

Publicado en: Ciudad de México, el por

Inteligencia Artificial (IA) es un sistema tecnológico capaz de, autónomamente entender su entorno, aprender de él y tomar acciones determinadas con el fin de maximizar su probabilidad de alcanzar sus objetivos. Aun cuando esta innovación tiene un largo camino por delante, expertos en el ámbito han comenzado a discutir sus posibles implicaciones, no solamente en el entorno digital y empresarial, sino también en el geopolítico. En ese sentido, la firma de análisis Rand Corporations se hizo la pregunta, ¿podría la IA provocar una guerra nuclear?

A través del estudio How Might Artificial Intelligence Affect the Risk of Nuclear War?, Rand publicó los resultados de tres talleres de trabajo con 50 participantes (especializados en IA, dispositivos de destrucción masiva y seguridad nacional), quienes analizaron marcos geopolíticos, sopesaron la posibilidad del uso de software en decisiones militares y examinaron cómo podrían usarse dichos sistemas para interferir o supervisar armas nucleares. Entre los resultados de la disertación, se construyeron 4 escenarios probables a futuro:

+Superinteligencia: Uno de los escenarios preferidos en múltiples obras de ciencia ficción es, de acuerdo al análisis de los participantes, irrelevante. Una IA capaz de superar por mucho las capacidades intelectuales humanas ocasionaría uno de dos desenlaces: resolvería los problemas del mundo o lo destruiría (por malicia o incidente). Muy pocos participantes consideran la opción inevitable, pero como puede ocasionar tanto guerra nuclear o un paraíso, insisten en que debe analizarse a fondo aún si su probabilidad de ocurrencia es baja.

No fue utilizada la IA en la Guerra Fría para manejar arsenal nuclear porque los problemas militares requerían análisis y no ataques automáticos

+Evolución limitada: Aquí, la IA explotaría en capacidades y mantendría habilidades sub-humanas a raíz de ciertas limitaciones físicas (por ejemplo, los límites del hardware disponible). El riesgo de guerra nuclear es más real que en el caso anterior, pero su nivel dependería de la "relación" entre máquinas y humanos: en su calidad de seres falibles, probablemente se "explotarían" mutuamente con el fin de alcanzar sus objetivos. Así, se pondría mayor énfasis en estrategias de seguridad convencionales, como negociación y disuasión militar.

+Progreso incremental continuo: Muy similar al escenario anterior, aquí la IA también tiene altos niveles de inteligencia y habilidades sub-humanas en algunos aspectos. Pero dicho estado se alcanzaría mediante mejoras constantes en el transcurso de décadas. Aun cuando la conclusión es la misma (énfasis en estrategias de seguridad convencionales con el fin de evitar guerra nuclear), se tendría un mayor control sobre el software y, por la tendencia de desarrollo tecnológico actual, tiene la mayor probabilidad de ocurrir.

+Límite de IA: Otro escenario donde los expertos ven pocas probabilidades de ocurrir, aquí el mercado alcanza una "madurez", el interés comercial y militar decae y, con él, la inversión. Así, las capacidades de las máquinas solo llegarían tan lejos como le sean útiles a organizaciones. Ya que hoy se ve gran énfasis en su evolución, aun si llegara a ocurrir, es probable un avance considerable en el campo, lo cual a su vez provocaría desafíos en el ámbito de guerra nuclear similares a los de la Evolución limitada y el Progreso incremental continuo.

 

 

NOTICIAS DE LA SECCIÓN

Orden cronológico en timeline de Twitter está de vuelta

'Pieles robóticas' convierten objetos cotidianos en robots

Australia prueba licencias de conducir con tecnología blockchain

Twitter continúa trabajando en reestructuras

¿Te gustó el contenido?