¿Podría la IA provocar una guerra nuclear?

Ciudad de México  

Una IA suficientemente avanzada podría causar una guerra nuclear

 

Inteligencia Artificial (IA) es un sistema tecnológico capaz de, autónomamente entender su entorno, aprender de él y tomar acciones determinadas con el fin de maximizar su probabilidad de alcanzar sus objetivos. Aun cuando esta innovación tiene un largo camino por delante, expertos en el ámbito han comenzado a discutir sus posibles implicaciones, no solamente en el entorno digital y empresarial, sino también en el geopolítico. En ese sentido, la firma de análisis Rand Corporations se hizo la pregunta, ¿podría la IAprovocar una guerra nuclear?

A través del estudio How Might Artificial Intelligence Affect the Risk of Nuclear War?, Rand publicó los resultados de tres talleres de trabajo con 50 participantes (especializados en IA, dispositivos de destrucción masiva y seguridad nacional), quienes analizaron marcos geopolíticos, sopesaron la posibilidad del uso de software en decisiones militares y examinaron cómo podrían usarse dichos sistemas para interferir o supervisar armas nucleares. Entre los resultados de la disertación, se construyeron 4 escenarios probables a futuro:

+Superinteligencia:Uno de los escenarios preferidos en múltiples obras de ciencia ficción es, de acuerdo al análisis de los participantes, irrelevante. Una IAcapaz de superar por mucho las capacidades intelectuales humanas ocasionaría uno de dos desenlaces: resolvería los problemas del mundo o lo destruiría (por malicia o incidente). Muy pocos participantes consideran la opción inevitable, pero como puede ocasionar tanto guerra nuclearo un paraíso, insisten en que debe analizarse a fondo aún si su probabilidad de ocurrencia es baja.

+Evolución limitada: Aquí, la IAexplotaría en capacidades y mantendría habilidades sub-humanas a raíz de ciertas limitaciones físicas (por ejemplo, los límites del hardware disponible). El riesgo de guerra nucleares más real que en el caso anterior, pero su nivel dependería de la "relación" entre máquinas y humanos: en su calidad de seres falibles, probablemente se "explotarían" mutuamente con el fin de alcanzar sus objetivos. Así, se pondría mayor énfasis en estrategias de seguridad convencionales, como negociación y disuasión militar.

+Progreso incremental continuo:Muy similar al escenario anterior, aquí la IAtambién tiene altos niveles de inteligencia y habilidades sub-humanas en algunos aspectos. Pero dicho estado se alcanzaría mediante mejoras constantes en el transcurso de décadas. Aun cuando la conclusión es la misma (énfasis en estrategias de seguridad convencionales con el fin de evitar guerra nuclear), se tendría un mayor control sobre el software y, por la tendencia de desarrollo tecnológico actual, tiene la mayor probabilidad de ocurrir.

+Límite de IA:Otro escenario donde los expertos ven pocas probabilidades de ocurrir, aquí el mercado alcanza una "madurez", el interés comercial y militar decae y, con él, la inversión. Así, las capacidades de las máquinas solo llegarían tan lejos como le sean útiles a organizaciones. Ya que hoy se ve gran énfasis en su evolución, aun si llegara a ocurrir, es probable un avance considerable en el campo, lo cual a su vez provocaría desafíos en el ámbito de guerra nuclearsimilares a los de la Evolución limitada y el Progreso incremental continuo.

 

Inteligencia ArtificialTecnologíaSoftware

¿Te gustó el contenido?

 

 

Recibe las noticias por correo

Entérate de la economía, noticias internacionales y el impacto en los negocios. Aviso de privacidad