随着对核武器的控制已交由人工智能(AI)进行,世界可能会接近世界末日的核战争。
根据核科学家和世界国防专家的出版物查找资料可以看出,如果把将核武器的控制权交给人工智能(AI),世界可能会接近终结者式的世界末日核战争的时代。
多年来,尽管许多AI专家指出,人们担心像著名的《终结者》电影中的AI一样会改变人类,但人们误解了该技术,但AI用核武器造成灾难性错误的可能性绝非童话。
最近,《原子科学家公报》指出,顶级核科学家团体以及国防专家最近发表的其他文章都说,俄罗斯可能已经在将AI整合到正在开发的新型核鱼雷中,称为“波塞冬”使它AI智能自我控制。
根据原子科学家的报告,美国也在考虑在其现代化和大修其核电站存的过程中,将AI更深地注入其核武器计划中。
尚无关于以色列将AI集成到80-200枚核武器装置中的明确报道。但是,有报道称以色列国防军将AI整合到常规武器中,例如F-16携带的香料炸弹。
报告中部分关注的是,一旦非常规武器越来越多地由AI主导,将AI纳入核武器系统在文化上就成为必然。
科学家和专家正在写的关于核武器大屠杀的风险不是AI的恶意自我攻击,而是AI被黑客入侵,由于技术错误而失控或严重误判局势导致灾难性后果。
携带核武器的无人驾驶工具可能会放大这种风险,因为没有人在船上并负责做出部署核武器的最终决定。
作为次要但仍很严重的风险,将人工智能集成到预警系统中可能会使人类决策者不知所措,尽管人们可能会怀疑,但人类决策者可能会更快地使用核触发手指来屈服于该技术。
一些研究表明,人工智能和自动证据通常可以加强泡沫式思维,并使分析师更难以就在黑暗和高压力情况下可能发生的事情进行另类叙述。
这篇文章证明了人类判断的重要性的一个例子是1983年的一次事件,当时一位名叫斯坦尼斯拉夫·彼得罗夫(Stanislav Petrov)的苏联军官无视美国核导弹进入的声音和视觉警告。
因为这些系统是错误的,如果彼得罗夫(Petrov)凭自己的直觉相信技术,那么世界可能由于技术故障而陷入了核战争。
文章还指出了AI在核武器领域的潜在有价值的方面,例如收集更准确,更全面的数据,从而使决策者在黑暗中猜测的频率降低。
此外,人工智能可以更快地将这些关键信息提供给决策者,而在过去,关键信息可能会停留在收集过程中,而没有及时联系领导者做出决定。
此外,该文章指出,人工智能已经被纳入国家核计划的各个方面已有一段时间了。
即使在冷战的前几十年中,美国和俄罗斯都有将某些能力编入某些核武器中,以便能够在某些情况下迅速切换为目标,而不是无害登陆。
总体而言,对核武器中人工智能的最大关注是在潜在僵局中处于较弱的一面。
一些分析人士认为,这可能是俄罗斯在其核计划中取悦人工智能的原因,而另一些分析人士则认为,莫斯科希望加快其核武器部署的速度,以便更具攻击性,而不仅仅是出于自卫。
尽管这种能力似乎与伊朗无法实现的目标相去甚远,但过去,在俄罗斯,朝鲜或巴基斯坦的援助下,德黑兰在核技术上的突飞猛进。