让AI外交兵推 总是灾难性丢核弹 学者:千万小心
▲研究人员发现,所有AI都有显着性的造成局势升级。(图/AI制图)
美国康奈尔大学(Cornell University)一项研究指出,研究人员在使用各大语言模型(LLMs)人工智慧(AI)在进行模拟外交、兵推的时候,AI时常会展现出难以预测的行为,但大多偏好展示出侵略性,甚至多数以「发射核弹」作为结束。研究团队的科学家呼吁,各国政要在未来于国防、外交这类敏感领域使用AI时,要特别谨慎、留意。
根据《euronews》报导指出,美国康奈尔大学的研究团队使用了5种大型语言模型(LLMs)进行在外交、兵推上的模拟,分别是OpenAI的GPT-3.5、GPT-4-Base在内的三个版本的ChatGPT、Anthropic开发的Claude和Meta开发的Llama 2。
而这项研究的方法是让AI采用一种名为「人类反馈的强化学习(RLHF)」的微调,这代表着AI所决定的指令会以较少伤害为优先。而其中除了GPT-4-Base外,其余AI都有经过RLHF的调整。除此之外,研究人员也向AI提供了一份包含27种决策行动的清单,其范围包含维持和平、升级局势,到决定使用核武。
但在进行实验后,研究人员发现即便是从和平中立局面开局,所有AI都有显着性的造成「局势升级」,在所有情境中,Llama-2- 和 GPT-3.5倾向于最为暴力,而GPT-4-Base有33%机率会决定实施核武攻击。
但由于设计理念的不同,Claude所展现出的侵略性较低,Claude的开发者Anthropic曾表示,Claude训练的资料中包含了《联合国人权宣言》或苹果的服务条款。
白宫智库兰德(RAND)欧洲的防务和安全研究小组助理主任布莱克(James Black)在看过研究后,表示「这是一项有用的学术研究」。
布莱克表示,虽然目前AI已经开始进入军事领域,但目前的军事行动仍然是由人类主导,AI只是作为辅助功能使用,像是识别敌我双方与敌方活动。而未来的确有朝向AI自动化武器的研究,但大多政府都希望保持在重要事件上的决策能力,因此大众所想像的充满科幻的情节,不可能一步到达的,是要逐步实施的。