在去年中国乌镇 AlphoGo 与柯洁的围棋世纪大战之中,我们都见识到了人工智能(AI)在这些年来的快速进步,如今几乎可以确定的说,在绝大多数零和游戏(Zero-Sum Game)中,机器是会击败人类的。但如果是在其他情况下呢?
不论是西洋棋、围棋或扑克牌,过程经常是由两个或以上的玩家互相冲突竞争,并由一方击败对手获胜,对于 AI 发展来说,这样的游戏结果能提供明确的里程杯来衡量发展过程。但 AI 最终要应用的现实世界毕竟不是这么简单,机器必须学会与人、机器之间更复杂的长期合作关系。
New Atlas 报导指出,为了解 AI 在面对与人及其他机器“社交”时的情况,美国杨百翰大学(BYU)电脑科学教授 Jacob Crandall、Michael Goodrich 和麻省理工及其他单位同事合作创造了一种 S# 算法,试图教导机器学习合作及妥协,并在实际游戏中测试了其性能。
与过往的围棋、西洋棋等单人零和游戏不同,研究人员选择了玩家需要不同程度合作及妥协的数款游戏,其中包含了囚徒困境(Prisoner’s Dilemma)与牵涉到夏普利值(Shapley value)的内容,接着团队便在机器、人类与人机等不同合作方式情况下进行了测试。
结果显示,至少以 S# 编程机器的情况来说,在大多数情况下,机器确实比起人类更加懂得如何合作与妥协。
Crandall 表示,在这些游戏中,如果参与的两个人都能够相互诚实、忠诚,那么他们就能完成的像两台机器一样好,但实际的多数情况并非如此,Crandall 将这种情况称为“人为疏失”(human failings)。
“我们实验中的人类参与者有种不忠诚的倾向,他们会在合作关系中叛逃(defect)而且不诚实,大约有近半的参赛者在互动中会选择某种程度不遵照建议去进行。”
而从另一方面来看,被研究人员编程为“重视诚实”的机器,就确实是诚实的。Crandall 认为,这种算法正在体会到道德特征是件好事,它被编程为不去说谎,并在需要的时候持续保持合作。
在未来像是自驾车的多种 AI 应用中,机器都必须去学会与人类和其他机器分享资讯、合作或妥协,研究人员认为,这些发现将能为未来应用 AI 技术的设备奠定基础。
这项研究已经被刊登在《自然-通讯》(Nature Communications)期刊中。
评论