“人工智能(AI)叛乱”;听起来像科幻电影的情节,但是这个概念是一个新的研究主题。
一个国际科研团队设计了一种理论上的“遏制算法”。
通过模拟AI来确保它在任何情况下都不会伤害人类,但事实证明这是无法做到的。
人工智能让人类着迷了多年,我们对控制汽车,撰写交响曲或在我们自己的游戏中击败世界上最好的棋手的机器感到敬畏。
但是,强大的力量伴随着巨大的责任,全世界的科学家都担心超级智能系统可能带来的危险。
据报道,一个由马克斯·普朗克人类发展研究所人类与机器研究中心的科学家组成的国际团队表明,不可能控制超级人工智能。
团队使用了“停止”艾伦·特宁(Alan Turning)在1936年的分析过程中提出的问题。
该问题的焦点是计算机程序是否将得出结论并在处理过程中做出“暂停”。
回复。
据报道,在该研究中,该团队设计了一种理论上的“遏制算法”,首先模拟了人工智能的行为,如果认为这是有害的,则停止人工智能的行为,从而确保超级人工智能不会被破坏。
在任何情况下都可以使用。
危害人类。
但是,经过仔细分析,发现在当前的计算模型下无法建立这样的算法。
换句话说,当前算法不具有防止人工智能的能力,因为命令AI不破坏世界将无意中阻止“包含算法”的操作。
本身。
人与机器中心主任伊亚德·拉万(Iyad Rahwan)表示,如果发生这种情况,“包容性算法”是否会被采用,将是未知的。
仍在分析威胁,或者是否已经停止包含有害的AI。
基于这些计算结果,对“包含问题”进行分析。
无法计算。
没有算法可以找到确定人工智能是否会危害世界的解决方案。
研究结果还证明,我们甚至可能都不知道何时会出现超级智能机,因为确定一台机器是否表现出比人类更好的智能与“遏制问题”处于同一领域。
国际科研团队的论文警告说,如果超级智能机器想要控制世界并伤害人类,那么它将无助于拔掉它的电源。
负责编辑AJX