对于如何限制杀手机器人,各国意见不一。
人工智能科技发展迅速,从前电影里提出的人工智能已经在现今社会慢慢遍布。从前的想象成了真。而伴随着对与人工智能拥有超越人类的技术并有取代人类风险的猜想是否也存在呢?这不禁令人细思极恐。
00-1010 12月中旬,联合国《特定常规武器公约》第六次审议大会在日内瓦举行,讨论了“致命自主武器系统”即俗称“杀手机器人”的相关规范。
世界各国密切关注
由于这次会议,各国未能达成相关协议。在《特定常规武器公约》审议大会上。在125个成员国中,大多数国家代表表示,他们希望限制“杀手机器人”。
然而,美国、英国、俄罗斯、以色列和印度等正在开发相关武器的国家动摇了这一点。
联合国秘书长古特雷斯呼吁所有成员国尽快达成协议,并发布关于“杀手机器人”的新规定。维护全人类的利益。
会议结果
著名物理学家及科学研究界杰出人物,霍金(Stephen Hawking)表示,人类创造智能机器的努力威胁自身生存。
霍金曾在接受媒体采访时表示,“彻底的人工智能的发展可能会导致人类的灭绝。”这些言论是霍金对包括基础人工智能在内的所用通信技术改进的看法的表达。
霍金曾经说过,目前人工智能的初始阶段被证明是非常有用的,但他担心创造出与人类相当甚至超过人类的东西的后果。
“它可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越。”
霍金提出人工智能“威胁论”
克莱弗波特的发明者罗洛卡彭特说:“我相信我们还将继续在相当长的时间内掌控科技和它的潜力,并解决世界上的许多问题。”
“我们还不知道机器智能超越人类后将出现什么情况。所以我们不知道我们最终将得益于此,还是因此而被忽略、被边缘化,或者被消灭。”
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/156909.html