您的当前位置:首页 > 知识管理 > 内部刊物 > 特供信息

知识管理

霍金再次警示人类有被人工智能毀灭的风险

427,2017全球移动互联网大会(GMIC)北京国家会议中心开幕。英国的著名科学家斯蒂芬·霍金教授通过视频,在全球领袖峰会论坛上发表开幕演讲«让人工智能造福人类及其赖以生存的家园» 。在人工智能热潮迭起的时刻,霍金提醒科学界、政府和产业界,应联手未雨绸缪地防范人工智能可能带来的社会风险。霍金表示,人工智能的研究与开发正在迅速推进,人工智能的崛起究竟是好是坏现在仍未确定。“也许我们所有人都应该暂停片刻,把我们的研究从提升人工智能能力,转移到最大化人工智能的社会效益上面。”他说,“我们应该竭尽所能,确保其未来发展对我们和我们的环境有利 。”霍金认为,人工智能的发展本身就是存在着问题的一种趋势。 人工智能的发展遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。“但我们无法知道,我们将无限地得到人工智能的帮助,还是将被藐视并被边缘化,或者很可能被它毀灭 。”他表示。关于人工智能的研究正在迅速发展,但人工智能已经在引起很多社会伦理问题。例如,在医疗领域,人工智能有根除疾患和贫困的潜力,但是研究人员必须创造可控的人工智能;在交通领域,无人驾驶汽车, 在自主决定小风险的大事故和大概率的小事故之间,该如何进行选择? 在安全领域,智能自主武器是否应该被禁止?如果是,“自主”该如何精确定义?如果不是,任何使用不当和故障的过失应该如何问责? 在个人隐私方面,由人工智能可以解读大量监控数据,已经引起对侵犯个人隐私和担忧;在社会经济方面,如何管理因人工智能取代工作岗位带来的经济影响? 霍金指出,从长期来看,担忧主要来自人工智能系统失控的潜在风险,他担心不遵循人类意愿行事的超级智能的崛起会威胁到人类,“人工智能的成功有可能是人类文明史上最大的事件,但也有可能是人类文明史的终结,除非我们学会如何避免危险” 。

【主持者言】这已经不是霍金第一次公开警示人工智能对于人类的威胁了,霍金还与特斯拉CE0埃隆·马斯克及多位人工智能专家签署过一份关于人工智能的公开信,呼吁就人工智能对社会所造成的影响做认真调研。 不过,霍金话音刚落,就有人工智能专家站出来指出,霍金并非研究人工智能的科学家,而是一个理论物理学家,他的话从专业上来说并经不起推敲。关于科学的问题,主持者也不敢多言,在主持者看来,霍金所提出的这些问题,更多是接近于科学的哲学层面,而非具体技术层面,不过,作为全球最著名 的科学家,很多普通人眼中科学的“化身”,无论专业与否, 霍金的意见都能够引起人们对于人工智能话题的重视和探讨,此时正确不正确倒并不那么重要了。


 
财神爷.4826..com高手