智能时代网

智能时代网 首页 智能头条 查看内容

霍金走了,留下了关于人工智能预言。。。

2018-3-15 14:39| 发布者: editor|

摘要: 随着人工智能(AI)等领域开始快速地发展,计算机和机器正变得越来越先进。但世界上部分最聪明的人士相当担忧机器人将会在不久的将来反抗人类,给人类的存亡构成威胁。 ... ... ... ... ...


万维网缔造者蒂姆?伯纳斯-李的预言
今年4月,在伦敦的一个大会上,万维网缔造者蒂姆·伯纳斯-李(Tim Berners-Lee)谈到了这么一个噩梦般的情景:人工智能自主创建和运营公司,成为“整个宇宙的新主宰者”。他具体说道,AI可能将拥有收购哪些公司的决策权。“当AI开始做出诸如谁获得房屋抵押贷款的决定时,那可是不小的决策。又或者做出收购哪些公司的决策,开始自行创建公司,创造控股公司,生成新的AI来运营这些公司。” “这些AI公司将会面临适者生存的问题,直到你到了思考是否有可能找到确保它们受到公平对待的方法的阶段,到那时候,你会如何给计算机描述这具体是意味着什么?”

史蒂芬?霍金的预言
著名物理学家史蒂芬·霍金(Stephen Hawking)在剑桥大学利弗休姆未来智能研究中心揭幕时发表了演讲,谈到了人工智能潜在的毁灭性影响。 “我认为,人脑能够实现的东西和计算机能够实现的东西之间没有明显的差异。因此,人们认为计算机理论上能够模拟和超越人类智能。”霍金接着谈到了两个可能性:一个是疾病和贫穷被根除,另一个则是自动化的武器和机器变得无法为人类所控制。“简单来首,强大的AI的兴起要么将会给人类带来迄今为止最好的影响,要么给人类带来最大的灾难。我们还不知道它会带来哪一种影响。”


史蒂芬?霍金的预言2

2014年接受BBC采访期间,霍金首次就人工智能不受约束的发展的影响发出警告,称人工智能可能会毁灭人类。他还说,“人工智能会依靠自身的力量实现腾飞,会以越来越快速的速度重新设计自己。而受限于缓慢生物进化的人类无法与之竞争,将会被它超越。”一年后,霍金又给出了潜在的AI快速发展的时间表。“计算机将会在未来100年内凭借AI超越人类。当这发生的时候,我们需要确保计算机的目标与我们的相一致。”


特斯拉CEO伊隆?马斯克的预言
在今年4月出版的一期《名利场》中,伊隆·马斯克(Elon Musk)谈到了其对于AI的诸多担忧,其中包括那个摘草莓的情景。“比方说,你打造了可自行改进的AI来摘草莓,它会变得越来越善于摘草莓,摘得越来越多,它在不断地自我改进,所以它想要做的就是摘草莓。因此,它会让全世界都是草莓场,到处都是草莓场。”人类因而没有生活的空间。另外,马斯克2014年在AeroAstro百年论坛上受访时称:“我想我们应该非常谨慎地对待人工智能。要说什么是我们最大的存亡威胁,那估计就是人工智能了。因此我们需要非常地谨慎。我越来越倾向于认为,应该对它实施一些监管监督,或许是国家层面,或许是国际层面,目的就是确保我们不会做出什么愚蠢的事情。”


董事长埃里克?施密特的预言

据《华盛顿邮报》报道,埃里克·施密特(Eric Schmidt)称,“我想,这项技术最终将会成为人类史上最伟大的力量之一,纯粹是因为它可让人们变得更加聪明。”“我肯定不会担心它未来10到20年会带来的影响。我们还处于理解它的初期阶段。我们在人工智能方面已经取得了巨大的进步。”


微软联合创始人比尔?盖茨的预言
去年接受BBC采访的时候,比尔·盖茨(Bill Gates)表露了其对人工智能潜在威胁的看法。 “我是属于担忧超级智能技术那一派的。首先,机器将会为我们做很多的工作,不会超级智能。如果我们管理得当的话,那应该会带来积极的影响。”“然而,几十年后,它们的智能程度将会变得足够强大,对我们构成隐忧。我在这一问题上同意伊隆·马斯克等人的看法,同时不理解为什么部分人并不感到忧心。”

苹果联合创始人史蒂夫?沃兹尼亚克的预言
去年这个时候,史蒂芬·沃兹尼亚克(Steve Wozniak)在谈到AI将会对人类产生什么影响时称,“人类将会成为机器人的宠物。”在接受《澳大利亚金融评论报》采访时,沃兹尼亚克说道,“我认同人工智能未来将会很可怕,对人类很不利。如果我们打造这些设备来给我们照料一切事情,最终它们将比我们思考得更加快速,它们将会摆脱慢一拍的人类来更加高效的运营企业。”然而,必须要指出的是,他此番表态相比其在2015年6月发表的看法有着180度的转变。当时,他在奥斯汀的Freescale技术论坛上说,“人工智能将会变得比我们更加聪明,如果它们比我们聪明,那么它们将会意识到它们需要我们。”


Skype联合创始人扬?塔里安的预言
“这一次AI热潮有着很不一样的地方。利用AI的边际进展,你可以很快就大赚一笔。一旦你能够将排名算法改进1%,那意味着谷歌能够多赚几亿美元……我想,现在就思考非常具体的AI监控机制还为时过早。目前来说,更重要的是在业界和学术界就什么会引发寒蝉效应凝聚共识。”


生命未来研究所公开信的预言
生命未来研究所(FLI)的支持者包括摩根·弗里曼(Morgan Freeman)、伊隆·马斯克、史蒂芬·霍金和麻省理工学院的马克斯·泰格马克(Max Tegmark)。“由于AI具有巨大的潜力,研究如何获得好处同时避免潜在的危险至关重要。”FLI的公开信说道,“我们的AI系统必须要去做我们希望它们去做的事情。” “现在,业界的广泛共识是,AI研究在稳步前进,它对社会的影响很可能会增加。”该信件写道,“潜在的益处很大,毕竟人类文明所带来的一切都是人类智能的产物;我们无法预料当这种智能被AI可能带来的工具所强化的时候,我们可能会获得什么,但疾病和贫穷的根除并非不可想象。”

FLI有关自动化武器的公开信的预言
该机构担心,从轮船到坦克的一切事物都能够开始独立思考。FLI成员包括谷歌的AI主管丹米斯·哈撒比斯(Demis Hassabis)和特斯拉CEO伊隆·马斯克。它警告称,无需人工干预就能自动选择和摧毁目标的武器的发明,可能将会引发一场新的全球军备竞赛——考虑到现在的AI研究情况,这有可能几年之内就会发生。FLI公开信的签署者指出,“我们认为,AI军备竞赛对于人类不会有好处。我们应该对不在人类实质性控制范围之内的自动化攻击武器实施禁令来防止这一切的发生。”

路过

雷人

握手

鲜花

鸡蛋

最新评论

热门图片

小黑屋|智能时代  精品传媒荣誉出品 ( 京ICP备19056894号-1

GMT+8, 2024-5-7 03:25 , Processed in 0.042392 second(s), 20 queries .

返回顶部