新闻 > 科教 > 正文

核武器弱爆了,人工智能才是最危险的!图

九个头条网讯禽流感、SARS以及埃博拉病毒像噩梦般的爆发,使人类背脊发凉。所幸,如果有足够的资源,人类还可阻止前三项疾病的传播。然而,由人类一手创造出来的人工智能,人类或将无法阻挡,这是因为人工智能“可能比核武器还危险”!

什么是人工智能

在探讨可能出现什么问题之前,让解释一下什么是人工智能:例如,你拿起iPhone,问问Siri天气和股票情况,或者对她说“我喝醉了”,而她的回答就是人工智能的结果。

人类能否驾驭人工智能引争议

现在的一些人工智能机器显得非常可爱、无辜,但是随着它们在社会上被赋予更多权力,不用多久它们就会失控。人工智能虽然对于人类社会发展意义重大,但亦可给人类社会造成灾难。比如,一台出现故障的电脑瞬间让股市崩溃,导致数十亿美元的损失。或者一辆无人驾驶汽车因软件升级错误在高速公路上突然静止不动。这些“骚乱”升级快速,最终演变成重大事故。又比如可以想像一下,一个最初用来对抗癌症的医用机器人很可能得出这样的结论:消灭癌症的最佳方法是消灭那些存在患病基因的人。

《超级智能》(Superintelligence)一书的作者尼克·博斯特罗姆(Nick Bostrom)描述了几种会导致人类灭绝的可怕情况,其中一种是能自我复制的纳米机器人。在理想状况下,纳米机器人能在人体内战胜疾病,或者消除地球上的放射性物质。但博斯特罗姆说,“如果有邪恶企图的人掌握了这种技术,那可能导致地球上智能生命的灭绝。”

不过,亦有人工智能支持者们辩称,这些事情永远都不会发生,程序员们会设置一些防护措施。但是有一点令人担心:是什么使程序员们认为自己能够驾驭这些准智能机器人大军?再者程序员们花了近半个世纪时间,显然不是为了在人们每次想查看邮件时电脑不会崩溃。

人工智能比核武器更危险

硅谷的常驻未来主义者埃隆·马斯克(Elon Musk)最近说,人工智能“可能比核武器还危险”。而斯蒂芬·霍金(Stephen Hawking)是地球上最聪明的人之一,他写道,成功的人工智能“会是人类历史上最重大的事件。不幸的是,它也可能会是最后一个大事件”。事实上,还有很多计算机专家和科幻小说作家,担心未来的世界充满故障机器人。

人工智能有两个主要问题令马斯克和霍金等人担忧。离人们较近的一个问题是,人类正在创造一些能像人类一样做决定的机器人,但这些机器人没有道德观念,而且很可能永远都不会有。

第二个问题离人们较远,那就是,一旦人们创造出和人一样智能的系统,这些智能机器将能够建造更智能的机器,即超级智能。专家们认为,到那时,事情真的会迅速失控,因为机器的增长和膨胀速度变得异常迅猛,而人类不可能在自己尚未建立的系统中设置防护措施。

“我们人类掌控未来不是因为我们是地球上最强壮或最快的生物,而是因为我们是最智能的,”《我们的终极发明:人工智能和人类时代的终结》的作者詹姆斯·巴拉说,“所以当这个星球上有比我们更智能的东西时,它将统治地球。”

巴拉认为,人们并不确切知道超级智能机器的外形或行为方式。他说,“潜水艇会游泳吗?会,但它的游泳方式跟鱼不同;飞机会飞吗?会,但它的飞行方式跟鸟不同。人工智能不会跟我们一模一样,但它将是我们的终极智能版本。”

人工智能用于军备竞赛

也许最可怕的是,那些正在进行军备竞赛的国家会制造能杀人的机器。于是,不难想像,人工智能技术将会被军队利用。

邦妮·多彻蒂(Bonnie Docherty)是哈佛大学的法律讲师,也是人权观察组织的高级研究员。她说,人工智能自主武器的军备竞赛正在进行,这使人想起了核武器竞赛的初期;在这些机器人上战场杀人之前,必须先订好条约。

“如果现在不制止这种技术,它将会导致军备竞赛,”多彻蒂说。她写过几个报告,讲述杀手机器人的危险。“如果一个国家在开发它,那另一个国家也会开发。这些致命的机器缺乏道德观念,不应该被赋予杀人权力。”

现阶段人类的应对措施

那么,如何保证所有这些世界末日的情形不会成为现实?目前,在谷歌的领导下,人们或者能阻止某些可能出现的混乱。今年年初,搜索引擎巨头谷歌收购了DeepMind公司,而DeepMind公司是伦敦的一家以神经系统科学为基础的人工智能公司。这两家公司建立了一个人工智能安全伦理委员会,旨在保证这些技术安全发展。

DeepMind的创始人、首席执行官杰米斯·哈萨比斯(Demis Hassabis)在一次视频采访中说,所有开发人工智能的机构,包括政府和公司,都应该这样做。“他们一定要考虑自己的所作所为会带来的伦理后果,”哈萨比斯说,“而且一定要早早考虑。”

————————————

责任编辑: 宁成月  来源:九个头条 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2014/1119/474491.html