新闻 > 科教 > 正文

“恶魔”威胁终结人类 剑桥学子拔剑

火人

人类造出超级人工智能,有可能玩火自焚吗?电影里的终结者会走进现实吗?

电影里,施瓦辛格扮演的机器人“终结者”说:“我会回来!”

剑桥大学的学者决定严阵以待,确保人类不至于被自己制造的恶魔机器人毁灭。

这个“终结者研究中心”(centre for 'Terminator studies)的主要任务是研制如何抗衡可能导致人类灭绝的四大“恶魔”:人工智能(artificial intelligence)、气候变化(climate change)、核战争(nuclear war)和“邪恶”的生物技术(rogue biotechnology)。

这个中心的正式名称是“生存风险研究中心”(Centre for the Existential Risk,CSER)。

杞人忧天?

很久以前,人类自我毁灭就是科幻小说和电影的主要题材;科研发展也在不断“试水”未知领域、开辟新疆域。

最大的风险之一就是自掘坟墓。

如果这种担心在几十年前会被嗤为杞人忧天,那么现在剑桥大学设立这样一个防止人类灭绝的研究中心,或许从一个侧面印证了这种可怕情景并非纯属虚构。

这个中心由三人联合创办:里斯勋爵(Lord Rees),英国皇家天文学家,《我们的最后一个世纪》(Our Final Century)一书作者,以及互联网电话服务Skype的共同创始人之一扬·塔里安(Jaan Tallinn)。

里斯勋爵在他2003年出版的这本书里预言,人类表现出来的各种自残、自毁行为,最终可能导致2100年人类彻底灭绝。

灾难之盒

?

还有一位创办人是剑桥大学知名哲学教授休·普莱斯(Huw Price)。

普莱斯教授曾经提醒人们,“超级智能机器”(ultra-intelligent machine),或称人工综合智能(artificial general intelligence, AGI),确实涉及人类存亡。

他说,AGI 有可能带来“潘多拉的盒子”(神话里盛满灾难的盒子,打开盒盖,灾难飞洒人世),我们对此务必重视;错过这个关键时刻,就可能陷入灭顶之灾。

当然,他承认现在谁都无法准确预计超级人工智能AGI可能带来哪些具体灾难,但这也正说明很有必要立项研究科技发展的“灾难性的一面”。

他在中心剪彩仪式上表示,剑桥大学已经存在了800年,为了后人能够庆祝它建校1000周年,现在就应该打磨抗击“人类终结者机器人”的利剑。

责任编辑: 刘诗雨  来源:BBC 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2012/1127/270715.html