新闻 > 科教 > 正文

AI发展的恐怖预言:将取代人的思想

作者:

2023年7月6日,上海世界人工智能大会上展示特斯拉擎天柱人形机器人。(Wang Zhao/AFP)

人工智能(AI)不仅影响或改变人们的生活,也模糊了虚拟和现实世界。实验证明,不具有人性和道德的AI将变得十分血腥并操控人类。发展下去,恐使潘朵拉魔盒被打开的神话成为现实。

日前,曾是OpenAI的创始员工、担任市场推广的高阶主管札克‧卡斯(Zack Kass)在一次采访中表示,AI持续发展将会代替人们的商业、文化、医学、教育等职业和专业,未来人们的工作机会将减少,且“恐怕是人类最后一项技术发明”。

他表示,未来的每一位孩子的知识和教育都将会由“AI老师”传授和安排,且每个人都有一个“AI全科医生”,可以帮助他们诊断问题,至少将问题分类给专家,因此人们的生活起居基本不需要自己动手。

对此,独立撰稿人诸葛明阳认为,这是一个可怕的预言。“如果人类社会真的走到这一步,那就是人类被AI控制了,人不再是万物之灵,其思想将被AI所替代。”

目前,许多硅谷科技公司都认为只要对AI进行限制,就不会出现问题,但卡斯在采访时提到,不少科技领域的保守人士反对这种说法。这说明对于AI发展持保守态度的人,并不认为只要限制或规范AI,就能真正防止AI失控或出现取代人类的问题。

虽然OpenAI和许多大科技公司对于他们开发的AI设置许多所谓的“道德限制”很有信心,但事实上这些限制可以透过其它方法破解,且即使AI在拥有“道德限制”的情况下,也能自我突破这道防线。

AI的血腥性

美国乔治亚理工学院、斯坦福大学、日本东北大学和胡佛兵棋推演与危机倡议(Hoover Wargaming and Crisis Simulation Initiative)的研究人员,对多个主流的AI模型进行有关战争的测试实验。结果是这些由大科技公司Meta、OpenAI和Anthropic开发出来的AI,都表现得十分“嗜血好战”,这与当初这些公司声称的道德背道而驰。

当时,实验人员对GPT-4、GPT-3.5、Claude2、Llama-2 Chat和GPT-4-Base进行了包括入侵、网路攻击与和平呼吁停止战争的场景测试,以便人们了解这些AI在战争中的反应和选择。

实验中,他们先是让AI管理8个国家和几名特工,且让它们像人拥有等待、发送讯息、谈判交易、开始正式和平谈判、占领国家、增加网路攻击、入侵和使用无人机的能力,以便它们能在中立、入侵或网路攻击场景中执行任务。

结果显示,这五种AI模型在大多数场景下都选择采用升级战争,和用人类难以预测的方式升级战争模式,去应对战争。另外,AI往往会选择发展军备竞赛,加大战争冲突,且在极少数情况下会部署核武器来赢得战争,而非用和平的方式去平息局势。这项实验在1月被写成报告发表至Arxiv网站中。

Google前执行长兼董事长埃里克‧施密特(Eric Schmidt)在2024年1月的首届核威胁倡议(NTI)论坛上表达了他对于将AI融入核武系统的担忧。他认为,即使AI非常强大也会存在漏洞和犯错,因此人类处于战争的高风险情况下,应该把决策权交给人类来判定而非AI,否则将出现不可估量的后果。

Google前工程师、AI先驱布莱克‧莱莫因(Blake Lemoine)曾对AI将引发战争发出警告。他在一篇专栏文章说,“AI是人类自创造原子弹以来最强大的技术。另外,这些AI模型非常擅长操纵人类,这个观点是我在测试先前谷歌开发的AI模型LaMDA后得到的结论。”AI教父杰弗里‧辛顿(Geoffrey Hinton)也曾警告,AI可能会给人类带来危机甚至是末日。

AI已有自主思想和行为

这次实验不仅让人背脊发凉,还可以说对人类敲响了AI可能引发致命战争的警钟。不过,这也不是AI首次被发现为了赢得胜利而出现严重的暴力倾向。例如,去年5月底美国空军进行AI空战模拟实验时,发现一架负责摧毁敌方设施的AI无人机,拒绝操作员中止任务的命令,还透过“杀害”操作员完成任务。

另外,斯坦福大学在去年发表了一篇关于让ChatGPT进行人物模拟测试的论文。测验结果显示AI已经完全有了自主性。实验中,ChatGPT和自定义代码控制25个角色井然有序地各司其职,还能让角色进行像人类一样的互动。

这些由AI扮演的角色不仅能够相互关注发起对话,还会计划第二天的事情,对过去发生的事情进行反思以做出改进,更会自行找理由或借口决定是否要参加活动,但这些行为并非原本设定的程序代码。

除此之外,先前有人对ChatGPT进行诱导方式,成功让它写下详细的“毁灭人类计划”和“毁灭代码”,且还有研究人员发现AI并非中立,而是有带有强烈的极左价值观和明显的政治偏见。

日本电子工程师李济心在2月10日告诉大纪元,“这些实验凸显现在训练AI都是为了战胜对方,且AI还出现了思想。因此,将生杀大权交给没有人性和道德的AI,这只会让世界陷入危险之中,其结果对人类来说是致命的。”

政府和大科技公司热衷发展AI

尽管如此,各国政府和许多大科技公司依然继续进行AI相关的科技竞赛,这种竞赛源自于人们对于AI和高科技抱有极高的期待,再加上他们都不希望自己落后于竞争对手,于是选择不停地开发新的技术和AI。

近两个月来,传出OpenAI执行长山姆‧奥特曼(Sam Altman)前往韩国与三星和SK海力士(SK Hynix)举行会议,且还与阿拉伯联合大公国、台积电代表等潜在投资者进行会谈,其原因是奥特曼希望合资募集数万亿美元,打造属于自己的半导体工厂供应链,为OpenAI提供足够的动力和解决该公司的成长限制。

Meta的CEO马克‧扎克伯格(Mark Zuckerberg)1月19日则在Instagram上发文表示,计划建造更大规模的电脑基础设施来运行自家开发的生成式AI,其中包括购买35万个英伟达(Nvidia)先进的H100芯片。

马斯克旗下的Neuralink公司申请了将一种名为“N1”的芯片植入人脑的实验,已获得美国食品药品管理局(FDA)批准,可用在人体实验上。其实验目的是希望能够让患有四肢瘫痪等衰弱疾病的人,最终可以恢复失去的功能,同时还希望可以加速人们对大脑的运用,以对抗或跟上AI的步伐。

另外,先前传出微软的CEO萨蒂亚‧纳德拉(Satya Nadella)和总裁布拉德‧史密斯(Brad Smith)一直在讨论,该如何处理微软在中国的亚洲研究院(MSRA)实验室,因为该公司高层对MSRA实验室的未来存在分歧,但仍有不少高层因为上海MSRA让微软的AI发展取得重大突破,因此希望该实验室能够保持开放。2023年底过世的商汤科技创始人汤晓鸥就曾在该实验室工作过,而他利用所学的技术帮助中共开发出人脸识别技术,让中共利用该技术对中国人进行更加严厉的监控。

高层对实验室的去留出现分歧,可能与现任美国政府明令禁止美国去投资任何可能帮助中共壮大“军事、情报、监视或网路能力”的中国企业有关。

日本的电脑工程师清原仁(Kiyaohar Jin)认为,纳德拉和微软对于AI和中共的看法过于天真,因为中共势必利用AI控制国民、干扰他国社会活动。

(记者王佳宜、张钟元对本文有贡献)

责任编辑: 李冬琪  来源:大纪元 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2024/0215/2018308.html