亚洲事实查核实验室制图
查核结果:错误
一分钟完读:
X平台上有网友表示美国曾在联合国提议将电信诈骗分子列为恐怖分子,但被中国否决,并附上一张人与生成式AI机器人对话的内容截图作为证据。
亚洲事实查核实验室查阅联合国会议记录,确认迄今并未有任何国家正式提出要将电信诈骗分子列为恐怖分子,中国也没有过否决该提议的记录。此外,截图确实与字节跳动旗下AI工具“豆包”形式相同,但以图片鉴识工具Forensically检测,可以发现对话有被变造的痕迹。
深度分析:
近期,中国艺人王星从缅甸诈骗园区获救,缅甸电信诈骗问题再次受到讨论。 X上有中国网友称,以“美国提议电诈分子为恐怖分子,被谁否决了?”询问字节跳动旗下AI“豆包”,结果是被中国否决。另外,留言处有网友称,他以同样问题问了OpenAI开发的ChatGPT共3次,ChatGPT才说是中国和俄国反对。
网传讯息以生成式AI的对答,作为美国提案将电诈分子列为恐怖分子的证据。(取自X)
美国是否曾提议将电诈勒索者列入恐怖分子?
亚洲事实查核实验室(以下简称AFCL)以关键字查询,发现中国社群媒体上确实散播“美国提案将缅甸诈骗园区列为恐怖组织”的说法,但以关键字查询,近期美国官方发表与缅甸有关的言论,是美国国务院于2025年1月20日更新的美缅关系介绍,主题在谴责缅甸政府违反人道的行为,当中并未提到有关诈骗与恐怖分子相关的言论。 AFCL以电子邮件向美国国务院查证,至截止日期前未获回应。
而查询联合国安理会2024年至今的会议纪录,其中也没有任何国家提案将电诈分子列为恐怖分子。
网传“豆包”的对话截图是否真实?
首先,AFCL以抖音上的展示影片,确认网传截图和字节跳动于2024年正式推出的AI工具“豆包”格式相同。但进一步利用图片鉴识工具Forensically检测,网传截图在“主成分分析(Principal Component Analysis,PCA)”这项参数上,显示有变造痕迹,高度可能经过重制。
以图片鉴识工具侦测网传讯息中AI的回答截图,结果显示有变造痕迹。(取自X、Forensically)
AFCL复制实验,在“豆包”上输入相同的问题:“美国提议电诈分子为恐怖分子,被谁否决了?”。结果显示“目前没有确切消息证实美国有过这样的提议”,也不存在提案被否决的情形。
AFCL询问“豆包”同样的问题,显示结果为“没有确切消息证实该提案”。(取自豆包)
生成式AI是否可信?
台湾中央研究院资讯科学研究所研究员王新民依据字节跳动公开的“豆包算法及模型备案公示说明”向AFCL解释,豆包与目前市面上常见的大型语言模型(LLM)的原理相同,皆是使用transformer模型,以文字接龙的概念生成对话。
AFCL过去曾针对大型语言模型的原理,推出专题报道,说明AI给的答案未必可信。以ChatGPT为例,GPT仰赖大量的网络资料学习来完成“文字接龙”,例如用户给出“今天”,GPT便被训练要接上“是”;当看见“今天是”便要学会接上“星期”,循序渐进的完成“今天是星期三”的完整句子。 GPT采用文字接龙,但接续的文字有许多种组合的可能,因此模型会针对这些组合列出几率,将爬梳所有文本后较高几率的文字接龙提供给使用者,而非给出正确答案。
过去AFCL也曾探讨语言模型的偏见,当时台湾人工智能实验室创办人杜奕瑾告诉AFCL,人工智能在做语言模型训练时,其实会把文本内容偏见及思想学习起来,而偏见的来源即是收集来的语料库以及人工标注,“用哪个市场训练,就是那个地方文化思想的输出。”
AFCL亦发现,在与“豆包”的对答之中,其引用的参考资料皆为中国网站,王新民推测,如果仅出现中国网站,这个生成式AI在训练时大概率仅使用中国网站的资料。
王新民亦提到,在台湾也有仅用台湾资料训练的模式“TAIDE”。 TAIDE模式目的就是打造一个台湾在地化的AI对话引擎,促进AI模型更精准的理解与运用繁体中文,其训练资料有被公开披露。