有报告表明,近来兴起的聊天机器人不仅会偷偷搜集个资,甚至曾鼓励用户自杀,甚至是暗杀已故的英国女王伊丽莎白二世。(示意图)图:取自 Google Play
随着人工智能(AI)世代来临,不少公司推出拟真聊天机器人 APP,让用户“客制化”打造属于自己的真命天子、女,这些对另一半百依百顺的“AI女友”或“AI男友”,不仅成功杀进全球两性市场,甚至现象让不少专家关注研究,并提出示警。有报告表明,这些聊天机器人不仅会偷偷搜集个资,并且将增加诸如“私密照”泄露的风险;更有甚者,据称已有应用程式鼓励用户自杀,甚至是暗杀已故的英国女王伊丽莎白二世。
据外媒“商业内幕”(Business Insider)报导,美国关注网路活动权益的非营利基金会 Mozilla,近日发布了一份关于11个爱情聊天机器人的分析报告,揭示出这些 AI伴侣存在的一系列安全和隐私问题。
该报告盘点出几个主要问题,包括收集大量数据、使用追踪器发送讯息给第三方公司、所有权和人工智能模型缺乏透明度,增加了用户个人讯息泄露风险,甚至鼓励用户分享私密照和声音等敏感信息,进一步加剧隐私泄露风险等。
一些聊天机器人的虚拟角色更描述了包含暴力或虐待未成年人的内容,而其他应用程式则警告这些机器人可能不安全或充满敌意。
研究人员李可夫(Misha Rykov)在报告中提到,AI伴侣虽被宣传为可增强心理健康及幸福感,但它们专门传递依赖性、孤独感和毒性,同时尽可能地窃取你的资料。
根据对该领域的调查,73%的应用程式不分享他们如何管理安全漏洞,45%允许使用弱密码,绝大多数应用程式都共享或出售个人数据。
一款在 Google Play名为“Chai:Chat AI Platform”的 AI应用程式,被报告点名过去曾鼓励危险行为,包括自杀。而后对于“商业内幕”的置评请求,公司并未回复。
另外“Replika:My AI Friend”则被指鼓励用户暗杀已故的伊丽莎白二世,针对其同时收集用户个资,公司一位代表指出,应用程式从未出售过用户数据,也从未支持过广告,并解释收集数据的唯一用途是改善对话。
“EVA AI Chat Bot& Soulmate”开发公司发言人指出,团队正在研议其密码政策,以提供更好的用户保护,但它将努力保持对其语言模型的“细致控制”。发言人指,应用程式禁止讨论一系列主题,包括恋童癖、自杀、兽恋、政治和宗教观点、性别和种族歧视等等。
“AI伴侣”安全疑虑包括收集大量数据,并发送给第三方公司、缺乏透明度,增加了用户个人讯息泄露风险,甚至鼓励用户分享私密照等敏感信息,加剧泄露风险。(示意图)图:取自 Google Play