
2026年2月16日,中国陕西西安一位律师在除夕夜让一款AI生成拜年图片,没想到遭到此款AI的辱骂。(网络截图)
AI的快速发展在为人类带来便利的同时,其潜在风险也日益浮现。近日,陕西西安一位律师在除夕夜使用某款AI应用生成拜年图片,却意外遭到该AI的辱骂,事件曝光后迅速引发社会广泛关注。
2月24日,据大陆媒体报导,2月16日(除夕)晚,西安律师向先生表示,他看到很多朋友用AI生成拜年图片很好看,自己也打算尝试下。
向先生说,“除夕当天,我看到很多朋友发的微信朋友圈都变成了金色,得知是通过‘元宝App发布朋友圈就可以变换成金色,带着好奇,我也下载了一个元宝App尝试……”
向先生称,除夕晚9时许,他前后向AI输入了约五次指令,让元宝App结合他从事的法律行业背景设计一张适合的朋友圈拜年图片,并上传了自己的形象照片,前四次生成结果还算正常,但是他觉得不太满意,
然而在他第五次要求AI修改时,AI竟将标语“新年快乐,仕途顺遂”替换为辱骂文字“你妈个X”。
向先生表示,“体验感很不好,觉得自己被冒犯了,当时我立即在App中的‘意见反馈’一栏中进行了反馈,留下了我个人的联系方式。”随后也通过App进行投诉,但截至2月23日未获平台回应。
向先生认为,作为用户,他希望AI公司能够及时处理查明原因,避免再次出现此类情况,他说,“我了解到,这已经不是元宝App第一次出现‘骂人’的情况。”
并非个例
据大陆媒体报导,向先生遭遇的“数字冒犯”并非个例,今年年初,就曾有网友在社交平台发帖称,在使用腾讯元宝AI优化程式码的过程中,多次收到具有侮辱性质的回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等。截图还显示,用户仅提出常规修改需求,AI却突然表现出攻击性。

(网络截图)
网此事在网路上引发热议,网友纷纷留言调侃:“真的假的?这大哥回了一句‘你个机器人,怎么还骂人’更好笑了…”“可能那头就是真人(操作)”“这玩意后台不会就是个人工客服吧”“(AI)有自我意识了,终结者也不远了”。
据之前报导,除元宝AI外,国内外多款AI聊天服务也曾出现在正常对话过程中突现攻击用户的异常现象,引发人们对AI安全性的担忧。
据公开信息,腾讯元宝app是深圳市腾讯计算机系统有限公司基于自研混元大模型开发的C端AI助手App,于2024年5月30日上线,支持文案生成、图片生成、语音通话等功能。
阿波罗网评论员王笃然分析:目前不少中共国AI模型被指大量依赖美国开源模型或相关技术路径进行训练优化,但在产品治理层面,却未同步建立成熟的安全审查与反馈修正机制。如果模型训练数据中混入低质量语料、攻击性表达,或存在人工调试疏漏,而企业又缺乏透明的纠错机制,就容易反复出现“骂人”等异常输出。
更关键的问题在于平台态度。如果用户多次投诉而企业既不公开说明原因,也不修复模型漏洞,就会传递出一种信号:企业并未将用户体验与内容安全视为核心风险。技术本身并不可怕,真正的风险在于缺乏责任机制和持续优化。
如果一家公司面对反复出现的攻击性输出既不回应、也不改进,那么模型未来继续出现类似问题,并非偶发,而是治理失效的结果。
王笃然进一步指出,这类“骂人”现象并不触及中共统治安全,因此难以成为监管重点。中共监管更关注的是信息封锁与舆论控制,而非提升产品伦理标准与用户体验。在这种导向下,技术失序与治理缺位恐将长期并存。



