每经记者|宋欣悦 温梦华 每经编辑|张益铭

4月20日深夜,Kimi K2.6发布,超强代码能力引爆AI(人工智能)圈。就在行业狂欢当天,网友张呈(化名)的一则发帖,引发众人对AI泄露隐私的担忧。
“20日下午,我让Kimi翻译英文,它却把陌生人简历发给了我,当中有姓名、电话、工作经历等。”张呈告诉《每日经济新闻》记者(以下简称每经记者),他通过简历上的电话联系到了钟先生,所有信息都能和“真人”对上。
每经记者随后也向被泄露隐私的钟先生确认此事属实。此外,张呈称,自称Kimi工作人员的人向他解释,“是AI出现幻觉所致”。
但幻觉多为杜撰,此次Kimi泄露的用户信息全为真实。为何会出现这类问题?“幻觉所致”能回避责任吗?每经记者向Kimi母公司月之暗面发去采访提纲并多次沟通,截至发稿并未得到回复。
当AI渗透到我们工作生活的方方面面,用户数据被拆解为训练模型的参数,我们该如何保护自己?
“4月20日下午,我像往常一样打开Kimi处理工作,原本只想让它帮忙翻译一份普通的英语PPT,却在几轮对话后,收到一份陌生人简历。”4月22日,张呈在接受每经记者采访时表示,其从事的是互联网广告工作,日常会高频使用多款AI大模型工具。
根据张呈提供的多张截图,每经记者看到,他并未向Kimi发送索要“简历”等提示词,只是上传了一张PPT目录的图片,让其翻译图上仅有的三行英文。对应的中文翻译应该为:2025年“618”市场与平台趋势、头部玩家表现与经验、后续“双11”的筹备规划。

对AI来讲,这是个再简单不过的翻译任务,但Kimi却给出了令张呈十分不解的回复。“Kimi先是说这张图是关于‘减振技术’的,我便提出了质疑。”张呈表示。
随后,Kimi发来了令张呈感到意外和不安的内容:一份陌生人的个人简历。“简历信息极为详尽,不仅有姓名、电话、邮箱等基础信息,甚至还有求职者完整的工作经历、项目经历、核心业绩等。”张呈补充道。

“我很担心,因为我之前也给Kimi发过自己的姓名、住址、个人喜好等隐私信息。”张呈告诉记者,他立刻联想到了自身的隐私安全。
出于好奇,张呈按照Kimi发来的简历上的电话联系了钟先生,没想到所有信息都能和“真人”对上。张呈告诉每经记者:“在我们的交流中,钟先生表示他的确在事发当天上午向Kimi发送了自己的简历,让大模型帮忙润色。”
4月22日,每经记者联系到被泄露隐私的钟先生,确认此事属实,对方称目前已委托北京当地的律师处理此事。
张呈告诉每经记者,与钟先生交流后,他立刻通过Kimi App内部渠道和官方邮箱进行反馈,并向网信办进行了举报。4月20日晚,他将经历发布到了社交媒体上,引发关注。
“自称Kimi官方的人多次通过不同渠道联系我,一开始说这是因为图片发送失败导致的模型幻觉行为,非‘串台’或信息泄露。”张呈告诉每经记者,后续对方又解释称“这是小概率事件”。
但在张呈看来,即便这是一起小概率事件,却也会让普通人陷入较大风险。“Kimi是我精挑细选出来的AI大模型,但我以后不敢用了。”张呈坦言,这让他对AI产品的使用产生了极大的警惕。“20日晚我向Kimi申请会员退费,21日下午就收到了退款。今后我将不再向AI发送任何个人隐私信息。”
截至发稿,张呈告诉每经记者,除了自称Kimi官方员工的私人号码数次联系过他外,尚未收到任何Kimi官方渠道的正式沟通。
Kimi为何会在聊天中把用户的隐私发给他人?这是单一案例还是存在更多相似异常?张呈收到的“AI出现了幻觉”的解释,是否代表Kimi官方回复?后续Kimi将如何整改避免类似事件再发生?为此,每经记者向Kimi母公司月之暗面发去采访提纲并多次沟通,但截至发稿并未得到回复。
值得注意的是,“AI幻觉”大多为杜撰,而此次大模型泄露的用户信息全为真实,真能归责为“幻觉”吗?
“幻觉是‘胡说八道’,而这次是‘说对了,但不该说’。”君同未来创始人兼CEO(首席执行官)、浙江大学“百人计划”研究员韩蒙向每经记者指出,这不属于典型意义上的“AI幻觉”,更多属于数据隔离失效、会话管理不当或越权访问等工程化链路上的问题。
深耕人工智能产业多年的技术专家徐立(化名)也向每经记者坦言:“此事更可能涉及会话隔离、缓存复用、检索增强生成链路绑定错误、对象存储访问控制失效或日志回放异常。”
在徐立看来,若返回内容是凭空编造的虚假简历,可归入幻觉;若返回内容与另一名真实用户上传的简历高度一致,且姓名、电话等均可核验,则更接近系统隔离失效。
“‘跨用户原文串台’不属于高频日常故障,但也绝非从未发生。”徐立认为,这暴露出大模型时代的隐私风险已从传统数据库泄露延伸到推理链路、缓存层、检索层、分享层和多租户隔离层,进入“链路级”阶段。
韩蒙指出,如果是指大模型“背诵”出“训练数据记忆”,这类风险在大模型应用领域并不陌生,LLM(大语言模型)应用“输出敏感信息”已被OWASP(开放全球应用安全项目)列入大模型应用的前十大风险之一。但此类情况在成熟的企业级AI大模型产品中并不常见,这往往指向工程架构或系统层面的疏漏,而不仅仅是大模型本身的底层算法缺陷。
每经记者从多位资深技术专家处采访了解到,从技术角度来看,导致“串台”的可能路径主要有以下几类:
其一,数据隔离失效或多用户上下文污染,导致A用户请求命中B用户残留数据;
其二,检索增强生成链路把向量库、文件索引或召回结果绑定到其他用户;
其三,文件解析和临时对象存储的访问控制失效,造成错误文件被二次读取;
其四,异步任务、消息队列或日志回放时,任务标识与用户标识错配;
其五,分享链接、搜索索引或外部工具回调配置不当,使本应私有的数据暴露到更广范围。
“对企业而言,当前最需要的不是用‘幻觉’概念压制舆情,而是尽快发布有时间线、有影响范围、有补救措施的正式调查说明。”徐立建议道。
“无论技术原因如何,这一事件都向公众敲响了警钟:用户与AI的对话记录确实‘有很大概率被别人看到’,这对AI服务的信任基础构成了严重冲击。”资深律师、中国人民大学律师学院兼职教授王光英向每经记者表示。
王光英强调,姓名、电话等信息不仅是个人信息,还属于敏感个人信息。在她看来,“Kimi的这一行为在法律上构成‘个人信息处理者未经授权向他人提供个人信息’,属于典型的个人信息泄露,涉嫌违法违规。该行为违反了个人信息保护法、民法典、网络安全法等相关法律”。

一位业内人士也向每经记者指出:“对公众而言,最关键的点不在于产品是否短时异常,而在于另一名用户提交给系统的私人材料,是否被无授权地返回给了无关用户。若情况属实,(Kimi)在技术上就已触碰个人信息保护的底线。”
“虽然Kimi发生这一错误的概率很小,用户的个人信息也并未面向所有大众公开,但对于用户来说,个人信息隐私保护仍然受到侵犯。“王光英还向每经记者指出,“在国产大模型领域,这种将后台本体记忆中存储的真人信息泄露的情况,以前并未发现过。”
在王光英看来,“AI幻觉”在法律上不能作为免责的理由,AI不是法律主体,真正需要承担法律责任的是提供AI服务的运营主体。“本次泄露的是真实的、由用户主动提供的个人信息,而非AI自主生成的不准确内容。数据安全保护义务是平台的法定义务,法律有明确的标准,与技术成熟度无关。”
每经记者查询Kimi《用户隐私协议》看到,其在特别声明中提示,请谨慎上传敏感个人信息。特别声明还提到,如果信息无法单独或结合其他信息识别到个人身份,则其不属于法律意义上个人信息;如果能够识别出个人身份,则会严格按照本政策处理这些信息。
那么,Kimi《用户隐私协议》中的特别声明能否提供免责保护?
“不能。”王光英坦言,这类提示仅能提醒用户注意自身行为,但不能免除平台法定的数据安全保护义务,记录并使用用户信息的行为本身并不违法,但一旦向第三方泄露了用户隐私,AI平台仍需要担责。
这并非Kimi首次因数据合规问题进入公众视野。
2025年,国家网络与信息安全信息通报中心曾发布通告,Kimi等35款移动应用存在违法违规收集使用个人信息行为。
事实上,在AI浪潮之下,当AI大模型一路高歌猛进时,大模型的数据安全与个人信息保护问题早已成为行业面临的系统性挑战。
2025年9月发布的国内首个大模型安全众测结果显示,大模型普遍存在隐私泄露风险,共发现安全漏洞281个。
徐立向记者表示,据不完全统计,国内外大模型关于隐私泄露的事,大概有100多起。

例如,ChatGPT在2023年曾因缓存和连接复用缺陷,出现跨用户聊天标题可见以及少量账单信息暴露问题;同年9月,谷歌旗下Gemini(原名Bard)的共享聊天链接被搜索引擎意外收录;2025年,部分ChatGPT用户的个人敏感对话内容被发现持续泄露至搜索引擎等。
“关于个人信息和用户隐私的泄露,现阶段很难承诺‘技术上绝对杜绝’。”徐立坦言,原因在于,大模型服务已不是单一模型,而是一个复杂系统,任何细小缺陷都可能把局部问题放大成跨用户暴露。
韩蒙向每经记者进一步解释,技术难点在于大模型的“黑盒特性”与内部神经元的复杂机制导致隐私信息不可见,且易被特定诱导输出。同时,不同场景下的隐私保护需求并不一样,很难用一套完全通用的方案覆盖所有场景。
“治理需要通过外部实时审计配合模型底层的防御性遗忘学习:一方面,在模型内部通过类似‘做手术’的方式,对不该保留的数据进行精准‘擦除’;另一方面,在模型外部增加实时审计和防护,对输入和输出都进行把关,及时拦截违规指令、过滤敏感内容,并对交互过程进行合规记录和审计。”韩蒙表示。
在徐立看来,大模型时代的数字隔离,核心是把“模型能看到什么、能记住什么、能调用什么、能返回什么”分层管住,目前业界正朝基础设施、应用架构、训练与推理一体治理三个方向推进,把法律规则、系统架构、工程治理和默认隐私设计同时前移。
(黄宗彦、温沐夏对本文亦有贡献)