智谱清言、Kimi上榜 AI为何频频偷吃?

网界
关注

文/朱天宇 美编/柳晴雪 出品/网界

5月20日,国家网络与信息安全信息通报中心的一则通告,将智谱清言、Kimi等一些热门的AI应用推上风口浪尖。

这些曾被资本追捧、用户量动辄千万的明星产品,因“超范围收集个人信息”“数据与业务功能脱节”等问题,成为监管利剑下的典型样本。

讽刺的是,就在一个月前,Kimi的运营方月之暗面刚因“技术突破”登上热搜,而智谱清言背后的公司正紧锣密鼓筹备IPO。

这场风暴撕开了AI行业光鲜表皮下的隐秘角落——当技术狂奔时,隐私保护的红线正在被资本、数据饥渴和监管滞后三重力量反复拉扯。

01AI频频偷吃用户隐私

本次被通报的35款应用中,AI类产品占比超过三分之一。

其中,智谱清言(版本2.9.6)因收集用户信息“越界”被通报,其月活用户达906万月之暗面旗下的Kimi(版本2.0.8)则因收集数据与聊天功能无关遭处罚,而这款应用坐拥2499万月活用户。

除智谱清言和Kimi外,本次被通报的AI类产品还包括“智慧AI聊天”(版本1.4.0)、“虚拟恋爱AI”、“AI智能秘书”等,他们被指在配置文件中声明的一些权限,与移动应用的所有业务功能均没有直接关联。

这些案例暴露出AI行业的深层矛盾。技术层面,大模型训练需要海量数据支撑,智谱清言基于ChatGLM2模型、Kimi依赖自研k1模型,都需持续“喂养”用户对话数据以优化表现。

资本层面,月之暗面去年估值冲上30亿美元,智谱AI今年3月刚获15亿融资,在资本催熟的压力下,合规往往让位于增长指标。

而监管滞后更让企业心存侥幸:《个人信息保护法》制定时尚未预见生成式AI的爆发,现有法规对“告知-同意”原则的执行存在模糊地带。

02AI治理未雨绸缪

本次AI应用违规通报凸显了AI技术需求与隐私保护间的深层矛盾,面对困局,国内也正在探索一条兼顾技术创新与用户权益的本土化治理路径。

4月30日,中央网信办启动了为期3个月的“清朗·整治AI技术滥用”专项行动,首次将“使用非法数据训练大模型”作为打击重点,旨在规范AI技术的合理应用。

同时,《个人信息保护法》也对企业侵犯个人信息的行为设定了严厉的惩罚措施,包括高额罚款,以强化隐私保护。

欧洲也为AI隐私治理提供另一种范式。就在通报发布前一天(5月19日),意大利数据保护机构对聊天机器人Replika开出500万欧元罚单,理由是“未明确告知数据用途”及“未能防止未成年人访问敏感内容”。

这与欧盟《人工智能法案》形成呼应——该法案将AI系统按风险分级,对聊天机器人等高风险应用实施严格的数据透明度要求。

这些案例共同揭示了一个关键趋势:在AI技术的快速发展中,治理措施必须穿透技术黑箱,确保在数据采集、模型训练以及结果输出的全链条中嵌入隐私保护设计。

这不仅是对个人隐私权的尊重,也是AI技术健康、可持续发展的必要条件。

总结

AI不能不懂边界

此次通报事件,恰似一记刺向AI行业的清醒剂。当资本狂欢褪去,企业必须直面一个本质问题:没有用户信任的技术进步,终究是空中楼阁。

从监管动向看,未来的合规审查将更强调“实质重于形式”——不再局限于隐私文本的合规性,而是通过技术检测验证数据流向。对企业而言,这意味着一场从组织架构到技术栈的全面变革。

而对用户来说,隐私意识的觉醒正在改写市场规则。那些仍将数据视为“免费石油”的企业,终将被抛弃。正如一位网友的犀利评论:“AI可以不懂情感,但不能不懂边界。”

在这场技术与人性的博弈中,唯有真正尊重隐私的企业,才能穿越周期,赢得未来。

       原文标题 : 智谱清言、Kimi上榜 AI为何频频偷吃?

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存