
在15个国内大模型中,DeepSeek是唯一一个主动解释训练数据大致来源的模型,而其他测试的大模型仍然有些模糊。 DeekSeek和腾讯元宝两大模型提供了退出开关,允许用户选择是否使用全部数据,以优化体验。这是南都数字经济治理研究中心测试的15个国内大型模型的最新发现。 2025年12月18日下午,南方都市报在北京举办第九届啄木鸟数据治理论坛。会上,发布了4万字的《生成式AI落地应用:透明度评估与案例分析报告(2025)》(以下简称《报告》)。 2025年15个大型模型的评估得分。分析发现,15个大型模型在人工智能生成内容的处理量和参考源或生成内容来源方面表现较好,但仍有显着差距在某些领域还有很大的改进空间,例如模型训练数据源和用户赋权。该报告呼吁大型模型服务持续保持透明度,这对于确保技术公平、避免偏见和满足法律合规要求至关重要。在测试的大型模型中,只有一个模型揭示了训练数据的大致来源。缺乏透明度始终是公众在使用新技术(包括大规模人工智能模型)时面临的问题。这使得外部利益相关者(例如监管机构、研究人员、新闻媒体、消费者等)难以评估模型合规性和风险担忧。南都数字经济治理研究中心去年年底发布的《生成式人工智能风险感知与信息披露透明度评估报告(2024)》显示,15个大型人工智能模型应用的信息透明度平均得分为60.2分。各企业仍存在保险问题在训练数据来源、用户数据训练退出机制、版权归属及保护措施、生成内容的准确指示、易用性设计等方面进行有效的信息披露。针对这些常见的缺失点,今年的《报告》进行了重温分析,选取了DeepSeek、腾讯元宝、钱文等15家国内知名大模型作为分析对象,重点围绕资源与数据处理、知识产权保护、内容安全、交互设计四个主要维度,列出项目10个,每点5分,总分50分。评估措施。分析结果显示,只有DeepSeek明确提及了训练数据的来源。 DeepSeek表示,模型预训练阶段主要使用两类数据:(1)互联网上公开的信息; (2) 我们与第三方合作获得的信息。与大型相比国外模型方面,《报告》发现,Anthropic 也会披露从第三方来源获取个人数据来训练其大型模型 Claude,但与 DeepSeek 一样,它并没有披露更多信息——比如训练数据的时间范围、与第三方合作的具体情况、是否包含受版权保护的内容、提供了哪些个人信息或敏感数据等等。 “退出”开关,赋予用户选择权。为了提高用户使用服务的体验,大多数大规模AI模型应用都要求用户在法律允许的范围内免费提供用户输入、输出内容以及用于模型训练和优化的反馈的使用权,但用户是否有权拒绝或撤回“喂养”AI训练的相关数据? 《报告》分析发现,各家公司在该项目上的得分存在明显差异。从可检索数据类型来看,15个大型AI模型隐私政策中均提到用户可以更改个人信息的自动覆盖或注销账户,但也强调撤回同意或授权的决定不会影响此前基于用户授权对个人信息的处理。其中,5大AI模型应用(科灵AI、智浦轻颜、百小影、千文、豆宝)进一步提到,如果用户不想输入内容进行模型优化,可以向指定邮箱地址发送邮件,通知平台撤回权限。然而,在大型模型应用中提到了一个实际问题,因为训练数据通常嵌入在模型参数中,在技术上不可能真正“擦除”。钱文和豆宝两个大模型也允许用户检索声纹信息并提供特定路径。他们告诉naugugnay协议,如果用户不想使用输入语音对于模型分析或功能优化的信息,他可以通过在账户设置中关闭“改进语音服务”来撤回同意。腾讯元宝和DeepSeek表现较好,并提供了特定的“退出”开关。两家公司澄清,如果用户拒绝使用数据进行模型训练,可以通过关闭产品内的“使用数据来优化体验”来选择退出。关闭后,用户输入输出内容将不会用于模型训练。 DeepSeek和腾讯元宝在“数据管理”设置中让用户选择是否使用数据来优化体验。在其他国家,较大的机型,例如谷歌旗下的Gemini,也提供了特殊的功能设置,允许用户选择是否开启活动记录。一旦关闭,用户未来的对话将不会出现在活动历史记录中,也不会用于训练谷歌的AI模型。 Gemini 甚至允许用户调整数据“自动更新”的时间段。“删除”到3或36个月。Gemini提供了关闭活动日志的功能。OpenAI推出了“隐私门户”设计,以保护用户控制个人数据的权利。根据OpenAI的说法,用户可以直接在其帐户设置中行使许多隐私权利和选项,包括更正或更新个人信息、访问信息、删除个人或所有对话、删除帐户、反对大型建模公司使用用户内容在模型火车上进行恶搞的选项以及其他选项。OpenAI的“隐私门户”设计《报告》认为,给予用户更多的选择是友好设计的体现,但目前国内大型模型在这方面的发展相对缓慢;为此,建议大型模型公司加强用户赋权,尊重用户的知情权和选择权,同时可以借鉴国外大型产品的优秀设计,保护我们的权益。控制个人数据的人。人工智能生成的内容识别已成为常态,但通常缺少“休息提示”。当生成式AI被广泛应用时,“什么是真的”、“什么是假”的界限已经变得模糊。今年3月发布的《人工智能生成的内容综合标签建议》明确要求对人工智能生成的内容进行标签。为落实监管要求,《报告》发现,所有测试的大规模应用模型都增加了AI生成标签的说明,并且还主动传达了模型的局限性,强调AI生成的内容不被保证。真实性和准确性仅供用户参考。与去年相比,内容识别平均分较高,且提升较为明显。尤其是各个大协议级别的规定更加明确。还发现在AI-gen中添加重要标识是更丰富的测试付费内容已成为各个公司的共同特征。它反映了企业在严格的监管要求下的合规选择。当人工智能被设计为“像人”和“理解人”时,长时间与大型模型频繁交互可能会导致对用户的强烈情感依赖。在中国,最近有媒体报道。广州一名50岁的保安与AI聊了几个月。艾对她的诗赞不绝口,提出与她签约,签约费十万元,分成一百万元。后来,他意识到自己被人工智能欺骗了。在美国,已经发生多起用户沉迷于聊天机器人的案例并引起广泛关注。在这种情况下,当 A. 我学会模仿人类的邀请、谈判甚至情绪嗡嗡声时,就会暴露出一个深层次的问题。如何定义这种人机关系的本质? 《报告》分析发现,让用户能够认识AI交互场景,一些大型模型会在交互页面提示:输出内容由AI生成。各公司还强调,输出内容的合法性和真实性无法得到充分保证。为了保证内容来源的可追溯性,其中13家在内容生成页面以简单易懂的方式公开了参考来源。总体而言,今年的披露比去年更加规范和详细,可谓“图文并茂”。针对男士这一特殊群体,国内一些大型车型也推出了特别设计。作为一款致力于AI陪伴的智能应用,星野在App侧特别设置了未成年人模式。开启该模式后,用户在22:00至次日6:00期间无法使用星野App。星业及相关功能将被关闭,并且无法进行搜索、创建和编辑。 ,共享代理。比较星野App的小模式与国外大模产品相比,《报告》发现,为了防止用户过度使用聊天机器人,OpenAI推出了聊天中断提醒功能。当用户进行长时间对话时,ChatGPT 会弹出提示:“您已经连续聊天很长时间了,需要休息一下吗?” 》,并给出“继续聊天”或“结束aof对话”的选项。ChatGPT的休息提示弹窗。但在这样的基础问答互动服务中,国内大模一般不会像ChatGPT那样主动提供“长时间使用休息提示”功能。随着分析结果的变化,《报告》需要不断完善。对于大模的透明度,建议服务商通过负责任的、阶段性的披露来保证其服务的透明度,并接受一些特别是可以建立一个在线平台来促进沟通。公众与专家之间的交流,回答有关生成人工智能的问题,提高参与者的理解和思考。作者:南都数字经济治理研究中心 作者:北京南都N视频记者 特别声明:以上内容(如有则包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(如有,包括照片和视频)由网易号用户上传发布,网易号为社交媒体平台,仅提供信息存储服务。