
安平县/国家安全部官方微信公众号初中教师小李,利用人工智能备课后,在五分钟内制定了生动有趣的教案,包括照片、视频和互动问答。 “以前备课需要两个小时,现在我可以节省更多时间关注学生的个人情况,还可以单独定制专属练习。”独居老人陈爷爷通过孩子们提供的智慧音箱找到了新的乐趣。 “小智不仅陪我听戏、聊天,当我忘记吃药时,它还会及时提醒我,它真的记得我所有孙子的生日。” 29岁的小王是最初的文案。因为擅长与AI“对话”,他成功转型为提示词工程师。 “关键是指令要足够清晰。”从智能客服到AI制图员,大模型正在诞生g 以前从未见过的新工作。当前,大规模人工智能模型正在加速赋能千行百业,推动人们生活快速改变。这个有能力、有思想的“数字伙伴”加速了它融入我们的日常生活。然而,每一次技术飞跃都不可避免地伴随着新的挑战。随着人工智能的扩展和嵌入,它也暴露了数据隐私和算法偏差等潜在风险。我们迫切需要构筑安全防线,推动深度智能创新,安全赋能美好未来。快速发展背后的“暗礁”是隐私与数据安全界限模糊。一些单位直接使用开源框架搭建大型组网模型,让攻击者在未经许可的情况下随意访问内部网络,造成数据泄露和安全风险。据公开案例,某单位工作人员在处理内部文档时非法使用开源AI工具nts。由于计算机系统默认访问公网且未设置密码,导致敏感数据被境外IP非法访问下载。 ——技术滥用和虚假信息的产生。利用深度学习AI算法对数据进行自动处理,实现对图像、音频和视频的智能模拟和伪造,这种技术被称为deepfake。当这项技术被滥用或恶意使用时,将会给个人合法权益、社会稳定乃至国家安全带来诸多风险和挑战。国家安全部门工作发现,境外某些反华势力利用深度伪造技术制作虚假视频,企图在境内传播,欺骗舆论、制造恐慌,威胁我国国家安全。 ——算法偏差与决策“黑匣子”。人工智能的判断来自于它学到的数据。如果训练中g数据本身存在社会偏见或代表性不足等问题,可能会导致模型过大而导致歧视。测试表明,一些人工智能系统地偏向西方观点。当研究人员用中文和英文询问相同的历史人工智能问题时,他们发现英文的回答会刻意回避和淡化一些历史事实,甚至提供包含历史错误信息的内容,造成重大误解,而中文的回答则相对客观。 《安全守则》为“数字合作伙伴”提供了三项规则——规则一:划定“活动范围”。实现“权限缩减”,网络AI不处理机密数据、语音AI不采集环境声音、智能助手不保存支付密码、关闭“数据共享”和“云空间”等,不剥夺适当的访问权限。 ——原则二:评估“数字足迹”。养成定期清理AI聊天室的习惯记录、修改AI工具密码、更新杀毒软件、检查账户登录设备等。同时,避免下载和使用来源不明的大型模型程序,并警惕身份证、银行账户或其他敏感信息的请求。 ——规则三:优化“人机协作”。在质疑AI时,提示语明确禁止AI过度推断,并要求AI揭示来源或思维过程,对重要信息进行跨平台验证,理性识别AI产生的结果。尤其是在涉及政治、历史、意识形态等学科时,更应该有独立思考的意识,辩证地看待人工智能的答案,避免陷入“人工智能幻觉”。国家安全局提醒,安全是发展的前提,发展是安全的保障。只有了解技术并安全地使用技术,大规模人工智能模型这一新兴技术将成为推动社会发展的正能量。用户应提高安全意识,谨慎授权大型号软件权限。如发现AI大模型存在窃取个人信息、敏感数据出境等危害网络安全的问题,可通过12339国家安全机关举报受理热线、在线举报平台(www.12339.gov.cn)、国家安全部微信公众号举报受理渠道,或直接向当地国家安全机关举报。本期资深编辑周玉华
特别声明:以上内容(如有,包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(如有,包括照片和视频)由网易H用户上传发布ao,是一个社交媒体平台,仅提供信息存储服务。