中意资讯网 中意资讯网

当前位置: 首页 » 前沿资讯 »

DeepSeek接入热潮中的“AI焦虑症”

转自:中国经营网

本报记者 曲忠芳 北京报道

接入DeepSeek的热潮仍在持续。3月19日,腾讯方面公开透露,旗下AI助手“腾讯元宝”在今年2月至3月的DAU(日活跃用户数)激增超20倍。自春节以来,腾讯旗下系列产品密集接入DeepSeek R1模型,腾讯元宝一度跃升中国区苹果应用商店下载量第一位置。据《中国经营报》记者不完全统计,截至目前,国内已超过200家企业接入DeepSeek,覆盖政务、汽车、金融、消费电子、教育、人力资源、能源、物流等千行百业。而在C端市场,DeepSeek用户量也呈现爆发式增长态势,加速推动AI大模型的市场普及。

当以DeepSeek为代表的AI工具日益成为社会生产生活的基础设施时,“我会失业吗?”“AI生成的内容比我自己做的要惊艳很多,我还能做什么?”“我怎么才能用好AI”……诸如此类工具使用压力和岗位被替代的“AI焦虑”情绪也正在呈现广泛蔓延的态势。

从“AI焦虑”到“AI依赖”

“从历史研究的角度看,在ChatGPT兴起阶段,历史学面对人工智能,其实是一个‘二选一’的局面。历史学者通过观察大语言模型对历史研究的有效性,能够自主选择是否在自己的研究中引入AI工具,尚有一定的选择主导权。”南京大学历史学院教授王涛近日发文指出,“在DeepSeek之后,历史学者几乎是不可避免地要拥抱人工智能了。一些视频号教程甚至宣称用人工智能可在两小时之内完成一篇学术论文,难免让历史学者对AI产生焦虑。”

AI普及所带来的焦虑不只发生在历史学者身上。在某公司从事策划工作的小王称:“以前需要熬夜完成的营销方案,现在用AI分分钟就能出十套,同时还能批量生成多种风格的PPT。”

从事内容创作的Jack则表示:“有时候由AI生成的内容在社交媒体上获得流量数据居然比自己原创的内容明显要好。”这令他时常陷入“个人创作还有不可替代的价值吗”的困惑。

而在主流短视频平台上,人们也常常看到诸如“DeepSeek加上这几个工具简直就是王炸!”“10分钟用AI批量生产100条短视频文案脚本”“挑战用AI做100个副业”此类开头的视频内容,AI引发的焦虑情绪溢出屏幕广泛地蔓延与渗透。

“AI焦虑”产生的另一种现象是“AI依赖”。不少使用过AI工具的用户反馈,“现在写周报基本全交给AI去写了”“以前有工作需求先思考一下逻辑框架,现在则先问下AI”“当用AI完成某项任务后,我会陷入一种怀疑:屏幕前坐着是谁其实已不重要。那么我的存在还有什么价值呢?”

中经传媒智库专家、TMT产业评论人张书乐指出,从通用层面来看,最新的大语言模型工具已经能够替代不少职业的基础工作,比如文案、公文乃至调研报告等需要深度思考的内容,“深度搜索”“思考”模式下生成内容的表现也常常比一般的案牍工作者要好。这很容易让一部分人形成AI依赖,用AI来辅助甚至主导自己的工作,久而久之会失去思考能力,就会出现所谓的“职业替代”——被AI替代的员工。但是,深度思考的AI实际也可以被真正有洞察力的人所主导,如在某些垂直细分问题上,很多AI工具的参考资料来源于该行业几个影响力最大、声音最多、引用最频繁的声音并据此形成相应的观点,如果发声者的观点本身就有错误,就会让AI在参考答案下被误导,生成错误内容,如果用户具有明确分析能力和独立思考的特征,那么就不会掉入AI陷阱,因此也就没有AI依赖或者职业焦虑。

由美国卡内基-梅隆大学和微软公司的研究人员共同撰写的论文称,在职业框架内使用生成式AI很可能会降低用户的批判性思维能力。该论文称,越是依赖算法提供的结果,就是越是满足于检查AI提供的信息是否足以回答所提出的问题。而如果是由人自行找出答案,就必须调动自己的创造力、信息分析和评估能力,这显然更能激发人的智力。

面对AI焦虑、AI依赖的社会性普遍情绪,不少用户注重将AI变为“效率工具”,辅助日常工作。北京高勤律师事务所合伙人王源表示,会使用DeepSeek这些工具做一些基础性、辅助性的查询,以寻求一些思路或者看看既有观点,同时对自己不熟悉的领域快速搭建知识结构。据她了解,目前将AI系统性部署到日常工作流程中的律师事务所很少,这主要是出于保密义务的要求,这与AI工具是否安全无关,而是律师职业对客户资料的保密性要求非常高,一般不能向任何第三方透露,包括将客户真实资料上传到AI工具进行分析。

AI生成的伦理、产业规范及监管治理

AI生成内容在网络平台泛滥,带来社会性的AI焦虑情绪的同时,也对产业发展、监管治理带来了新的课题考验。

事实上,记者在登录体验多个社交媒体平台时注意到,平台在创作端口已提供可标注AI生成相关提示的选项,由AI生成的图片或短视频一般也会显示“AI生成”的字样。不过,经测试,平台系统也并不能总是识别出由AI生成或多次训练生成的内容。

除此之外,“AI幻觉”一直是AI大模型未能解决的问题。中国信息通信研究院人工智能所的一位工作人员解释,大模型幻觉是指模型在生成内容或回答问题时,产生了看似合理,实则与用户输入不一致(忠实性幻觉)或者不符合事实(事实性幻觉)的内容。随着大模型在医疗、金融等关键领域广泛应用,大模型幻觉带来的潜在应用风险日益加剧,正得到业界的广泛关注。为摸清大模型的幻觉现状,推动大模型应用走深走实,近期中国信息通信研究院人工智能所基于前期的AI Safety Benchmark测评工作,发起大模型幻觉测试,涵盖事实性幻觉和忠实性幻觉两类。

王涛发文告诫历史学者:“人工智能再好,也不要贪图它的便捷,而放弃历史学者基本功的训练。我们永远要强调历史学者在研究工作中的主导性,这意味着历史学者要承担人工智能介入历史研究之后的守门人责任。”

就在前不久,为促进人工智能健康发展,规范人工智能生成合成内容标识,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局四部门联合发布了《人工智能生成合成内容标识办法》(以下简称《办法》),将于今年9月1日起施行。《办法》聚焦人工智能“生成合成内容标识”关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任和义务,规范内容制作、传播各环节标识行为。

据国家网信办有关负责人介绍,人工智能生成合成内容标识包括显式标识和隐式标识,《办法》明确了服务提供者应当对文本、音频、图片、视频、虚拟场景等生成合成内容添加显式标识,在提供生成合成内容下载、复制、导出等功能时,应当确保文件中含有满足要求的显式标识;应当在生成合成内容的文件元数据中添加隐式标识。

王源指出,无论是我国出台的《办法》还是欧盟《人工智能法》(AI Act),均体现了对生成式人工智能应用或技术的透明度要求,提高人工智能系统生成内容的可追溯性和可解释性。《办法》分为显式标识和隐式标识,公众可感知的显示标识和文件元数据中的隐式标识为必须添加的,数字水印这些隐式标识为鼓励添加的。欧盟《人工智能法》列举的技术方法包括水印、元数据识别、证明内容出处和真实性的加密方法、日志记录方法、指纹等。《办法》对AI技术生成的内容明确告知和警示公众,防止AI幻觉或生成错误信息误导公众,这种思路在传统的消费者权益保障法、广告法中均有体现,充分告知消费者,来保障消费者的知情权。

另有法律界人士认为,《办法》是契合现阶段我国人工智能发展阶段的治理方法,未来随着AI的进一步普及,尤其是在各个行业领域的应用深度加强,法律及监管层面可能会继续出台相应的法律法规及监管策略。

未经允许不得转载: 中意资讯网 » DeepSeek接入热潮中的“AI焦虑症”