
该区域包括正文内容,按tab键遍历信息
毋庸置疑,DeepSeek的“朋友圈”持续扩大,应用场景不断拓展,是中国技术的飞跃,是好事。然而,伴随着全民AI,由此带来的另一些现象,比如学生作业论文由AI代劳,比如患者使用DeepSeek搜索结果,与医生“斗智斗勇”,再比如公务员调研沦为DeepSeek数据搬运等等现象,都值得我们在这股热潮中进行一些“冷思考”。
■劳动报记者 李成溪 文/摄
近日,关于DeepSeek的话题几乎天天活跃在热搜榜上,无论是“AI公务员”上岗,还是数字人主播霸屏,抑或是三大电信运营商宣布与DeepSeek展开合作……无不引发热议。引入DeepSeek,合作DeepSeek,运用DeepSeek,在很多人眼里,沾上“流量密码”DeepSeek,就跟上了时尚——至少不落伍了。
DeepSeek
席卷各行各业
曾有媒体形容,这次DeepSeek引发的行业地震是“史诗级别”的。自2025年开年以来,医疗、金融、制造、政务、媒体、教育等多行业以超乎想象的速度推动智能化升级。
搜索相关新闻,记者发现,2月14日,中兴通讯率先实现手机端全尺寸内嵌DeepSeek,接着,多家医院声称完成DeepSeek本地化部署。随后,政务与教育行业连续高调宣布全面拥抱AI:深圳、广州等地政务系统接入DeepSeek,实现公共数据智能治理;福建中医药大学附属人民医院宣布完成DeepSeek本地化部署,成为福建省首批接入DeepSeek的医院,开启AI诊疗新时代;浙江大学、上海交通大学等高校推出本地化部署版本,覆盖教学辅助、科研分析等场景……
对于这场技术革新带来的全民狂欢,甚至有以国泰君安、广发证券为代表的金融机构评价,“DeepSeek重塑了行业技术标准”,推动AI基金产品规模实现新的突破。
媒体报道称,目前,政务、金融、电力、煤矿、制造等多个行业的多家头部企业已公开宣称引入DeepSeek开展智能化应用。据初步统计,目前98家央企中,已有超过40家开展DeepSeek应用。
一段时间以来,凡是沾上DeepSeek,都纷纷上了热搜频道:广西一县委书记提硬性要求:每个人必须要会用DeepSeek;一演员说以往要整理两天的内容,用了DeepSeek10分钟就搞定……自今年1月27日,“DeepSeek”词条强势登上微博热搜第一后,抖音平台上相关视频播放量高达惊人的78.9亿次,而在小红书上相关浏览量也达到了5.4亿,这还不是目前最新的数据。
“AI幻觉”
暴露技术“神话”暗面
与台前热力追捧、高调融合形成鲜明对比的是,“繁荣”背后,风险正暗流涌动。
“我让手下同事草拟一份会议通知,很快他乐呵呵地跑来说,他让某AI拟了一份,真的快。而我一看,却傻了,通知上开会、参观的地址没有一个对的,倒查地址发现,在地图上显示‘查无此地’”,这一离谱的操作,让身为高管的许先生只能让同事自己再核对,别轻易相信AI。
广州某著名高校一位教授曾发朋友圈吐槽:本想通过DeepSeek查询某个信息,结果核实后发现,DeepSeek提供的作者是假的,年份是错的,出版社更是风马牛不相及。
事实上,AI“造假”并不是什么新鲜事儿。早在1月7日,西藏日喀则发生地震时,一张“被压在废墟下的小男孩”图片在社交平台广为传播。后经证实,该图为AI生成。与此同时,美国一律师也被爆出案件造假,虽然法律文书格式文本规范工整,但文书中引用的案例却为AI捏造。
“AI会说谎?”记者随机用“AI文案速成”程序测试,在对话框内输入“地震”这一主题有关的内容创作指令,便生成了一篇新闻报道,从现场救援细节,到地震安全提示,让人真假难辨。
今年2月初,一条“截至2024年末,‘80后’死亡率突破5.2%,相当于每20个‘80后’中就有1人已经去世。”上了热搜,结果经调查核实,这条数据也是假的,而最初来源可能是和AI对话所得。
北京航空航天大学法学院副教授赵精武在接受媒体采访时曾解释这一现象,“当前AI网络谣言具有仿真性和规模性的特征。根据输入指令的不同,AI在短期内能够批量生成大量内容不同的网络谣言,而且生成的网络谣言信息内容更加贴合人类表达方式,并结合深度伪造技术生成图片、视频、录音,使得社会公众越发难以辨识网络信息的真伪性。”这些看似真实合理的“信息垃圾”又被称为“AI幻觉”。
警惕AI
造成的误区和“污染”
“AI幻觉”虚构了一个伪真实的世界,但更需要警惕的是由“AI幻觉”造成的深层次的社会问题,例如公信力流失、过度依赖工具导致人类“思维残疾”、网络隐私保护引发的不安全感等。
据媒体披露,在部分学校鼓励学生使用AI工具后,越来越多学生习惯于在遇到不懂的问题时求助于人工智能,但由于目前市场上AI工具良莠不齐,“AI幻觉”会在不同程度上造成知识误解。
最典型的莫过于“一本正经地胡说八道”。“这些错误的信息若不能及时被正确信息覆盖,就如同在清水中滴入墨汁,当墨汁足够多,水就会变黑。在AI系统里同理,被污染的信源越多,AI越容易给出错误信息,从而导致人的认知模式发生结构性危机。”长期从事基础教学的高中教师孙女士表达了自己的担心。
记者身边的一位同事抱怨称,其儿子所在小学,老师竟让小朋友写作文前,先用AI写一遍。“这让我忧心忡忡”。家长的忧虑并非空穴来风。瑞士商学院的一项研究指出AI带来的另一个社会问题:“AI工具的‘认知卸载’功能正逐渐削弱年轻人的思维能力。人们不再愿意花费时间和精力去深入思考问题,一旦陷入碎片化的知识陷阱,探索的欲望和思考的耐心便会逐渐丧失。”对此,已有多位人工智能专家呼吁,要对AI生成信息多加辨别、交叉验证后再使用,不能养成“万事问AI”的习惯,让算法反噬了好奇心,埋没了人的创造力。
好在,相关部门已经意识到AI便利背后的风险隐患。2025年网络“清朗”系列专项行动就提出,重点整治AI技术滥用乱象、未成年人网络环境等,以规范AI类应用网络生态。
前不久,“AI作文全判0分”上了热搜,给发烫的AI降了降温。同时,多所高校纷纷给AI“立规矩”,如复旦大学明确列出了禁止使用AI工具的范围,包括研究设计与数据分析、原始数据收集、结果图片与重要插图创作、论文撰写、答辩与检查、涉密内容等六个方面涉及原创性、创新性以及本科教育重点考查的内容。事实上,大学生能否使用AI工具,并非是一个非黑即白的二元问题,关键要看其用AI到底是帮助学习,还是为了偷懒。
冷静思考,在这场人与机器的共舞中,如何划清AI工具的使用边界,确属智能时代最严峻、最需要理性对待的考题。