打印页面

首页 > 热点评论 【丝路话语】遏制AI“说谎”,需技法合力

【丝路话语】遏制AI“说谎”,需技法合力

□ 张西流

制造出的虚假信息更具迷惑性,“AI(人工智能)幻觉”带来“一本正经地胡说八道”……易传播、难防治的“AI谣言”,对政府监管部门、互联网平台、技术研发者以及社会各界提出了新挑战。如何遏制人工智能“说谎”?需要技术完善与规制,也需要系统性治理。多名受访专家表示,要完善法律规范和部门监管,推动形成多方联动的共治格局。(8月20日《人民日报》)

当AI技术深度融入社会生活的方方面面,其“说谎”问题也日益凸显。从捏造“80后死亡率突破5.2%”的谣言,到杜撰不存在的论文与事件,AI生成的虚假信息如同迷雾,侵蚀着社会信任与公共理性。要遏制AI“说谎”,必须构建技术“测谎”机制,完善法律规制,推动多方共治,以技法合力破解这一难题。

AI“说谎”本质上是技术缺陷的产物。无论是“机器欺骗”刻意编造虚假内容,还是“机器幻觉”生成逻辑自洽却脱离现实的文本,根源在于大模型缺乏对语义真伪的理解能力。破解这一困境,技术是关键。一方面,需通过强化对齐训练(如RLHF),将“诚信优先”原则嵌入模型核心,引导其生成真实内容;另一方面,采用混合架构设计,结合生成模型与检索系统,实时验证信息准确性,并标注置信度。此外,引入事实核查技术,整合权威数据库,在输出内容时自动比对,减少虚假信息生成。

技术治理需法律护航。当前AI“说谎”违法成本偏低,亟待完善法规,形成有力震慑。《生成式人工智能服务管理暂行办法》等虽已出台,但仍需细化责任认定标准,明确平台与开发者的义务边界。对利用AI造谣传谣者,应依法严惩,如广西网民郑某因AI造谣燃气涨价被行政处罚的案例,便是警示。同时,需强制推行内容标识制度,要求AI生成内容标注来源与生成时间,避免信息溯源困难。通过法律“利剑”,为AI行为划定清晰红线。

遏制AI“说谎”,非单一主体可为,需社会合力共治。平台作为信息传播的枢纽,应承担首要责任,建立内容审核机制,及时处置虚假信息,并开放用户举报通道。用户自身也需提升媒介素养,警惕“网友爆料”“独家内幕”等标签,通过权威渠道交叉验证信息真伪。行业层面,应推动制定伦理准则,如“人工智能生成合成内容标识办法”所倡导的透明度标准,引导技术向善。此外,监管部门可联合科研机构开发“动态可追溯责任链”,利用区块链等技术追踪信息源头,实现全流程监管。

AI“说谎”并非技术原罪,而是发展过程中的阶段性挑战。唯有以技术“测谎”为盾,法律规制为剑,多方共治为网,方能编织起抵御虚假信息的坚实防线。当AI学会理解“真伪”“善恶”,其才能真正成为人类可信赖的助手。未来的AI,应不仅是概率模型的堆砌,更是嵌入伦理与认知的智慧体。唯有技法合力,才能让AI告别“幻觉”,走向真实,为数字时代注入清朗之风。

文章来源:http://www.ruyigansu.com/2025/0821/8108.shtml