首页
>审计动态>审计天地
人工智能在基层审计实践中的风险思考
发布日期:2025-07-22 17:06 访问次数: 信息来源:威海市审计局 字号:[ ]


随着人工智能特别是语言大模型的迅速发展,不少审计人员已将人工智能技术应用于审计实践。然而由于缺乏统一规范和有效监管,在实际运用中存在诸多风险点。本文聚焦人工智能在基层审计实践中的主要风险,并提出针对性的应对策略,以期提升人工智能技术更好赋能审计工作。

一、人工智能在审计业务中的典型应用

当前人工智能在基层审计实践中的应用,主要体现在以下几个方面:

1.非结构化数据归集:对合同文本、会议纪要等材料进行语义解析、摘要提取与比对;

2.政策条文智能查询:通过政策描述快速定位法规依据,辅助问题定性;

3.审计文书辅助生成:借助语言模型快速撰写审计取证、报告初稿等文书材料;

4.自然语言生成分析代码:通过输入审计目的或分析意图,自动生成查询语句、可视化脚本等;

5.审计案例经验复用:结合知识库,辅助类比分析、线索拓展与问题归类。

二、审计人员使用人工智能的主要风险点

(一)数据安全风险:信息泄露与使用不当

人工智能技术在审计实践中的应用增加了数据外泄的可能性。部分审计人员在使用语言模型或图像识别系统处理审计资料时,存在将含有财政收支、工程结算、干部履职等敏感内容的文件上传至互联网平台的情况,一些平台默认启用数据留存或训练机制,审计信息一旦进入模型训练系统,可能形成永久性暴露。

(二)模型输出风险:内容偏差与判断误导

尽管语言模型在文本生成方面表现优异,但其基于概率推理机制,缺乏事实判断能力,输出内容可能存在严重偏差。在审计实践中,模型常出现逻辑错误、结论指向不明甚至虚构情况,若审计人员未能及时发现模型“说谎”,易将不实内容作为问题线索或法律依据,误导审计结论。

(三)技术依赖风险:能力弱化与思维退化

AI工具的自动化和便捷性已使部分审计人员逐渐对其产生依赖。在审计文书撰写、问题归纳等环节中,频繁使用模型替代人工思考,削弱了审计人员自身在逻辑分析、定性判断和法规核验方面的能力。尤其是在经验尚浅的青年审计干部中,容易将AI视为“万能工具”,依赖模型提供框架、话术、结论等内容,缺乏对问题背景、特性和政策依据的独立分析能力,不利于构建高素质审计干部体系。

三、对策建议

(一)健全制度规范,明确模型使用边界

人工智能作为辅助审计的新兴技术工具,其使用方式与传统人工审计操作存在本质差异,亟需通过制度方式对行为边界加以规范。在当前多数基层审计机关尚未建立系统化管理机制的背景下,应尽快出台涵盖“可用范围、敏感限制、审批机制、责任划分”等内容的AI使用管理办法,推动从“能用”向“规范使用”转变。具体而言,应建立使用授权机制,对AI工具使用设定审批流程,并依据数据涉密等级划定“禁止上传”、“需脱敏处理”及“可调用”三类操作范围,防止触碰保密红线。

(二)推动模型本地部署,构建安全可控的使用环境

从风险防控角度出发,应积极探索将语言模型等人工智能工具以“内网部署、离线运行”的方式嵌入审计工作平台。本地部署模式有助于解决传统公有云模型所面临的“数据外流、接口不可控、更新不可管”等问题,实现数据不出单位、行为可控可查。在部署技术架构基础上,还应同步开展“审计模型本地训练”,构建包含财政政策、审计方法、历史审计案例等内容的专属知识库,提升模型在本地使用时的专业适配能力,避免通用模型“知识混淆”“内容误引”现象,增强模型回答的准确性与可用性。

(三)强化队伍能力建设,防止技术依赖蔓延

人工智能作为工具,其最终价值取决于使用者的专业素养与判断能力。当前基层审计人员结构年轻化、经验相对不足,技术便捷性容易催生过度依赖与本末倒置等问题。应将“人机协同”原则贯穿审计业务全过程,强化人员在使用AI工具过程中的主导地位,切实防止“审计思维空心化”。在教育培训方面,应组织分层分类的人工智能使用专题培训,重点讲解模型能力边界、内容辨识方法、风险识别技巧等内容,增强人员对模型输出的判断能力。在实际应用中,应鼓励审计人员先独立完成初步判断,再参考模型建议进行补充优化,防止形成“机器说了算”的惰性思维。通过持续提升AI素养与专业能力,推动审计人员从“使用者”向“驾驭者”转变,确保技术红利真正赋能审计工作,推动审计从“人工驱动”向“智能驱动”转变。程文钧










打印本页 关闭窗口