促进人工智能治理的工具包

Wojciech Misiura
Author: Wojciech Misiura, CISA, CIA,集团内部审计员
发表日期: 2024年6月4日
阅读时间: 3 minutes

作为对人工智能系统在开发和使用方面日益普及的回应, 全球都面临着控制人工智能系统并确保适当治理的压力. 欧盟最近通过了 欧盟人工智能(AI)法案新加坡正在推进《澳门赌场官方软件》 模型人工智能治理框架 (“模型框架”),在私有组织框架(如 斜接阿特拉斯.

这些规定将影响到大量的公司, 以及外包给第三方的流程. 法规将对公司产生不同的影响,因为要求是根据与人工智能系统相关的风险来定义的. 因此, 公司需要进行审查,以识别和分类人工智能系统产生的风险,以此作为确定法规对公司流程影响程度的起点.

简介:ISACA人工智能(AI)审计工具包

ISACA’s 人工智能审计工具包 控制库是为了促进澳门赌场官方下载对AI系统的治理和控制的评估而设计的吗. 人工智能审计工具包旨在协助审计人员验证人工智能系统是否遵守最高的治理标准和道德责任. 在计划和执行审计时,可以将该工具包视为审计专业人员的框架, 对其他防线也很有用, 例如在围绕AI系统创建流程或执行当前流程的成熟度评估时.

  • 第一级防御可以使用建议的证据/交付物/工件来增强当前过程或开发新过程.
  • 第二级防御可以使用AI审计工具包来更好地理解如何设计策略/程序/指导方针以满足预期目标.
  • 第三级防御可以使用建议的评估方法来了解如何评估和测试证据, 可交付成果, 工件, 并对运行效果进行控制.

除了, 每个AI控制的设计都是为了确保满足ICO可解释性维度的可解释AI目标, 责任, Data, 公平, Safety & 性能和影响. 控制是用完善的安全框架和标准合成的, 包括NIST 800-53和ISO 27001, 并通过对选定的人工智能特定指南的解构和分析进一步了解, 包括欧盟人工智能(EU AI)法案, 新加坡人工智能治理模式框架(“模式框架”), 斜接的阿特拉斯, and OWASP ML十大安全风险.

用AI框架强化三道防线

确保遵守人工智能法规要求公司对当前环境进行更改. 第一步是创建人工智能系统清单, 识别当前使用的人工智能系统(包括由第三方管理的系统,其输出被公司使用), 设计一个风险分类流程,并与现有流程相结合.

第一道防线应该创建一个识别过程, 管理和处理人工智能系统产生的风险. 第二道防线应确保政策, 程序和控制由第一道防线制定并自行评估是否适当. 第三道防线是负责了解人工智能系统产生的风险,并将其作为执行基于风险的内部审计计划的一部分,以测试相关控制的完整性和运营有效性. 

缩小人工智能人才差距

每一个变化的采用取决于各种因素,其中最重要的是人才. ISACA最近的人工智能研究 40%的组织根本没有提供人工智能培训, 大多数受访者认为自己的技能存在人才缺口.

在等待新规定生效的同时, 公司应该重新思考和重新设计他们的人工智能人才管理,以确保使用人工智能系统的员工拥有适当的知识. 这可以通过利用ISACA的人工智能资源来实现 xqzp.gharsocho.com/ai. 未来监管可能会改变,但有一件事是肯定的——人工智能将与我们同在.

额外的资源