资讯中心
重塑未来信任:揭秘人工智能的透明度与可解释性

重塑未来信任:揭秘人工智能的透明度与可解释性

原创
2024-09-13 00:00:00
技术文章
作者: SGS管理与保证
访问次数: 566
点赞: {{ Likes }}

人工智能的透明度和可解释性

人工智能的透明度和可解释性


近年来,基于人工智能的系统被广泛应用于各种任务中。这些任务依赖于人工智能做出的决定,而这些决定往往具有高度敏感性,并可能对个人或社会群体的福祉构成潜在风险。这些任务包括批准贷款、管理招聘流程和做出与健康相关的决定。要在此类敏感情况和其他情况下适当使用人工智能,人工智能做出的决定必须对人类来说是可以理解和合理的。


透明度:揭开AI决策的神秘面纱

透明度:揭开AI决策的神秘面纱


透明度可以被定义为一个特定人工智能系统的可理解性——我们知道哪部分的系统发生了什么。这可以是一个促进问责的机制。可解释性是一个密切相关的概念,指的是以反向方式提供有关人工智能系统行动所依据的逻辑、流程、因素或推理的信息。可解释的人工智能(XAI)可以通过各种方式实现,例如,通过调整现有的人工智能系统或开发设计可解释的人工智能系统。通常,这些方法被称为“XAI 方法”


Meske等人认为,人工智能的透明度和可解释性与五个利益相关者群体有关:

1 人工智能监管机构,需要解释以测试和认证系统;

2 人工智能管理人员,需要解释以监督和控制算法及其使用,并确保算法的合规性;

3 人工智能开发人员,需要解释来提高算法的性能,并进行调试和验证。这使他们能够采用基于原因分析的结构化工程方法,而不是反复试验;

4 人工智能用户,他们有兴趣了解算法推理并将其与自己的思维方式进行比较,以评估算法的有效性和可靠性;

5 受人工智能决策影响的个人,他们对可解释性感兴趣,以评估特定人工智能决策的公平性。


由于人工智能系统的可解释性对于许多敏感的现实任务非常重要。因此,大家可以持续关注。未来,我们也会出具一份详细的报告,包括XAI方法的高层次概览,深入剖析现有技术的优劣等内容。

关于SGS 

SGS是国际公认的测试、检验和认证机构,SGS管理与保证事业群在信息与通讯技术(ICT)领域深耕多年,为诸多知名企业提供信息安全、隐私安全管理等技术支持,致力于为各行业机构提供全方位管理提升服务,为企业信创保驾护航,如:ISO/IEC 42001、ISO/IEC 27001、ISO/IEC 27701、ISO/IEC 20000、ISO/IEC 27017、ISO/IEC 27018、ISO 22301、CSA STAR、TISAX、ISO/SAE 21434、Europrivacy等产品培训和认证服务。

本文著作权归SGS所有,商业转载请联系获得正式授权,非商业请注明出处

需要更多信息?

我们最快2小时内联系您

手机号码 电子邮箱

*自动注册会员,在线查看咨询进度

立即咨询
我已阅读并同意 隐私政策

发送成功

您的咨询信息已收到,我们将尽快与您联系!

用户账号:{{ form.phone || form.email }}

已为您注册SGS在线商城会员
可使用账号快捷登陆

到“我的咨询”查看咨询进度

{{countdownTime}}秒后自动跳转

扫码关注SGS官方微信公众号, 回复“0”赢惊喜礼品!