Marsh&McLennan Advantage In188bet如何安装sights Logo
来自全球业务边缘的对话和见解188bet如何安装
菜单 搜索
技术

金融机构如何为AI风险做准备?

根据A的情况,人工智能(AI)技术对金融服务行业具有重要的承诺对金融服务业的重要承诺,但他们也会带来必须通过合适的治理方法解决的风险。白皮书由一群来自金融服务和技术行业的学者和高管发布沃顿商务

白皮书详细介绍了金融公司实施AI战略的机遇和挑战以及如何通过设计适当的治理框架来识别,分类和减轻潜在风险。

“来自整个行业和学术界的专业人士对AI的治理和风险负责任地管理时,对AI的潜在利益看涨,”白皮书的亚空军创始人和领导作者奥吉尔·穆戈尔说。他补充说,“论文和AI治理框架中提出的AI风险类别的标准化”将能够在行业中获得负责人的责任。“

人工智能的潜在收益

金融机构越来越多地采用AI“随着技术障碍已经下降,其益处和潜在风险变得更加清晰。”本文引用了一个报告该报告强调了人工智能可能影响银行业的4个领域。金融稳定委员会是一个负责监督全球金融体系并提出建议的国际机构。

第一种覆盖面向客户的用途,通过使用机器学习算法评估信贷质量或为保单定价,并推进金融普惠,可以扩大信贷和其他金融服务的获取渠道。该论文指出,人工智能聊天机器人等工具“为消费者提供帮助,甚至是财务建议,节省了他们在等待与现场接线员交谈时可能浪费的时间。”

使用人工智能的第二个领域是加强后台业务,包括开发用于资本优化、模型风险管理、压力测试和市场影响分析的先进模型。

第三个领域涉及贸易和投资策略。第四部分涉及人工智能在合规和银行降低风险方面的进步。人工智能解决方案已经被用于欺诈检测、资本优化和投资组合管理。

识别和包含风险

为AI改善“业务和社会成果”,其风险必须“负责任地管理”,作者写在纸质。AIRS研究专注于金融服务业的AI风险的自治,而不是AI监管,如此,沃顿经营,信息和决定教授和本文共同作者。

在探索AI的潜在风险方面,本文提供了与数据,AI和机器学习攻击,测试,信任和合规相关的风险的“标准化实际分类”。强大的治理框架必须专注于定义,政策和标准,库存和控制。这些治理方法还必须解决AI潜在的潜力,以呈现隐私问题,潜在的歧视性或不公平的结果“如果没有通过适当的照顾。”

在设计人工智能治理机制时,金融机构必须首先确定人工智能无法取代人类的环境。该论文称:“与人类不同,人工智能系统缺乏对其部署的许多环境的判断和背景。”188bet滚球投注“在大多数情况下,不可能训练人工智能系统应对所有可能的场景和数据。”诸如“缺乏背景、判断和总体学习限制”等障碍将为减轻风险的方法提供信息。

数据质量差和机器学习的潜力/ AI攻击是其他风险金融机构必须要素。在数据隐私攻击中,攻击者可以从用于训练AI系统的数据集推断敏感信息。本文确定了对数据隐私的两种主要类型:“会员推理”和“模型反转”攻击。在员额推理攻击中,攻击者可能会确定训练数据集中是否存在特定记录或一组记录,并确定该数据集是否用于训练AI系统的数据集。在模型反演攻击中,攻击者可能会提取用于直接培训模型的培训数据。其他攻击包括“数据中毒”,可用于增加AI /机器学习系统和扭曲学习过程和结果的错误率。

理解AI系统

可解释性——即以人类能够理解和区分的形式呈现人工智能系统的结果——可能导致不公平的偏见结果——也是使用人工智能/机器学习系统的主要风险。这些风险可能代价高昂:“使用一种可能导致潜在不公平偏见结果的人工智能系统,可能导致不合规问题、潜在诉讼和声誉风险。”

由于算法的复杂性和不透明性,它们可能产生具有歧视性的结果。该论文指出:“一些机器学习算法创建的变量交互和非线性关系过于复杂,人类无法识别和审查。”

AI风险的其他领域包括人类如何解释和解释AI流程和结果。测试机制也具有缺点,因为一些AI /机器学习系统是“天生的动态和随时间变化”。此外,可能无法测试数据的“所有场景,排列和组合”,导致覆盖范围内的差距。

不熟悉人工智能技术也可能导致对人工智能系统的信任问题。“例如,有一种看法认为,人工智能系统是一个‘黑匣子’,因此无法解释,”作者写道。“对不容易理解的系统进行彻底评估是困难的。”AIRS在其成员中进行的一项调查显示,40%的受访者“对AI/ML有一致的定义”,而只有十分之一的受访者在其组织中有单独的AI/ML政策。

歧视潜力是控制的特别困难的风险。作者指出,有趣的是,一些最近的算法有助于“尽量减少类控制差异,同时保持系统的预测质量”。“减缓算法为定向质量和歧视措施找到了”最佳“系统,以最大限度地减少这些差异。”

一种以人为本的方法

可以肯定的是,AI不能取代所有设置中的人类,特别是在确保公平的方法方面。“公平AI可能需要一种以人为本的方法,”论文指出。“自动化过程不太可能完全取代训练有素和多样化的审查AI系统的广义知识和经验,以获得潜在的歧视偏差。因此,反对歧视性AI的第一线路防御通常可以包括某种程度的手动回顾。“

“它从用户的教育开始,”Hosanagar说。“当算法为我们和关于我们做出决定时,我们都应该意识到。我们应该了解这可能会影响所做的决定。除此之外,公司应在设计和部署面向人的AI时融入一些关键原则。“

Hosanagar在A“中列出了这些原则权利法案“:

  • 有权获得用于培训用户的数据的描述,以及如何收集这些数据的细节,
  • 关于算法表达的算法使用的程序的解释权,对于普通人容易理解和解释,以及
  • 对算法工作方式的某种程度的控制,应该始终包括用户和算法之间的反馈循环。

Hosanagar说,这些原则将使个人造成有问题的算法决策和政府法案的方法。“我们需要一个国家算法安全板,这些安全板将像美联储一样运作,由专家人员组成,并被指控监督和控制公司和其他大型组织的使用算法,包括政府本身。”

建立精确的AI型号,创建AI卓越监督和监测的中心是确保消极结果的关键作品。从调查的调查结果中绘制,航空公司的结论是,金融服务业处于采用AI的早期阶段,并且它将受益于常见的定义以及在制定风险分类和分类方面的更多合作。

这件作品最初发表于沃顿知识在线

Kartik Hosanagar.

沃顿学院的运营,信息和决定教授 @khosanagar.

Kartik Hosanagar是宾夕法尼亚大学沃顿沃顿学校的运营,信息和决定教授。他是作者人类的机器智能指南

yogesh mudgal.

花旗集团新兴技术风险和风险分析主管

Yogesh Mudgal是Citi的新兴技术风险与风险分析的主任和负责人。该计划的目标是启用负责任的创新。他负责领导全球方案,包括确定风险,带来新兴技术的风险,影响卫兵和新兴技术的风险评估。

    在一个迅速改变的世界中取得领先。注册我们的日常时事通讯。 订阅