Marsh&McLennan Advantage In188bet如何安装sights标志
来自全球业务边缘的对话和见解188bet如何安装
菜单 搜索
技术

金融机构如何为AI风险做准备?

根据A的情况,人工智能(AI)技术对金融服务行业具有重要的承诺对金融服务业的重要承诺,但他们也会带来必须通过合适的治理方法解决的风险。白皮书由一群来自金融服务和技术行业的学者和高管发布沃顿商业智能

白皮书详细说明了金融公司实施人工智能战略的机遇和挑战,以及它们如何通过设计适当的治理框架来识别、分类和减轻潜在风险。

AIRS的创始人和白皮书的主要作者Yogesh Mudgal说:“当AI的治理和风险得到负责任的管理时,来自整个行业和学术界的专业人士都看好AI的潜在好处。”。他补充说,论文中提出的人工智能风险类别标准化和人工智能治理框架“将大大有助于人工智能在行业中的负责任应用”。

AI潜在收益

金融机构越来越多地采用人工智能,“因为技术壁垒已经降低,其好处和潜在的风险已经变得更加明显。”报告金融稳定理事会是一个监测和提出关于全球金融系统的建议的国际机构,该机构强调了AI可能影响银行业的四个领域。

第一个方法包括面向客户的使用,通过使用机器学习算法评估信用质量或定价保险政策,以及促进金融纳入,从而扩大获得信贷和其他金融服务的机会。该报指出,诸如AI聊天机器人等工具“为消费者提供帮助甚至财务建议,从而节省他们在等待与现场运营商交谈时可能会浪费的时间”。

第二个使用人工智能的领域是加强后台业务,包括开发先进的资本优化模型、模型风险管理、压力测试和市场影响分析。

第三个领域涉及贸易和投资战略。第四部分涵盖了AI在银行合规和风险缓解方面的进展。AI解决方案已经被用于欺诈检测、资本优化和投资组合管理。

识别和控制风险

为AI改善“业务和社会成果”,其风险必须“负责任地管理”,作者写在纸质。AIRS研究专注于金融服务业的AI风险的自治,而不是AI监管,如此,沃顿经营,信息和决定教授和本文共同作者。

在探索AI的潜在风险方面,本文提供了与数据,AI和机器学习攻击,测试,信任和合规相关的风险的“标准化实际分类”。强大的治理框架必须专注于定义,政策和标准,库存和控制。这些治理方法还必须解决AI潜在的潜力,以呈现隐私问题,潜在的歧视性或不公平的结果“如果没有通过适当的照顾。”

在设计AI治理机制时,金融机构必须首先确定AI无法取代人类的环境。”与人类不同,人工智能系统缺乏对部署环境的判断和上下文在大多数情况下,不可能对AI系统进行所有可能的场景和数据的培训,“缺乏上下文、判断和整体学习限制”等障碍将为风险缓解提供方法。188bet滚球投注

糟糕的数据质量和潜在的机器学习/人工智能攻击是金融机构必须考虑的其他风险。在数据隐私攻击中,攻击者可以从数据集中推断出用于训练人工智能系统的敏感信息。本文确定了两种主要的数据隐私攻击类型:“成员推断”和“模型反转”攻击。在成员身份推断攻击中,攻击者可能会确定训练数据集中是否存在特定记录或一组记录,并确定这是否是用于训练AI系统的数据集的一部分。在模型反转攻击中,攻击者可能会提取用于直接训练模型的训练数据。其他攻击包括“数据中毒”,它可以用来增加人工智能/机器学习系统的错误率,扭曲学习过程和结果。

理解AI系统

解释性——或以人类能够理解的格式呈现AI系统的结果——以及可能导致不公平偏见结果的歧视——也是使用AI/机器学习系统的主要风险。这些风险可能会证明代价高昂:“使用可能导致潜在不公平偏见结果的AI系统可能导致监管不符合规定问题、潜在诉讼和声誉风险。”

算法具有复杂性和不透明度,可能产生歧视性结果。”一些机器学习算法产生的变量交互和非线性关系对人类来说太复杂,无法识别和回顾,”论文指出。

AI风险的其他领域包括人类如何解释和解释AI流程和结果。测试机制也具有缺点,因为一些AI /机器学习系统是“天生的动态和随时间变化”。此外,可能无法测试数据的“所有场景,排列和组合”,导致覆盖范围内的差距。

对人工智能技术的不熟悉也可能会导致AI系统的信任问题。”例如,有一种看法认为AI系统是一个“黑匣子”,因此无法解释,”作者写道很难彻底评估难以理解的系统。”在其成员之间进行的一项调查报告中,40%的答复者“同意AI/ML定义”,而只有十分之一的受访者在其组织中制定了单独的AI/ML政策。

歧视潜力是控制的特别困难的风险。作者指出,有趣的是,一些最近的算法有助于“尽量减少类控制差异,同时保持系统的预测质量”。“减缓算法为定向质量和歧视措施找到了”最佳“系统,以最大限度地减少这些差异。”

以人为中心的方法

可以肯定的是,人工智能无法在所有环境中取代人类,尤其是在确保公平方法方面。”“公平的人工智能可能需要以人为中心的方法,”该报指出自动化过程不太可能完全取代一个训练有素和多样化的小组对人工智能系统进行潜在歧视偏见审查的普遍知识和经验。因此,针对歧视性人工智能的第一道防线通常可以包括某种程度的人工审查。”

“它从用户的教育开始,”Hosanagar说。“当算法为我们和关于我们做出决定时,我们都应该意识到。我们应该了解这可能会影响所做的决定。除此之外,公司应在设计和部署面向人的AI时融入一些关键原则。“

Hosanagar在A“中列出了这些原则权利法案”:

  • 有权对用于培训用户的数据进行说明,以及如何收集数据的详细信息,
  • 对算法所用程序的解释权,用足够简单的术语表达,以便于普通人理解和解释,以及
  • 对应始终包括用户与算法之间的反馈环路的算法工作的一些控制。

Hosanagar说,这些原则将使个人造成有问题的算法决策和政府法案的方法。“我们需要一个国家算法安全板,这些安全板将像美联储一样运作,由专家人员组成,并被指控监督和控制公司和其他大型组织的使用算法,包括政府本身。”

建立精确的AI型号,创建AI卓越监督和监测的中心是确保消极结果的关键作品。从调查的调查结果中绘制,航空公司的结论是,金融服务业处于采用AI的早期阶段,并且它将受益于常见的定义以及在制定风险分类和分类方面的更多合作。

这件作品最初发表于Knowledge@Wharton

霍桑纳格

沃顿商学院运营、信息与决策教授 @科萨纳加尔

Kartik Hosanagar是宾夕法尼亚大学沃顿商学院的运营、信息和决策学教授。他是这本书的作者人类机器智能指南

yogesh mudgal.

花旗新兴技术风险与风险分析总监兼负责人

Yogesh Mudgal是花旗集团(Citi)新兴技术风险和风险分析部门的主管和主管。该计划的目标是实现负责任的创新。他负责在全球范围内领导该项目,包括识别风险、利用新兴技术传播风险、影响护栏和框架的构建以及新兴技术的风险评估。

    在瞬息万变的世界中取得成功。注册我们的每日通讯。 订阅