星展银行宫霄峻:在大模型应用中,自动化的资源分配机制至关重要

睿见Economy
Sep 11

专题:服贸会第七届中国金融科技论坛

  中国国际服务贸易交易会-第七届中国金融科技论坛于2025年9月10日-11日在北京举行。主题为“科技赋能—金融业数字化转型与应用”。星展银行(中国)有限公司首席信息官兼科技及营运部主管宫霄峻出席并演讲。

  以下为演讲实录:

  非常荣幸参加今天这个论坛,分享一下星展银行在科技金融上面的一些经验。星展是亚洲领先的金融服务集团。我们总部位于新加坡并于当地上市。星展资本充裕,所取得的AA-和Aa1级信贷评级位列全球最高级别之一。星展在人工智能这方面的应用,也走得比较早、比较前面。从集团层面来说,星展银行已投入AI技术研发超过10年时间,目前手中握有超过800个AI模型,可运用到至少350种业务案例上,预估2025年可创造逾10亿新加坡元经济效益。

  星展银行目前在新加坡、中国等核心市场已部署诸多AI应用案例,涵盖销售、运营服务与处理、软件开发等多个部门。例如在企业客户服务方面,通过AI进行验证、尽职调查以及完善ESG调查;在欺诈识别上,借助AI技术支持更高效智能的诈骗风险检测。星展银行也推出了面向员工的“DBS-GPT”,基于ChatGPT的版本,旨在帮助员工在安全的环境中生成内容和完成撰写任务,目前已面向所有星展银行员工开放。

  在这个应用过程当中,针对于大模型的安全这方面的一些体验,我们有很多经验和教训,所以我在这里就分享一下这方面的案例。

  2024年10月,国内的某一个大型互联网公司发布公告,他们的大模型训练项目遭遇了一起投毒事件,主要是一个内部人员在内部训练的时候专门使用了攻击代码,就把大模型训练任务整个破坏了,这样就等于教大模型一些破坏性的信息,令整个团队的工作全部都偏离了正轨,造成了800万人民的损失。

  2024年9月,英国某一个头部的AI处理公司遭到了勒索软件, 1400万用户的数据都已经泄露了,这当中也是造成了巨大的经济损失。

  也是2024年3月,某家软件公司在全球最大的AI模型开源平台上,就发现超过100个恶意的AI大模型。这令人想到AI是一个新的场景,很多恶意攻击会发生,对安全是一个至关重要的内容。

  我们看安全分析,在大模型上主要有四个方面的安全存在风险:

  一是幻觉问题。因为大家知道大模型都会有各种各样的幻觉,幻觉的错误会导致决策的错误以及导致经济损失。

  二是隐私风险。隐私风险就是个人的敏感信息在大模型的应用里面,有没有可能导致泄露?这个也是一个法律合规的风险。

  三是提示词的注入攻击,就像当年互联网通过提示词的注入攻击的情况是一样的,在客户、用户输入一些语句的时候,让大模型解答问题的时候,有可能会能会输入一些提示词特殊的字符造成攻击。

  四是数据投毒,刚才讲了几个案例,是通过一些坏的数据能够教大模型,造成整个大模型系统性的破坏。

  五是模型窃取的攻击。

  隐私风险,我们刚才讲到了,数据泄露是一块。还有一块是数据窃取,因为大模型是一个公开的平台,会让很多的用户去输入或者获取很多的大模型分析的结果,有人试过可以从大模型上通过特别的话术,会获取一些隐私的数据。

  通过这些东西我们怎么做呢?在金融大模型的安全管控架构里面,在我们内部实施金融大模型的过程里边,也开始采用这样的一种步骤。开发和应用方面,从刚开始开发应用的时候就要做风险管控,从数据采集、预处理,训练数据的安全需要管控,在模型微调、增强索引的时候就需要做一些安全评估以及模型测试,在部署模型的时候,要测试,要做用户输入的防御,防止有一些有毒或者攻击代码能够输入进来。

  真的在模型推理的时候,要对模型输出的风险做好管理。它如果做出一个错误的或者非常有毒的推断结果的话,在结果输出之前要做管控,这样的话就有6个方面我们需要做到,就刚才提到的六个方面:训练数据的安全、安全评估机制和模型测试、用户输入的防御、预设数据投毒攻击、科技伦理、合规审查,数据模型输出的风险管控。

  这里想要提到一点,科技伦理与合规审查中国的监管是特别重视的一点,我觉得我们也走得比较领先了。

  这个是基于知识访问的控制,这个和下面都会讲到,知识库是大模型的一个基础,做人工智能大模型的话会建立各种各样的知识库,知识库的保密性和隐私性是相当重要的,有两个维度可以做这些安全访问,一个就是对于知识的访问控制。用户请求到知识建模,到推理决策,到授权,到权限授予,这个当中整个流程里面,我们都需要做好管控。

  这里有两类的管控:

  一是基于角色的访问控制。二是基于知识的访问控制。

  角色的访问控制是什么呢?我们在星展内部有一个星展自己的大模型,针对不同的工作岗位会设置不同的权限,比如说财务部的同事设置的权限会高一点,他能够接触到财务的知识库。其他岗位的同事就不会接触到这些敏感的知识库,类似对客服务的客户经理能够接触的知识功能,其他的部门同事就不能接触到。这样是通过不同的角色设置不同的访问控制。

  第二个维度是基于知识的访问控制,知识有不同的类别,每一种不同的知识所授予的权限是不一样的我们就可以通过两个维度合在一起,起到对大模型安全的访问控制。

  提高了访问控制之后,势必会产生另一个问题,是否会降低计算效率?这个就需要从设计开发就开始要注重整个模型、数据、硬件、算法以及业务场景共同的影响,需要做一个平衡。因为硬件的弹性化配置、算法的轻量化、数据风层管理,自动化调优,都需要在这个维度里面结合金融习惯的实时性、合规性需求做一个总体的调整,达到这个目的。

  从我们的经验来看,安全最主要的一个点是触发到一个合规的考虑,实际上这一点就把大数据、大模型的建设里面,把安全的控制是放到一个很高的地位。

  我们在设计的时候,需要对一些低延迟的、高吞吐量的模型的架构要轻量化,让计算资源要高效集中,同时要提升对隐私保护、抗攻击、整个合规的审计需求。

  对星展中国来说,我们和国内各大银行相比数据体量还是比较小的,对于我们在国内运用这个大模型,就带来另一方面的挑战,如果进行私有化的算力部署都我们来说成本上会产生压力。我们最近在跟其他的一些公司在寻找一些算力共享的模式,希望通过这种方式能够获得一些更加具有性价比的算力。

  在这个过程里边就遇到一个更重要的挑战,就是在算力共享场景下的隐私保护。我们就需要探索通过一些隐私计算的手法,在算力共享的场景下面,更有效的获取一些算力。

  这里也就延伸到安全策略装重要性,安全策略的系统化部署要求对应用场景和数据资产进行精细化分级分类。通过动态调配安全计算资源,并引入自动化合规引擎,可实现安全控制措施与业务效率目标的智能匹配与协同优化。

  在大模型的应用中,尤其是在处理海量数据输入时,实现自动化的资源分配机制至关重要。对于高敏感性或高等级的数据,需配套更强的安全防护与计算能力。

  这个就是和大家分享的关于安全领域的分享。

  谢谢大家!

  新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

海量资讯、精准解读,尽在新浪财经APP

责任编辑:王翔

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10