THE FUTURE OF AI

从政策到实践:将新加坡的人工智能雄心变为现实

三位来自银行业、客户体验和数据中心基础设施领域的商界领袖,分享了如何让人工智能可靠、负责任且规模化地运作的实际经验

Dylan Tan
Published Mon, Mar 30, 2026 · 07:00 AM
    • Racks Central创始人兼首席执行官Bobby Wee,正处于为人工智能应用提供动力的基础设施层。
    • Racks Central创始人兼首席执行官Bobby Wee,正处于为人工智能应用提供动力的基础设施层。
    • Racks Central创始人兼首席执行官Bobby Wee,正处于为人工智能应用提供动力的基础设施层。
    • Racks Central创始人兼首席执行官Bobby Wee,正处于为人工智能应用提供动力的基础设施层。
    • Racks Central创始人兼首席执行官Bobby Wee,正处于为人工智能应用提供动力的基础设施层。 图片来源:RACKS CENTRAL
    • Racks Central创始人兼首席执行官Bobby Wee,正处于为人工智能应用提供动力的基础设施层。 图片来源:RACKS CENTRAL
    • Racks Central创始人兼首席执行官Bobby Wee,正处于为人工智能应用提供动力的基础设施层。 图片来源:RACKS CENTRAL
    • Racks Central创始人兼首席执行官Bobby Wee,正处于为人工智能应用提供动力的基础设施层。 图片来源:RACKS CENTRAL
    • Racks Central创始人兼首席执行官Bobby Wee,正处于为人工智能应用提供动力的基础设施层。 图片来源:RACKS CENTRAL

    本文由AI辅助翻译

    查看原文

    【新加坡】在其关于人工智能的2026年预算案演讲中,总理Lawrence Wong明确表示,对于新加坡公司而言,人工智能不再是一项次要实验,而是竞争力的核心杠杆。

    现在的重点在于执行,以及企业如何将人工智能的接入转化为生产力提升、新的收入来源和持续的优势。这种转变在私营部门已经显现。

    经过两年的试点和概念验证,管理团队面临着越来越大的压力,需要证明支出的合理性、展示回报,并将人工智能从沙盒环境转移到日常运营中。

    讨论的焦点已经从可能性转向了实际表现。什么方法有效、什么可以规模化、什么能带来可衡量的影响,将成为关键。

    正是在这样的背景下,《商业时报》召集了本次圆桌会议,汇集了三位处于这一转型前沿的领袖。

    Racks Central创始人兼首席执行官Bobby Wee,处于为人工智能应用提供动力的基础设施层。Toku创始人兼首席执行官Thomas Laboulle,与在客户体验领域部署人工智能的企业紧密合作。OCBC集团运营与技术主管Praveen Raina,则带来了高度监管行业的视角,在这个行业中,规模、信任和治理至关重要。

    DECODING ASIA

    Navigate Asia in
    a new global order

    Get the insights delivered to your inbox.

    他们的观点共同提供了一个基层视角,揭示了如今人工智能在哪些领域真正创造价值,以及雄心与现实之间仍然存在的差距。

    现在的重点在于执行,以及企业如何将人工智能的接入转化为生产力提升、新的收入来源和持续的优势。图片来源:GEMINI

    参与者:

    • Bobby Wee, Racks Central创始人兼首席执行官
    • Thomas Laboulle, Toku创始人兼首席执行官
    • Praveen Raina, OCBC集团运营与技术主管

    主持人:Dylan Tan,《商业时报》高级记者

    过去两年,企业一直在试点人工智能。现在,高管层要求看到切实的投资回报(ROI)。您目前在哪些方面看到了最切实的经济价值——是降低成本还是创造收入?这个答案与去年相比有变化吗?

    Bobby Wee (BW): 目前,最稳定且可证实的投资回报仍在成本和生产力方面,但其组合正在发生变化。

    在降低成本和提高效率方面,“第一波红利”来自于自动化一线支持、加速软件交付、减少人工合规工作、改善事件响应以及优化供应链和预测。这些收益可以在数周内衡量:更快的周期、更少的上报事件、更低的服务成本。

    “第二波红利”是收入增长,它正通过人工智能驱动的产品功能、规模化个性服务、更快的上市时间以及新的保费等级(例如捆绑在企业服务中的人工智能助手)而显现。能够创造可防御的知识产权的行业特定模型也开始出现。

    与去年相比,变化在于信心。在2024至2025年,许多试点项目证明了技术可行性。到2026年,董事会希望看到单位经济效益:每个任务的成本、每个已解决工单的成本、每次代码更改的成本、转化率提升——这些都是硬性数据。

    宏观层面的积极信号是,新加坡正在加倍投入能力建设,宣布了到2030年的重大公共投资用于人工智能研究,包括支持负责任和资源高效的人工智能以及人才发展。这种长远承诺往往会促进私营部门的采用,因为公司知道相关的生态系统将会到位。

    Thomas Laboulle (TL): 如今,在客户体验领域,最切实的价值仍然是效率,但背景已经发生了变化。

    去年,许多试点项目侧重于展示人工智能能做什么。今年,重点已转移到这些能力是否能在生产环境中持续维持。董事会和高管团队正在问一个更根本的问题:这个系统能否在不引入风险的情况下,可靠地减少运营负荷?

    在企业客户体验运营中,效率提升仍然是最直接、最可衡量的投资回报来源。自动化率、首次联系解决率和通话后处理工作的改进,很快就能在运营指标中体现出来。重要的是,这些收益只有在试点环境之外仍然持续存在时才有意义。

    收入影响绝对重要,并且它正通过更高的客户保留率、更快的解决方案和更一致的服务质量而显现。然而,这些好处往往会随着时间的推移而累积。目前,企业优先考虑的是那些能够从实验阶段过渡到可靠的日常运营的解决方案。

    Praveen Raina (PR): 银行业务既关乎规模又关乎信任,我们对人工智能的应用正在这两个方面创造价值。对于我们的客户来说,人工智能正在实现全新水平的超个性化服务。

    我们正在从被动服务转向主动、增值的互动和产品定制,这深化了客户关系并增强了客户信任。这种相关性的提升已经转化为可衡量的经济价值。

    运营回报同样显著。智能文档处理缩短了周转时间,而人工智能驱动的工程工具已将编码和测试工作量减少了20%至30%,使我们能够更快、更稳定地交付成果。

    人工智能驱动的异常检测和更快的响应时间也增强了系统弹性,确保我们的平台保持稳定可靠。

    2026年的热门词是“代理式人工智能”(Agentic AI)——即不仅能总结文本,还能主动执行工作流程的系统。从各位独特的视角来看,我们是否已经看到部署上的这种转变,还是说企业在很大程度上仍停留在“聊天机器人”阶段?

    TL: 我们正在看到转变,但这比“代理式人工智能”这个词所暗示的要微妙得多。在客户体验领域,大多数企业在概念上已经超越了基本的聊天机器人。挑战一直在于如何将这一雄心转化为能够规模化可靠运行的生产系统。

    我们今天看到的并非完全自主代理的广泛部署,而是精心限定范围的系统,这些系统可以在确定的边界内执行特定任务。

    核心问题不是智能,而是控制。许多代理式系统优先考虑灵活性和自主性,假设更好的提示或推理能使人工智能保持一致。在企业客户体验中,这种假设很快就会失效。

    当人工智能被允许解释流程而不是遵循流程时,它会引入我们称之为“流程幻觉”的问题:跳过强制性步骤、偏离批准的工作流程或越权操作。这与众所周知的人工智能生成不正确文本的问题有所不同。

    当人工智能代理自信地执行了错误的操作序列,或声称完成了它从未执行过的步骤时,就会出现流程幻觉。在多步骤工作流程中,即使是微小的错误也会迅速累积。

    在受监管的环境中,企业和政府机构无法承受人工智能系统自由解释流程的后果。因此,当今最成功的部署是那些逐步引入自主性,并设有明确防护栏和上报路径的系统。

    因此,尽管方向是明确的,但现实是,企业客户体验正通过受控、受监督的自主性来逐步推进,而不是突然跃升至完全的代理式系统。

    此外,还存在大量业界开始称之为“代理式洗白”(agent washing)的现象,即把现有的聊天机器人和机器人流程自动化工具重新包装成代理式人工智能,而其能力没有任何实质性变化。企业应该透过标签看本质,问一个简单的问题:这个系统是遵循受治理的流程,还是即兴发挥?

    PR: 我们已经看到了这种转变。大多数银行早已超越“聊天机器人”阶段,正在试点或部署能够协调并执行多步骤工作流程的人工智能。

    在OCBC,我们不把代理式人工智能当作一个流行词,而是采用一种深思熟虑且严谨的方法,将其嵌入到我们的整个技术堆栈中。

    自主代理已经在支持诸如自动化的“了解你的客户”(KYC)尽职调查等领域,在该领域,系统会主动评估客户财富和交易的合法性,再由客户关系经理审查和完善最终结果。

    随着我们从被动辅助转向主动执行,成功并不取决于即插即用的解决方案,而是取决于与企业系统的深度集成、强有力的治理,以及将人工智能、数字能力和数据与我们的员工进行协调统一。

    这就是我们提升客户体验、扩大客户获取并确保客户得到保护的方式。

    Racks Central运营着一个达到三级(Tier 3)标准的可用性数据中心,该中心专为支持整个地区企业客户的关键任务需求而建。图片来源:RACKS CENTRAL

    BW: 我们绝对看到了这种转变,但并不均衡。“聊天机器人”阶段是关于回答问题;代理式阶段则是关于“执行”——起草提案、从系统中提取数据、创建工单、运行检查、端到端地推送变更。

    在目前的生产环境中,最好的部署是受限代理——范围狭窄、权限明确、身份控制严格以及有可审计的追踪记录。

    企业在规则繁重、重复性强的工作流程中进展最快,例如:IT运营、客户支持分流、财务运营、开发人员工作流程和网络运营。原因很简单:你可以约束代理、衡量结果并安全地回滚。

    从新加坡的生态系统角度来看,令人兴奋的是治理正在开始赶上能力的发展。新加坡资讯通信媒体发展局(IMDA)最近推出了针对代理式人工智能的示范性人工智能治理框架,这是一个强烈的信号,表明我们正从“令人惊叹的演示”转向负责任的规模化部署。

    随着人工智能模型变得更加自主,“黑箱”问题也日益严重。我们如何平衡对先进、自主的人工智能的需求与对可解释性的严格要求——尤其是在金融和电信等高度受监管的行业?

    BW: 我们不应该将可解释性视为“全有或全无”。实用的方法是进行风险分级。对于低风险用例,如营销文案草稿和内部知识搜索,可以允许更高的自主性并加以监控。

    对于中风险应用,如服务推荐和运营决策,则需要政策限制、评估和人工审查的门槛。

    对于涉及信贷、欺诈、KYC或电信关键网络变更的高风险决策,必须要求完全的可追溯性、文档记录和人类问责制,并在最后阶段由人工介入批准。

    在金融领域,新加坡已经制定了强有力的原则。新加坡金融管理局(MAS)的FEAT原则(公平、道德、问责和透明)是一个很好的参考点,这正是在模型变得更强大时所需要的支架。

    在企业方面,保障工具也日趋成熟。人工智能验证基金会(AI Verify Foundation)和IMDA在人工智能测试与保障方面的工作——包括旨在将技术测试规范化的试点项目——有助于将治理从“政策声明”转变为可重复的工程实践。

    我的观点是,赢家将是那些像对待网络安全一样对待治理的公司:在设计阶段就融入、持续测试并由运营部门负责。

    TL: 关键是要停止将可解释性视为模型问题,而应开始将其视为系统问题。

    在受监管的环境中,可解释性并非来自揭示人工智能的内部推理过程,而是来自确保每一个行动都遵循一个确定性的、可审计的流程。从企业的角度来看,重要的是知道遵循了哪些步骤、应用了哪些规则,以及为什么某个行动被允许或上报。

    这就是为什么优先考虑灵活性的AI框架在生产环境中难以成功的原因。当进程控制装置通过提示或涌现行为来处理时,结果无法得到保证或重现。相比之下,企业级系统必须将合规性、权限边界和强制性步骤直接编码到架构中。

    在客户体验中,这意味着将对话的灵活性与执行逻辑分开。人工智能可以与客户自然地互动,但带有风险的行动必须由明确的进程控制装置来管理,而不是通过推断行为。当这些控制被设计到系统中时,可解释性就成为架构的属性,而不是模型的属性。

    这种方法使组织能够从先进的人工智能能力中受益,同时保持监管机构和客户所期望的问责水平。

    监管环境正在强化这一方向。

    在新加坡,MAS于2025年11月发布了关于人工智能风险管理指南的咨询文件,为金融机构设定了期望,要求其确保透明度和可解释性与每个系统的风险和影响相称。IMDA于2026年1月推出了其新的代理式人工智能示范性治理框架。

    在欧洲,欧盟《人工智能法案》针对新系统的高风险条款将于8月2日全面实施。而ISO/IEC 42001已被确立为可认证的人工智能管理系统全球标准。

    对于像Toku这样在多个司法管辖区运营的企业来说,问题不再是是否要将治理构建到人工智能系统中,而是他们能多快做到这一点。

    PR: 在高度受监管的金融服务行业,“可信的自主性”必须是先决条件,而不是事后考虑。随着人工智能代理承担更长、更复杂的工作流程,不透明的风险自然会增加。

    我们通过在每一个人工智能工作流程的设计中直接嵌入带有强大防护栏的明确验证点来解决这个问题。每一个自主行动都以OCBC的人工智能治理框架为基础,确保即使是最先进的模型也保持可审计、可解释并符合金融标准。

    OCBC已为到2027年实现员工人工智能增强设定了宏伟目标。图片来源:YEN MENG JIIN, 《商业时报》

    OCBC已为到2027年实现员工人工智能增强设定了宏伟目标。在从内部工具转向面向客户的代理式工具的过程中,银行如何管理人工智能代理在没有人为监督的情况下做出财务决策或建议的风险?

    PR: 我们的理念是,人工智能应该增强人类的判断力,而不是取代问责制。即使我们在整个组织范围内推广人工智能,“人在回路中”(human-in-the-loop)的架构仍然牢固地嵌入在任何影响客户财务结果的决策中。

    人工智能提供了速度、规模和智能来揭示洞见,但最终的道德和财务授权仍掌握在我们的员工手中。这种平衡维护了我们作为一家银行所根本具备的关怀和信任标准。

    我们看到“绿色人工智能”(可持续性)与生成式人工智能所需的巨大计算能力之间存在矛盾。作为一家致力于实现可持续发展目标的银行,OCBC如何将训练或运行这些大型模型的能源足迹与其ESG(环境、社会和治理)承诺相协调?

    PR: 随着人工智能应用的加速,重点必须从规模化转向负责任且高效地部署人工智能。在OCBC,我们通过提高基础设施的能源效率,并利用技术本身进一步优化能源消耗来实现这一目标。

    我们目前的数据中心在服务器层面采用创新的冷却技术,这极大地降低了我们模型的能源足迹。同时,我们正在与高等院校合作,探索人工智能、机器学习和物联网如何动态监控和优化能源消耗。

    对我们而言,数字创新必须与我们的可持续发展目标齐头并进,而不是以牺牲后者为代价。

    Racks Central位于柔佛州巴西古当(Pasir Gudang)依斯干达清真工业园(Iskandar Halal Park)的数据中心建设工地。它正在两块总面积约等于10个足球场的土地上建设三座数据中心。图片来源:HARITH MUSTAFFA

    人工智能机架的功率密度现在已达到50至100千瓦,远超传统极限。随着新加坡-巴淡数字走廊变得至关重要,物理基础设施如何演变以应对这种热量——我们向液体冷却发展的速度够快吗?

    BW: 高密度人工智能正在迫使数据中心作为一种热能和电气机械资产进行彻底的重新设计,而不仅仅是房地产。

    在每机架50至100千瓦的功率密度下,仅靠空气冷却变得越来越低效或占用大量空间。行业正朝着一个多元化的方向发展:针对中等密度的增强型空气冷却加封闭措施、后门热交换器、针对高密度的直接液体冷却,以及针对特殊部署的浸入式冷却。

    我们的速度够快吗?我们必须行动,所以我们正在行动。在兴起的特别经济区框架支持下,新加坡-柔佛-巴淡数字走廊正成为该地区具有战略重要性的一环。

    它允许运营商将新加坡的网络密度、企业需求和监管成熟度,与柔佛和巴淡的扩张空间——土地、电力、水资源可用性和规模——相结合,同时在延迟、运营和治理方面保持紧密互联。

    在新加坡方面,政策也在更大力度地推动效率提升。IMDA的绿色数据中心路线图和针对新产能的不断演变的要求,正在提高对电力使用效率和可持续性成果的标准。这正是在人工智能需求增长时所希望看到的。

    底线是,液体冷却不再是“锦上添花”的东西,而是一项核心竞争力,而走廊战略是我们负责任地进行规模化的方式。

    人工智能芯片的淘汰速度比标准服务器快得多。这是否给数据中心在频繁改造或电子废物管理方面带来了新的挑战?

    BW: 是的,图形处理单元(GPU)的淘汰带来了挑战,但同时也提供了一个机会,让数据中心能够以更现代的方式思考生命周期。

    人工智能集群的更新周期比传统服务器短,解决方案在于为模块化和循环性而设计。这意味着模块化的电力和冷却基础设施,使得升级无需拆除整排设备;快速连接的液体回路使硬件更换更安全、更快捷;标准化的机械和电气“导轨”。

    新一代GPU可以以最小的停机时间投入使用,而经过认证的再利用和转售渠道(伴随着)安全的数据清理,使硬件能够获得第二次生命,而不是成为废物。市场将越来越青睐那些能够在不中断服务的情况下提供计算更新,并能展示可信的电子废物和碳核算故事的运营商。

    人工智能时代的数据中心不仅仅是为了正常运行时间而建,它更是为了升级速度和负责任的退役而建。

    Toku一直强调,西方的人工智能模型常常难以应对我们这个地区的语言碎片化问题。在推出语音人工智能代理时,您们如何解决在实时处理多样化的新加坡式英语(Singlish)、马来西亚式英语(Manglish)或马来语(Bahasa)细微差别时出现的“口音差距”和幻觉风险?

    TL: 在实践中,转录的准确性是后续一切的基础。在语言多样的地区,语音识别层面上的微小错误会迅速演变成不正确的意图检测、不恰当的回应或中断的工作流程。在实时语音互动中尤其如此,因为几乎没有纠正的机会。

    在亚太地区的实时语音人工智能必须能够处理语码转换、本地说话模式和电话级音频而不会降低质量。如果系统听错了,任何下游的智能都无法安全地挽回。现实很简单:如果你没有对语码转换进行测试,你的多语言语音代理就还没有准备好投入生产。

    这正是我们投资于专有转录技术的原因,该技术专门针对我们目标市场典型的语言复杂性和音频质量条件进行了训练,而不是依赖通用的全球模型。

    幻觉风险也以类似的方式进行管理。我们不是依赖模型来负责任地推断,而是通过经批准的知识库、定义好的工作流程以及在出现歧义时自动上报来限制响应和行动。目标是每一次都能获得正确、合规的客户结果,即使在混乱的真实世界对话中也是如此。

    在客户体验方面,Toku的底线在哪里?什么时候必须由人工客服介入?随着人工智能变得更加“自信”,这种交接是变得更顺畅还是更复杂了?

    TL: 每当判断、风险或情感细微之处超出自动化系统所能安全处理的范围时,人工干预都是必不可少的。这包括涉及财务决策、身份验证、监管例外或客户情绪极度困扰的场景。关键是,这些边界应该在设计之初就确定,而不是在部署后才发现。

    行业最佳实践现在围绕五种上报触发条件:通过情绪分析检测到的情感线索、客户明确要求、人工智能置信度低于设定阈值、针对高价值或敏感互动的业务规则,以及在多次尝试失败后检测到的对话循环。

    如果做得好,人工智能通过保存上下文、总结已发生的情况并适当地路由互动,使向人工客服的交接更加顺畅。这使得人工客服能够专注于解决问题,而不是重新了解情况。

    然而,在大多数企业客户体验环境中,跨渠道的无缝过渡仍然是例外而非常规,这既表明了其难度,也揭示了未来机遇的规模。

    在成熟的客户体验部署中,人工智能不是取代人类的判断,而是通过确保人类在能增加最大价值的地方进行干预来保护它。

    利用人工智能驱动的情绪分析来检测客户挫败感的需求日益增长。这里是否存在隐私红线?Toku如何平衡由同理心驱动的人工智能所带来的好处,与机器分析客户情绪状态所带来的“令人毛骨悚然”的感觉?

    TL: 使用情绪来改善服务与以破坏信任的方式使用情绪之间有一条明确的界限。在客户体验中,情绪分析应作为一种实时指标,表明某次互动可能需要额外支持或上报。它不应用于超出解决当前问题所需范围对客户进行分类或画像。

    负责任的使用意味着最小化数据收集、对分析过程保持透明,并严格地将情绪分析嵌入运营工作流程中。

    监管格局正变得越来越清晰,这对于在该领域探索的企业来说是有帮助的。欧盟《人工智能法案》禁止在工作场所和教育环境中使用情绪识别系统,这些禁令将从2025年2月起适用,违规者可能面临高达3500万欧元(5180万新元)或全球年营业额7%的罚款。

    在亚太地区,没有司法管辖区禁止情绪分析。新加坡的方法仍然是自愿和基于原则的,IMDA正在支持像MERaLiON联盟这样的项目,以推进多语言和共情人工智能的研究,包括对东南亚语言的情绪识别。

    对于企业而言,关键的区别在于目的:用于提高服务质量和触发适当上报的情绪分析,与用于分析或操纵客户的情绪分析是完全不同的两回事。

    信任是客户体验的核心,任何人工智能的使用都必须加强——而不是削弱——这种信任。

    最后,但同样重要的是,如果我们18个月后再次召开这个圆桌会议,我们现在痴迷的哪个与人工智能相关的话题将会过时?

    PR: 讨论将日益从人工智能系统是否能自主完成任务,转向组织如何围绕它们来协调工作流程和劳动力。

    下一阶段是关于重新设计银行的组织结构,以便人类和自主代理能够在一个安全、无缝的环境中协同工作。与此同时,人工智能的演进速度正在超越传统的治理模式。

    挑战将是建立能够跟上步伐的敏捷治理和运营结构。组织将需要实时管理不断演变的自主系统,在捕获新价值的同时保持强大而一致的风险态势。

    TL: 我预计关于“聊天机器人与代理”的辩论会显得过时,而代理能力将日益被视为理所当然。但我想更进一步说:人工智能可以完全取代人工客服的观点也会显得过时。

    很少有企业因为人工智能而真正减少了客服人员,一些行动过于激进的公司已经开始逆转方向。完全无人客服的愿景将被悄然搁置。

    取而代之的将是关于生产准备情况的更务实的讨论。真正的工作涉及流程规划、建立治理和构建运营基础,这些工作很少成为头条新闻。这听起来不那么光鲜,但这才是创造持久价值的地方。

    在客户体验领域,讨论将从将自主性作为头条特性,转向生产准备情况:准确性、控制、合规性和运营弹性。这些是最终决定人工智能是否能带来持久价值的因素。

    最终胜出的公司,不会是那些拥有最令人印象深刻演示的公司,而是那些能够在规模化、生产环境中、受监管的环境下、跨多种语言可靠部署,并能向审计员准确解释其人工智能如何做出决策的公司。

    BW: 那个会显得过时的话题是,作为一个独立辩论,对“哪个模型最好”的痴迷——模型A与模型B的比较、参数数量、排行榜追逐。

    18个月后,真正的竞争优势将在于编排和保障:企业如何管理模型和代理的集群;如何持续验证输出;如何防止由代理驱动的安全事件;以及如何跨越供应商、司法管辖区和关键系统来治理自主性。

    取而代之的新挑战将是规模化自主工作流程的可靠性和安全性(代理式网络风险)、权限管理、可审计性和弹性,以及维持人工智能增长所需的电力、冷却和电网整合的物理现实。

    如果我们做对了,新加坡可以不仅仅是人工智能的使用者——我们可以成为该地区可信赖人工智能基础设施的参考典范,并得到国家重大投资和治理领导力的支持。

    Decoding Asia newsletter: your guide to navigating Asia in a new global order. Sign up here to get Decoding Asia newsletter. Delivered to your inbox. Free.

    此翻译对您是否有帮助?

    Copyright SPH Media. All rights reserved.