2023年5月
由大型的语言模组提供支援的聊天机械人能够生成实时、达到真人质量的答案和内容,这是人工智能(「AI」)领域的最新突破。想要撰写电子邮件、讲辞或文章吗?想有关内容包括特定的语气,要严肃或轻松的,包括笑话或严厉警告吗?请聊天机械人去做吧。透过使用深度学习,聊天机械人将在几秒间内处理数百万位元组的数据和文字,并在此过程中自我学习,为你提供所需的内容。这就像你在和一个真人对话,只是那人具有超能力的大脑。
与其他引人注目的科技进步(想想加密货币、区块链和视像通话)一样,最新一代的聊天机械人的推出也伴随着夸张的说法,例如它们将如何永远改变我们的生活。以前需要运用人类智能几分钟、几小时甚至几天才能完成的工作,现在人工智能可以更快、更准确地完成,看来没有一个行业可以免受其影响所动摇。我们都需要为(又一个)新常态作好准备。
在本期《监管通讯》中,我们对保险理赔的处理进行了很多(人性化)的思考。所以我们问一个聊天机械人:你(一个聊天机械人)能否改进保险理赔处理的流程?
它说:「可以」,并附上以下示例:
总体而言,聊天机械人可以简化保险理赔处理程序,使保险人和客户能有更有效、更快捷的体验。
就是这样了!
当你在输入问题后的几秒钟内就看到答案出现时,你就会感觉到这些聊天机械人有多么优秀。然而,这股热潮并非全然正面的。科技亿万富翁伊隆·马斯克(Elon Musk)认为人工智能可能是人类文明面临的最大风险之一。关于可能被淘汰的工作岗位数量的猜测也比比皆是。
法律专业人士(正如律师经常作出)已经指出了这些聊天机械人带来的许多法律难题。如果文学作品的版权属于作者,那么聊天机械人创作的内容的版权属于谁?毕竟,聊天机械人并不是法人。谁要对聊天机械人的输出所造成的任何损失或损害履行责任、问责和承担责任?对保密和个人资料的影响又如何呢?如果用户将个人资料作为聊天机械人问题的一部分输入,该等数据将会如何使用和储存(例如,会否将其用于回答第一个问题,然后作为聊天机械人深度学习的一部分,再使用来改进未来的内容)?然后是网络安全问题,因为这些聊天机械人既可以用于正当的目的,也可以用于邪恶的目的。这种可以产生讲辞的相同生成能力,也可以创建措辞完美的电子邮件或可信的网站内容,作为诈骗的一部分。
保险业监管局(「保监局」)等监管机构还需要考虑如何解决这些聊天机械人若在其监管的行业中获使用时所带来的风险。有鑑于创新科技的发展速度,这当然是值得考虑的。
人们可以看到这些聊天机械人如何用于提高金融知识和教育,让每个智能手机用户都可以轻松获得多层次的答案。然而,答案的准确程度(以及其可靠程度)将成为争议点。(已经有过传闻的例子,见到这些聊天机械人杜撰出虚构的事实)。
作为监管机构,我们的方向可能是将现行监管框架中的现有标准和原则作为起点,并考虑其应用方式。
如果保险人决定要在保险流程中就使用聊天机械人,保监局的《企业风险管理指引》(《指引21》)将要求保险人评估与其在特定环境中使用的所有相关风险。当然,在推出之前必须进行综合测试(在严格的管治管控下)。保险人需要明确披露聊天机械人的局限性、应该如何使用它、训练它的数据以及这些数据的储存、使用方式和保存时间。在整个推出过程中,还需要采取适当的风险缓解措施、持续监察、汇报管控和应急计划。保险人需要仔细考虑保监局的《网络安全指引》(《指引20》)中的标准和原则的应用,以及如何符合这些标准和原则。此外,如果所使用的聊天机械人是由外部服务供应商提供或主理的,则需要考虑如何应用《外判指引》(《指引14》)。
将《保险业条例》(第41章)(《该条例》)下的「受规管活动」制度应用于这些新形式的聊天机械人会引发更具挑战性的问题。例如,如果保险人或保险中介人在提供「受规管活动」时使用聊天机械人,但出现了问题,他们会否尝试声称「这不是我的意见,是聊天机械人的意见」?对此,监管方的回应将会是明确地说:「想都别想!」,与「受规管活动」相关的义务和责任将适用于使用聊天机械人的法人(即根据《该条例》获得牌照和授权的个人和公司),而不是聊天机械人本身(它只是一个软件、一项权利,并由有关的保险人或保险中介人所运用)。因此,聊天机械人的回应将由使用它的保险人或保险中介人负责。这正是为什么保险人,除了其他事宜外,还必须特别注意外判、风险管理和网络安全的指引,以及经纪公司或代理机构必须遵守《持牌保险代理人操守守则》和《持牌保险经纪操守守则》第IX节规定的公司管治的要求。
然而,在这些聊天机械人的背景下,「受规管活动」制度的潜在应用凸显了人工智能的一个更深层次的哲学问题。正如每名个人持牌保险中介人都知道的那样,在进行「受规管活动」时,他必须遵守《该条例》第90条中的操守规定。这些操守规定是行为的道德原则,例如诚实和持正、公平对待客户,并以客户的最佳利益行事。应用这些行为道德原则需要保险中介人运用判断力,以在特定情况下和所服务的特定保单持有人的特定利益下,来辨别何为提供「正确」的处理方式或意见。
人工智能(至少在目前的发展中)是否能够进行这种道德判断?这当然是值得怀疑的。聊天机械人(以及整体的人工智能而言)不是具有自我意识、情感、感情、同理心或人类直觉的人。它没有内在的是非感。通过输入的方式提出一个道德问题,聊天机械人会像数学方程式一样解决它,通过它的数据集来计算出适用于这种情况的社会规范,从中辨别是非之间存在的复杂分界线,然后将其应用于问题中。然后它会呈现一个答案(就像数学问题的解决方案),它会非常自信地宣布这个答案是正确的答案。
然而,现实世界 - 人类需要管理他们、他们的家庭和业务面临的日常风险 - 并不总是以这种「非黑即白」的方式运作。根据客户未来的意向,可能会有不同的保险选项供客户选择。这些选项都不可能是完美的;每一种都有利有弊,需要权衡轻重。因此,每个选项都应以其优点和缺点共同展示,以便可以对其进行讨论和考虑,并且让客户可以作出充分知情的决定(这是公平对待客户的目标)。
此外,人工智能聊天机械人依赖于输入 - 即被提问的问题。但是,仅通过此类输入是否可以掌握到客户情况的完整背景?坐在客户面前、并与客户谈论一般生活的真人经纪或代理,可能会根据其观察和直觉,察觉到该等可能遗漏了东西。
换句话说,在人工智能的计算、数据主导方法中,是试图将人类视为抽象概念,而不是人类 - 即视其为可以从中得出单一快捷的结论的数据点集合。历史告诉我们,当人类被视为抽象概念,即仅仅被视为电子表格上的数字时,人性的结果永远都不会是正面的。
归根结底,道德判断与人类的具同理心的能力,以及这种能力驱动和产生的依赖感和信任感,是(部分)交织在一起的。与潜在客户建立信任意味着在客户眼中采取正确的行动并做好事(并且成为一个好和值得信赖的人),这涉及了解挑战 - 非常人性化的挑战 - 即客户每天在照顾健康、教育方面面临的挑战,以及他的家庭或业务的其他需要。人工智能有能力做到这一点吗?或许,只有人类才能真正具有人类同理心 - 设身处地为人类客户着想,从而真正理解并为他的最佳利益行事?
这些都是需要提出的问题,特别是在基于行为道德原则的监管制度的背景下。
也许,正是由于这些尚未得到解答的问题,令一种强而有力的想法出现,并主张人工智能应该是用于增强而不是取代人类的能力。例如,人工智能可用于产生被视为建议的输出内容,然后人类用户可以在作出最终决定之前,加上他自己的观察所得。此外,虽然人工智能可能有其缺点,但事实是,人类的判断也绝非完美。在作出道德判断时,一个人作出一些按照任何道德标准也显然是错误的事情,这也是发生过的,但那个人也会说服自己,说这样做是出于正确的原因(从而证明这种行为是正当的)。这种扭曲的心态是保监局收到的许多纪律行动个案的核心。人工智能的计算方法是否可以通过毫不含糊地提示人类,他打算做(并寻求自我辩护)的事情显然是错误的,从而在这种「道德衰退」发生之前纠正人类?
在人工智能被用来增强而不是取代人类判断的世界中,在提供服务时使用聊天机械人的人类用户,仍然对这些服务履行责任、问责并承担最终责任。那么,在考虑如何使用聊天机械人时,将取决于保险人和保险中介人,而不是仅仅考虑客户购买保险的速度。相反,保险人或中介人必须确保公平对待客户、诚实和持正、以客户的最佳利益行事,并使客户能够作出充分知情的决定等原则得到维护。一直以来就应该是这样!
本文中表达的观点仅代表一位作者(而不是保监局),但保险业的技术发展无疑是保监局全体都一直关注的问题。我们当然欢迎读者就此主题提出意见和观点。