Skip to content

談談聊天機械人與人工智能


2023年5月


由大型的語言模組提供支援的聊天機械人能夠生成實時、達到真人質量的答案和內容,這是人工智能(「AI」)領域的最新突破。想要撰寫電子郵件、講辭或文章嗎?想有關內容包括特定的語氣,要嚴肅或輕鬆的,包括笑話或嚴厲警告嗎?請聊天機械人去做吧。透過使用深度學習,聊天機械人將在幾秒間內處理數百萬位元組的數據和文字,並在此過程中自我學習,為你提供所需的內容。這就像你在和一個真人對話,只是那人具有超能力的大腦。

與其他引人注目的科技進步(想想加密貨幣、區塊鏈和視像通話)一樣,最新一代的聊天機械人的推出也伴隨著誇張的說法,例如它們將如何永遠改變我們的生活。以前需要運用人類智能幾分鐘、幾小時甚至幾天才能完成的工作,現在人工智能可以更快、更準確地完成,看來沒有一個行業可以免受其影響所動搖。我們都需要為(又一個)新常態作好準備。

在本期《監管通訊》中,我們對保險理賠的處理進行了很多(人性化)的思考。所以我們問一個聊天機械人:你(一個聊天機械人)能否改進保險理賠處理的流程? 

它說:「可以」,並附上以下示例:

  1. 更快的理賠處理:聊天機械人可以快速處理大量申索,所需時間僅為人類員工的一小部分。憑藉其自然語言處理(NLP)功能,聊天機械人可以快速從客戶那裡獲取必要的資料、對其進行驗證,並啟動理賠處理程序。
  2. 24/7工作:與有工作時間限制的人類員工不同,聊天機械人可以24/7全天候提供客戶支援。這意味著客戶可以在白天或晚上的任何時間提出申索,並收到聊天機械人的快速回應。
  3. 減少錯誤和欺詐:可以訓練聊天機械人識別欺詐性申索並標記它們,以供進一步審視。此外,聊天機械人可以確保準確一致地收集所有資料,從而減少真人代理的錯誤。
  4. 改善客戶體驗:通過提供快速高效的理賠處理,聊天機械人可以改善客戶的整體體驗。使用聊天機械人,客戶可以輕鬆地在網上提交申索,而無需等待或瀏覽複雜的電話選單。

總體而言,聊天機械人可以簡化保險理賠處理程序,使保險人和客戶能有更有效、更快捷的體驗。

就是這樣了!

當你在輸入問題後的幾秒鐘內就看到答案出現時,你就會感覺到這些聊天機械人有多麼優秀。然而,這股熱潮並非全然正面的。科技億萬富翁伊隆·馬斯克(Elon Musk)認為人工智能可能是人類文明面臨的最大風險之一。關於可能被淘汰的工作崗位數量的猜測也比比皆是。

法律專業人士(正如律師經常作出)已經指出了這些聊天機械人帶來的許多法律難題。如果文學作品的版權屬於作者,那麼聊天機械人創作的內容的版權屬於誰?畢竟,聊天機械人並不是法人。誰要對聊天機械人的輸出所造成的任何損失或損害履行責任、問責和承擔責任?對保密和個人資料的影響又如何呢?如果用戶將個人資料作為聊天機械人問題的一部分輸入,該等數據將會如何使用和儲存(例如,會否將其用於回答第一個問題,然後作為聊天機械人深度學習的一部分,再使用來改進未來的內容)?然後是網絡安全問題,因為這些聊天機械人既可以用於正當的目的,也可以用於邪惡的目的。這種可以產生講辭的相同生成能力,也可以創建措辭完美的電子郵件或可信的網站內容,作為詐騙的一部分。 

保險業監管局(「保監局」)等監管機構還需要考慮如何解決這些聊天機械人若在其監管的行業中獲使用時所帶來的風險。有鑑於創新科技的發展速度,這當然是值得考慮的。 

人們可以看到這些聊天機械人如何用於提高金融知識和教育,讓每個智能手機用戶都可以輕鬆獲得多層次的答案。然而,答案的準確程度(以及其可靠程度)將成為爭議點。(已經有過傳聞的例子,見到這些聊天機械人杜撰出虛構的事實)。

作為監管機構,我們的方向可能是將現行監管框架中的現有標準和原則作為起點,並考慮其應用方式。 

如果保險人決定要在保險流程中就使用聊天機械人,保監局的《企業風險管理指引》(《指引21》)將要求保險人評估與其在特定環境中使用的所有相關風險。當然,在推出之前必須進行綜合測試(在嚴格的管治管控下)。保險人需要明確披露聊天機械人的局限性、應該如何使用它、訓練它的數據以及這些數據的儲存、使用方式和保存時間。在整個推出過程中,還需要採取適當的風險緩解措施、持續監察、匯報管控和應急計劃。保險人需要仔細考慮保監局的《網絡安全指引》(《指引20》)中的標準和原則的應用,以及如何符合這些標準和原則。此外,如果所使用的聊天機械人是由外部服務供應商提供或主理的,則需要考慮如何應用《外判指引》(《指引14》)。

將《保險業條例》(第41章)(《該條例》)下的「受規管活動」制度應用於這些新形式的聊天機械人會引發更具挑戰性的問題。例如,如果保險人或保險中介人在提供「受規管活動」時使用聊天機械人,但出現了問題,他們會否嘗試聲稱「這不是我的意見,是聊天機械人的意見」?對此,監管方的回應將會是明確地說:「想都別想!」,與「受規管活動」相關的義務和責任將適用於使用聊天機械人的法人(即根據《該條例》獲得牌照和授權的個人和公司),而不是聊天機械人本身(它只是一個軟件、一項權利,並由有關的保險人或保險中介人所運用)。因此,聊天機械人的回應將由使用它的保險人或保險中介人負責。這正是為什麼保險人,除了其他事宜外,還必須特別注意外判、風險管理和網絡安全的指引,以及經紀公司或代理機構必須遵守《持牌保險代理人操守守則》和《持牌保險經紀操守守則》第IX節規定的公司管治的要求。

然而,在這些聊天機械人的背景下,「受規管活動」制度的潛在應用凸顯了人工智能的一個更深層次的哲學問題。正如每名個人持牌保險中介人都知道的那樣,在進行「受規管活動」時,他必須遵守《該條例》第90條中的操守規定。這些操守規定是行為的道德原則,例如誠實和持正、公平對待客戶,並以客戶的最佳利益行事。應用這些行為道德原則需要保險中介人運用判斷力,以在特定情況下和所服務的特定保單持有人的特定利益下,來辨別何為提供「正確」的處理方式或意見。 

人工智能(至少在目前的發展中)是否能夠進行這種道德判斷?這當然是值得懷疑的。聊天機械人(以及整體的人工智能而言)不是具有自我意識、情感、感情、同理心或人類直覺的人。它沒有內在的是非感。通過輸入的方式提出一個道德問題,聊天機械人會像數學方程式一樣解決它,通過它的數據集來計算出適用於這種情況的社會規範,從中辨別是非之間存在的複雜分界線,然後將其應用於問題中。然後它會呈現一個答案(就像數學問題的解決方案),它會非常自信地宣布這個答案是正確的答案。 

然而,現實世界 - 人類需要管理他們、他們的家庭和業務面臨的日常風險 - 並不總是以這種「非黑即白」的方式運作。根據客戶未來的意向,可能會有不同的保險選項供客戶選擇。這些選項都不可能是完美的;每一種都有利有弊,需要權衡輕重。因此,每個選項都應以其優點和缺點共同展示,以便可以對其進行討論和考慮,並且讓客戶可以作出充分知情的決定(這是公平對待客戶的目標)。

此外,人工智能聊天機械人依賴於輸入 - 即被提問的問題。但是,僅通過此類輸入是否可以掌握到客戶情況的完整背景?坐在客戶面前、並與客戶談論一般生活的真人經紀或代理,可能會根據其觀察和直覺,察覺到該等可能遺漏了東西。 

換句話說,在人工智能的計算、數據主導方法中,是試圖將人類視為抽象概念,而不是人類 - 即視其為可以從中得出單一快捷的結論的數據點集合。歷史告訴我們,當人類被視為抽象概念,即僅僅被視為電子表格上的數字時,人性的結果永遠都不會是正面的。 

歸根結底,道德判斷與人類的具同理心的能力,以及這種能力驅動和產生的依賴感和信任感,是(部分)交織在一起的。與潛在客戶建立信任意味著在客戶眼中採取正確的行動並做好事(並且成為一個好和值得信賴的人),這涉及了解挑戰 - 非常人性化的挑戰 - 即客戶每天在照顧健康、教育方面面臨的挑戰,以及他的家庭或業務的其他需要。人工智能有能力做到這一點嗎?或許,只有人類才能真正具有人類同理心 - 設身處地為人類客戶著想,從而真正理解並為他的最佳利益行事?

這些都是需要提出的問題,特別是在基於行為道德原則的監管制度的背景下。

也許,正是由於這些尚未得到解答的問題,令一種強而有力的想法出現,並主張人工智能應該是用於增強而不是取代人類的能力。例如,人工智能可用於產生被視為建議的輸出內容,然後人類用戶可以在作出最終決定之前,加上他自己的觀察所得。此外,雖然人工智能可能有其缺點,但事實是,人類的判斷也絕非完美。在作出道德判斷時,一個人作出一些按照任何道德標準也顯然是錯誤的事情,這也是發生過的,但那個人也會說服自己,說這樣做是出於正確的原因(從而證明這種行為是正當的)。這種扭曲的心態是保監局收到的許多紀律行動個案的核心。人工智能的計算方法是否可以通過毫不含糊地提示人類,他打算做(並尋求自我辯護)的事情顯然是錯誤的,從而在這種「道德衰退」發生之前糾正人類? 

在人工智能被用來增強而不是取代人類判斷的世界中,在提供服務時使用聊天機械人的人類用戶,仍然對這些服務履行責任、問責並承擔最終責任。那麼,在考慮如何使用聊天機械人時,將取決於保險人和保險中介人,而不是僅僅考慮客戶購買保險的速度。相反,保險人或中介人必須確保公平對待客戶、誠實和持正、以客戶的最佳利益行事,並使客戶能夠作出充分知情的決定等原則得到維護。一直以來就應該是這樣!

本文中表達的觀點僅代表一位作者(而不是保監局),但保險業的技術發展無疑是保監局全體都一直關注的問題。我們當然歡迎讀者就此主題提出意見和觀點。