每日經濟新聞 2025-11-17 21:19:03
每經記者|趙景致 每經編輯|張益銘
人工智能的采用率正在上升,但信任仍是一個關鍵挑戰。
全球四大會計師事務所之一的畢馬威(KPMG)發布的最新數據顯示,相較于2022年ChatGPT發布前,如今AI(人工智能)普及率已經顯著提升,但憂慮情緒也隨之上升,全球僅46%受訪者愿意信任AI系統。
許多先進的人工智能模型被視為“黑箱”,即便是開發者也難以完全理解其決策邏輯。面對這種透明度缺失的情況,人們應如何建立對人工智能系統的信任?近日,《每日經濟新聞》記者(以下簡稱NBD)專訪了香港金融科技周籌辦商Finoverse首席執行官Anthony Sar。
NBD:許多先進的人工智能模型被視為“黑箱”,面對這種透明度缺失的情況,人們應如何建立對人工智能系統的信任?
Anthony Sar:大型語言模型的透明度仍未完全實現,即便對其創造者而言亦是如此。如今,人工智能不僅能預測文字,還能理解概念——這既賦予了它強大的能力,也帶來了相應風險。
建立信任需要強有力的人類監督、透明的數據使用以及企業級的測試。負責任的人工智能是能夠部署在安全地提升人類成果的領域,而非取代人類的判斷。
NBD:當人工智能系統出現嚴重錯誤(例如自動駕駛汽車引發事故、醫療人工智能給出誤診)時,該由誰為這一錯誤負責?
Anthony Sar:人工智能出現嚴重錯誤,其責任應由多方共同承擔。就像交通安全依賴于司機、行人及監管機構共同遵守規則一樣,負責任的人工智能需要開發者、部署者和用戶各自承擔明確的角色。
我們已經擁有監管復雜系統的框架,通過標準制定、測試和執行,這些框架同樣可以應用于人工智能領域。
NBD:隨著人工智能能力的快速提升,人們對其被惡意使用的擔憂日益加劇,甚至有人擔心人工智能可能變得無法控制,超出人類的監督范圍。您認為,這些是迫在眉睫的現實威脅,還是遙遠的科幻場景?人類社會應如何為人工智能的發展和使用劃定“紅線”,以應對其可能帶來的“災難性”或“生存性”風險?
Anthony Sar:與任何強大的技術一樣,人工智能既可用于造福人類,也可能被用于危害他人,就像核能一樣。人工智能可能在未來20年內超越人類能力,因此治理至關重要,必須確保技術發展的方向始終服務于人類福祉。
我們認為,靈活的、基于風險的治理模式是關鍵。需要注意的是,并非所有應用場景都存在相同程度的風險,在金融、醫療或公共安全等敏感領域,監管必須像對持證職業那樣嚴格,確保每一項決策都經過測試、驗證并明確問責。但在創意類或低風險應用場景中,應允許人工智能在清晰的倫理準則下更自由地發展。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP