每日經濟新聞
今日報紙

每經網首頁 > 今日報紙 > 正文

AI惹禍誰來擔責? Finoverse首席執行官:應由多方共同承擔

每日經濟新聞 2025-11-17 21:19:03

每經記者|趙景致    每經編輯|張益銘    

人工智能的采用率正在上升,但信任仍是一個關鍵挑戰。

全球四大會計師事務所之一的畢馬威(KPMG)發布的最新數據顯示,相較于2022年ChatGPT發布前,如今AI(人工智能)普及率已經顯著提升,但憂慮情緒也隨之上升,全球僅46%受訪者愿意信任AI系統。

許多先進的人工智能模型被視為“黑箱”,即便是開發者也難以完全理解其決策邏輯。面對這種透明度缺失的情況,人們應如何建立對人工智能系統的信任?近日,《每日經濟新聞》記者(以下簡稱NBD)專訪了香港金融科技周籌辦商Finoverse首席執行官Anthony Sar。

NBD:許多先進的人工智能模型被視為“黑箱”,面對這種透明度缺失的情況,人們應如何建立對人工智能系統的信任?

Anthony Sar:大型語言模型的透明度仍未完全實現,即便對其創造者而言亦是如此。如今,人工智能不僅能預測文字,還能理解概念——這既賦予了它強大的能力,也帶來了相應風險。

建立信任需要強有力的人類監督、透明的數據使用以及企業級的測試。負責任的人工智能是能夠部署在安全地提升人類成果的領域,而非取代人類的判斷。

NBD:當人工智能系統出現嚴重錯誤(例如自動駕駛汽車引發事故、醫療人工智能給出誤診)時,該由誰為這一錯誤負責?

Anthony Sar:人工智能出現嚴重錯誤,其責任應由多方共同承擔。就像交通安全依賴于司機、行人及監管機構共同遵守規則一樣,負責任的人工智能需要開發者、部署者和用戶各自承擔明確的角色。

我們已經擁有監管復雜系統的框架,通過標準制定、測試和執行,這些框架同樣可以應用于人工智能領域。

NBD:隨著人工智能能力的快速提升,人們對其被惡意使用的擔憂日益加劇,甚至有人擔心人工智能可能變得無法控制,超出人類的監督范圍。您認為,這些是迫在眉睫的現實威脅,還是遙遠的科幻場景?人類社會應如何為人工智能的發展和使用劃定“紅線”,以應對其可能帶來的“災難性”或“生存性”風險?

Anthony Sar:與任何強大的技術一樣,人工智能既可用于造福人類,也可能被用于危害他人,就像核能一樣。人工智能可能在未來20年內超越人類能力,因此治理至關重要,必須確保技術發展的方向始終服務于人類福祉。

我們認為,靈活的、基于風險的治理模式是關鍵。需要注意的是,并非所有應用場景都存在相同程度的風險,在金融、醫療或公共安全等敏感領域,監管必須像對持證職業那樣嚴格,確保每一項決策都經過測試、驗證并明確問責。但在創意類或低風險應用場景中,應允許人工智能在清晰的倫理準則下更自由地發展。

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

人工智能 VE Ai

歡迎關注每日經濟新聞APP

每經經濟新聞官方APP

0

0

免费阿v网站在线观看,九九国产精品视频久久,久热香蕉在线精品视频播放,欧美中文字幕乱码视频
亚洲AV香蕉精品一区二区三区 | 日本免费高清AⅤ乱码专区 亚洲欧美日韩少妇一区二区三区 | 性爽爽刺激视频午夜福利757 | 亚洲性爱女色在线视频 | 亚洲欧美日韩中文在线 | 在线观看免费播放AV片 |