我們可以完全信任人工智能嗎?不,但我們可以監控它

robot
摘要生成中

我們熱愛機器。我們關注我們的導航系統去往各個地方,並仔細評估關於旅行、餐廳和終身伴侶的推薦,跨越各種應用程序和網站,因爲我們知道算法能夠比我們更好地發現我們可能喜歡的機會。但是,當涉及到關於健康、工作或孩子的最終決策時,例如,你會信任並委托人工智能代表你行動嗎?可能不會。

這就是爲什麼我們 (FP) 與 Kavya Pearlman (KP) 交談,她是 XRSI 的創始人兼首席執行官,這個集團是她組建的 X-Reality Safety Intelligence,旨在應對和減輕人類與指數技術之間互動的風險。她當然位於美國西海岸。這是我們的交流

FP. 人工智能的出現有什麼新動向?

KP。多年來,科技公司已經使我們習慣於必須放棄我們最寶貴的資產——我們的數據,以換取數字便利。我們總是點擊“接受”,從不提問。現在,隨着可穿戴設備和𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬的興起,風險變得更高。現在不僅僅是瀏覽歷史或位置信息。公司正在從我們的身體和思想中提取洞察,從心律和𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲到𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬。然而,幾乎沒有人問:𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚?𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦?𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?

這不僅僅是一個技術挑戰。這是一個治理挑戰,核心是信任的問題。如果沒有透明度和問責制,人工智能有風險放大隱性偏見,侵蝕信任,並當系統出錯時使人們無處可去。信任不能存在,如果我們不知道數據是如何被收集的,如何被使用,或者決策是如何做出的。

FP. 你真的能創建一個做到這一點的系統嗎,透明性和問責制?

KP. 如果你想的話,可以的。舉個例子,我們剛剛推出了我們的𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝。它爲人工智能和可穿戴技術提供了具體的保護框架,包括關於數據可以和不能使用的明確政策、管理人工智能輸出的協議,以及確保其質量的可解釋性日志,以便決策不被隱藏在黑箱中,與全球法規的一致性以保護跨境個人,等等。

FP. 爲什麼公司應該採納這些標準?

KP。他們確實有動力這樣做,因爲消費者和粉絲會知道誰是認真的,誰不是。符合標準的組織可以被輕鬆識別。AI不僅需要更聰明的模型;它還需要更聰明的治理。因爲信任並不是自然而然的。它是通過負責任的數據治理來獲得、維持和保護的。問題不再是“AI能做到嗎?”而是“我們能信任它是如何做到的嗎?”

FP. 信任不是自動的,消費者的利益與人類價值觀相一致,不一定是這個或那個模型的目標。我們需要新的標準,在公共和私營企業中得到認可。像XRSI這樣的組織正在爲此而努力。理解、指導、標記、測量等的正確時機就是現在。

弗蘭克·帕加諾

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)