🎤 爲偶像應援 · Gate送你直達 Token of Love! 🎶
家人們,現在在Gate廣場爲 打 Token of Love CALL,20 張音樂節門票等你來瓜分!🔥
泫雅 / SUECO / DJ KAKA / CLICK#15 —— 你最期待誰?快來一起應援吧!
📌 參與方式(任選,參與越多中獎幾率越高!)
1️⃣ 本帖互動
點讚 & 轉發本帖 + 投票你最愛的藝人
評論區打出 “我在 Gate 廣場爲 Token of Love 打 Call !”
2️⃣ 廣場發帖爲 TA 打 Call
帶上 #歌手名字# + #TokenOfLove#
發帖內容任選:
🎵 最想現場聽到的歌 + 心情宣言
📣 應援口號(例:泫雅女王衝鴨!Gate廣場全員打 Call!)
😎 自制表情包/海報/短視頻(加分項,更容易中獎!)
3️⃣ 推特 / 小紅書發帖打 Call
同樣帶上 #歌手名字# + #TokenOfLove#
內容同上,記得回鏈到表單 👉️ https://www.gate.com/questionnaire/7008
🎟️ 獎勵安排
廣場優質發帖用戶:8張門票
廣場幸運互動用戶:2張門票
Twitter 優質發帖用戶:5張門票
小紅書優質發帖用戶:5張門票
📌 優質帖文將根據文章豐富度、熱度、創意度綜合評分,禁止小號水貼,原創發帖更易獲獎!
🕒 8
我們可以完全信任人工智能嗎?不,但我們可以監控它
我們熱愛機器。我們關注我們的導航系統去往各個地方,並仔細評估關於旅行、餐廳和終身伴侶的推薦,跨越各種應用程序和網站,因爲我們知道算法能夠比我們更好地發現我們可能喜歡的機會。但是,當涉及到關於健康、工作或孩子的最終決策時,例如,你會信任並委托人工智能代表你行動嗎?可能不會。
這就是爲什麼我們 (FP) 與 Kavya Pearlman (KP) 交談,她是 XRSI 的創始人兼首席執行官,這個集團是她組建的 X-Reality Safety Intelligence,旨在應對和減輕人類與指數技術之間互動的風險。她當然位於美國西海岸。這是我們的交流
FP. 人工智能的出現有什麼新動向?
KP。多年來,科技公司已經使我們習慣於必須放棄我們最寶貴的資產——我們的數據,以換取數字便利。我們總是點擊“接受”,從不提問。現在,隨着可穿戴設備和𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬的興起,風險變得更高。現在不僅僅是瀏覽歷史或位置信息。公司正在從我們的身體和思想中提取洞察,從心律和𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲到𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬。然而,幾乎沒有人問:𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚?𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦?𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?
這不僅僅是一個技術挑戰。這是一個治理挑戰,核心是信任的問題。如果沒有透明度和問責制,人工智能有風險放大隱性偏見,侵蝕信任,並當系統出錯時使人們無處可去。信任不能存在,如果我們不知道數據是如何被收集的,如何被使用,或者決策是如何做出的。
FP. 你真的能創建一個做到這一點的系統嗎,透明性和問責制?
KP. 如果你想的話,可以的。舉個例子,我們剛剛推出了我們的𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝。它爲人工智能和可穿戴技術提供了具體的保護框架,包括關於數據可以和不能使用的明確政策、管理人工智能輸出的協議,以及確保其質量的可解釋性日志,以便決策不被隱藏在黑箱中,與全球法規的一致性以保護跨境個人,等等。
FP. 爲什麼公司應該採納這些標準?
KP。他們確實有動力這樣做,因爲消費者和粉絲會知道誰是認真的,誰不是。符合標準的組織可以被輕鬆識別。AI不僅需要更聰明的模型;它還需要更聰明的治理。因爲信任並不是自然而然的。它是通過負責任的數據治理來獲得、維持和保護的。問題不再是“AI能做到嗎?”而是“我們能信任它是如何做到的嗎?”
FP. 信任不是自動的,消費者的利益與人類價值觀相一致,不一定是這個或那個模型的目標。我們需要新的標準,在公共和私營企業中得到認可。像XRSI這樣的組織正在爲此而努力。理解、指導、標記、測量等的正確時機就是現在。
弗蘭克·帕加諾