Makineleri seviyoruz. Navigasyon sistemimizi kullanarak yerlere gidiyoruz ve seyahat, restoranlar ve potansiyel yaşam partnerleri hakkında önerileri dikkatlice değerlendiriyoruz, çünkü algoritmaların bizim yapabileceğimizden daha iyi şekilde hoşlanabileceğimiz fırsatları belirleyebileceğini biliyoruz. Ancak sağlık, işimiz veya çocuklarımız gibi son kararlar söz konusu olduğunda, AI'ya sizin adınıza hareket etmesi için güvenip güvenmeyecek misiniz? Muhtemelen hayır.
Bu yüzden (FP) Kavya Pearlman (KP) ile konuşuyoruz, XRSI'nin Kurucusu ve CEO'su, insanların ve üssel teknolojilerin etkileşimiyle ilgili riskleri ele almak ve azaltmak için bir araya getirdiği X-Reality Güvenlik İstihbarat grubudur. Kendisi elbette ABD'nin Batı Kıyısı'nda yaşıyor. Bu bizim değişimimiz.
FP. AI'nin ortaya çıkmasıyla neler oluyor?
KP. Yıllardır teknoloji şirketleri, en değerli varlığımız olan verimizi dijital kolaylıklar karşılığında vermemiz gerektiği fikrini normalleştirdi. Sorular sormadan her zaman "kabul et" butonuna tıklıyoruz. Artık giyilebilir teknolojilerin ve 𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬'in yükselmesiyle, riskler çok daha yüksek. Artık sadece tarayıcı geçmişi veya konum verisi ile ilgili değil. Şirketler, kalp ritimlerinden ve 𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲'den 𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬'e kadar bedenlerimizden ve zihinlerimizden içgörüler topluyor. Ve hâlâ, neredeyse hiç kimse sormuyor: 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?
Bu sadece bir teknik zorluk değil. Bu bir yönetim zorluğu ve özünde bir 𝐭𝐫𝐮𝐬𝐭 meselesi. Şeffaflık ve hesap verebilirlik olmadan, yapay zeka gizli önyargıları artırma, güveni erozyona uğratma ve sistemler yanlış yaptığında insanları çareden mahrum bırakma riski taşır. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.
FP. Gerçekten bunu yapabilen, şeffaflık ve hesap verebilirlik sağlayan bir sistem yaratabilir misin?
KP. İsterseniz yapabilirsiniz. Örneğin, 𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝ını yeni başlattık. Bu, AI ve giyilebilir teknolojiler için somut koruma çerçeveleri sağlar; veri kullanımına dair net politikalar, AI çıktılarının yönetimi için protokoller ve bunların kalitesini sağlamaya yönelik, kararların bir kara kutuda gizlenmediğini açıklığa kavuşturan loglar, bireyleri sınırlar ötesinde korumak için küresel düzenlemelerle uyum sağlama gibi konular içerir.
FP. Bir şirket neden bu standartları benimsemelidir?
KP. Bunu yapma teşvikine sahipler, çünkü dışarıdaki tüketiciler ve hayranlar, kimin ciddi kimin olmadığını bilecek. Standartlara uyan organizasyonlar kolayca tanımlanabilir. AI sadece daha akıllı modellere ihtiyaç duymuyor; daha akıllı yönetişime de ihtiyaç var. Çünkü güven otomatik değildir. Sorumlu veri yönetimi ile kazanılır, sürdürülür ve korunur. Soru artık "AI bunu yapabilir mi?" değil, "bunun yapılma şekline güvenebilir miyiz?"
FP. Güven otomatik değildir ve tüketicilerin yararı, insani değerlerle uyumlu olarak, bu ya da şu modelin amacı olmayabilir. Kamu ve özel işletmelerde tanınan yeni standartlara ihtiyacımız var. XRSI gibi gruplar bunun üzerinde çalışıyor. Anlayış, rehberlik, etiketleme, ölçme vb. için doğru zaman şimdi.
Frank Pagano tarafından
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Yapay zekaya tamamen güvenebilir miyiz? Hayır, ama onu izleyebiliriz.
Makineleri seviyoruz. Navigasyon sistemimizi kullanarak yerlere gidiyoruz ve seyahat, restoranlar ve potansiyel yaşam partnerleri hakkında önerileri dikkatlice değerlendiriyoruz, çünkü algoritmaların bizim yapabileceğimizden daha iyi şekilde hoşlanabileceğimiz fırsatları belirleyebileceğini biliyoruz. Ancak sağlık, işimiz veya çocuklarımız gibi son kararlar söz konusu olduğunda, AI'ya sizin adınıza hareket etmesi için güvenip güvenmeyecek misiniz? Muhtemelen hayır.
Bu yüzden (FP) Kavya Pearlman (KP) ile konuşuyoruz, XRSI'nin Kurucusu ve CEO'su, insanların ve üssel teknolojilerin etkileşimiyle ilgili riskleri ele almak ve azaltmak için bir araya getirdiği X-Reality Güvenlik İstihbarat grubudur. Kendisi elbette ABD'nin Batı Kıyısı'nda yaşıyor. Bu bizim değişimimiz.
FP. AI'nin ortaya çıkmasıyla neler oluyor?
KP. Yıllardır teknoloji şirketleri, en değerli varlığımız olan verimizi dijital kolaylıklar karşılığında vermemiz gerektiği fikrini normalleştirdi. Sorular sormadan her zaman "kabul et" butonuna tıklıyoruz. Artık giyilebilir teknolojilerin ve 𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬'in yükselmesiyle, riskler çok daha yüksek. Artık sadece tarayıcı geçmişi veya konum verisi ile ilgili değil. Şirketler, kalp ritimlerinden ve 𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲'den 𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬'e kadar bedenlerimizden ve zihinlerimizden içgörüler topluyor. Ve hâlâ, neredeyse hiç kimse sormuyor: 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?
Bu sadece bir teknik zorluk değil. Bu bir yönetim zorluğu ve özünde bir 𝐭𝐫𝐮𝐬𝐭 meselesi. Şeffaflık ve hesap verebilirlik olmadan, yapay zeka gizli önyargıları artırma, güveni erozyona uğratma ve sistemler yanlış yaptığında insanları çareden mahrum bırakma riski taşır. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.
FP. Gerçekten bunu yapabilen, şeffaflık ve hesap verebilirlik sağlayan bir sistem yaratabilir misin?
KP. İsterseniz yapabilirsiniz. Örneğin, 𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝ını yeni başlattık. Bu, AI ve giyilebilir teknolojiler için somut koruma çerçeveleri sağlar; veri kullanımına dair net politikalar, AI çıktılarının yönetimi için protokoller ve bunların kalitesini sağlamaya yönelik, kararların bir kara kutuda gizlenmediğini açıklığa kavuşturan loglar, bireyleri sınırlar ötesinde korumak için küresel düzenlemelerle uyum sağlama gibi konular içerir.
FP. Bir şirket neden bu standartları benimsemelidir?
KP. Bunu yapma teşvikine sahipler, çünkü dışarıdaki tüketiciler ve hayranlar, kimin ciddi kimin olmadığını bilecek. Standartlara uyan organizasyonlar kolayca tanımlanabilir. AI sadece daha akıllı modellere ihtiyaç duymuyor; daha akıllı yönetişime de ihtiyaç var. Çünkü güven otomatik değildir. Sorumlu veri yönetimi ile kazanılır, sürdürülür ve korunur. Soru artık "AI bunu yapabilir mi?" değil, "bunun yapılma şekline güvenebilir miyiz?"
FP. Güven otomatik değildir ve tüketicilerin yararı, insani değerlerle uyumlu olarak, bu ya da şu modelin amacı olmayabilir. Kamu ve özel işletmelerde tanınan yeni standartlara ihtiyacımız var. XRSI gibi gruplar bunun üzerinde çalışıyor. Anlayış, rehberlik, etiketleme, ölçme vb. için doğru zaman şimdi.
Frank Pagano tarafından