هل يمكننا الوثوق بالذكاء الاصطناعي تمامًا؟ لا، ولكن يمكننا مراقبته

robot
إنشاء الملخص قيد التقدم

نحن نحب الآلات. نتبع نظام الملاحة الخاص بنا للذهاب إلى الأماكن، ونقيم بعناية التوصيات حول السفر، والمطاعم، والشركاء المحتملين لحياة كاملة، عبر مختلف التطبيقات والمواقع، حيث نعلم أن الخوارزميات يمكن أن تكتشف الفرص التي قد تعجبنا، أفضل مما يمكننا أن نفعل. ولكن عندما يتعلق الأمر بالقرارات النهائية حول الصحة، أو عملنا أو أطفالنا، على سبيل المثال، هل ستثق وتوكِل الذكاء الاصطناعي للعمل نيابة عنك؟ ربما لا.

هذا هو السبب في أننا (FP) نتحدث إلى كافيا بيرلمان (KP)، المؤسس والرئيس التنفيذي في XRSI، وهي مجموعة ذكاء السلامة X-Reality التي وضعتها لمعالجة وتخفيف المخاطر في التفاعل بين البشر والتقنيات المتزايدة. وهي تقيم بالطبع على الساحل الغربي للولايات المتحدة. هذا هو تبادلنا

FP. ماذا يحدث مع ظهور الذكاء الاصطناعي؟

KP. على مدار سنوات، قامت شركات التكنولوجيا بتطبيع فكرة أنه يجب علينا التخلي عن أغلى أصولنا، بياناتنا، مقابل الراحة الرقمية. نحن دائماً نضغط على "قبول" دون أن نطرح أسئلة. الآن، مع صعود الأجهزة القابلة للارتداء و𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬، stakes أعلى بكثير. لم يعد الأمر يتعلق بسجل التصفح أو بيانات الموقع. تقوم الشركات بجمع رؤى من أجسادنا وعقولنا، من إيقاعات القلب و𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲 إلى 𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬. ومع ذلك، لا يسأل أحد تقريباً: 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚؟ 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦؟ 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝؟

هذه ليست مجرد تحدٍ تقني. إنها تحدٍ في الحوكمة وفي جوهرها، سؤال حول 𝐭𝐫𝐮𝐬𝐭. بدون الشفافية والمساءلة، تخاطر الذكاء الاصطناعي بتضخيم التحيزات الخفية، وتآكل الثقة، وترك الناس بدون وسيلة للتعويض عندما تخطئ الأنظمة. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥، 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥، 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.

FP. هل يمكنك حقًا إنشاء نظام يفعل ذلك، الشفافية والمساءلة؟

KP. يمكنك، إذا أردت ذلك. كمثال، لقد أطلقنا للتو 𝐇𝐞𝐥𝐩𝐟𝐮𝐥 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 (𝐑𝐃𝐆) 𝐬𝐭𝐚𝐧𝐝𝐚𝐫𝐝. يوفر حواجز ملموسة لتقنيات الذكاء الاصطناعي والأجهزة القابلة للارتداء، بما في ذلك سياسات واضحة حول ما يمكن وما لا يمكن استخدامه من البيانات، بروتوكولات لإدارة مخرجات الذكاء الاصطناعي وضمان جودتها، سجلات الشرح حتى لا تكون القرارات مخفية في صندوق أسود، التوافق مع اللوائح العالمية لحماية الأفراد عبر الحدود، وهكذا.

FP. لماذا ينبغي على الشركة اعتماد هذه المعايير؟

KP. لديهم الدافع لفعل ذلك، حيث يعرف المستهلكون والمعجبون من هو الجاد ومن ليس كذلك. يمكن التعرف بسهولة على المنظمات التي تلبي المعايير. لا تحتاج الذكاء الاصطناعي فقط إلى نماذج أكثر ذكاءً؛ بل تحتاج إلى حوكمة أكثر ذكاءً. لأن الثقة ليست تلقائية. يتم كسبها والحفاظ عليها وحمايتها من خلال حوكمة البيانات المسؤولة. السؤال لم يعد "هل يمكن للذكاء الاصطناعي فعل ذلك؟" بل "هل يمكننا الوثوق بالطريقة التي يتم بها ذلك؟"

FP. الثقة ليست تلقائية ومنفعة المستهلكين، بما يتماشى مع القيم الإنسانية، قد لا تكون بالضرورة هدف هذا أو ذاك النموذج. نحتاج إلى معايير جديدة، معترف بها عبر المؤسسات العامة والخاصة. مجموعات مثل XRSI تعمل على ذلك. الوقت المناسب لفهم، وإرشاد، ووضع علامات، وقياس، إلخ... هو الآن

بواسطة فرانك باغانو

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت