تزداد المخاوف الأخلاقية بشأن دور Grok AI في الحكومة الأمريكية

إيلون ماسك’s Department of Government Efficiency (DOGE) قد قامت بهدوء بإطلاق نسخة معدلة من روبوت الدردشة Grok AI عبر الوكالات الفيدرالية، مما أثار القلق بشأن انتهاكات الخصوصية المحتملة وتضارب المصالح.

ذكرت رويترز أن ثلاثة مصادر داخل DOGE أفادوا أن الفريق كان يستخدم Grok لتصفية وتحليل البيانات الحكومية الحساسة، وإعداد تقارير ورؤى بسرعات تتجاوز الطرق التقليدية.

DOGE يتجاوز الأخلاقيات مع خطوة Grok AI

وفقًا لثلاثة مصادر مطلعة، قام مهندسو DOGE بتثبيت معلمات مخصصة على Grok، وهو روبوت محادثة أطلقته xAI التابعة لإيلون ماسك في أواخر عام 2023، لتسريع مراجعة البيانات وأتمتة كتابة التقارير.

"يقدمون لها مجموعات بيانات حكومية، يطرحون أسئلة معقدة، ويحصلون على ملخصات فورية."

مطلع.

أضاف مصدر آخر أن موظفي DOGE شجعوا موظفي وزارة الأمن الداخلي على استخدام Grok للتحليلات الداخلية على الرغم من أن الأداة تفتقر إلى موافقة رسمية من الوكالة.

ما هو غير واضح هو بالضبط ما هي المعلومات المصنفة أو المعلومات الشخصية القابلة للتحديد التي تم تحميلها إلى Grok أو مدى تدريبها بشكل كبير على السجلات الفيدرالية. إذا تم تضمين مواد حساسة، فقد يتعارض هذا الممارسة مع القوانين الفيدرالية المتعلقة بالخصوصية وقواعد تضارب المصالح.

يُحذر خمسة من خبراء الأخلاقيات والتكنولوجيا من أن هذا الوصول قد يمنح شركات ماسك رؤى غير متناسبة في بيانات التعاقد غير العامة وقد يساعد حتى في تحسين Grok نفسه لتحقيق مكاسب خاصة.

نظريًا، يجب على أي نموذج ذكاء اصطناعي تم تدريبه على مجموعات بيانات حكومية سرية التنقل عبر ضمانات قانونية صارمة. تتضمن بروتوكولات مشاركة البيانات عادةً موافقات متعددة وإشرافًا لمنع الكشف غير المصرح به.

من خلال التحايل على تلك الفحوصات، يخاطر DOGE بكشف تفاصيل شخصية لملايين الأمريكيين، وتسليم xAI كنزًا من المعلومات الواقعية غير المتاحة للمنافسين.

يدعي DOGE أن مهمته هي القضاء على الهدر والاحتيال وسوء الاستخدام. وقال متحدث باسم وزارة الأمن الداخلي لرويترز إن DOGE لم يضغط أبداً على الموظفين لتبني أي أداة معينة.

"نحن نركز على الكفاءة"، قال المتحدث. لكن مصدرين يعارضان ذلك، حيث إن ممثلي DOGE قد دفعوا خلال الأسابيع القليلة الماضية أقسام DHS لتجربة Grok لمهام تتراوح بين تحليل قضايا الهجرة إلى التنبؤ بالميزانية، حتى بعد أن قامت DHS فجأة بحظر جميع منصات الذكاء الاصطناعي التجارية بسبب مخاوف تسرب البيانات.

بموجب سياسة وزارة الأمن الداخلي الحالية ، يجوز للموظفين استخدام روبوتات الدردشة التجارية فقط للعمل غير السري وغير السري ، بينما يتعامل الذكاء الاصطناعي المخصص لوزارة الأمن الداخلي مع السجلات الحساسة. ولكن عندما تم تعطيل ChatGPT وآخرين في مايو ، حدث تقدم DOGE في منطقة رمادية قانونية: ظل روبوت DHS الداخلي نشطا ، لكن Grok لم يكن على متن الطائرة رسميا.

هل يستخدم ماسك DOGE لت centralized control؟

خارج وزارة الأمن الداخلي، يمتد نطاق DOGE إلى شبكات وزارة الدفاع، حيث أفيد أن حوالي عشرة محللين تم إبلاغهم أن أداة ذكاء اصطناعي تابعة لجهة خارجية كانت تراقب نشاطهم. على الرغم من أن المتحدثين باسم وزارة الدفاع نفوا أن DOGE قاد أي نشرات للذكاء الاصطناعي، إلا أن رسائل البريد الإلكتروني النصية والمراسلات النصية التي حصلت عليها رويترز تشير إلى عكس ذلك.

يعتبر النقاد أن هذه التحركات تعكس الاستراتيجية الأوسع لإيلون ماسك للاستفادة من الذكاء الاصطناعي لت centralized السيطرة على البيروقراطية ثم تحقيق الربح من تدفق البيانات الناتج.

"هناك مظهر واضح لتعامل ذاتي."

ريتشارد باينتر، أستاذ أخلاقيات الحكومة.

إذا كان ماسك قد أمر مباشرة بنشر غروك، فقد يكون قد انتهك القوانين الجنائية التي تمنع المسؤولين من التأثير على القرارات التي تعود بالفائدة على مصالحهم الخاصة.

في قلب النقاش ، يوجد دور Grok المزدوج كروبوت محادثة يواجه الجمهور على X ومحرك تحليلات تجريبي داخل جدران الحماية الحكومية. حتى أن موقع xAI يلمح إلى أنه يمكن مراقبة تفاعلات المستخدم "لأغراض تجارية محددة" ، مما يشير إلى أن كل استفسار فيدرالي يمكن أن يتغذى على حلقة تعلم Grok.

قام اثنان من موظفي DOGE، كايل شوت وإدوارد كورستين، المعروف على الإنترنت باسم "كرات كبيرة"، بقيادة الكثير من مبادرة الذكاء الاصطناعي. بينما رفضوا التعليق، تتماشى جهودهم مع نمط؛ على مدار العام الماضي، قامت DOGE بفصل آلاف الموظفين الحكوميين، واستولت على قواعد البيانات الآمنة، ورعت الذكاء الاصطناعي كأداة نهائية لإعادة هيكلة البيروقراطية.

يحذر دعاة الخصوصية من أن دمج الذكاء الاصطناعي غير المراجع في بيئات الأمن القومي ذات المخاطر العالية هو وصفة لتسريبات البيانات، وسرقة الهوية، واستغلال الخصوم الأجانب.

"هذا هو أخطر تهديد للخصوصية يمكنك الحصول عليه"، كما يقول ألبرت فوكس كان من مشروع مراقبة التكنولوجيا.

هناك أيضًا مخاوف من أنه مع القليل من الشفافية وقليل من الضوابط، يمكن أن تجربت DOGE للذكاء الاصطناعي تعيد تشكيل حوكمة البيانات الفيدرالية، سواء أدرك الجمهور ذلك أم لا.

أكاديمية كريبتوبوليتان: هل سئمت من تقلبات السوق؟ تعلم كيف يمكن أن تساعدك DeFi في بناء دخل ثابت. سجل الآن

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت