Les préoccupations éthiques augmentent concernant le rôle de Grok AI dans le gouvernement américain.

Le (DOGE) du ministère de l’Efficacité gouvernementale d’Elon Musk a discrètement déployé une version adaptée de son chatbot Grok AI dans les agences fédérales, tirant la sonnette d’alarme sur de potentielles violations de la vie privée et des conflits d’intérêts.

Reuters a cité trois sources au sein de DOGE disant que l'équipe a utilisé Grok pour passer au crible et analyser des données gouvernementales sensibles, générant des rapports et des informations à des vitesses supérieures aux méthodes traditionnelles.

DOGE enfreint l'éthique avec le mouvement Grok AI

Selon trois initiés, les ingénieurs de DOGE ont installé des paramètres personnalisés sur Grok, un chatbot lancé par xAI de Musk fin 2023, pour accélérer la révision des données et automatiser la rédaction de rapports.

« Ils alimentent cela avec des ensembles de données gouvernementales, posent des questions complexes et obtiennent des résumés instantanés. »

Un initié.

Un autre initié a ajouté que le personnel de DOGE avait encouragé les employés du département de la Sécurité intérieure à utiliser Grok pour des analyses internes, malgré le fait que l'outil n'ait pas reçu d'approbation formelle de l'agence.

Ce qui n'est pas clair, c'est exactement quelles informations classifiées ou personnellement identifiables ont été téléchargées dans Grok ou à quel point il a été formé sur les dossiers fédéraux. Si du matériel sensible était inclus, cette pratique pourrait enfreindre les lois fédérales sur la vie privée et les règles de conflit d'intérêts.

Cinq experts en éthique et en technologie avertissent qu'un tel accès pourrait donner aux entreprises de Musk des aperçus disproportionnés sur des données de contrats non publiques et même aider à affiner Grok lui-même pour un gain privé.

En théorie, tout modèle d'IA formé sur des ensembles de données gouvernementales confidentielles doit naviguer dans des garanties légales strictes. Les protocoles de partage de données impliquent généralement plusieurs approbations et une surveillance pour prévenir toute divulgation non autorisée.

En évitant ces contrôles, DOGE risque d'exposer les détails personnels de millions d'Américains et de fournir à xAI un trésor d'informations du monde réel indisponibles pour ses concurrents.

DOGE insiste sur le fait que sa mission est de mettre fin au gaspillage, à la fraude et à l'abus. Un porte-parole du DHS a déclaré à Reuters que DOGE n'a jamais exercé de pression sur le personnel pour adopter un outil spécifique.

« Nous sommes axés sur l'efficacité », a déclaré le porte-parole. Mais deux sources contredisent cela, indiquant que, ces dernières semaines, des représentants de DOGE ont poussé les divisions du DHS à essayer Grok pour des tâches allant de l'analyse des charges de cas d'immigration à la prévision budgétaire, même après que le DHS a brusquement bloqué toutes les plateformes commerciales d'IA en raison de craintes de fuite de données.

Selon la politique actuelle du DHS, les employés peuvent utiliser des chatbots commerciaux uniquement pour des travaux non classifiés et non confidentiels, tandis qu'une IA sur mesure du DHS gère les dossiers sensibles. Mais lorsque ChatGPT et d'autres ont été désactivés en mai, les avancées de DOGE se sont produites dans une zone grise légale : le bot interne du DHS est resté actif, mais Grok n'a jamais été officiellement intégré.

Musk utilise-t-il DOGE pour centraliser le contrôle ?

Au-delà du DHS, la portée de DOGE s'étend aux réseaux du Département de la Défense, où environ une douzaine d'analystes auraient été informés qu'un outil d'IA tiers surveillait leur activité. Bien que les porte-parole du DoD aient nié que DOGE ait guidé des déploiements d'IA, des courriels et des échanges de messages texte du département obtenus par Reuters suggèrent le contraire.

Les critiques voient ces mouvements comme illustratifs de la stratégie plus large de Musk visant à tirer parti de l'IA pour centraliser le contrôle sur la bureaucratie et ensuite monétiser le flux de données qui en résulte.

« Il y a une apparence claire d'auto-négociation. »

Richard Painter, un professeur d'éthique gouvernementale.

Si Musk a directement ordonné le déploiement de Grok, il pourrait violer des lois criminelles qui interdisent aux fonctionnaires d'influencer des décisions qui bénéficient à leurs intérêts privés.

Au cœur du débat se trouve le double rôle de Grok en tant que chatbot public sur X et moteur d'analyse expérimental à l'intérieur des pare-feu gouvernementaux. Le site web de xAI laisse même entendre que les interactions des utilisateurs peuvent être surveillées "à des fins commerciales spécifiques", suggérant que chaque requête fédérale pourrait alimenter la boucle d'apprentissage de Grok.

Deux membres du personnel du DOGE, Kyle Schutt et Edward Coristine, ce dernier connu en ligne sous le nom de « Big Balls », ont été le fer de lance d’une grande partie de l’initiative d’IA. Bien qu’ils aient refusé de commenter, leurs efforts s’inscrivent dans un modèle ; Au cours de l’année écoulée, le DOGE a licencié des milliers de fonctionnaires de carrière, pris le contrôle de bases de données sécurisées et défendu l’IA comme l’outil ultime de refonte bureaucratique.

Les défenseurs de la vie privée avertissent qu'intégrer une IA non vérifiée dans des environnements de sécurité nationale à enjeux élevés est une recette pour des fuites de données, le vol d'identité et l'exploitation par des adversaires étrangers.

« C'est une menace pour la vie privée aussi sérieuse que possible », déclare Albert Fox Cahn du Surveillance Technology Oversight Project.

Il y a aussi des craintes que, avec peu de transparence et peu de garde-fous, l'expérience AI de DOGE puisse remodeler la gouvernance des données fédérales, que le public s'en rende compte ou non.

Académie Cryptopolitan : Fatigué des fluctuations du marché ? Découvrez comment DeFi peut vous aider à générer des revenus passifs stables. Inscrivez-vous maintenant

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)