Elon Musk'ın Hükümet Verimliliği Departmanı (DOGE), Grok AI sohbet robotunun uyarlanmış bir versiyonunu federal kurumlar arasında sessizce kullanıma sunarak potansiyel gizlilik ihlalleri ve çıkar çatışmaları hakkında alarmlar verdi.
Reuters, DOGE içindeki üç kaynağa atıfta bulunarak, ekibin hassas devlet verilerini süzmek ve analiz etmek için Grok'ı kullandığını, geleneksel yöntemlerin ötesinde hızlarda raporlar ve içgörüler ürettiğini söyledi.
DOGE, Grok AI hamlesiyle etik ihlalinde bulunuyor.
Üç içeriden alına göre, DOGE mühendisleri, verileri gözden geçirmeyi hızlandırmak ve rapor yazımını otomatikleştirmek için Musk'ın xAI tarafından 2023'ün sonlarında başlatılan Grok adlı bir sohbet botunun üzerine özel parametreler yükledi.
"Onlara hükümet veri setlerini besliyorlar, karmaşık sorular soruyorlar ve anında özetler alıyorlar."
Bir İçeriden.
Başka bir içeriden bilgi veren, DOGE çalışanlarının İç Güvenlik Bakanlığı çalışanlarını Grok'ı iç analizler için kullanmaya teşvik ettiğini, ancak bu aracın resmi ajans onayından yoksun olduğunu belirtti.
Belirsiz olan, Grok'a hangi sınıflandırılmış veya kişisel olarak tanımlanabilir bilgilerin yüklendiği ve bunun federal kayıtlara ne kadar yoğun bir şekilde eğitildiğidir. Hassas materyaller dahil edilirse, bu uygulama federal gizlilik yasalarını ve çıkar çatışması kurallarını ihlal edebilir.
Beş etik ve teknoloji uzmanı, bu tür bir erişimin Musk'ın şirketlerine kamuya açık olmayan sözleşme verilerine orantısız bir içgörü sağlayabileceği ve hatta Grok'ı özel çıkarlar için geliştirmeye yardımcı olabileceği konusunda uyarıyor.
Teorik olarak, gizli devlet veri setleri üzerinde eğitilmiş herhangi bir AI modelinin sıkı yasal korumalara uyması gerekir. Veri paylaşım protokolleri genellikle yetkisiz ifşaları önlemek için birden fazla onay ve denetim gerektirir.
Bu kontrollerin atlanmasıyla, DOGE milyonlarca Amerikalının kişisel bilgilerini açığa çıkarma riski taşıyor ve xAI'ye rakiplerine erişilemeyen gerçek dünya bilgileri sunuyor.
DOGE, israfı, dolandırıcılığı ve suistimali ortadan kaldırma misyonuna sahip olduğunu ısrarla belirtmektedir. Bir DHS sözcüsü Reuters'a, DOGE'nin personeli herhangi bir spesifik aracı benimsemeye zorlamadığını söyledi.
Sözcü, "Verimliliğe odaklandık" dedi. Ancak iki kaynak, son haftalarda DOGE temsilcilerinin, DHS'nin veri sızıntısı korkuları nedeniyle tüm ticari yapay zeka platformlarını aniden engellemesinden sonra bile, göçmenlik vaka yükü analizinden bütçe tahminine kadar çeşitli görevler için DHS bölümlerini Grok'a pilot uygulama yapmaya zorladığına karşı çıkıyor.
Mevcut DHS politikasına göre, çalışanlar yalnızca sınıflandırılmamış, gizli olmayan işler için ticari sohbet botlarını kullanabilirken, özel bir DHS AI hassas kayıtları yönetmektedir. Ancak Mayıs ayında ChatGPT ve diğerleri devre dışı bırakıldığında, DOGE'nin ilerlemeleri yasal bir gri alanda gerçekleşti: iç DHS botu aktif kalmaya devam etti, ancak Grok resmi olarak işe alınmadı.
Musk, kontrolü merkezileştirmek için DOGE mi kullanıyor?
DHS'in ötesinde, DOGE'nin etkisi Savunma Bakanlığı ağlarına kadar uzanıyor; burada yaklaşık bir düzine analistin, üçüncü taraf bir AI aracının faaliyetlerini izlediği hakkında bilgilendirildiği bildirildi. DoD sözcüleri, DOGE'nin herhangi bir AI dağıtımını yönlendirdiğini reddetmiş olsalar da, Reuters tarafından elde edilen departman e-postaları ve mesajlaşma değişimleri aksi yönde bir izlenim veriyor.
Eleştirmenler, bu hamleleri Musk'ın bürokrasiyi merkezi hale getirmek için AI'den yararlanma ve ardından ortaya çıkan veri akışını paraya çevirme konusundaki daha geniş stratejisinin bir örneği olarak görüyorlar.
"Kendi çıkarına hareket etme açık bir şekilde görülüyor."
Richard Painter, bir hükümet etik profesörüdür.
Eğer Musk doğrudan Grok'un konuşlandırılmasını emretti ise, bu, kamu yetkililerinin özel çıkarlarına fayda sağlayan kararları etkilemesini yasaklayan ceza yasalarını ihlal ediyor olabilir.
Tartışmanın merkezinde Grok'un X üzerindeki kamuya açık bir sohbet robotu ve hükümet güvenlik duvarları içindeki deneysel bir analiz motoru olarak iki yönlü rolü yer alıyor. xAI'nin web sitesi, kullanıcı etkileşimlerinin "belirli ticari amaçlar" için izlenebileceğini ima ediyor; bu da her federal sorgunun Grok'un öğrenme döngüsüne geri beslenebileceği anlamına geliyor.
İki DOGE çalışanı, Kyle Schutt ve Edward Coristine, ikincisi çevrimiçi olarak "Big Balls" olarak bilinir, AI girişiminin çoğuna öncülük etti. Yorum yapmayı reddetseler de, çabaları bir kalıba uyuyor; Geçen yıl boyunca DOGE, binlerce kariyer yetkilisini görevden aldı, güvenli veritabanlarının kontrolünü ele geçirdi ve yapay zekayı bürokratik revizyon için nihai araç olarak savundu.
Gizlilik savunucuları, denetlenmemiş yapay zekanın yüksek riskli ulusal güvenlik ortamlarına entegrasyonunun veri sızıntıları, kimlik hırsızlığı ve yabancı düşman istismarı için bir tarif olduğunu uyarıyor.
Albert Fox Cahn, Gözetim Teknolojisi Denetim Projesi'nden, "Bu, alabileceğiniz kadar ciddi bir gizlilik tehdidi" diyor.
Ayrıca, az bir şeffaflık ve birkaç güvenlik önlemi ile, DOGE'nin AI denemesinin, halkın bunu fark edip etmemesi fark etmeksizin, federal veri yönetimini yeniden şekillendirebileceği konusunda endişeler var.
Cryptopolitan Akademisi: Piyasa dalgalanmalarından bıktınız mı? DeFi'nin size nasıl sürekli pasif gelir sağlamaya yardımcı olabileceğini öğrenin. Şimdi Kaydolun
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
Grok AI'nin ABD hükümetindeki rolüne ilişkin etik endişeler artıyor.
Elon Musk'ın Hükümet Verimliliği Departmanı (DOGE), Grok AI sohbet robotunun uyarlanmış bir versiyonunu federal kurumlar arasında sessizce kullanıma sunarak potansiyel gizlilik ihlalleri ve çıkar çatışmaları hakkında alarmlar verdi.
Reuters, DOGE içindeki üç kaynağa atıfta bulunarak, ekibin hassas devlet verilerini süzmek ve analiz etmek için Grok'ı kullandığını, geleneksel yöntemlerin ötesinde hızlarda raporlar ve içgörüler ürettiğini söyledi.
DOGE, Grok AI hamlesiyle etik ihlalinde bulunuyor.
Üç içeriden alına göre, DOGE mühendisleri, verileri gözden geçirmeyi hızlandırmak ve rapor yazımını otomatikleştirmek için Musk'ın xAI tarafından 2023'ün sonlarında başlatılan Grok adlı bir sohbet botunun üzerine özel parametreler yükledi.
"Onlara hükümet veri setlerini besliyorlar, karmaşık sorular soruyorlar ve anında özetler alıyorlar."
Bir İçeriden.
Başka bir içeriden bilgi veren, DOGE çalışanlarının İç Güvenlik Bakanlığı çalışanlarını Grok'ı iç analizler için kullanmaya teşvik ettiğini, ancak bu aracın resmi ajans onayından yoksun olduğunu belirtti.
Belirsiz olan, Grok'a hangi sınıflandırılmış veya kişisel olarak tanımlanabilir bilgilerin yüklendiği ve bunun federal kayıtlara ne kadar yoğun bir şekilde eğitildiğidir. Hassas materyaller dahil edilirse, bu uygulama federal gizlilik yasalarını ve çıkar çatışması kurallarını ihlal edebilir.
Beş etik ve teknoloji uzmanı, bu tür bir erişimin Musk'ın şirketlerine kamuya açık olmayan sözleşme verilerine orantısız bir içgörü sağlayabileceği ve hatta Grok'ı özel çıkarlar için geliştirmeye yardımcı olabileceği konusunda uyarıyor.
Teorik olarak, gizli devlet veri setleri üzerinde eğitilmiş herhangi bir AI modelinin sıkı yasal korumalara uyması gerekir. Veri paylaşım protokolleri genellikle yetkisiz ifşaları önlemek için birden fazla onay ve denetim gerektirir.
Bu kontrollerin atlanmasıyla, DOGE milyonlarca Amerikalının kişisel bilgilerini açığa çıkarma riski taşıyor ve xAI'ye rakiplerine erişilemeyen gerçek dünya bilgileri sunuyor.
DOGE, israfı, dolandırıcılığı ve suistimali ortadan kaldırma misyonuna sahip olduğunu ısrarla belirtmektedir. Bir DHS sözcüsü Reuters'a, DOGE'nin personeli herhangi bir spesifik aracı benimsemeye zorlamadığını söyledi.
Sözcü, "Verimliliğe odaklandık" dedi. Ancak iki kaynak, son haftalarda DOGE temsilcilerinin, DHS'nin veri sızıntısı korkuları nedeniyle tüm ticari yapay zeka platformlarını aniden engellemesinden sonra bile, göçmenlik vaka yükü analizinden bütçe tahminine kadar çeşitli görevler için DHS bölümlerini Grok'a pilot uygulama yapmaya zorladığına karşı çıkıyor.
Mevcut DHS politikasına göre, çalışanlar yalnızca sınıflandırılmamış, gizli olmayan işler için ticari sohbet botlarını kullanabilirken, özel bir DHS AI hassas kayıtları yönetmektedir. Ancak Mayıs ayında ChatGPT ve diğerleri devre dışı bırakıldığında, DOGE'nin ilerlemeleri yasal bir gri alanda gerçekleşti: iç DHS botu aktif kalmaya devam etti, ancak Grok resmi olarak işe alınmadı.
Musk, kontrolü merkezileştirmek için DOGE mi kullanıyor?
DHS'in ötesinde, DOGE'nin etkisi Savunma Bakanlığı ağlarına kadar uzanıyor; burada yaklaşık bir düzine analistin, üçüncü taraf bir AI aracının faaliyetlerini izlediği hakkında bilgilendirildiği bildirildi. DoD sözcüleri, DOGE'nin herhangi bir AI dağıtımını yönlendirdiğini reddetmiş olsalar da, Reuters tarafından elde edilen departman e-postaları ve mesajlaşma değişimleri aksi yönde bir izlenim veriyor.
Eleştirmenler, bu hamleleri Musk'ın bürokrasiyi merkezi hale getirmek için AI'den yararlanma ve ardından ortaya çıkan veri akışını paraya çevirme konusundaki daha geniş stratejisinin bir örneği olarak görüyorlar.
"Kendi çıkarına hareket etme açık bir şekilde görülüyor."
Richard Painter, bir hükümet etik profesörüdür.
Eğer Musk doğrudan Grok'un konuşlandırılmasını emretti ise, bu, kamu yetkililerinin özel çıkarlarına fayda sağlayan kararları etkilemesini yasaklayan ceza yasalarını ihlal ediyor olabilir.
Tartışmanın merkezinde Grok'un X üzerindeki kamuya açık bir sohbet robotu ve hükümet güvenlik duvarları içindeki deneysel bir analiz motoru olarak iki yönlü rolü yer alıyor. xAI'nin web sitesi, kullanıcı etkileşimlerinin "belirli ticari amaçlar" için izlenebileceğini ima ediyor; bu da her federal sorgunun Grok'un öğrenme döngüsüne geri beslenebileceği anlamına geliyor.
İki DOGE çalışanı, Kyle Schutt ve Edward Coristine, ikincisi çevrimiçi olarak "Big Balls" olarak bilinir, AI girişiminin çoğuna öncülük etti. Yorum yapmayı reddetseler de, çabaları bir kalıba uyuyor; Geçen yıl boyunca DOGE, binlerce kariyer yetkilisini görevden aldı, güvenli veritabanlarının kontrolünü ele geçirdi ve yapay zekayı bürokratik revizyon için nihai araç olarak savundu.
Gizlilik savunucuları, denetlenmemiş yapay zekanın yüksek riskli ulusal güvenlik ortamlarına entegrasyonunun veri sızıntıları, kimlik hırsızlığı ve yabancı düşman istismarı için bir tarif olduğunu uyarıyor.
Albert Fox Cahn, Gözetim Teknolojisi Denetim Projesi'nden, "Bu, alabileceğiniz kadar ciddi bir gizlilik tehdidi" diyor.
Ayrıca, az bir şeffaflık ve birkaç güvenlik önlemi ile, DOGE'nin AI denemesinin, halkın bunu fark edip etmemesi fark etmeksizin, federal veri yönetimini yeniden şekillendirebileceği konusunda endişeler var.
Cryptopolitan Akademisi: Piyasa dalgalanmalarından bıktınız mı? DeFi'nin size nasıl sürekli pasif gelir sağlamaya yardımcı olabileceğini öğrenin. Şimdi Kaydolun