Kanada OpenAI’dan ChatGPT güvenliğini artırmasını istedi

“`html

Kanada hükümeti, yapay zeka sistemlerinin kötüye kullanılma endişelerinin artmasının ardından OpenAI ile güvenlik önlemlerini güçlendirmeye yönelik yeni bir süreç başlattı. Wall Street Journal’ın aktardığı bilgilere göre, OpenAI CEO’su Sam Altman ile gerçekleştirilen görüşmelerde, ChatGPT’nin potansiyel riskli kullanımını daha hızlı tespit edecek ve gerektiğinde yetkilileri bilgilendirecek yeni uygulamalar üzerinde duruldu.

Bu gelişme, Kanada’nın bir lisesinde yaşanan silahlı saldırının ardından gündeme geldi. Olayda, OpenAI saldırganın hesabını daha önce işaretleyip askıya aldığı, fakat yetkililere herhangi bir bildirim yapılmadığı ortaya çıktı. Bu durum, güvenlik protokollerinin yeterliliği konusunda tartışmalara yol açtı.

Kanada’nın Yapay Zeka Bakanı Evan Solomon, Sam Altman ile çevrimiçi bir toplantı gerçekleştirdiğini ve bu görüşmede platform güvenliğinin artırılması gerektiğini vurguladığını ifade etti. Solomon, Altman’ın bu talepler doğrultusunda adımlar atmayı kabul ettiğini belirtti. Böylece, ChatGPT üzerindeki şüpheli veya riskli kullanımların tespit edilmesi durumunda kolluk kuvvetlerine haber vermeye yönelik yeni bir çerçeve oluşturulması planlanıyor. Ayrıca, Kanada’daki gizlilik ve güvenlik uzmanlarının bu değerlendirme süreçlerine dahil edilmesi hedefleniyor. Amaç, kullanıcı haklarını korurken potansiyel tehditlerin erken aşamada belirlenmesini sağlamak.

Kanada, ChatGPT kullanımı için şüpheli faaliyetlerin bildirilmesini talep ediyor

Kanada hükümeti, gündeme getirdiği öneriler kapsamında yalnızca yeni olayları değil, geçmişte tespit edilen şüpheli kullanım örneklerini de yeniden incelemeyi planlıyor.

Evan Solomon, OpenAI’den bu vakaların geriye dönük olarak değerlendirilmesini ve gerektiğinde kolluk kuvvetleriyle veri paylaşımında bulunulmasını talep etti. Ancak, OpenAI’nin bu geriye dönük inceleme önerisini tam olarak kabul edip etmediği henüz netlik kazanmış değil. Yine de şirketin yeni güvenlik protokollerini detaylandıran kapsamlı bir rapor hazırlayıp Kanada hükümetine sunmayı planladığı belirtiliyor. Bu rapor, platformun riskli davranışları nasıl belirlediği ve bu durumlarda hangi prosedürlerin uygulanacağı hakkında bilgi verecek.

OpenAI’nin güvenlik ve düzenleme konularında Kanada ile iletişim kurduğu ilk süreç bu değil. Şirketin küresel politika başkan yardımcısı Ann O’Leary, son dönemde yapılan açıklamalarda tespit sistemlerinin geliştirileceğini belirtmişti. Bu kapsamda, yasaklı kullanıcıların platforma farklı hesaplarla geri dönmelerini engellemek için yeni teknik önlemler üzerinde çalışıldığı ifade ediliyor. Mevcut sistemler bazı riskli davranışları belirleyebiliyor, ancak kullanıcıların yeni hesaplar açarak platforma yeniden erişim sağlaması güvenlik açığı oluşturuyor.

Lise saldırısında da benzer bir durum yaşandı. OpenAI, saldırganın ilk hesabını “gerçek dünyada şiddet eylemi gerçekleştirme ihtimaline yönelik uyarılar” sebebiyle yasaklamıştı. Ancak şüphelinin farklı bir hesapla platformu yeniden kullanabildiği ortaya çıktı. Bu durum, büyük ölçekli yapay zeka platformlarının kullanıcı doğrulama, hesap takibi ve risk analizi konularında daha gelişmiş mekanizmalara ihtiyaç duyduğunu gözler önüne seriyor.

📡 Teknoblog’u takip edin

Teknoloji gündemini takip etmek için
📰 Google Haberler‘e ekleyin,
💬 WhatsApp kanalımıza▶ YouTube’a abone olun,
📷 Instagram’da ve
𝕏 X’te bizi takip edin.

“`

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir