Popüler dil modeli ChatGPT’yi yaratan şirket OpenAI, yasal uyumluluk ve veri doğruluğu konusunda zorluklarla karşı karşıya. Bu sorun, Avusturya’nın Viyana kentinde bulunan kar amacı gütmeyen bir kuruluş olan NOYB – Avrupa Dijital Haklar Merkezi’nin OpenAI aleyhine Avusturya Veri Koruma Kurumu’na (DPA) şikayette bulunmasına neden oldu.
Gerçekten de, OpenAI’nin veri toplaması, düzenleyici kurumlar ve gizlilik savunucuları arasında endişeye neden oldu. NOYB’nin bu hamlesi, teknolojideki verilerin etik kullanımı hakkında potansiyel olarak daha büyük bir tartışmayı ateşleyebilir.
OpenAI’nin Veri Sıkıntıları, Yapay Zekanın Etik Zorluklarını Ortaya Çıkarıyor
Şikayetin özü, OpenAI’nin ChatGPT’nin veri işlemedeki sınırlamalarına ilişkin son itiraflarında yatıyor. OpenAI’ye göre yapay zeka modeli, bireyler hakkında ürettiği bilgilerin doğruluğunu doğrulayamıyor. Ek olarak, veri girdilerinin kaynaklarını da ifşa edemez.
ChatGPT’nin Kasım 2022’de piyasaya sürülmesiyle tetiklenen artan yapay zeka yutturmacasının ortasında, aracın geniş çapta benimsenmesi kritik güvenlik açıklarını ortaya çıkardı. ChatGPT, olgusal doğruluğu sağlamak için doğal bir mekanizma olmadan kullanıcı istemlerine olası yanıtları tahmin ederek çalışır.
Bu, yapay zekanın verileri ‘halüsinasyona uğrattığı’, yanıltıcı veya tamamen yanlış olabilecek yanıtlar ürettiği durumlara yol açmıştır. Bu tür yanlışlıklar bazı bağlamlarda önemsiz olsa da, kişisel veriler söz konusu olduğunda önemli riskler oluştururlar.
Daha fazla oku: ChatGPT Nedir?
Avrupa Birliği’nin Genel Veri Koruma Yönetmeliği (GDPR), kişisel verilerin doğruluğunu zorunlu kılar ve bireylere kendileri hakkındaki yanlış bilgilere erişme ve bunları düzeltme hakkı verir. OpenAI’nin mevcut yetenekleri bu yasal gerekliliklerin gerisinde kalıyor ve yapay zekanın hassas verileri işlemedeki etik sonuçları hakkında bir tartışmaya yol açıyor.
Noyb’un veri koruma avukatı Maartje de Graaf, durumun ciddiyetini vurguluyor.
“Şirketlerin şu anda ChatGPT gibi sohbet robotlarını bireylerle ilgili verileri işlerken AB yasalarına uygun hale getiremediği açık. Bir sistem doğru ve şeffaf sonuçlar üretemezse, bireyler hakkında veri üretmek için kullanılamaz. Teknoloji, yasal gerekliliklere uymak zorunda, tersi değil,” diye açıklıyor de Graaf.
Sorunlar, teknik engellerin ötesine geçerek daha geniş düzenleyici zorluklara kadar uzanıyor. Başlangıcından bu yana, ChatGPT de dahil olmak üzere üretken yapay zeka araçları, Avrupa gizlilik gözlemcileri tarafından yoğun bir inceleme altında.
Örneğin İtalyan DPA, yanlışlıkları gerekçe göstererek 2023’ün başlarında ChatGPT tarafından veri işlemeye kısıtlamalar getirdi.
Bunu, Avrupa Veri Koruma Kurulu’nun bu tür yapay zeka platformlarıyla ilişkili riskleri değerlendirmek ve azaltmak için koordineli bir çabası izledi.
Bu yasal zorlukların zamanlaması özellikle dikkat çekicidir. Aynı zamanda OpenAI, OpenAI’yi de yöneten Sam Altman tarafından ortaklaşa kurulan bir proje olan Worldcoin ile stratejik bir ittifak kurmak için görüşmelerde bulunuyordu.
Bununla birlikte, OpenAI’nin Worldcoin ile potansiyel işbirliği, ek yasal ve etik ikilem katmanları getirebilir. Worldcoin’in biyometrik verilerin kullanımına yaklaşımı, OpenAI’nin veri gizliliğini ve doğruluğunu sağlamadaki zorluklarıyla kesişiyor.
Ayrıca Worldcoin, Kenya, İspanya ve Arjantin de dahil olmak üzere dünyanın dört bir yanındaki yasal otoritelerin veri toplama konusunda incelemesiyle karşı karşıya kaldı . Dolayısıyla, bu sinerji ya yenilikçi teknoloji kullanımlarının önünü açabilir ya da artan düzenleyici müdahaleler için bir emsal oluşturabilir.
Sorumluluk Reddi
Sorumluluk Reddi: Trust Project yönergelerine uygun olarak BeInCrypto, haberlerde tarafsız ve şeffaf raporları garanti eder. Bu haber makalesi doğru ve güncel bilgi vermeyi amaçlamaktadır. Ancak okuyucuların bu içeriğe dayalı herhangi bir karar vermeden önce tüm bilgileri bağımsız olarak doğrulamaları ve bir profesyonele danışmaları tavsiye edilir.