Ethereum kurucu ortağı Vitalik Buterin, süper zeki yapay zeka ile ilgili riskler ve güçlü bir savunma mekanizmasının gerekliliği konusunda uyarılarda bulunuyor.
Buterin’in bu yorumları, yapay zekanın hızla geliştiği bu dönemde, güvenlik konusundaki endişelerin önemli ölçüde arttığını yansıtıyor.
Buterin’den Yapay Zeka Uyarısı!
5 Ocak tarihli bir blog yazısında, Vitalik Buterin, teknolojinin zarar vermek yerine savunma amacıyla geliştirilmesi gerektiği fikrini ‘d/acc veya savunma hızlandırması’ olarak açıkladı. Ancak, Buterin daha önce de Yapay Zeka ile ilgili riskler hakkında konuşmuştu.
Buterin 2023’te, ‘Yanlış giden bir yapay zekanın dünyayı daha kötü hale getirebileceği bir yol (neredeyse) en kötü olasılıkla: kelimenin tam anlamıyla insan soyunun tükenmesine neden olabilir,’ dedi.
Buterin şimdi 2023’teki teorilerini takip ediyor. Buterin’e göre, süper zeka varlığı sadece birkaç yıl uzakta olabilir.
‘AGI’ye kadar üç yıllık bir zaman çizelgemiz ve ardından süper zekaya kadar üç yıl daha var gibi görünüyor. Ve eğer dünyanın yok olmasını veya geri dönüşü olmayan bir tuzağa düşmesini istemiyorsak, sadece iyiyi hızlandırmakla kalmamalı, kötüyü de yavaşlatmalıyız,’ diye yazdı Buterin.
Yapay zeka ile ilgili riskleri azaltmak için, Buterin, insan karar verme süreçleriyle sıkı sıkıya bağlı kalan merkeziyetsiz yapay zeka sistemlerinin oluşturulmasını savunuyor. Yapay zekanın insanların elinde bir araç olarak kalmasını sağlayarak, felaket sonuçların tehdidi en aza indirilebilir.
Buterin, orduların ‘yapay zeka kıyameti’ senaryosunda sorumlu aktörler olabileceğini açıkladı. Yapay zekanın askeri kullanımı, Ukrayna ve Gazze’de görüldüğü gibi, dünya genelinde artıyor. Buterin ayrıca yürürlüğe girecek herhangi bir yapay zeka düzenlemesinin muhtemelen orduları muaf tutacağını ve bu durumun onları önemli bir tehdit haline getirdiğini düşünüyor.
Ethereum kurucu ortağı, yapay zeka kullanımını düzenleme planlarını da açıkladı. Yapay zeka ile ilgili risklerden kaçınmanın ilk adımının kullanıcıları sorumlu hale getirmek olduğunu söyledi.
‘Bir modelin nasıl geliştirildiği ile nasıl kullanıldığı arasındaki bağlantı genellikle belirsiz olsa da, kullanıcı yapay zekanın nasıl kullanılacağına tam olarak karar verir,’ diye açıkladı Buterin, kullanıcıların oynadığı rolü vurgulayarak.
Sorumluluk kuralları işe yaramazsa, bir sonraki adım, potansiyel olarak tehlikeli gelişmeleri yavaşlatmak için yapay zeka düzenlemesine olanak tanıyan “Yumuşak Duraklatma” düğmelerini uygulamak olacaktır.
‘Amaç, insanlığın hazırlanması için daha fazla zaman kazanmak amacıyla kritik bir dönemde dünya çapında mevcut hesaplama gücünü %90-99 oranında 1-2 yıl boyunca azaltma yeteneğine sahip olmaktır.’
Duraklatmanın, yapay zeka konum doğrulama ve kaydı ile uygulanabileceğini söyledi.
Başka bir yaklaşım ise yapay zeka donanımını kontrol etmek olacaktır. Buterin, yapay zeka donanımının kontrol edilmesini sağlayacak bir çip ile donatılabileceğini açıkladı.
Çip, yapay zeka sistemlerinin yalnızca uluslararası kuruluşlardan haftalık olarak üç imza alması durumunda çalışmasına izin verecektir. Ayrıca, bu kuruluşlardan en az birinin askeri bağlantılı olmaması gerektiğini ekledi.
Bununla birlikte, Buterin stratejilerinin eksiklikleri olduğunu ve sadece ‘geçici çözümler’ olduğunu kabul etti.
Sorumluluk Reddi
Sorumluluk Reddi: Trust Project yönergelerine uygun olarak BeInCrypto, haberlerde tarafsız ve şeffaf raporları garanti eder. Bu haber makalesi doğru ve güncel bilgi vermeyi amaçlamaktadır. Ancak okuyucuların bu içeriğe dayalı herhangi bir karar vermeden önce tüm bilgileri bağımsız olarak doğrulamaları ve bir profesyonele danışmaları tavsiye edilir.