Yapay zeka agent’ları, ETHDenver 2026’da öne çıkıyor: otonom finanstan zincir üstü robotik’e kadar birçok alanda adından söz ettiriyor. Ancak son zamanlarda “agentic ekonomiler” etrafındaki heyecan artarken, zorlu bir soru gündeme geliyor: Kurumlar, yapay zeka sistemlerinin ne tür verilerle eğitildiğini kanıtlayabilecek mi?
Bu soruna odaklanan girişimler arasında Perle Labs da yer alıyor. Şirket; yapay zekanın özellikle regüle edilen ve yüksek riskli ortamlarda eğitildiği veriye dair doğrulanabilir bir sahiplik zinciri olması gerektiğini savunuyor. Kurumlara denetlenebilir ve onaylanmış bir veri alt yapısı sunmaya odaklanan Perle, bugüne kadar toplam 17,5 milyon dolar yatırım topladı. Son yatırım turuna Framework Ventures liderlik ediyor. Diğer yatırımcılar arasında CoinFund, Protagonist, HashKey ve Peer VC yer alıyor. Şirket, platformunda bir milyonun üzerinde etikleyicinin bir milyardan fazla puanlanmış veri katkısı sunduğunu paylaşıyor.
BeInCrypto, ETHDenver 2026 kapsamında Perle Labs CEO’su Ahmed Rashad ile bir röportaj gerçekleştirdi. Rashad daha önce, Scale AI’de hızlı büyüme döneminde operasyonel liderlik görevini üstlenmişti. Sohbette; veri kökeni, model çöküşü, karşıt riskler ve Rashad’ın neden “egemen zekanın” kritik sistemlerde yapay zekanın ön koşulu olacağına inandığı konuşuldu.
BeInCrypto: Perle Labs’ı “yapay zeka için egemen zeka katmanı” olarak tanımlıyorsunuz. Veri alt yapısı tartışmalarının dışında kalan okuyucularımız için, bu ifadenin pratikte anlamı nedir?
Ahmed Rashad: “Egemen kelimesini bilinçli olarak seçtik ve bunun birkaç katmanı var.
En doğrudan anlamı: kontrol. Eğer bir devlet, hastane, savunma sanayi firması ya da büyük bir kurum olarak yüksek riskli bir ortamda yapay zeka kullanıyorsanız, bu zekanın arkasındaki bilgiyi sahiplenmeniz gerekir. Denetleyemediğiniz ve inceleyemeyeceğiniz bir siyah kutuya teslim edemezsiniz. Egemen olmak; yapay zekanızın hangi verilerle eğitildiğini, kimlerin onayladığını bilmek ve bunu kanıtlayabilmek demek. Sektörde bugün bunun garantisini verebilen çok az şirket var.
İkinci anlamı ise bağımsızlık: Dışarıdan müdahale olmadan hareket etmek. Özellikle ABD Savunma Bakanlığı (DoD) ya da büyük kurumlar hassas ortamlarda yapay zeka kullanırken bunu ister. Kritik yapay zeka alt yapınızı kontrol edemediğiniz, doğrulayamadığınız ve sabotaja karşı koruyamadığınız veri akışlarına emanet edemezsiniz. Bu teorik bir risk değil. ABD Ulusal Güvenlik Ajansı (NSA) ve Siber Güvenlik Altyapı Ajansı (CISA), veri tedarik zinciri zafiyetlerini ulusal güvenlik sorunu olarak ele alıp operasyonel rehberler yayınladılar.
Üçüncü anlam ise hesap verilebilirlik. Yapay zeka içerik üretmenin ötesine geçip karar almada kullanıldığında; tıbbi, finansal veya askeri alanlarda, birinin şu sorulara yanıt vermesi gerekir: Bu zekanın kaynağı ne? Kim doğruladı? Kayıt kalıcı mı? Perle olarak, her uzman etikleyicinin her katkısının zincir üstünde kayıt altına alınmasını hedefliyoruz. Değiştirilemez, silinemez, yeniden atanamaz. İşte egemen kelimesini iddialı olmaktan çıkarıp gerçeğe dönüştüren bu değişmezlik özelliği.
Pratikte ise bir doğrulama ve yetkilendirme katmanı inşa ediyoruz. Eğer bir hastane, bir yapay zeka destekli tanı sistemi kuruyorsa; eğitim setindeki her veri noktasını, onu doğrulayan lisanslı uzmana kadar izleyebilmeli. Bizim egemen zeka dediğimiz tam da bu. Anlatmak istediğimiz bu.”
BeInCrypto: Scale AI’in hızlı büyüme sürecinde yer aldınız. Burada savunma ihaleleri ve Meta yatırımı gibi büyük projeler dikkat çekmişti. Bu deneyim, size geleneksel yapay zeka veri akışlarında nerede problemlerin çıktığına dair ne öğretti?
Ahmed Rashad: “Scale inanılmaz bir şirketti. Oradayken 90 milyon dolardan 29 milyar dolarlık değere hızlı bir yükselişin tüm aşamalarını ilk elden gördüm. Nerelerde çatlakların başladığına da tanık oldum.
En temel sorun; veri kalitesiyle ölçeğin birbiriyle çatışması. Şirket 100 kat büyürken baskı hep daha hızlı hareket edilmesi yönünde olur: daha fazla veri, daha hızlı etiketleme, her etikete daha az maliyet. Ama bu süreçte doğruluk ve hesap verilebilirlik arka plana atılır. Sürecin ortası genellikle tamamen şeffaf olmayan bir kutuya döner: Sisteme kabaca ne girdiği bilinir, çıkan sonucun bir kalite metriği vardır ama aradaki süreç karanlık bir kutudur. Kim doğruladı? Gerçekten ehil miydi? Etiketleme tutarlı mıydı? Bu tür sorular, geleneksel yöntemlerde yüksek hacimde cevaplanamaz hale geliyor.
İkincisi, işin insan tarafı neredeyse her zaman azaltılması gereken bir maliyet olarak görülüyor, geliştirilecek bir yetenek değil. İşlem bazında ödeme ve verimlilik odaklı yapı zamanla kaliteyi düşürüyor ve iyi katkı sunanları sistemden uzaklaştırıyor. Gerçekten kaliteli ve uzman katkı verecek kişiler, oyunlaştırılmış, kuruşluk işler için uzun süre sistemde kalmak istemez. O seviyede katkı istiyorsanız, sisteminizi ona göre kurmak zorundasınız.
Perle’ı inşa ederken çıkış noktamız buydu. Veri problemi daha çok işçiyle değil; katkı sağlayanlara profesyonel yaklaşarak, sisteme doğrulanabilir yetkilendirme entegre ederek ve süreci baştan sona denetlenebilir kılarak çözülür.”
BeInCrypto: Bir milyon etikleyiciye ve bir milyardan fazla puanlanmış veriye ulaştınız. Birçok veri etiketleme platformu isimsiz toplu işleme dayalı. Sizin itibara dayalı modelinizde ne yapısal fark var?
Ahmed Rashad: “Temel fark şu: Perle’da çalışma geçmişiniz size ait ve kalıcıdır. Bir görevi tamamladığınızda; o katkının kaydı, ulaştığı kalite seviyesi, uzman konsensüsüne karşı nasıl konumlandığı zincir üstüne yazılıyor. Ne değiştirilebilir ne silinebilir ne de başkasına atanabilir. Zamanla bu kayıt, katlanan profesyonel bir referansa dönüşüyor.
Bunu, isimsiz toplu emeğe kıyaslayın: Orada bireyler tamamen birbirinin yerine geçebilir. Hiçbir kalite derdi yok çünkü ortada bir itibar bulunmuyor; her görev bir öncekisinden kopuk. Sonuçta ise ‘asgarî eforla iş tamamlama’dan öteye gidemeyen bir teşvik ortamı oluşuyor.
Bizim modelimiz ise tersine işliyor. Katılımcılar doğrulanabilir geçmiş oluşturuyor. Platform, alan uzmanlığını dikkate alıyor. Örneğin sürekli yüksek kaliteli tıbbi görüntü veri işleyen bir radyolog, bunu yansıtan bir profil oluşturuyor. Bu itibar daha değerli görevlere erişim, daha iyi ödeme ve anlamlı çalışma fırsatı demek. Yani bir tür çark: Kalite arttıkça teşvik de artıyor ve süreç kendini besliyor.
Etiketçi ağımızda bir milyardan fazla veri puanlamasını geçtik. Bu yalnızca bir adet değil, doğrulanmış insanlardan gelen, izlenebilir ve kimliği belirli bir milyar veri katkısı demek. Güvenilir yapay zekanın temeli bu; isimsiz toplu işleyle burada yapısal olarak benzer bir sonuç almak mümkün değil.”
BeInCrypto: Model çöküşü, araştırma çevrelerinde sıkça konuşulsa da ana akım tartışmalara pek yansımıyor. Sizce neden? İnsanlar endişelenmeli mi?
Ahmed Rashad: “Ana akıma taşınmıyor çünkü bu yavaş gelişen bir kriz, dramatik bir olay değil. Model çöküşü, yani yapay zeka sistemlerinin giderek daha fazla kendi üretebildiği veriyle eğitilmesiyle başlayan ve zaman içinde kaliteyi aşındıran süreç hemen fark edilmiyor. Sonuçta manşetlik bir kriz olmaz, kalite yavaşça erir ve boyutunu ancak iş çok büyüdüğünde fark edersiniz.
Mekanizma basit: İnternet giderek yapay zeka tarafından üretilmiş içerikle doluyor. Bu içerikle eğitilen modeller, gerçek insan bilgisinden çok kendi çıktılarından besleniyor. Her yeni eğitim döngüsü, öncekilerin bozulmasını daha da pekiştiriyor. Bir tür geri besleme döngüsü ve kendiliğinden bir düzeltmesi yok.
Daha fazla kişi endişelenmeli mi? Evet, özellikle yüksek riskli alanlarda. Model çöküşü sadece içerik öneri algoritmasını etkilerse, sonuçlarınız kötüleşir. Fakat tıbbi teşhis, yasal değerlendirme ya da savunma istihbaratına dayalı sistemlerde bunun sonuçları bambaşka olur. Hata payı bir anda ortadan kalkar.”
Yapay zekâ kritik altyapılara entegre olurken, insan doğrulamalı veri katmanı artık bir seçenek olmaktan çıkıyor. Eğitim için sürekli, gerçek ve çeşitli insan zekâsı kaynağına ihtiyaç var; başka bir modelden geçirilmiş yapay zekâ çıktıları değil. Bizim, onlarca farklı alandaki gerçek uzmanlıkları temsil eden bir milyondan fazla etiketleyicimiz var. Bu çeşitlilik, model çöküşüne karşı en büyük panzehir. Bunu sentetik verilerle ya da daha fazla bilgisayar gücüyle düzeltemezsiniz.”
BeInCrypto: Yapay zekâ dijital ortamlardan fiziksel sistemlere geçtiğinde, risk, sorumluluk ve geliştirme standartlarında temel olarak ne değişiyor?
Ahmed Rashad: Geri dönüşsüzlük devreye giriyor. Esas mesele bu. Halüsinasyon gören bir dil modeli yanlış bir cevap üretir; bunu düzeltebilirsiniz, işaretlersiniz ve yolunuza devam edersiniz. Fakat yanlış çıkarıma dayalı çalışan bir cerrahi robot, hatalı sınıflandırma yapan bir otonom araç, yanlış hedefe odaklanan bir drone için geri alma butonu yok. Başarısızlığın maliyeti utanç vericiden felakete evriliyor.
Bu da uygulanacak standartları kökten değiştiriyor. Dijital ortamlarda yapay zekâ geliştirme süreci genellikle hızlı gitmesine ve kendi kendini düzeltmesine izin veriliyordu. Ancak fiziksel sistemlerde bu model uygulanamaz. Buradaki eğitim verilerinin, sistemler hayata geçirilmeden önce doğrulanmış olması şart; bir olay yaşandıktan sonra denetlemek yeterli değil.
Bu durum hesap verebilirliği de farklı kılıyor. Dijital ortamda sorumluluğu dağıtmak, yani model mi? Veri mi? Dağıtım mı? demek kolay. Fiziksel sistemlerde özellikle insanlara zarar verildiğinde düzenleyiciler ve mahkemeler net cevaplar isteyecek. Kim eğitti? Hangi verilerle eğitildi? O verileri kim, hangi standartlarla doğruladı? Bu sorulara yanıt verebilen şirketler ve devletler bu alanda faaliyet gösterebilecek. Yanıt veremeyenler ise hazırlıksız yakalanacakları sorumluluklarla karşı karşıya kalacak.
İşte biz Perle’ü tam da bu geçiş için inşa ettik. İnsan doğrulamalı, uzman katkılı ve zincir üstü olarak denetlenebilir. Yapay zekâ artık depolarda, ameliyathanelerde, savaş alanlarında çalışmaya başladığında, altındaki zekâ katmanının çok farklı ve yüksek bir standartta olması gerekecek. Biz de tam olarak o standart için çalışıyoruz.
BeInCrypto: Günümüzde veri zehirleme veya yapay zekâ sistemlerine yönelik kasıtlı manipülasyon tehdidi ne kadar gerçek? Özellikle ulusal düzeyde durum nasıl?
Ahmed Rashad: “Bu tehdit tamamen gerçek, belgelenmiş durumda ve gizli bilgilere erişimi olan profesyoneller tarafından ulusal güvenlik önceliği olarak ele alınıyor.
DARPA’nın GARD programı (Yapay Zekânın Aldatmaya Karşı Dayanıklılığının Garanti Edilmesi), yıllarca, veri zehirleme de dahil, yapay zekâ sistemlerine karşı yapılan saldırılara özel olarak savunma geliştirdi. Ulusal Güvenlik Ajansı (NSA) ve Siber ve Altyapı Güvenliği Ajansı (CISA), 2025 yılında yayınladıkları ortak rehberde, yapay zekâ sistemlerinin bütünlüğü açısından veri tedarik zincirindeki zafiyetlere ve kötü niyetli şekilde değiştirilmiş eğitim verilerinin gerçek bir tehdit olduğuna açıkça vurgu yaptı. Bunlar teorik beyaz kitaplar değil. Bunlar, varsayımsal riskler için uyarı yayınlamayan kurumlardan gelen operasyonel rehberler.
Saldırı yüzeyi oldukça geniş. Eğer tehdit tespiti, tıbbi teşhis ya da lojistik optimizasyonu gibi kritik alanlarda kullanılacak bir yapay zekâ sisteminin eğitim verisini ele geçirebilirseniz, sisteme sızmanız gerekmez. Algılayış biçimini baştan şekillendirmiş olursunuz. Bu da klasik siber saldırılardan çok daha zarif ve tespiti zor bir yöntem olarak öne çıkıyor.
Scale AI’ın ABD Savunma Bakanlığı’nın Baş Dijital ve Yapay Zekâ Ofisi (CDAO) ile yaptığı 300 milyon dolarlık sözleşmesinin önemli bir nedeni de bu: Devlet, hassas ortamlarda doğrulanmamış açık verilerle eğitilmiş yapay zekâya güvenemeyeceğini biliyor. Veri kaynağının güvenilirliği bu seviyede akademik bir tartışma değil; operasyonel bir gereklilik.
Genel tartışmalarda çoğunlukla gözden kaçan nokta şu: Bu sadece kamuya özgü bir sorun değil. Rekabetçi bir ortamda yapay zekâ kullanan her şirketin –ister finansal hizmetler, ister ilaç, ister kritik altyapı– aslında tam olarak haritalandırmadığı bir rakipten gelecek veri riski bulunuyor. Tehdit gerçek. Savunma sistemleri ise hâlâ gelişiyor.”
BeInCrypto: Bir devlet ya da büyük bir şirket bu doğrulama katmanını neden kendi başına inşa edemiyor? Biri itiraz ettiğinde gerçek cevap nedir?
Ahmed Rashad: “Bazıları deniyor. Deneyenler ise asıl sorunun ne olduğunu çok hızlı anlıyor.
Teknolojiyi inşa etmek kolay. Zor olan ise ağı kurmak. Doğrulanmış, belgeli alan uzmanları –radyolog, dil bilimci, hukukçu, mühendis, bilim insanı– yalnızca onlar için bir platform kurduğunuz için size katılmaz. Onları bulup dahil etmeniz, sertifikalandırmanız, onları sistemde tutacak teşvik yapılarını oluşturmanız ve katkılarının büyük ölçekte anlamlı olmasını sağlayacak kalite mutabakat mekanizmalarını geliştirmeniz gerekir. Bu yıllar alır ve kamu kurumlarının veya büyük şirketlerin çoğu bu uzmanlığa kurum içinde sahip değildir.
İkinci sorun çeşitlilik. Kendi doğrulama katmanını kuran bir devlet kurumu, tanımı gereği dar ve benzer profillerden oluşan bir gruba ulaşabilir. Küresel uzman ağının değeri yalnızca belgelerden ibaret değil; gerçek anlamda coğrafya ve kültür farkı gözetmeden, geniş bakış açısı, dil ve alan farklılığı sunabilmesidir. Bizde bir milyondan fazla etiketleyici var. Bunu kurum içinde tekrarlamak mümkün değil.
Üçüncü sorun ise teşviklerin tasarımı. Kaliteli uzmanların uzun süre katkı sunmaya devam etmesini sağlamak için şeffaf, adil ve programlanabilir bir ücretlendirme gerekir. Blockchain altyapıları bunu mümkün kılıyor: Değiştirilemez katkı kayıtları, doğrudan atıf ve kanıtlanabilir ödeme şansı sağlıyor. Devletin satın alma sistemi ise bunu verimli şekilde yapamaz.
İtiraza verilecek dürüst cevap şu: Sadece bir araç satın almıyorsunuz. Yıllar süren bir ağ ve belge sistemine erişiyorsunuz. Alternatifiniz ‘kendi başına kurmak’ değil; ‘var olanı kullanmak ya da o sisteme sahip olmamanın veri kalitesi riskini göze almak.’”
BeInCrypto: Eğer yapay zekâ bir ülkenin temel altyapısının ayrılmaz parçası olursa, beş yıl sonra egemen bir zekâ katmanı bu yapının neresinde yer alır?
Ahmed Rashad: “Beş yıl sonra bence bu; bugün finansal denetimlerin yapıldığı gibi, veri ile dağıtım arasında vazgeçilmez bir doğrulama katmanı olarak konumlanacak ve bunun hem yasal dayanağı hem de mesleki standartları olacak.
Şu an yapay zekâ, finansal denetim benzeri bir sistem olmadan geliştiriliyor. Şirketler eğitim verileriyle ilgili olarak kendilerini raporluyor. Bağımsız doğrulama, mesleki sertifikasyon veya modellerin arkasındaki zekânın belirli bir standardı karşıladığını belirten üçüncü taraf onayı yok. Tıpkı Sarbanes-Oxley öncesi finans gibi, güven ve kendi kendini doğrulamaya dayalı bir süreçteyiz.
Yapay zekâ elektrik şebekeleri, sağlık sistemleri, finansal piyasalar, savunma ağları gibi kritik altyapıların temel unsuru oldukça bu model sürdürülemez hale gelecek. Devletler, denetlenebilirliği zorunlu kılacak. Sözleşme ön koşulu olarak doğrulanmış veri kaynağı talep edilecek. Sorumluluk mekanizmaları, doğru doğrulama süreci kullanılmadığında oluşabilecek hatalar için ciddi sonuçlara yol açacak.
Perle bu yapının doğrulama ve belgelenebilirlik katmanında olacak. Hangi modelin, kim tarafından, hangi standartlarla eğitildiğinin değiştirilemez ve denetlenebilir bir kaydını sunan yapı olarak çalışacak. Beş yıl sonra bu, yapay zekâ gelişiminin yalnızca bir özelliği olmayacak; vazgeçilmez bir gereklilik olacak.
Buradaki esas mesele şu: Egemen zekâ, sadece savunma sektörüne özgü dar bir kaygı değil. Başarısızlığın geri dönülmez sonuçlar doğurabileceği her alanda yapay zekânın kullanılabilmesini sağlayan temel taş bu olacak. Ve yapay zekâ daha fazla alana yayılırken, bu temelden vazgeçmek ateşle oynamaya benzer.”