OpenAI, insan zekasına eşdeğer yapay zeka geliştirme yarışında önde gelen isimlerden biri olarak dikkat çekiyor. Ancak, şirketin 80 milyar dolarlık araştırma laboratuvarındaki çalışanlar, güvenlik konusundaki ciddi endişelerini kamuoyuna duyurmaktan çekinmiyor. En son The Washington Post‘ta yer alan bir haberde, anonim bir kaynağın OpenAI’nin güvenlik testlerini aceleye getirdiği ve ürünlerinin güvenliğini sağlamadan önce kutlama yaptığını iddia etmesi, bu endişeleri daha da belirgin hâle getirdi.
Şirket içindeki bir çalışan, “Lansman sonrası partiyi, lansmanın güvenli olup olmadığını bilmeden planladılar. Süreci başarıyla tamamlayamadık.” diyerek durumu özetledi. Bu tür iddialar, OpenAI’nin güvenlik konularında ciddi zafiyetler yaşadığını gözler önüne seriyor.
OpenAI’nin güvenlik sorunları sadece anonim kaynakların iddialarıyla sınırlı değil. Şirketin mevcut ve eski çalışanları, kısa bir süre önce güvenlik ekibinin dağıtılmasının ardından daha iyi güvenlik ve şeffaflık uygulamaları talep eden bir açık mektup imzaladı. Bu mektup, kurucu ortak Ilya Sutskever’in ayrılmasının hemen sonrasında geldi. Önde gelen OpenAI araştırmacılarından Jan Leike de kısa süre sonra istifa ederek, şirketin güvenlik kültürü ve süreçlerinin göz alıcı ürünlere arka planda kaldığını belirtti.
OpenAI’ın tüzüğünde güvenlik temel bir unsur olarak yer alıyor ve bu tüzükte, AGI (Yapay Üretken Zekâ) başka bir rakip tarafından geliştirilirse, OpenAI’ın güvenliği ilerletmek için diğer kuruluşlara yardım edeceği belirtiliyor. Şirket, büyük ve karmaşık bir sistemin doğasında bulunan güvenlik sorunlarını çözmeye kendini adamış olduğunu iddia ediyor. Ancak yapılan uyarılar, güvenliğin şirketin kültür ve yapısında öncelikli olmaktan çıkarıldığını gösteriyor.
OpenAI’nin mevcut durumu oldukça kritik, ancak yalnızca halkla ilişkiler çabaları toplumu korumaya yetmeyecek. Şirket sözcüsü Taya Christianson, The Verge‘e verdiği demeçte, “En yetenekli ve en güvenli AI sistemlerini sağlama konusundaki sicilimizle gurur duyuyoruz ve riski ele alma konusunda bilimsel yaklaşımımıza inanıyoruz.” dedi. “Bu teknolojinin önemi göz önüne alındığında titiz tartışma kritiktir ve misyonumuz doğrultusunda hükümetlerle, sivil toplumla ve dünyanın dört bir yanındaki diğer topluluklarla etkileşime devam edeceğiz.”
OpenAI ve bu gelişen teknolojiyi inceleyen diğerlerine göre, güvenlik konusundaki riskler oldukça büyük. ABD Dışişleri Bakanlığı tarafından hazırlanan bir raporda, “Mevcut sınır AI gelişimi ulusal güvenlik için acil ve artan riskler oluşturuyor,” denildi. “Gelişmiş AI ve AGI’nin (yapay genel zeka) yükselişi, nükleer silahların tanıtımına benzer şekilde küresel güvenliği istikrarsızlaştırma potansiyeline sahiptir.”
Geçen yıl CEO Sam Altman’ın kısa bir süreliğine görevden alınmasına yol açan yönetim kurulu darbesinin ardından OpenAI’de çalan alarm zilleri, personelin güvenini pekiştirmeye yetmedi. Yönetim kurulu, Altman’ın “iletişimlerinde sürekli dürüst olmama” nedeniyle görevden alındığını açıkladı ve bu, personeli pek rahatlatmayan bir soruşturmaya yol açtı.
OpenAI sözcüsü Lindsey Held, The Washington Post’a yaptığı açıklamada, GPT-4o lansmanının güvenlik konusunda “köşeleri kesmediğini” belirtti. Ancak başka bir isimsiz şirket temsilcisi, güvenlik inceleme zaman çizelgesinin bir haftaya sıkıştırıldığını kabul etti. Bu temsilci, “Bunu yapmanın en iyi yolu olmadığını fark ederek tüm yöntemimizi yeniden düşünüyoruz,” dedi.
OpenAI, bu hafta Los Alamos Ulusal Laboratuvarı ile GPT-4o gibi gelişmiş AI modellerinin biyobilimsel araştırmalara güvenli bir şekilde nasıl yardımcı olabileceğini keşfetmek için işbirliği yapacağını açıkladı. Aynı duyuruda Los Alamos’un kendi güvenlik siciline defalarca vurgu yapıldı. Ayrıca, OpenAI’nin büyük dil modellerinin yapay genel zekaya doğru ilerlemesini izlemek için dahili bir ölçek oluşturduğu belirtildi.
Bu haftaki güvenlik odaklı duyurular, OpenAI’nin güvenlik uygulamalarına yönelik artan eleştiriler karşısında savunmacı bir pencere süslemesi gibi görünüyor. Açıkça görülüyor ki, OpenAI şu anda zor durumda, ancak yalnızca halkla ilişkiler çabaları toplumu korumaya yetmeyecek. Gerçekten önemli olan, OpenAI’nin katı güvenlik protokolleriyle yapay zeka geliştirmeye devam etmemesi durumunda, Silikon Vadisi balonunun ötesindeki insanlara olası etkileridir. Ortalama bir insan, özelleştirilmiş AGI’nin geliştirilmesinde söz sahibi olamıyor ve OpenAI’nin yaratımlarından ne kadar korunacaklarına dair bir seçim yapamıyorlar.
ABD FTC başkanı Lina Khan, geçtiğimiz kasım ayında Bloomberg’e yaptığı açıklamada, “AI araçları devrim niteliğinde olabilir.” demişti. Ancak “şu anda,” bu araçların kritik girdilerinin “göreceli olarak az sayıda şirket tarafından kontrol edildiğine” dair endişeler olduğunu belirtti.
Güvenlik protokollerine karşı yapılan sayısız iddia doğruysa, bu durum OpenAI’ın AGI’nin emanetçisi rolü için ne kadar uygun olduğu konusunda ciddi soruları gündeme getiriyor. San Francisco’daki bir grubun potansiyel olarak toplumu değiştiren teknolojiyi kontrol etmesine izin vermek endişe verici bir durumdur ve şimdi her zamankinden daha fazla şeffaflık ve güvenlik talebi var.
Yapay zekâ gelişiminde ciddi sorunlar - Yorumlar
Yapılan Yorumlar
BENZER İÇERİKLERİlginizi çekebilecek diğer içerikler
Threads düzenleme süresini 15 dakikaya uzattı 03 Ekim 2024
Wi-Fi 7 ile hız ve güvenlik 03 Ekim 2024
SOSYAL MEDYADA BİZSitemizin sosyal medya hesapları
Hoşgeldiniz
Eski Kafa Herkes Burada - Tüm Hakları Saklıdır