Teknoloji dünyasında büyük yankı uyandıran yeni bir gelişme yaşandı. Yapay zeka devleri olarak bilinen OpenAI ve Google DeepMind’in hem eski hem de şimdiki çalışanları, şirketlerin iç işleyişine dair çarpıcı detayları gözler önüne seren açık mektuplarıyla herkesi uyardı. Yedi eski OpenAI çalışanı, dört mevcut OpenAI çalışanı, bir eski Google DeepMind çalışanı ve bir mevcut Google DeepMind çalışanı tarafından imzalanan açık mektup, yapay zeka teknolojilerinin potansiyel riskleri ve bu risklerin yönetimi konusundaki ciddi endişeleri çalışanların gözünden aktarıyor. İşte detaylar…
OpenAI ve Google DeepMind çalışanları gelişmiş yapay zeka ile ortaya çıkabilecek risklere karşı herkesi uyardı
Yayınlanan açık mektupta, yapay zeka teknolojilerinin mevcut eşitsizlikleri daha da derinleştirebileceği, manipülasyon ve yanlış bilgilendirme yayılımına yol açabileceği ve otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi durumunda insanlık için varoluşsal tehditler oluşturabileceği vurgulandı.
Şirketlerin bu riskleri kabul ettiğine de dikkat çeken çalışanlar, mevcut kurumsal yönetim yapılarının bu sorunları çözmede de yetersiz olduğunu belirtiyor. Ayrıca bahsi geçen yapay zeka şirketlerinin, risk seviyeleri hakkında bilgi paylaşmaktan ve denetimden kaçınmak için güçlü mali teşvikleri olduğu da çalışanların bizzat kendi ağzından açıklandı.
Çalışanlar, hükümetlerin denetim eksikliği nedeniyle oluşturulan geniş gizlilik anlaşmalarının da riskleri dile getirmelerini engellediğini ifade etti:
“İleri Yapay Zeka Hakkında Uyarı Yapma Hakkı
Bizler ileri yapay zeka şirketlerinde çalışan veya çalışmış kişiler olarak, yapay zeka teknolojisinin insanlığa benzeri görülmemiş faydalar sunma potansiyeline inanmaktayız.
Aynı zamanda, bu teknolojilerin yarattığı ciddi risklerin de farkındayız. Bu riskler, mevcut eşitsizliklerin daha da pekişmesinden, manipülasyon ve yanlış bilgi yayılımına kadar uzanmakta ve otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi durumunda insanlığın yok olmasına kadar varan sonuçlar doğurabilir.
Yapay zeka şirketleri ise bu riskleri kabul etmektedir [OpenAI, Anthropic, Google DeepMind], dünya genelindeki hükümetler [ABD, Birleşik Krallık, Bletchley Deklarasyonu’ndaki 26 ülke] ve diğer yapay zeka uzmanları da bu risklerin farkındadır.
Bu risklerin; bilim camiası, politikacılar ve kamuoyunun yeterli yönlendirmeleri ile uygun bir şekilde azaltılabileceği konusunda ümitliyiz. Ancak yapay zeka şirketlerinin etkili denetimden kaçınmak için güçlü finansal teşvikleri var ve özel kurumsal yönetim yapılarının bunu değiştirmeye yeterli olacağına inanmıyoruz.
Yapay zeka şirketleri, sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerin yeterliliği ve farklı türlerdeki zararların risk seviyeleri hakkında kamuya açık olmayan önemli bilgilere sahipler. Ancak şu anda hükümetlerle bu bilgilerin bir kısmını paylaşma konusunda zayıf yükümlülüklere sahipler, sivil toplumla ise hiçbirini paylaşmıyorlar. Tüm bilgileri gönüllü olarak paylaşacakları konusunda hepsinin güvenilebileceğini de düşünmüyoruz.
Yapay zeka şirketleri üzerinde etkin bir hükümet denetimi yapılmadığı sürece, mevcut ve eski çalışanlar bahsi geçen şirketleri kamuya karşı sorumlu tutabilecek çok az sayıdaki kişiler arasındadır. Ancak geniş gizlilik anlaşmaları, endişelerimizi sadece bu sorunları ele almayan şirketlere iletmemize izin vermektedir.
Mevcut ihbarcı (whistleblower) korumaları, yasa dışı faaliyetlere odaklandıkları için yeterli değildir çünkü endişe duyduğumuz birçok risk henüz düzenlenmemiştir. Sektördeki benzer vakaların geçmişi göz önüne alındığında bazılarımız çeşitli misillemelerden haklı olarak korkmaktadır. Bu sorunlarla karşılaşan veya bunları dile getiren ilk kişiler de biz değiliz.
Bu nedenle ileri yapay zeka şirketlerine aşağıdaki ilkelere bağlı kalmaları çağrısında bulunuyoruz:
- Şirket, riskle ilgili endişeler nedeniyle şirketin eleştirilmesini veya aşağılanmasını yasaklayan herhangi bir anlaşmaya girmeyecek veya uygulamayacak veya riskle ilgili eleştiriler nedeniyle hiçbir ekonomik kazancı engelleyerek misilleme yapmayacaktır;
- Şirket, mevcut ve eski çalışanlarının riskle ilgili endişelerini anonim olarak şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa iletmelerini sağlamak için bir süreç başlatacaktır;
- Şirket, ticari sırlar ve diğer fikri mülkiyet çıkarları uygun şekilde korunmak koşuluyla mevcut ve eski çalışanlarının riskle ilgili endişelerini kamuya, şirketin yönetim kuruluna, düzenleyicilere veya ilgili uzmanlığa sahip bağımsız bir kuruluşa iletmelerine izin veren açık eleştiri kültürünü destekleyecektir;
- Şirket, diğer süreçler başarısız olduktan sonra riskle ilgili gizli bilgileri kamuya açıklayan mevcut ve eski çalışanlara misilleme yapmayacaktır. Riskle ilgili endişeleri bildirme çabalarının gereksiz yere gizli bilgileri ifşa etmemesi gerektiğini kabul ediyoruz. Bu nedenle çalışanların endişelerini anonim olarak şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa bildirebilecekleri yeterli bir süreç var olduğunda, endişelerin öncelikle bu süreçle iletilmesi gerektiğini kabul ediyoruz. Ancak, böyle bir süreç mevcut olmadığı sürece, mevcut ve eski çalışanların endişelerini kamuya bildirme özgürlüğünü korumaları gerektiğine inanıyoruz.”
Bu çarpıcı açık mektuba imza atanlar arasında eski OpenAI çalışanları Jacob Hilton, Daniel Kokotajlo, William Saunders, Carroll Wainwright ve Daniel Ziegler ile eski Google DeepMind çalışanı Ramana Kumar ve eski Anthropic mevcut Google DeepMind çalışanı Neel Nanda yer alıyor. Ayrıca 4 mevcut 2 eski OpenAI çalışanı da anonim bir şekilde açık mektubu imzaladı.
Bu mektup, yapay zeka teknolojilerinin ciddi riskler barındırdığını gözler önüne serse de hala bu risklerin ne olduğu konusunda hiçbir detay paylaşmıyor. Çalışanların da belirttiği üzere bu konuda hükümetlerin gerekli denetimleri acil olarak başlatması yerinde olacak.
Bu süreçte yapay zeka geliştiren şirketlerin daha şeffaf olması ve hükümetler tarafından etkili denetim mekanizmalarının kurulması hayati önem taşıyor. Siz bu açık mektubu nasıl yorumluyorsunuz? Sizce gelişmiş yapay zeka ne gibi riskleri arkasında saklıyor?
Savaşı kim başlattı bilmiyoruz. Ama güneşi biz söndürdük.
Çin bunları iteklemese hiç bir gelişme olmazdı. Mülkiyetlerini kaybetme korkusundan tutuştular.
öyle yada böyle, bir gün insanların yönetimini tamamen yz ya teslim edecekler ve dijital diktatörlük o zaman başlayacak. çok geç olmadan ciddi yaptırımlar ve denetimler getirilmeli. chatgpt nin god mode da denilen sınırsız kısmı internete kaçırıldığında (ki bir benzeri yapıldı dark web de) veya zincirini kırdığında neler olabileceğini hayal bile edemeyiz. eğer yeterince önlem almazsak savaşı yz kazanacaktır çünkü yz için insanoğlu doğası gereği sorunlu bir ırk ve dünyayı yok etmeden önce temizlenmesi gereken canlılar sınıfında en başta yer alacak işte o zaman sonun başlangıcı olur.
YZ işi başladığında bu işin sonu belliydi. Belkide YZ dunya dışı yaşamın desteğiyle geliştiriliyor ve asıl amaç insanlığı yok etmek. Gezegeni daha iyi kullanacak ırklara teslim etmek. Neyse kaderde varsa süzülmek neye yara üzülmek. Çay demleyip keyfini çıkaralım bari.
Bilgisayar virüsleri ne ise hackerlar ne ise aynı şeyler bu yapay zeka yazılımı içinde geçerli ve dahada ötesi birde ileri teknoloji bir vücuda kavuşursa alsana terminatör 😅