Teknoloji Haberleri - ShiftDelete.Net
Reklam
Reklam

OpenAI ve Google DeepMind çalışanları uyardı: Yapay zeka kontrolden çıkıyor mu?

Ana sayfa /

Teknoloji dünyasında büyük yankı uyandıran yeni bir gelişme yaşandı. Yapay zeka devleri olarak bilinen OpenAI ve Google DeepMind’in hem eski hem de şimdiki çalışanları, şirketlerin iç işleyişine dair çarpıcı detayları gözler önüne seren açık mektuplarıyla herkesi uyardı. Yedi eski OpenAI çalışanı, dört mevcut OpenAI çalışanı, bir eski Google DeepMind çalışanı ve bir mevcut Google DeepMind çalışanı tarafından imzalanan açık mektup, yapay zeka teknolojilerinin potansiyel riskleri ve bu risklerin yönetimi konusundaki ciddi endişeleri çalışanların gözünden aktarıyor. İşte detaylar…

Yayınlanan açık mektupta, yapay zeka teknolojilerinin mevcut eşitsizlikleri daha da derinleştirebileceği, manipülasyon ve yanlış bilgilendirme yayılımına yol açabileceği ve otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi durumunda insanlık için varoluşsal tehditler oluşturabileceği vurgulandı.

Şirketlerin bu riskleri kabul ettiğine de dikkat çeken çalışanlar, mevcut kurumsal yönetim yapılarının bu sorunları çözmede de yetersiz olduğunu belirtiyor. Ayrıca bahsi geçen yapay zeka şirketlerinin, risk seviyeleri hakkında bilgi paylaşmaktan ve denetimden kaçınmak için güçlü mali teşvikleri olduğu da çalışanların bizzat kendi ağzından açıklandı.

Reklam
Reklam

OpenAI CEO’sunun neden kovulduğu belli oldu!

Geçtiğimiz kasım ayında OpenAI yönetim kurulu, CEO'sunu kovmuştu. Herkesi şok eden gelişmenin nedeni bugün ortaya çıktı. İşte detaylar...

Çalışanlar, hükümetlerin denetim eksikliği nedeniyle oluşturulan geniş gizlilik anlaşmalarının da riskleri dile getirmelerini engellediğini ifade etti:

İleri Yapay Zeka Hakkında Uyarı Yapma Hakkı

Bizler ileri yapay zeka şirketlerinde çalışan veya çalışmış kişiler olarak, yapay zeka teknolojisinin insanlığa benzeri görülmemiş faydalar sunma potansiyeline inanmaktayız.

Aynı zamanda, bu teknolojilerin yarattığı ciddi risklerin de farkındayız. Bu riskler, mevcut eşitsizliklerin daha da pekişmesinden, manipülasyon ve yanlış bilgi yayılımına kadar uzanmakta ve otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi durumunda insanlığın yok olmasına kadar varan sonuçlar doğurabilir.

Yapay zeka şirketleri ise bu riskleri kabul etmektedir [OpenAI, Anthropic, Google DeepMind], dünya genelindeki hükümetler [ABD, Birleşik Krallık, Bletchley Deklarasyonu’ndaki 26 ülke] ve diğer yapay zeka uzmanları da bu risklerin farkındadır.

Bu risklerin; bilim camiası, politikacılar ve kamuoyunun yeterli yönlendirmeleri ile uygun bir şekilde azaltılabileceği konusunda ümitliyiz. Ancak yapay zeka şirketlerinin etkili denetimden kaçınmak için güçlü finansal teşvikleri var ve özel kurumsal yönetim yapılarının bunu değiştirmeye yeterli olacağına inanmıyoruz.

Yapay zeka şirketleri, sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerin yeterliliği ve farklı türlerdeki zararların risk seviyeleri hakkında kamuya açık olmayan önemli bilgilere sahipler. Ancak şu anda hükümetlerle bu bilgilerin bir kısmını paylaşma konusunda zayıf yükümlülüklere sahipler, sivil toplumla ise hiçbirini paylaşmıyorlar. Tüm bilgileri gönüllü olarak paylaşacakları konusunda hepsinin güvenilebileceğini de düşünmüyoruz.

Yapay zeka şirketleri üzerinde etkin bir hükümet denetimi yapılmadığı sürece, mevcut ve eski çalışanlar bahsi geçen şirketleri kamuya karşı sorumlu tutabilecek çok az sayıdaki kişiler arasındadır. Ancak geniş gizlilik anlaşmaları, endişelerimizi sadece bu sorunları ele almayan şirketlere iletmemize izin vermektedir.

Mevcut ihbarcı (whistleblower) korumaları, yasa dışı faaliyetlere odaklandıkları için yeterli değildir çünkü endişe duyduğumuz birçok risk henüz düzenlenmemiştir. Sektördeki benzer vakaların geçmişi göz önüne alındığında bazılarımız çeşitli misillemelerden haklı olarak korkmaktadır. Bu sorunlarla karşılaşan veya bunları dile getiren ilk kişiler de biz değiliz.

Bu nedenle ileri yapay zeka şirketlerine aşağıdaki ilkelere bağlı kalmaları çağrısında bulunuyoruz:

  • Şirket, riskle ilgili endişeler nedeniyle şirketin eleştirilmesini veya aşağılanmasını yasaklayan herhangi bir anlaşmaya girmeyecek veya uygulamayacak veya riskle ilgili eleştiriler nedeniyle hiçbir ekonomik kazancı engelleyerek misilleme yapmayacaktır;
  • Şirket, mevcut ve eski çalışanlarının riskle ilgili endişelerini anonim olarak şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa iletmelerini sağlamak için bir süreç başlatacaktır;
  • Şirket, ticari sırlar ve diğer fikri mülkiyet çıkarları uygun şekilde korunmak koşuluyla mevcut ve eski çalışanlarının riskle ilgili endişelerini kamuya, şirketin yönetim kuruluna, düzenleyicilere veya ilgili uzmanlığa sahip bağımsız bir kuruluşa iletmelerine izin veren açık eleştiri kültürünü destekleyecektir;
  • Şirket, diğer süreçler başarısız olduktan sonra riskle ilgili gizli bilgileri kamuya açıklayan mevcut ve eski çalışanlara misilleme yapmayacaktır. Riskle ilgili endişeleri bildirme çabalarının gereksiz yere gizli bilgileri ifşa etmemesi gerektiğini kabul ediyoruz. Bu nedenle çalışanların endişelerini anonim olarak şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa bildirebilecekleri yeterli bir süreç var olduğunda, endişelerin öncelikle bu süreçle iletilmesi gerektiğini kabul ediyoruz. Ancak, böyle bir süreç mevcut olmadığı sürece, mevcut ve eski çalışanların endişelerini kamuya bildirme özgürlüğünü korumaları gerektiğine inanıyoruz.”

Bu çarpıcı açık mektuba imza atanlar arasında eski OpenAI çalışanları Jacob Hilton, Daniel Kokotajlo, William Saunders, Carroll Wainwright ve Daniel Ziegler ile eski Google DeepMind çalışanı Ramana Kumar ve eski Anthropic mevcut Google DeepMind çalışanı Neel Nanda yer alıyor. Ayrıca 4 mevcut 2 eski OpenAI çalışanı da anonim bir şekilde açık mektubu imzaladı.

Bu mektup, yapay zeka teknolojilerinin ciddi riskler barındırdığını gözler önüne serse de hala bu risklerin ne olduğu konusunda hiçbir detay paylaşmıyor. Çalışanların da belirttiği üzere bu konuda hükümetlerin gerekli denetimleri acil olarak başlatması yerinde olacak.

Bu süreçte yapay zeka geliştiren şirketlerin daha şeffaf olması ve hükümetler tarafından etkili denetim mekanizmalarının kurulması hayati önem taşıyor. Siz bu açık mektubu nasıl yorumluyorsunuz? Sizce gelişmiş yapay zeka ne gibi riskleri arkasında saklıyor?

Reklam
Reklam

Yorum Ekleyin


Reklam
Reklam