Son dönemlerde, attığı büyük yapay zeka adımlarıyla birlikte OpenAI ile iyi bir kurumsal iletişime sahip olan Microsoft, iş ortağının yapay zeka modeli ChatGPT ile ilgili ilginç bir karara imza attı. Karar, yapay zekaya duyulan güven açısından son derece önemli. İşte detaylar
Microsoft, çalışanlarının ChatGPT kullanmasını yasakladı!
CNBC’nin haberine göre Microsoft, geçtiğimiz günlerde “veri gizliliği ve güvenliği” ile ilgili endişeleri hasebiyle şirket çalışanlarının ChatGPT kullanımını tamamıyla yasakladı. Bu yasak kapsamında şirket çalışanlarının kurumsal cihazları üzerinden modele erişimleri kısıtlandı. En son kısa bir süre önce OpenAI ile 3 milyar dolarlık bir yatırım sözleşmesi imzalayan şirketin bu kararı, görenleri hayrete düşürdü.
Kullanıcılarına sunduğu yapay zeka hizmetlerinde ChatGPT ile entegre bir şekilde çalışan şirketin uygulamış olduğu kısıtlama, kamuoyuna sızdırıldıktan sonra büyük bir tepkiyle karşılandı. Microsoft’un kendi içerisinde dahi ChatGPT’ye güvenmediğini gören kullanıcılar, kendi güvenlikleri ile ilgili endişelerini ifade ettiler.
Mozilla, yapay zeka asistanı FakeSpot’u tanıttı: Çevrim içi alışverişte devrim!
Kamuoyunun göstermiş olduğu tepkileri fark eden Microsoft, geri adım attı. Yaptığı açıklamada sürdürülen bir test kapsamında ChatGPT’nin yanlışlıkla kısıtlandığını ifade eden şirket, OpenAI ürünlerinin kullanımını teşvik eden yaklaşımının bir kez daha üzerini çizdi. Ayrıca, söz konusu erişim engelinin de kaldırıldığını belirtti.
Microsoft’un yapmış olduğu açıklama, karşı karşıya kalınan duruma açıklık getirse de birçok kullanıcı bu açıklamayı samimî bulmadıklarını ifade etti. Şirketin söz konusu soru işaretlerini gidermek adına nasıl bir yaklaşım sergileyeceği ise merak edilen detaylar arasında. Peki, sizler bu konuyla ilgili olarak neler düşünüyorsunuz? Görüşlerinizi bizlerle yorumlar kısmından paylaşabilirsiniz.
Microsoft bir yazılım şirketi. Chatgpt girilen tüm veri datalarını kaydediyor ve başkaları ile paylaşıyor. Adamın girdiği yazılım projelerininin algoritmalarını chatgpt bu sefer başka kullanıcılar ile paylaşıyor. Buda şirketin proje yazılım dökümanlarının ifşa olması demektir. Sonuç bir sürü kopya proje ortaya çıkar buna emek hırsızlığı denir.
Chat GPT yerine co-pilot tavsiye ederim
Oda aynı, kritik projelerinizi lütfen bu gibi araçlarla çaldırmayın
Bard daha iyi copilot sürekli bu konuşmayı bitirmek istiyorum diyip duruyor.
Mantıklı karar. İş konusunda yazılım konusunda chatgptyi kullanmalı en ufak bile veri sızıntısı olsa şirketin büyük sorunu hale gelir. Sürekli öğrenme halinde olan gpt şirket içi bilgileri normal bilgi gibi salabilme ihtimali var. Saçma bulanlar için şöyle anlatayim. Gmail hesabınızın sifrsini bir metin belgesine koyup onedrive a yüklediğiniz düşünün.
Çok komik. Clickbaitin böylesi. Seviyeniz epey aşağı.
Başlıkta kıyamet koptu, içerikte mesela yani.
Güzel mizah.