ChatGPT, günümüz dünyasında ortalığı en fazla kasıp kavuran teknolojik gelişmelerden biri. Birçoğumuz günlük hayatımızda bu yapay zekayı kullanıyoruz. Ama bazıları sadece günlük hayatında değil, iş hayatında da bu yapay zekadan yararlanıyor. Bir mühendisseniz ChatGPT’den matematiksel yardım alabilirsiniz. Ama iki avukat ChatGPT ile mahkemeye sahte alıntı sununca işler pek iyi gitmiyor.
Mahkemeye ChatGPT ile sahte alıntı sundular!
ABD’li bir yargıç, ChatGPT tarafından oluşturulan sahte alıntıların bir mahkeme dosyasında sunulmasının ardından iki avukata ve bir hukuk firmasına 5.000 $ para cezası verdi. Manhattan’daki bir bölge yargıcı, bir havacılık yaralanması iddiasında sahte yasal araştırmanın kullanılmasının ardından Steven Schwartz, Peter LoDuca ve hukuk firmaları Levidow, Levidow & Oberman‘a para cezasını ödemelerini emretti.
Schwartz, insan isteklerine makul metin yanıtları veren bir sohbet robotu olan ChatGPT’nin, Kolombiyalı havayolu şirketi Avianca‘ya karşı bir davada yasal bir özette atıfta bulunduğu altı vaka ürettiğini itiraf etti. Yargıç P. Kevin Castel, yapay zekayı yasal işlere yardımcı olmak için kullanmanın “doğası gereği uygunsuz” hiçbir şey olmadığını, ancak avukatların beyanlarının doğru olduğundan emin olmaları gerektiğini söyledi.
Castel, “Teknolojik gelişmeler sıradan ve yardım için güvenilir bir yapay zeka aracı kullanmanın doğası gereği yanlış olan hiçbir tarafı yok” açıklamalarını kullandı. “Ancak mevcut kurallar, avukatlara beyanlarının doğruluğunu sağlamak için bir kapı bekçisi rolü yüklüyor.” diye de ekledi.
Hakim, avukatların ve şirketlerinin “Yapay istihbarat aracı ChatGPT tarafından oluşturulan sahte alıntılar ve alıntılarla var olmayan yargı mütalaalarını sunarak sorumluluklarından vazgeçtiklerini, ardından yargı kararlarının varlığı sorgulandıktan sonra sahte mütalaaların arkasında durmaya devam ettiklerini” söyledi. Avukatlar ise konu hakkında medyaya bir açıklama yapmadı.
Bu ChatGPT’nin ilki değil. Buna benzer olarak ChatGPT, Amerikalı bir hukuk profesörünü yanlış bir şekilde cinsel tacizle suçladı ve bu süreçte var olmayan bir Washington Post raporuna atıfta bulundu. ChatGPT gibi sohbet robotlarında bazen olgusal hatalar mümkün olabiliyor. Ancak gerçekten insan yazmış gibi görünen bazı yanıtlar herkesi şüpheye düşürebiliyor.
Peki siz bu konu hakkında neler düşünüyorsunuz? Düşüncelerinizi yorumlar kısmında bizimle paylaşmayı unutmayın.
{{user}} {{datetime}}
{{text}}