Google bir süredir yapay zekayı arama motoruna entegre etmeye çalışıyor. Özet bilgiler sunmayı amaçlayan yapay zekalı Google Arama, zaman zaman yanlış cevaplar vermesiyle eleştirilerin odağı olmaya başladı. Örneğin, bazı kullanıcılara yapışkan maddeleri yemelerini önerdi.
Yapay zekalı Google Arama özelliği yanlış bilgiler veriyor
“AI Overviews” olarak adlandırılan araç, geçtiğimiz haftadan bu yana Google Arama’da test ediliyor. Arama sonuçlarını özetlemek için yapay zeka kullanan bu özellik, kullanıcılara zamandan tasarruf sağlamayı hedefliyor.
Ancak bazı kullanıcılar, yapay zekanın belirli arama sonuçlarında tuhaf ve yanlış yanıtlar verdiğini dile getirdi. Örneğin, pizzanın üstüne peynir serpiştirmek isteyen kullanıcılara “toksik olmayan yapıştırıcı” kullanabileceklerini söyledi. Bir başka örnekte ise insanlara günde bir kaya yemelerini tavsiye etti.
Google artık yapay zeka ile YouTube Music’e hükmediyor!
Google'ın yapay zeka asistanı Gemini YouTube Music ile müziklerinizi kontrol etmenizi sağlıyor. İşte yeni özelliğin detayları...Hatalı yanıtların kaynakları henüz belirsiz. Ancak birçok kişi sosyal medyadaki yanlış bilgileri ayırt etmekte zorluk çektiğine inanıyor. Bu yanıtların sosyal medyada alay konusu haline geldiğini belirelim. Aynı zamanda şirketin yapay zekalı arama motoru deneyimini de zedeliyor.
Google ise bu tür örneklerin oldukça nadir yaşandığını savundu. Teknoloji devi, büyük ölçekte gerçeklere dayalı doğru özetler çıkarmanın oldukça zor olduğunun altını çizdi.
Google, İngiltere’deki ilk denemelerin ardından bu özelliğini Mayıs ayında ABD’deki kullanıcılara sundu. Ancak gelen tepkiler, Google’ın yanlış bilgiler yayabileceğine dikkat çekiyor.
Peki siz bu konu hakkında neler düşünüyorsunuz? Sizce yapay zeka aramanın bir parçası olacak mı? Düşüncelerinizi yorumlar kısmında paylaşabilirsiniz.
Copilot da zaman zaman sapıtıyor. Arka arkaya alakasız sorular sorduğumda daha önceki sorularıma ait cevaplar ile yeni sorunun cevabını harmanlayarak abuk cevaplar veriyor.
Sanki diğer yapay zekâlar %100 iş yapıyor da bir Google patates olmuş gibi haber yapılması ne derece doğru onu tartışmak lazım.
Copilot da saçmaliyor yanlış cevap verdin yeni kaynaklara bak diyorum aynı cevabı getiriyor önüme
ben de denedim. Berbat. Google Search bile daha iyi sonuçlar veriyor.
Anlaşılan birileri yapay zekayı yanlış eğitiyor(google çevirideki saçma cevaplar gibi gibi…)
Her şeyin doğalı iyi. 🙂