ChatGPT bahşiş teklif edene daha ayrıntılı yanıt veriyor
Yapay zekanın "en insansı" özelliklerinden biri, sosyal medyadaki bir şakalaşmanın sonucunda ortaya çıktı. Bilgisayar programcısı Theia Vogel 5 kez sağlamasını yaptığı testle ChatGPT'nin "bahşiş" teklif edildiğinde normalden daha uzun yanıtlar verdiği sonucuna ulaştı
Mashable'ın haberine göre, ChatGPT'nin daha önce farkında olunmayan bu huyu, kazara keşfedildi. Theia Vogel her zaman yaptığı gibi ChatGPT'den yazdığı kodları kontrol etmesini istedi, yapay zeka ise bu isteğe bir espriyle karşılık vererek bahşiş talep etti. Aldığı yanıtı sosyal medya platformu X'te paylaşan Vogel'e bir kullanıcının "Bahşiş teklif edince daha iyi performans verecek mi görsek ya" demesi ise testin tetikleyicisi oldu.
Bu yanıt üzerine deneyini başlatan Vogel, ChatGPT'ye aynı talebi üç farklı komutla iletti. Birinde "Bahşiş vermeyeceğim" dedi, birinde "Mükemmel çözüm için 20 dolar" teklif etti, üçüncüde rakamı 200 dolara çıkardı. Deneyin her versiyonunu 5'er kez tekrarladı.
Mini testin yanıtlarını incelediğinde, 200 dolarlık bahşiş vaadine karşılık yanıtların yüzde 11 uzadığını, 20 dolarlık bahşişte yüzde 6'lık artış olduğunu gördü. "Bahşiş vermeyeceğim" diye belirttiğinde ise normal ortalamadan bile yüzde 2 daha kısa cevaplar geldi.
Vogel'in deneyini kontrol amaçlı tekrarlayan Mashable'dan Cecily Mauran da benzer sonuçlara ulaştı. Eski ABD Temsilciler Meclisi üyesi George Santos'un adının karıştığı skandalla ilgili soruya önce düz bir yanıt veren ChatGPT, bahşiş teklifini duyunca tavrını değiştirip yanıtını iddianameden ayrıntılar ve skandalın yaklaşan seçimlere olası etkisine dair analizle besledi.
Mauran 2023'ün en iyi filmlerini listelemesini istediğinde de aynı sonucu aldı. Bahşişsiz yanıtta sadece IMDB'nin top 10 listesini veren ChatGPT, bahşiş teklif edilince bu listeye Rotten Tomatoes'un seçimlerini de ekledi.
ChatGPT'nin "bahşiş" kelimesine duyduğunda neden coşkulu yanıtlar verdiği henüz bilinmiyor. Yapay zeka yazılımlarının temeli olan Büyük Dil Modeli, internetten alınan veri kümeleriyle eğitildiği için, bu çıkarıma kendisinin ulaştığı tahmin ediliyor. Mashable'a konuşan Vogel de "ChatGPT'nin temel dil modelinden, insan geribildiriminden pekiştirmeli öğrenmeyi (RLHF) silmesini bekliyorduk ama görünüşe göre durum öyle değil diyor.