2022’nin sonlarında ChatGPT’nin piyasaya sürülmesinden bu yana milyonlarca insan, bilgiye erişmek için büyük dil modellerini (LLM) kullanmaya başladı. Bunun cazibesini anlamak kolay: Bir soru sorun, derli toplu bir özet alın ve devam edin, zahmetsiz bir öğrenme gibi geliyor.
Ancak yeni bir makale bu kolaylığın bir bedeli olabileceğine dair deneysel kanıtlar sunuyor: İnsanlar bir konudaki bilgiyi özetlemesi için büyük dil modellerine güvendiklerinde, klasik bir Google aramasıyla öğrenmeye kıyasla o konu hakkında daha yüzeysel bir bilgi geliştiriyorlar.
Science Alert'ın haberinde; pazarlama profesörleri Jin Ho Yun ve Shiri Melumad, bu bulguyu 10 binden fazla katılımcıyla yürütülen yedi çalışmaya dayanan bir makalede raporladı.
Çalışmaların çoğunda aynı temel yöntem izlendi: Katılımcılardan bir konuyu öğrenmeleri istendi ve rastgele şekilde ChatGPT gibi bir büyük dil modeliyle ya da “eski usul” Google aramasıyla bilgi edinmeleri sağlandı.
Katılımcıların araçları nasıl kullandıklarına dair herhangi bir sınırlama getirilmedi; diledikleri kadar Google’da arama yapabildiler ve istedikleri kadar ChatGPT’ye yeni komutlar yazabildiler. Öğrenme sürecinin ardından, öğrendiklerine dayanarak bir arkadaşlarına tavsiye mektubu yazmaları istendi.
Veriler tutarlı bir modeli ortaya koydu: Bir konuyu büyük dil modeliyle öğrenen katılımcılar, kendilerini daha az şey öğrenmiş hissediyor, tavsiye yazarken daha az çaba harcıyor ve sonuçta daha kısa, daha az bilgi içeren ve daha genel metinler yazıyordu.
Bu tavsiyeler daha sonra, hangi aracın kullanıldığını bilmeyen bağımsız bir katılımcı grubuna sunuldu. Bu kişiler de LLM kullanıcılarının yazdığı tavsiyeleri daha az bilgilendirici, daha az faydalı buldu ve uygulamaya daha az istekli oldular.
Bu farklar, çeşitli koşullarda da tutarlı bir şekilde gözlendi. Örneğin, bir olasılık LLM kullanıcılarının daha kısa ve genel tavsiyeler yazmasının nedeni, bu modellerin Google sonuçlarına kıyasla daha az çeşitli bilgi sunmasıydı.
Bu olasılığı ortadan kaldırmak için, katılımcıların Google ve ChatGPT aramalarında aynı bilgi setine maruz kaldığı bir deney düzenlendi. Bir diğer deneyde ise arama platformunu sabit tutuldu. Ancak katılımcıların ya standart Google sonuçlarından ya da Google’ın “AI Overview” (Yapay Zeka Genel Bakış) özelliğinden öğrenmeleri sağlandı..
Sonuçlar sunulan bilgi ve platform aynı olsa bile, özetlenmiş LLM yanıtlarından öğrenmek, kişinin kendi çabasıyla web bağlantılarını okuyup sentezlemesine kıyasla daha yüzeysel bir bilgiye yol açtığını gösterdi.
Neden önemli?
Peki, neden LLM kullanımı öğrenmeyi zayıflatıyor gibi görünüyor?
Science Alert'ın haberine göre; öğrenme psikolojisindeki en temel ilkelerden biri, insanların en iyi şekilde aktif olarak dahil olduklarında öğrendikleridir.
Google aramalarıyla bilgi edindiğimizde, çok daha fazla “sürtünme” ile karşılaşırız: Farklı bağlantılara tıklamak, çeşitli kaynakları okumak, bilgiyi anlamlandırmak ve kendi zihinsel sentezimizi oluşturmak gerekir.
Bu süreç daha zorlayıcı olsa da, konuyla ilgili daha derin, özgün bir zihinsel temsilin gelişmesini sağlar.
Oysa büyük dil modellerinde bu sürecin tamamı kullanıcı adına yürütülür; bu da öğrenme sürecini aktif bir eylemden pasif bir alıma dönüştürür.
Çözümü ne olabilir?
Elbette çözüm, LLM’leri tamamen kullanmayı bırakmak değildir . Özellikle de bu araçların birçok durumda sunduğu inkar edilemez faydalar göz önüne alındığında.
Asıl mesajımız, insanların LLM’leri daha akıllı ve stratejik biçimde kullanmayı öğrenmeleri gerektiğidir. Bu da, hangi alanlarda LLM’lerin faydalı, hangi durumlarda ise hedefler için zararlı olabileceğini anlamakla başlar.
Kısacası, hızlı ve net bir bilgiye mi ihtiyacınız var? Sevdiğiniz yapay zeka asistanınızı gönül rahatlığıyla kullanın.
Ancak bir konuda derin, genellenebilir bir bilgi geliştirmek istiyorsanız, yalnızca LLM özetlerine güvenmek çok daha az faydalı olacaktır.
Shiri Melumad, yeni teknoloji ve medya psikolojisi üzerine yürüttüğü araştırmanın bir parçası olarak, LLM’lerle öğrenmeyi daha “aktif” hale getirmenin mümkün olup olmadığını da inceliyor. Başka bir deneyde, katılımcılardan, gerçek zamanlı web bağlantılarını özetlerinin yanında sunan özel bir GPT modeliyle etkileşime girmeleri istendi.
Ancak bu durumda da, katılımcılar bir kez LLM özetini aldıktan sonra kaynakların kendisine daha derinlemesine bakma motivasyonu göstermediler. Sonuç olarak, standart Google araması yapanlara kıyasla yine daha yüzeysel bilgi edindiler.
Kaynak: Gazete Oksijen
