Yapay Zeka Çağında Sosyal Bilimler: Hızlı Uyum İçin Kullanım İpuçları – Başar Baysal

20 Ekim 2025
15 dk okuma süresi

Yapay zeka araçları tüm süreçleri dönüştürdüğü gibi sosyal bilimler alanında akademik faaliyetleri, araştırma ve eğitim süreçlerini de etkiliyor. Bu yazıda mevcut yapay zeka araçlarını akademinin sosyal bilimler alanında etkin kullanabilmek için kendimce derlediğim notları paylaşacağım. İşin çalışma prensibi gibi yönlerine çok girmeden doğrudan uygulamaya dönük, kendi bildiğim kadarıyla tavsiyeler vermeye gayret edeceğim. Başta şunu söyleyeyim, bu söylediklerim Eylül 2025 itibarıyla yazıldı. Gelişim çok hızlı, 3-5 ay sonra bu yazdıklarım geçerliliğini yitirecektir. Dolayısıyla amacım yapay zeka araçlarını çok sık kullanmayanları teknolojinin güncel durumuna adapte etmek, akışı yakalamalarını sağlamak. Sonrasında da bu akışı, yani yapay zeka alanındaki hızlı gelişmeleri takip ederek kendilerini güncel tutabilmeleri için kullanım önerileri sunmak istiyorum.

4-5 tane geniş kapsamlı yapay zeka aracı var. En bilineni ChatGPT. Bunun yanında Gemini, Grok ve Claude gibi genel kullanım odaklı araçlar var. Tabii bunların yanında binlerce daha dar odaklı (mesela sadece sunum hazırlamaya yarayan ya da görüntü işlemeye yarayan) yapay zeka araçları da mevcut. Benim odağım baştaki genel kullanıma yönelik olanlar. Bu araçların tamamının ücretsiz ve ücretli opsiyonları var. Ücretli opsiyonlar da iki kademe: çoğunlukla 20 dolar gibi fiyatlara kullanım kapasitesini arttıran modeller (ChatGPT Plus, Claude Pro, Gemini Pro) bir de daha geniş imkânlar sunan ve 100 dolar civarında fiyatlanan modeller (ChatGPT Pro, Claude Max, Gemini Ultra vb.) mevcut. Bu versiyonlar arasındaki temel fark kullanım sınırları. Yapay zeka kullandığımızda bunların merkezindeki GPU havuzunu kullanıyoruz. Bunlar sınırlı; dolayısıyla ödediğimiz para oranında bu GPU’lardan faydalanabiliyoruz diye düşünebiliriz. Buna genel olarak “token hakkı” deniyor. Sahip olduğumuz plana göre (ücretsiz, plus, pro, ultra vb.) belli bir token hakkımız var, onu kullanarak işlem yapıyoruz. Dolayısıyla hangi planı kullanacağımıza karar verirken kullanım sıklığımız ve kullanırken sistemi ne kadar yorduğumuz önemli. Çok sık kullanmasak da birçok belge yükleyip uzun promptlar (promt kavramının oturmuş bir Türkçe karşılığı yok ama “girdi” veya “yönlendirme metni” olarak çevrilebilir.) ve karmaşık talimatlar veriyorsak bu da tokenlerimizin hızlıca azalmasına neden olur.

Token kullanımının netliği konusunda en başarılı uygulama benim gördüğüm kadarıyla Claude. Diğer uygulamalarda sistemi çok kullanıp tokenlerimizi harcadığımızda sistem hâlâ cevap vermeye devam edebiliyor ama cevaplardaki halüsinasyonlar (uydurma/yanlış cevaplar) artıyor. Sanıyorum bu durum, havuzdan kullanabildiğimiz GPU’ların tokenimizin bitmesi nedeniyle sınırlanmasından kaynaklanıyor. Belli bir süre bekleyip token cüzdanımızın tekrar dolması gerekiyor ki yine iyi cevaplar alabilelim. Ama bunu çoğu zaman fark edemiyoruz, sadece cevapların doğruluğunun azalmaya başlamasından anlayabiliyoruz. Claude ise token bittiğinde 5 saat mesaj gönderme hakkınızı tamamen durduruyor. Diğer GPT’lerde de belli model kullanımları (örneğin deep research) sınırlanabiliyor ama Claude kadar net değil bu uygulama. Bu önemli çünkü bir cevabın içindeki hataları, uydurma kısımları görebilmek ve ayıklamak çok zor. Yazının devamında da bu halüsinasyonları nasıl azaltırız açıklamaya çalışacağım zaten. Benim gördüğüm kadarıyla halüsinasyonu genel anlamda minimum olan araç Claude AI. Ama ayrıntılı ve düşünsel süreci zorlayıcı işlemler yaptırdığımızda 5 saatlik kullanım dilimi hemen dolabiliyor. 4-5 mesajda bu kotanın dolduğunu gördüm, hatta tek bir mesajda bile 5 saatlik kotanın bittiğini tecrübe ettim.

Yapay zeka araçlarını akademik çalışmalarda kullananlar için en büyük sorun halüsinasyonlar. Sorduğunuz soruya uydurma ya da yanlış cevap verebiliyor bu araçlar. Bunu tamamen ortadan kaldırmak şu an imkânsız. Ama farklı araçları etkin kullanarak, yapmak istediğimiz işe en uygun aracı seçerek ve birazdan açıklayacağım bazı yöntemlerle bunu en aza çekmek mümkün. Tabii ki tamamen elimine edemediğimiz için çıktıları kontrol etme ve doğrulama sorumluluğu kullanıcıda. Peki bu halüsinasyonları nasıl minimuma indiririz? Bunun yolu bağlam verebilmek, kapsamı sınırlayıcı yöntemleri kullanmak. Ama burada da şöyle bir ikilem karşımıza çıkıyor: Çok uzun bağlam vermek demek, işlem için fazla doküman yüklemek ve uzun, karmaşık promptlar yazmak demek. Bu da çok fazla GPU kullanmak oluyor ve tokenlerimizi hemen harcıyoruz. Bu iki kısıt arasında ilerleyebilmenin yöntemleri var, genel olarak onlardan bahsedeceğim.

İlk yöntem, kullanacağımız işe göre araç seçmek. Eğer işlem basitse, fazla akıl yürütme gerektirmiyorsa bunu en basit aracı kullanarak yaptırabiliriz. Mesela kısa bilgi sormak, kısa çeviriler yaptırmak, kısa metinlerin yazım hatalarını düzenlemek, çok sayıda olmayan referansın gösterim şeklini değiştirmek, çok uzun olmayan bir metnin özetini oluşturmak ya da proofreading yaptırmak gibi kolay işlerde her modelde bulunan ve az token harcayan araçları (ChatGPT 4o ya da ChatGPT 5 instant, Gemini 2.5 flash, Claude Sonnet 4 gibi) kullanmak gerekli. Böylece bu basit işlerle tokenlerimizi harcamamış oluruz. Hatta şunu da ekleyeyim; basit bir iş için “extended thinking” (uzun düşünme) gibi düşünce süresini uzatan araçları aktif hale getirirseniz çok fazla düşündüğünden hatalı yanıtlar alma ihtimalinizi arttırabiliyorsunuz. Diğer taraftan daha fazla akıl yürütme, okuma ve araştırma gerektiren görevlerde ise daha güçlü modelleri ve uzun süre düşünmeyi sağlayan araçları  (ChatGPT 5 Thinking, Claude Opus 4.1 + Extended Thinking, Gemini 2.5 Pro vb.) kullanmak daha uygun olacaktır. Bu daha zorlu görevlere örnek olarak; metinlerden indüktif ve dedüktif tematik analiz yapmak, bir Excel tablosundaki verilerle ilgili keşif amaçlı veri analizi yapıp değişkenler arasındaki ilişkileri görebilmek, uzun metinler üzerinde çalışmak, yazdığımız bir makaleyi verip makale içinde atıf verilen kaynakların tamamının kaynakçada olup olmadığını ya da kaynakçada olup metinde hiç atıf verilmeyen kaynak bulunup bulunmadığını kontrol ettirmek, birden fazla dosya (pdf makaleler gibi) yükleyip bunları karşılaştırmak veya metinlerin içeriğinden karşılaştırmalı sorular sormak, maddeler halinde ya da düzensiz olarak aldığımız uzun notları istediğimiz tarzda (resmi dil, akademik dil vb.) yazıya çevirtmek gibi çalışmalar söylenebilir. Yani çok bağlam vermemiz gereken, çok okuma yapması ve fazla akıl yürütme isteyen süreçlerde üst versiyonları kullanarak tokenlerimizi bunlara harcamak uygun olacaktır.

Bir diğer husus internette araştırma yaptırmak. Her soru için internetten araştırma yapmak gerekmiyor. Gerekmiyorsa internet araştırması özelliğini kapatmak ya da deep research (derin araştırma) özelliğini açmamak daha az token harcamamıza ve halüsinasyonu sınırlamamıza yardımcı olur. Çünkü bir makalenin özetini almak gibi odaklı görevlerde internet araştırmasını açmak bilgi kirliliğine yol açarak daha çok uydurma yapılmasına sebep olabiliyor. Yeri gelmişken birçok modelde artık mevcut olan deep search/deep research (derin araştırma) fonksiyonundan bahsedeyim. Bu fonksiyonu aktifleştirdiğinizde verdiğiniz konuda kapsamlı bir web araştırması yapıp (10-15 dakika düşünüp araştırarak) size bir rapor veriyor. “Sadece akademik kaynaklara bak” gibi bağlamsal kısıtlar koyarsanız bu yönde araştırmalar alabilirsiniz. Bir çalışmaya ilk başladığımızda neler yazılmış/yapılmış bu konuda ortaya koymak için keşif maksatlı kullanımlarda çok faydalı bir uygulama. Ama unutmayın, sadece bu rapora güvenmek doğru değil. Birçok önemli kaynağı atlayabiliyor. Dolayısıyla sadece bir yardımcı olarak kullanmak en doğrusu.

Bağlam vererek halüsinasyon azaltma yöntemlerinden devam edelim. Bir diğer yöntem sadece ChatGPT’de olan custom GPT’ler. Bunlar Plus ve Pro versiyonda aktif ve fazladan ücret istemiyor. Bu custom GPT’ler belli konularda odaklı olarak eğitilmiş ve talimatlandırılmış modeller aslında. Akademik çalışma için Scholar GPT, Consensus, Scholar AI gibi modeller mevcut ve akademik halüsinasyonları (örneğin referans uydurma) çok azaltabiliyor. Bu modeller üçüncü partiler tarafından geliştirilmiş uygulamalar ama ChatGPT üzerinden ulaşılabiliyor. ChatGPT içerisinde “Keşfet”e girerseniz binlerce custom GPT bulabilirsiniz, yapmak istediğiniz göreve göre custom GPT’ler kesin vardır. Bunun yanında kendimiz de custom GPT yaratabiliyoruz. Bu custom GPT’leri otomatikleşmiş, standart, tekrar eden görevler için oluşturabilirsiniz. Böylece tekrar eden her görevde yeniden bağlam vermek zorunda kalmazsınız. Talimatlarınızı ve bağlamı bir sefer girersiniz. Mesela bir makale yüklediğinizde o makalenin metot kısmını özetleyen bir custom GPT oluşturabilirsiniz. Bu sizin “metot özetleme GPT’niz” olur, sürekli kullanırsınız ve daha az token harcamış olursunuz.

Bir diğer yöntem hem Claude hem ChatGPT’de olan (Gemini’de yok) “projeler” özelliğini kullanmak. Bence projeler akademisyenler için en verimli araçlardan birisi. Projeler, custom GPT gibi tekrar eden görevlerde değil; bir makale yazma süreci ya da bir proje yazma süreci gibi uzun soluklu ve birden fazla sohbet açmamız gereken görevlerde kullanmak için uygun. Proje açtığımızda bu projenin amacını ve genel talimatlarımızı tek sefer giriyoruz, sonra proje içinde açtığımız sohbetler bu bağlama sadık kalıyor. Bunlardan daha önemlisi, proje açtığımızda ilgili dosyaları, makaleleri, örnek çıktıları vb. yüklüyoruz ve proje içindeki her sohbet bu dosyalara erişebiliyor. Böylece her seferinde dosya yükleme işiyle uğraşmıyoruz. Proje içindeki önceki sohbetlere de ulaşılabildiği için her defasında uzun uzadıya bağlam ve talimat vermemize gerek kalmıyor.

Bağlamı netleştirmek için bir diğer yöntem ise, ilk promptu verdikten sonra hemen cevap istemeden “bu görevle ilgili netleştirmem gerekenleri bana sor” demek. Bu aslında yukarıda bahsettiğim deep research (derin araştırma) gibi özelliklerde otomatik var. Yani deep research’e bir istek yaptığınızda size görevi netleştirmek için bazı sorular soruyor. Malum, prompt yazarken bazı ayrıntılar aklımıza gelmeyebiliyor. Bunu kendisine sormak en kolay yöntem. Dolayısıyla sadece deep research’te değil, diğer görevlerde de “bu görev için netleşmesi gereken hususları bana sor” deyip önce onları netleştirebilir, sonra görevi yapmasını isteyebiliriz. Bununla ilgili bir başka yöntem de promptu kendisine oluşturtmak olabilir. Çoğumuz prompt mühendisi değiliz. Bir promptta neler olması gerektiğini, bağlamın en iyi şekilde nasıl verilebileceğini kullandıkça öğreniyoruz. Biz görevi konuşma dilinde anlatıp “bu görev için bir prompt oluştur” dersek daha düzenli bir prompt alabiliriz ve bu promptla asıl işlemimizi yaptırabiliriz. Bu prompt oluşturma süreci, yazdıklarımızı doğru anlayıp anlamadığını kontrol etmek için bir teyit mekanizması olarak da işliyor. Prompt oluşturma ve netleştirme soruları sorma yöntemleri birleştirilirse daha sağlıklı sonuçlar alınabilir. Bir benzer yöntem de istediğimiz sonucun bir benzerini yüklemek. Promptu verirken beklediğimiz çıktının bir örneğini verip bu “sana benzer bir örnek veriyorum ve bu tarzda bir cevap istiyorum” diyebiliriz. Bu örneği istediğimiz çıktının dil stili, derinlik seviyesi, alt başlıkları, uzunluğu gibi özelliklerini netleştirmek için verebiliriz.

Bir diğer yöntem, sonuçları farklı araçlar arasında doğrulatmak. Yukarıda dediğim gibi yazdıklarımızdan ana sorumluluk bizde ve hepsini kontrol etmekle yükümlüyüz. Bu süreci kolaylaştırmak için de yapay zeka araçlarını kullanabiliriz. Verdiğimiz bir görev sonucunda aldığımız cevabı aynı araç içinde yeni bir sohbet açarak ya da farklı bir araca vererek doğrulama yaptırabiliriz. Örneğin ChatGPT deep research ile bir araştırma yaptırdık, çıkan sonucu Claude’a verip buradaki referansların veya argümanların doğruluğunu kontrol ettirebiliriz. Ya da bir araç ile kaynakçanın referans gösterme şeklini düzenlettik, aldığımız sonuçları başka bir araca verip “bu referanslardan format açısından uyumsuz olan var mı” diye teyit alabiliriz.

Son husus, chat ya da sohbet olarak adlandırılan oturumları çok uzun tutmamak. Her sorumuzda o sohbetin bağlamını yakalayabilmek için baştan okuma yapabiliyor. Bu da kafasının karışmasına, uydurmaların artmasına ve token kullanımının fazlalaşmasına neden olabiliyor. Zaten farklı konular için farklı sohbetler açmak en iyisi. Ama bir sohbet çok uzadı ve hâlâ o bağlamda konuşmaya devam etmek gerekiyorsa, kendisine “ben bu göreve başka bir sohbette devam edeceğim, bana bu sohbette yaptıklarımızı özetleyen bir prompt yazar mısın” deyip bunu yeni sohbete’e kopyalayarak devam edebiliriz.

Bunlar benim kendimce kullanıma dayalı bildiklerim. Tabii ki bildiğimiz boyumuz kadarsa bilmediğimiz arşa değer. Bir iki konudaki fikrimi de ekleyip bitireyim. Bu genel yapay zeka araçları dışında bazı akademik üretim odaklı yapay zeka araçları var, adını zikretmeyeyim. Bunları pek kullanmadım ama bu araçların reklamlarına bile baksanız doğrudan etik dışı kullanıma yönelik oldukları anlaşılıyor. “5 dakikada makale ödevinizi yapın”, “fark edilmeme garantisi veriyoruz” gibi reklamlar mutlaka önünüze düşüyordur. Diğer bir fikrim de yapay zekanın sosyal bilimleri nasıl dönüştüreceği. Benim görüşüm, kısa zaman içinde yazılı metinler üzerinden yapılan çalışmaların bir değeri kalmayacak. Literatür taraması, içerik analizi, hatta konuşma analizi gibi yöntemlerle yapılan çalışmaları yapay zeka zaten zahmetsizce yapacak. Daha ziyade yeni veri getirilen, saha çalışması, mülakatlar ya da anket uygulamalarının olduğu, birincil veriye dayanan ve yenilikçi katkı yapan çalışmalar sosyal bilimcilerden beklenecek.

Son olarak etik kullanım konusu da en önemli ve üzerinde düşünülmesi gereken konulardan birisi. Burada şöyle bir sorun var. Norm dediğimiz kurallar çok hızlı oluşamıyor. Bir alandaki doğru uygulamanın ne olduğunun belirlenmesi, sonrasında da regüle edilebilmesi zamanla oturan yapılar. Ama yapay zekadaki gelişmeler çok hızlı ve kabiliyetleri çok hızlı artıyor. Bugün ortaya konulacak etik kurallar 6 ay sonra geçerliliğini yitirebilir. Yani etik normların ortaya çıkması yapay zekanın gelişim hızını yakalayamıyor. Ama bu durum yapay zekayı tamamen yasaklayalım demek değil. Artık böyle bir teknoloji var, bizi dönüştürecek ve önünde durmak imkansız; en iyisi kendimizi adapte edebilmek. Etik normlar ile ilgili çıkmazdan kurtulmanın yolu ayrıntıya girmeyen, çok hızlı geçerliliğini yitirmeyecek konularda hemfikir olmak olabilir. Bu fikre uygun olarak yurt dışında birçok akademik dergi yapay zeka kullanımıyla ilgili olarak yapay zeka kullanımının deklare edilmesini (hangi modelin kullanıldığı, ne amaçla kullanıldığı vb.), yazarlık sorumluluğun alınmasını şart koşan genel etik kurallar getirmiş durumda (Bknz: Committee on Publication Ethics COPE; Use of AI Tools in ISA Activities; Taylor & Francis AI Policy). Türkiye’deki dergiler bu trendi biraz geç takip ediyor. Etik kullanım konusunda tabi ki herkesin polisi kendi vicdanı. Yapay zeka detektörü gibi uygulamalar var ama onları atlatmak da zor değil. Akademik etiğe uygun iş yapmak tamamen kendi etik duruşumuza bağlı. Burada herkesin dilinde olan bir kavramı ben de tekrar edeyim: Yapay zeka araçlarını bir asistan gibi kullanmak. Bu da yapılanı kontrol etmek ve genel olarak tüm sürece tam hâkim olarak yönetebilmeyi gerektiriyor. Sonuçta yazdıklarımızın sorumlusu biziz.

Başar Baysal

Doç.Dr. Başar Baysal, Ankara Bilim Üniversitesi Siyaset Bilimi ve Kamu Yönetimi Bölümü’nde görev yapmaktadır. 2007 yılında Kara Harp Okulu’ndan mezun olmuş, 2019’daki emekliliğine kadar Kosova, Bosna-Hersek, İstanbul, Ankara, Diyarbakır, Hakkâri ve Kuzey Irak gibi farklı görev bölgelerinde takım ve bölük komutanı olarak görev yapmıştır. Baysal, yüksek lisansını Marmara Üniversitesi Uluslararası İlişkiler Bölümü’nde yapmış, doktorasını ise 2017 yılında Bilkent Üniversitesi Uluslararası İlişkiler Bölümü’nde tamamlamıştır. Araştırma alanları arasında Eleştirel Güvenlik Çalışmaları, Barış ve Çatışma Süreçleri, İklim–Güvenlik İlişkisi, Savunma Çalışmaları, Çevresel Güvenlik, Savaş Ekonomileri, Latin Amerika Çalışmaları çatışma dönemi Ekonomileri ve Güvenlikleştirme Teorisi yer almaktadır. 2020–2021 Yıllarında TÜBİTAK 2219 doktora sonrası araştırma bursiyeri olarak Kolombiya’daki Universidad del Rosario’da Kolombiya barış sürecinin uygulanmasına yönelik saha araştırmaları yürütmüştür. 2023–2024 yıllarında ise Sabancı Üniversitesi İstanbul Politikalar Merkezi’nde Türkiye’de iklim güvenliği algıları üzerine bir araştırma projesi gerçekleştirmiştir. Dr. Baysal, “Securitization and Desecuritization of FARC in Colombia: A Dual Perspective Analysis” başlıklı kitabın yazarıdır. Ayrıca makaleleri PeacebuildingUluslararası İlişkiler ve International Journal gibi akademik dergilerde yayımlanmıştır. 

Bu yazıya atıf için: Başar Baysal, "Yapay Zeka Çağında Sosyal Bilimler: Hızlı Uyum İçin Kullanım İpuçları – Başar Baysal" Global Panorama, Çevrimiçi Yayın, 20 Ekim 2025, https://www.globalpanorama.org/2025/10/yapay-zeka-caginda-sosyal-bilimler-hizli-uyum-icin-kullanim-ipuclari/

Bülten Aboneliği

Sosyal Medyada Paylaşın

PDF Kaydedin / Çıktı Alın

Copyright @ 2025 Global Academy. Design & Development brain.work

Çevrimiçi olarak yayımlanan yazıların tüm telif hakları Panorama dergisine aittir. Aksi belirtilmediği sürece, yayımlanan yazılarda belirtilen görüşler yalnızca yazarına / yazarlarına aittir. UİK, Global Akademi, Panorama Yayın Kurulu ile editörleri ve diğer yazarları bağlamaz.

Bülten Aboneliği

Güncellemelerden haberdar olmak için bültenimize abone olun.