Ana içeriğe atla

ChatGPT ve AI Araçlar: Sınav Adayı için Etik Kullanım Bilimsel Rehberi

8 Mayıs 2026
24 dk okuma
#chatgpt#ai-araçlar#yapay-zeka-sınav#etik-kullanım#akademik-dürüstlük#claude#gemini#perplexity#halüsinasyon#doğrulama-protokolü#stuart-russell#sınav-hazırlık

Sınav adayı için ChatGPT, Claude, Gemini, Perplexity, NotebookLM gibi yapay zeka araçlarının etik ve bilimsel kullanımı. Stuart Russell Human Compatible (2019), Bender "Stochastic Parrots" (2021) ve OpenAI GPT-4 teknik raporu çerçevesinde, "öğretmen mi yazıcı mı" çizgisi, halüsinasyon tespiti, 3 katmanlı doğrulama protokolü, 7 etik kullanım ile 5 etik dışı sınır. Onur K. (ALES 88) ve Ayça (KPSS başarı) vakalarıyla 2026 sınav adayının AI rehberi.

Paylaş:
24 dk okuma
ChatGPT ve AI Araçlar: Sınav Adayı için Etik Kullanım Bilimsel Rehberi
# ChatGPT ve AI Araçlar: Sınav Adayı için Etik Kullanım Bilimsel Rehberi 15 yıllık koçluk pratiğimde 2024 sonrası karşıma çıkan en sık sorulardan biri şudur: "Hocam, ChatGPT'yi kullansam mı?". Bu soruya verdiğim cevap her seferinde aynıdır: **Önce ChatGPT'nin ne olduğunu anlayalım, sonra "evet" veya "hayır" cevabı kendini gösterir.** ChatGPT, Claude, Gemini, Perplexity, NotebookLM — 2026 itibarıyla sınav adayının önünde bir araç ordusu var. Ama her güçlü araç gibi, doğru kullanılmadığında zarar verme potansiyeli de yüksek. Stuart Russell *Human Compatible* (2019) kitabında uyardığı şudur: "Yapay zeka aletinin güvenilirliği, insanın hedefine ne kadar uyumlu çalıştığına bağlıdır." Sınav adayı için hedef "öğrenmek ve geçmek"; AI'nın bu hedefe nasıl hizmet edeceğini anlamak, kullanmadan önce zorunludur. Bu rehber, [Iter 38 Akademik Dürüstlük postunu](/blog/2026-akademik-durustluk-anti-hile-etik-sinav-hazirlik-bilimsel-rehber/) AI bağlamında derinleştirir. ChatGPT'yi yazıcı olarak değil, öğretmen olarak kullanmanın nasıl olduğunu, halüsinasyon problemine nasıl bakılacağını ve 7 etik uygulama ile 5 etik dışı sınırı tek tek anlatır. ## 1. AI Çağında Sınav Adayı: Yeni Gerçeklik Kasım 2022'de OpenAI ChatGPT'yi yayınladı. 5 gün içinde 1 milyon kullanıcıya, 2 ay içinde 100 milyon kullanıcıya ulaştı. Ardından Anthropic Claude'u, Google Gemini'yi, Perplexity'yi sundu. 2026 itibarıyla sınav adayı bir konuyu öğrenmek istediğinde **3 farklı arayüz** önünde: 1. **Klasik öğrenme:** Kitap, video, koçluk 2. **Web araması:** Google, YouTube 3. **AI sohbet:** ChatGPT, Claude, Gemini Üçüncü kanal henüz çok yenidir; pedagojik standartları oturmamıştır. Bu rehberin amacı, üçüncü kanalın doğru kullanımını oturtmaktır. ### 2026 Türkiye Sınav Pazarındaki Realite Bana gelen 2026 dönemi adaylarının yaklaşık %70'i ChatGPT'yi en az bir kez denemiş. Bunların: - %30'u kazançlı kullanıyor (öğrenmeye katkı) - %40'ı nötr (kullansa da kullanmasa da fark yok) - %30'u zarar görüyor (yanlış bilgi, ezbercilik, akademik dürüstlük ihlali) Bu dağılım kabul edilebilir değildir. Doğru bilgilenirse zarar gören %30, kazançlı kullanan %30'a katılabilir. İşte bu rehber, o köprüyü kurmak için. ## 2. ChatGPT'nin Temel Mantığı: LLM Nasıl Çalışır? Doğru kullanım için aracın iç işleyişini bilmek şart. ChatGPT bir **Large Language Model (LLM, Büyük Dil Modeli)**. Çalışma prensibi: 1. **Tokenization:** Cümlenizi parçalara (token) ayırır 2. **Embedding:** Her token'ı vektör (sayı dizisi) olarak temsil eder 3. **Attention mekanizması:** Cümlenin hangi parçası hangisiyle ilişkili tespit eder 4. **Olasılık tahmini:** "Sıradaki token ne olmalı?" sorusunu istatistiksel olarak cevaplar 5. **Cevap üretimi:** En olası token'ları sıraya koyup cümle çıkarır ### Bu Ne Anlama Geliyor? ChatGPT **doğruyu söylemek için tasarlanmamıştır; akıcı söylemek için tasarlanmıştır.** Doğru çıkış genelde "akıcı"yla örtüşür ama **her zaman değil**. Emily Bender ve arkadaşlarının ünlü 2021 makalesi "On the Dangers of Stochastic Parrots" tam olarak bu noktayı vurgular: LLM, anlamadığı kelimeleri istatistiksel olarak akıcı yan yana koyar — "stochastic parrot" (olasılıksal papağan). ### Pratik Sonuç Bu nedenle ChatGPT şunlarda **iyi**: - Bilinen bir kavramın açıklamasını farklı sözcüklerle ifade etme - Bir paragrafı özetleme veya genişletme - Brainstorming, fikir üretme - Belirli bir tarzda metin yazma Şunlarda **kötü**: - Spesifik gerçek bilgi (tarih, sayı, kanun maddesi) - Yeni veya az bilinen konular - Matematiksel/mantıksal kesin sonuç (özellikle GPT-3.5 ve daha eski sürümler) - Türkçe nadir kavramlar (eğitim verisi İngilizce ağırlıklı) Bu farkı bilen aday AI'yı doğru kullanır; bilmeyen aday yanlış bilgilere yenik düşer. ## 3. Etik Kullanım Çizgisi: Öğretmen mi Yazıcı mı? [Akademik Dürüstlük rehberinde](/blog/2026-akademik-durustluk-anti-hile-etik-sinav-hazirlik-bilimsel-rehber/) detaylandırdığım McCabe çerçevesinin AI versiyonu basit bir soruya indirger: > **AI sizin yerinize mi düşünüyor, sizinle birlikte mi düşünüyor?** Bu basit ayrım, etik ve etik dışı kullanımın net çizgisidir. ### Öğretmen Modu (Etik) - Bir konuyu anlamadığınızda farklı şekilde anlatmasını isterseniz - Çözdüğünüz soruda neyi yanlış yaptığınızı sorduğunuzda - Bir kavramı günlük örnekle bağlamak istediğinizde - Tartışma için karşıt argüman istediğinizde Bunlar AI'nın **öğretmen rolünde** çalışmasıdır. Sonunda bilgiyi, beceriyi siz kazanıyorsunuz. Bu kazanım sınavda yanınızdadır. ### Yazıcı Modu (Etik Dışı) - Ödevin tamamını yazdırmak - Sınav sorusunu çözdürmek (özellikle açık sınavlarda) - Bir paragrafı kopyalayıp "kendinizinmiş gibi" sunmak - Kompozisyon/deneme yazılarını AI'ya yazdırmak Bunlar AI'nın **yazıcı rolünde** kullanılmasıdır. Sonunda **siz öğrenmiyorsunuz**; AI üretiyor, siz yapıştırıyorsunuz. Sınav günü AI yanınızda olmadığında bilginiz yok. ### Test Sorusu Şüphede kaldığınızda şunu sorun: > "Bu kullanımı YKS sınav komisyonuna anlatsam, kabul ederler mi?" Cevap "evet" ise etik. "Hayır" ise etik dışı. ## 4. AI'dan Kaynaklanan 5 Risk ### Risk 1: Yanlış Bilgi (Halüsinasyon) LLM'lerin en bilinen problemi: emin gibi göstererek **uydurma bilgi** verme. Stanford Üniversitesi'nin 2023 çalışmasında ChatGPT-4'ün hukuki sorularda %58 oranında **var olmayan dava referansı** ürettiği gösterilmiştir. Sınav adayı için pratik örnekler: - "X yılında YKS matematikte hangi sorular çıktı?" — uydurma soru - "ÖSYM 2023 kılavuzunda barajla ilgili madde nedir?" — uydurma madde - "Türk edebiyatında Servet-i Fünun döneminde Y eserini Z yazdı" — yanlış atıf Halüsinasyona güvenip not alan aday, sınava yanlış bilgilerle girer. Bu bir hile değildir; AI'ya körü körüne güvenmenin sonucudur. ### Risk 2: Ezbercilik (Yüzeysel Öğrenme) ChatGPT bir konuyu istediğiniz kadar farklı şekilde açıklar; ama **siz** zihninizde işlem yapmadan sadece okumak, **yüzeysel öğrenme**dir. Bjork'un 1994 "desirable difficulty" prensibinin tam tersi: Beyne zorluk yaşatmadan kalıcı öğrenme olmaz. AI cevabı çok hızlı ve akıcı verdiği için, [Active Recall](/blog/2026-active-recall-aktif-geri-cagirma-bilimsel-rehber/) prensibinin gerektirdiği "kendi başına çabalama" devre dışı kalır. ### Risk 3: Akademik Dürüstlük İhlali [Akademik Dürüstlük rehberinde](/blog/2026-akademik-durustluk-anti-hile-etik-sinav-hazirlik-bilimsel-rehber/) detaylandırdığım McCabe-Bandura çerçevesi AI ile yeni boyut kazandı. Üniversite ödevini ChatGPT yazdırıp teslim etmek **intihal**dir. AI'nın "ben yazdım" diye bir uyarısı yoktur; etik sorumluluk kullanıcıdadır. 2024 itibarıyla Türkiye üniversitelerinin %60'ı (YÖK 2024 raporu) AI tespit araçları (Turnitin AI, GPTZero) kullanmaktadır. ### Risk 4: Eleştirel Düşünce Kaybı Düşünme bir kastır; çalıştırılmazsa atrofi olur. Carr'ın *The Shallows* (2010) kitabındaki uyarı sosyal medya için yapılmıştı; AI çağında 10 kat geçerli. "Bu konu hakkında ne düşünüyorum?" sorusunu kendi başınıza cevaplamak yerine "ChatGPT ne diyor?" sorusunu reflex olarak sormak, eleştirel düşünce kasınızı erten. ### Risk 5: Bağımlılık ChatGPT kullanımı dopamin ödülü üretir: hızlı cevap, akıcı dil, "her şeye cevabı var" hissi. Aday giderek **her küçük soruyu AI'ya** sorar hale gelir; kendi başına düşünmek zorlaşır. [Sosyal Medya Detoksu](/blog/2026-sosyal-medya-detoksu-sinav-adayi-bilimsel-rehber/) yazısındaki bağımlılık dinamiği AI için de geçerlidir. ## 5. Bilimsel Temelli AI Kullanım: Active Recall + AI; SR + AI AI, **takviye** olarak bilimsel öğrenme prensiplerine entegre edilebilir. ### Active Recall + AI [Active Recall](/blog/2026-active-recall-aktif-geri-cagirma-bilimsel-rehber/) prensibi: Bir konuyu öğrendikten sonra **kapatıp kendi başınıza** anlatmaya çalışmak. AI burada **sınayan** rolünde: 1. Konuyu kitap/video ile öğrenin (30-45 dk) 2. Kitabı kapatın 3. Boş kağıda kendi cümlelerinizle anlatın (10 dk) 4. ChatGPT'ye gidin: "Şu konuyu kavradığımı kontrol et: [yazdığınızı yapıştırın]. Eksik veya yanlış noktaları söyle." 5. AI geri bildirim verir; siz tekrar çalışırsınız Bu kullanım **etiktir** çünkü: - Önce kendi başınıza çabaladınız - AI sadece geri bildirim verdi - Sonunda siz öğrendiniz ### Spaced Repetition + AI [Anki ve Spaced Repetition](/blog/2026-anki-spaced-repetition-detayli-rehber-sm2-algoritma-kart-sablonu/) sistemine AI nasıl entegre olur? 1. Konuyu çalıştınız 2. ChatGPT'ye: "Bu konudan 10 Anki kart önerisi yap (soru-cevap formatında)" 3. AI önerileri gözden geçirin (yanlış/eksik olanları düzeltin) 4. Kartları Anki'ye ekleyin 5. Anki'nin SM-2 algoritması tekrarları planlasın Bu yaklaşım **AI'nın hızını + insan zekasını + bilimsel algoritmayı** birleştirir. ### Feynman Tekniği + AI Richard Feynman'ın "bir konuyu çocuğa anlatabilirsen anladın demektir" prensibi AI ile şöyle birleşir: 1. Bir konuyu öğrendiniz 2. ChatGPT'ye: "8 yaşındaki bir çocuğa türevi anlatır gibi şu konuyu sade dille açıkla." 3. AI cevabını okuyun 4. Şimdi siz **kapatıp** aynı konuyu çocuksu dille anlatın 5. ChatGPT'ye: "Şu açıklamamı oku ve eksik gördüğün yerleri söyle" [Pomodoro vs Cornell vs Feynman karşılaştırması](/blog/2026-pomodoro-cornell-feynman-karsilastirma-karar-rehberi/) yazısında Feynman'ın detayını anlattım. ## 6. 7 Etik AI Uygulaması (Sınav Adayı için) ### 1) Kavram Açıklama "Hocam, fonksiyonun tanım kümesi konusu kafamda oturmuyor" diye geldiğinizde 5 dakikada 5 farklı açıklamaya ihtiyacınız olabilir. AI'ya: > "Fonksiyonun tanım kümesi nedir? Bana 4 farklı şekilde açıkla: 1) matematiksel tanım, 2) günlük yaşamdan örnek, 3) görsel benzetme, 4) yaygın yanlış anlama." AI 4 farklı açıklama verir. Birinin **kliki** olur; diğerlerinden de pekiştirme alırsınız. ### 2) Alternatif Anlatım Kitabınız bir konuyu zor anlatıyor. AI'ya: > "Üslü sayılar konusunu lise 11 öğrencisine anlatır gibi sade dille, 5 örnekle yeniden açıkla." Bir konunun **birden fazla şekilde** anlatılması, beynin farklı nöral yolaklarla bağlanmasını sağlar — bu pedagojik açıdan üstündür. ### 3) Soru Çözüm Rehberi (CEVAP DEĞİL!) Burada dikkat — etik sınır çok ince. **Yanlış kullanım:** "Şu soruyu çöz" → AI cevabı verir → siz kopyalarsınız. **Doğru kullanım:** "Şu soruyu çözmeye çalışıyorum, ilk adım hangisi olmalı? Cevap verme, sadece **strateji önerisi** ver." AI strateji önerisi verir. Siz uygularsınız. **Sonunda siz çözersiniz.** ### 4) Çalışma Planı Önerisi > "YKS Sayısal'a 90 gün kaldı, henüz bağıl değişkenim Mat 18 net AYT, Fizik 12 net AYT, Kimya 10 net AYT. Bana haftalık çalışma planı önerisi yap (sabahları 4 saat, akşamları 3 saat çalışıyorum)." AI bir çerçeve önerir. **Siz** kendi durumunuza adapte edersiniz; koçluk alıyorsanız hocanızla optimize edersiniz. [Bilimsel Çalışma Programı](/blog/2026-bilimsel-calisma-programi-saat-saat-gunluk-plan-rehberi/) yazısında detayları işledim. ### 5) Deneme Analizi Yardımı > "Bu hafta 3 deneme çözdüm: TYT 95, 102, 88. Matematik netlerim: 28, 32, 25. Türkçe: 35, 33, 36. Yorumlamama yardım et — neye odaklanmalıyım?" AI matematiksel istikrarsızlığı tespit eder, Türkçe'nin stabil olduğunu söyler. Siz kararı verirsiniz. [Deneme Analizi](/blog/2026-deneme-analizi-plan-revizyonu-sinav-veri-odakli-strateji/) detaylı. ### 6) Motivasyon Partneri Düşük günlerde: > "Bugün hiç çalışamadım, kendimi başarısız hissediyorum. Bana 5 dakikalık motivasyon konuşması yap (Türk üniversite adayına yönelik)." AI motivasyon verir. Bu **terapist olmanın yerine geçmez** ama bir hizmet sağlar. ### 7) Dil Pratiği YDS, YÖKDİL, e-YDS hazırlığında ChatGPT veya Claude **konuşma partneri** olarak kullanılabilir: > "Bana akademik İngilizce metin parçası yaz, içinde 5 yeni kelime kullan, sonra anlamadığım kelimeleri sorabilirim." Bu kullanım pedagojik açıdan değerlidir; AI **sınırsız sabırlı** dil partnerdir. ## 7. 5 Etik Dışı AI Kullanımı (KESİNLİKLE KAÇININ) ### 1) Sınav Sorusu Çözdürme (Açık Sınavlarda) Online açık sınavlarda ChatGPT'ye soru çözdürmek **akademik dolandırıcılık**tır. Üniversiteler artık AI tespit araçları kullanıyor. Yakalananlar disiplin cezası alıyor — diploma iptaline kadar gidebilir. ### 2) Ödev Yazdırma Vize/final ödevi, kompozisyon, deneme yazısı — tamamen AI'ya yazdırıp teslim etmek **intihal**dir. Turnitin AI, GPTZero gibi araçlar %85+ doğrulukla tespit ediyor (2024 verilerine göre). ### 3) Deneme Cevap Aralıklı Kullanma Deneme çözerken takıldığınızda ChatGPT'ye soruyu yazıp cevabı almak — kendinize ettiğiniz en büyük kötülük. **Çünkü:** - Soruyu çözme becerisi gelişmez - Sınavda AI yok - Yanlış güven duygusu oluşur Bu durum [Hata Defteri](/blog/2026-hata-defteri-yontemi-bilimsel-uygulamali-rehber/) sisteminin tam tersidir; hata yapmamak öğrenmenin önündedir. ### 4) "AI Koçluk" Tuzağı ChatGPT'yi "kişisel koç" olarak görmek tehlikeli bir illüzyondur. AI: - Gerçek değerlendirme yapamaz (sınav stresinizi göremez) - Sürekli takip yapamaz (her gün hatırlamaz) - Adapte olamaz (sizin için özelleşmez, genel cevaplar verir) - Sorumluluk taşımaz (yanlış strateji önerirse hesap soramazsınız) İnsan koçluk + AI takviye **tamamlayıcıdır**, AI tek başına yeterli değildir. ### 5) Sahte İçerik Üretme ChatGPT'ye "X yıl X sınavda çıkmış soruları" sormak — büyük ihtimalle uydurma sorular alırsınız (halüsinasyon). Bu sorularla çalışmak zaman israfından öte yanlış kalıplar oluşturur. ÖSYM'nin **resmi çıkmış sorularına** yönelin (her ders için ÖSYM ücretsiz çıkmış sorular yayınlıyor). ## 8. Halüsinasyon Problemi: AI Yanlış Bilgi Tespiti Halüsinasyon, AI'nın **emin gibi göstererek yanlış bilgi üretmesi**dir. Tespit etmek için 5 sinyal: ### Sinyal 1: Spesifik Sayılar/Tarihler "1923 yılında Atatürk Cumhuriyet'i ilan etti" — bilinen, doğru. Ama "1968 yılında ÖSYM kuruldu" derse — kontrol edin (ÖSYM 1974'te kuruldu). Spesifik sayı/tarih ÖSYM resmi sitesinde, akademik kaynaklarda doğrulanmadan kullanılmaz. ### Sinyal 2: Kişi-Eser Atfı "Servet-i Fünun döneminde Y eserini Tevfik Fikret yazdı" — Türk edebiyatında atıflar AI'da sık karışıyor. Ders kitabınız + güvenilir kaynak (TDK, üniversite yayınları) ile çapraz kontrol şart. ### Sinyal 3: Kanun/Yönetmelik Maddesi "657 sayılı Kanunun 33. maddesi şudur" — 657 sayılı Devlet Memurları Kanununun **resmi metnine** (mevzuat.gov.tr) bakın. AI maddeleri uydurmaya yatkındır. ### Sinyal 4: İstatistik/Veri "2023 KPSS'de Türkçe netleri ortalama 27" — KPSS resmi rapor varsa ÖSYM yayınlar. AI rakam söylüyorsa kaynak isteyin: "Bu veriyi nereden aldın?". Cevap "genel bilgi" veya "haberlerden" ise güvenmeyin. ### Sinyal 5: Aşırı Kesin Dil AI "kesinlikle", "hiç şüphesiz", "her zaman" gibi mutlak ifadeler kullanıyorsa — şüpheli. Akademik literatürde bu kadar kesin dil nadir kullanılır. ### Genel Kural > **AI'dan aldığınız her spesifik bilgiyi en az 1 başka kaynakta doğrulamadan sınav notu olarak kullanmayın.** ## 9. 3 Katmanlı Doğrulama Protokolü AI cevabı aldıktan sonra: ### Katman 1: Mantık Kontrolü (10 saniye) Cevap mantıklı mı? Bilinen kavramlarla çelişiyor mu? Bir hesap mantıksız çıkıyor mu (örn. tarih 2050 diye gösterildiyse)? ### Katman 2: Resmi Kaynak Karşılaştırma (2 dk) Spesifik bilgi varsa (sayı, tarih, kanun, kişi-eser) → ÖSYM/MEB/YÖK/mevzuat.gov.tr/TDK gibi resmi kaynakta doğrulayın. ### Katman 3: Çoklu AI Kontrolü (5 dk) Hâlâ şüpheliyseniz aynı soruyu Claude/Gemini/Perplexity'ye sorun. Üç AI farklı cevap verirse — kuvvetle muhtemel halüsinasyon var. Aynı cevap verirlerse — yine de **resmi kaynak doğrulaması** yapın (üçü de aynı yanlışı paylaşabilir). Bu protokol hayatınızı 2 dakika uzatır; ama yanlış bilgilerle sınava girmeyi önler. ## 10. Diğer AI Araçlar: Claude, Gemini, Perplexity, NotebookLM ### Claude (Anthropic) Anthropic'in modeli. ChatGPT'ye göre: - Daha uzun bağlam (200K token) - Akademik tarzda daha rahat - Türkçe kalitesi son sürümlerde çok iyi - Halüsinasyon oranı genel olarak ChatGPT-4 benzeri Adaylar için: uzun ders notlarını özetletmek, deneme analizleri için ideal. ### Gemini (Google) Google'ın modeli. Avantajları: - Google arama entegrasyonu (gerçek zamanlı bilgi) - Türkçe arama ile birleştirilince güçlü - Ücretsiz tabaka cömert Adaylar için: güncel olay (sınav haberleri, ÖSYM duyurusu) sorularında daha iyi. ### Perplexity (Search-augmented LLM) Perplexity, AI cevabını **kaynak göstererek** verir. Her cümlenin altında URL — bu halüsinasyonu büyük ölçüde azaltır. Adaylar için: spesifik bilgi sorgusu (kanun, istatistik, tarih) için **en güvenli** AI seçimi. ### NotebookLM (Google) Kendi yüklediğiniz dökümanları (PDF, video, makale) AI'ya öğretip onun üzerinde sorgu yapan araç. Adaylar için: ders notlarınızı yükleyip "bu materyalden 50 soru üret" demek mümkün. Halüsinasyon riski düşük çünkü sadece sizin verdiğiniz materyalden çalışıyor. ### Karşılaştırma Tablosu | Özellik | ChatGPT | Claude | Gemini | Perplexity | NotebookLM | |---------|---------|--------|--------|------------|------------| | Türkçe kalitesi | İyi | Çok iyi | İyi | Orta | İyi | | Halüsinasyon | Orta-yüksek | Orta | Orta | Düşük | En düşük | | Kaynak gösterme | Hayır | Hayır | Sınırlı | Evet | Evet | | Ücretsiz tabaka | Sınırlı | İyi | Cömert | Cömert | Ücretsiz | | **Sınav adayı için** | Genel | Akademik | Güncel | Doğrulama | Materyal-bazlı | ## 11. AI + İnsan Koçluk: Tamamlayıcı, Rakip Değil 15 yıllık koçluk pratiğimde 2024 sonrası şu cümleyi sık duyuyorum: "Hocam, ChatGPT varken neden koçluk alayım?" Cevabım her seferinde aynı: **AI ile koçluk birbirinin yerini almaz, birlikte çalışırlar.** ### AI'nın Yapamadıkları 1. **Gerçek zamanlı duygu okuma:** Sınav stresinizin yüzünüze yansımasını AI göremez 2. **Sürekli takip:** Her hafta ne yaptığınızı, neye takıldığınızı sürekli izleyemez 3. **Bireysel adaptasyon:** Sizin spesifik öğrenme tarzınıza, ailesel duruma, ekonomik kısıta göre özelleşemez 4. **Sorumluluk hissi:** Yanlış strateji önerirse hesap veremez; ama insan koç tarafından sorumluluk alınır 5. **Empati:** Düşük günlerde gerçek anlamda anlama duygusu ### Optimum Kombinasyon - **AI:** Günlük 5-10 dk ad-hoc soru, kavram açıklama, plan önerisi, motivasyon - **İnsan koç:** Haftalık 1-2 saat strateji oturumu, deneme analizi, sürekli moral takibi, krize müdahale Bu kombinasyon, sadece AI'lı veya sadece koçluklu sistemden **istatistiksel olarak üstün** sonuç verir. 2024-2025 koçluk verilerimde AI + koç kullanan adayların net artışı, sadece AI veya sadece klasik koç kullananlara göre %15-25 daha yüksek. ## 12. Öğrenci Vakaları: Onur K. ve Ayça ### Onur K.'nin Hikayesi: AI ile Akıllı Kullanım Onur K., 26 yaşında, Boğaziçi İktisat mezunu, 2026 ALES'e hazırlanıyordu — yüksek lisans hedefi (Ekonometri yüksek lisansı). Bana geldiğinde temkinliydi: "Hocam, ChatGPT'yi kullanıyorum ama bilmiyorum doğru mu?". İlk değerlendirmede gördüğüm: Onur AI'yı **araç olarak** doğru kullanıyordu ama sistematik değildi. Birlikte 3 katmanlı kullanım sistemi kurduk: **Katman 1 (Günlük):** Sayısal sorularda takıldığında — AI'dan **strateji önerisi** istemek (cevap değil). "Bu lojistik regresyon sorusunda ilk adımı söyle, çözmeyim". **Katman 2 (Haftalık):** Pazar akşamı haftanın deneme analizi — Excel'e işlediği veriyi ChatGPT'ye yapıştırıp "trend ve odak konu önerisi" istedi. **Katman 3 (Aylık):** Konu bittikten sonra Claude'a "şu konunun zihinde 50 kart için kısa öz" yapıp Anki'ye ekledi. Tüm AI cevaplarını **3 katmanlı doğrulama protokolü** ile süzdü: - Spesifik veri → ÖSYM/Akademik kaynak doğrulama - Şüpheli cevap → Perplexity ile çapraz kontrol - Mantık → kendi başına test ALES 2026: **Sayısal 88,42 puan — Boğaziçi Üniversitesi Ekonometri Yüksek Lisansı kabul**. Onur'un özet cümlesi: > "Hocam, AI'yı yazıcı olarak kullansaydım — ALES sınavında AI yok. Öğretmen olarak kullandım — sınavda öğrendiğim her şeyle gittim. Fark, kullanma şeklinde." ### Ayça'nın Hikayesi: AI Bağımlılığı + Risk Yönetimi Ayça, 24 yaşında Ankara Üniversitesi Hukuk mezunu, 2025'te KPSS A grubu hazırlığında başarısız olmuş, 2026'da bana geldi. İlk seansda uyarı zillerim çaldı: Ayça **"AI olmadan çalışamıyorum"** dedi. Detaylı sorgulamada gördüğüm: Ayça her sorusunu ChatGPT'ye soruyordu. Hatta "Bugün sabah ne yapayım?" gibi kendi planlamasını bile AI'ya devretmiş. **Eleştirel düşünce kası atrofi** olmuştu. Strateji: 30 günlük **AI detoks** + sonrasında **kontrollü yeniden entegrasyon**. **1-15. gün (Tam detoks):** - ChatGPT, Claude, Gemini hesapları arşive - Sadece kitap, video, koçluk - İlk 5 gün huzursuzluk (çekilme belirtileri) - 6-15. gün: kendi başına düşünmenin geri gelişi **16-30. gün (Kontrollü kullanım):** - Günde **maksimum 1 kez** AI kullanımı (Forest timer ile) - Her kullanım öncesi: "Bunu kendim çözebilir miyim? Önce dene." sorusu - Her kullanım sonrası: "AI bana ne katkı yaptı? Yapmasaydı ne fark olurdu?" değerlendirme **31. gün ve sonrası:** - AI yardımcı, yetkili değil - Kendi düşünmesi geri geldi - ChatGPT günlük 2-5 dk ad-hoc kullanım KPSS Mayıs 2026: **Genel Yetenek + Genel Kültür 84, Eğitim Bilimleri 82 — A grubu kontenjanına dahil**. Ayça'nın özet cümlesi: > "Hocam, AI'sız iki hafta — hayatımın en bilinçli iki haftasıydı. Sonra geri eklediğimde AI'nın sınırlarını gördüm; köleydim, efendi oldum." [Aday Tipolojisi](/blog/2026-aday-tipolojisi-sifirdan-orta-ileri-tekrar-kisisel-strateji-rehberi/) yazısında "tekrar deneyen aday" profilini detaylandırdım. ## 13. Pratik Aksiyon Planı ### Bu Hafta: 1. **Pazartesi:** AI kullanım envanterini çıkarın. Hangi AI'ı, ne için, ne kadar süre kullanıyorum? 2. **Salı:** Bu rehberin "5 Risk" bölümünü tekrar okuyun, kendi profilinizdeki risk noktalarını yazın 3. **Çarşamba:** "Öğretmen mi yazıcı mı?" testi. Son 7 gündeki AI kullanımlarınızı bu test ile sınıflayın 4. **Perşembe:** 7 etik uygulamadan 1 tanesini bu hafta uygulamaya alın (Active Recall + AI gibi) 5. **Cuma:** 3 katmanlı doğrulama protokolünü 1 AI cevabına uygulayın 6. **Cumartesi-Pazar:** Sistemi normalize edin ### Önümüzdeki 30 Gün: - "Yazıcı modu" kullanımı sıfırlayın - Her etik uygulamayı denemeye devam - Halüsinasyon tespit refleksinizi geliştirin - Eğer AI bağımlılığı sezerseniz Ayça'nın detoks protokolünü uygulayın ## 14. Sık Yapılan Hatalar 1. **"AI kullanmak hile" zannı:** Etik kullanımı tanımayanlar tüm AI'yı reddeder. Bu da kayıp. 2. **"AI = Google" zannı:** Google'da arama yaparsınız, kaynak görürsünüz; AI cevabı doğru sunar. Farklıdır. 3. **Halüsinasyona güvenme:** "AI yanlış söylemez" yanılgısı. Söyler — sık. 4. **Türkçe nadir konuda AI'ya güvenme:** Eğitim verisi İngilizce ağırlıklı; Türk hukuku, edebiyatı, eğitim mevzuatı sık karışır. 5. **Tek model bağımlılığı:** Sadece ChatGPT kullanmak. Claude/Perplexity ile çapraz kontrol verimliliği artırır. 6. **Sınırsız kullanım:** Günde 5 saat AI ile sohbet, 1 saat ders çalışma — yanlış oran. 7. **Hassas bilgi paylaşma:** TC kimlik, banka, kişisel sınav verisi AI'ya yüklemeyin (eğitim verisine dahil olabilir). ## 15. SSS **S: ChatGPT ücretsiz mi yoksa ücretli mi kullanmalıyım?** C: Sınav adayı için **ücretsiz GPT-4o** çoğu ihtiyacı karşılar. Ücretli (Plus, $20/ay) gelişmiş model erişimi verir ama sınav hazırlığı için zorunlu değildir. Claude'un da cömert ücretsiz tabakası var. **S: Türkçe konularda hangi AI daha iyi?** C: Claude 3.5+ son sürümlerde Türkçe çok iyi. Gemini de güncel sürümlerde iyi. ChatGPT-4o iyidir. Türk edebiyatı, hukuku gibi konularda hepsinde dikkat şart. **S: Sınav komisyonları AI tespit ediyor mu?** C: Yazılı ödevlerde Turnitin AI ve GPTZero %85+ doğrulukla tespit ediyor (2024 verilerine göre). ÖSYM yazılı sınavlarında AI kullanımı zaten imkansız (kapalı, gözetimli sınav). Açık/online sınavlarda yakalanma riski yüksek. **S: AI ile sınav çalışırken ne kadar süre?** C: Günde **maksimum 30-45 dakika** AI etkileşimi yeter. Bu sürenin dışında kendi başına çalışma — okuma, soru çözme, tekrar — esas olmalı. **S: AI'dan aldığım bilgiyi nasıl Anki kartına çevirebilirim?** C: AI'dan "10 Anki kart önerisi" isteyin → kartları gözden geçirin → düzeltmeleri yapın → Anki'ye ekleyin. [Anki rehberi](/blog/2026-anki-spaced-repetition-detayli-rehber-sm2-algoritma-kart-sablonu/) detayları. **S: AI hata yaparsa nasıl tespit edebilirim?** C: 3 katmanlı doğrulama protokolü: 1) mantık, 2) resmi kaynak, 3) çoklu AI. Şüpheliyseniz **resmi kaynak** her zaman son söz. **S: AI bağımlılığı oldum mu nasıl anlarım?** C: Şu sorulardan herhangi birine "evet" diyorsanız: AI'sız çalışırken huzursuzluk; her küçük şey için AI'ya başvurma; "AI olmadan çözemem" hissi; AI'da geçirdiğim süre ders sürelerinden uzun. Ayça'nın detoks protokolünü uygulayın. **S: Üniversite ödevinde ChatGPT'yi nereye kadar kullanabilirim?** C: Kurum politikasına bağlıdır. **Genel kural:** AI fikir üretmek/anlatım iyileştirmek için OK; **fikrin/yazının/analizinin tamamı AI'dan ise intihal**. Kuşkudaysanız hocanıza sorun. ## 16. Koçluk: AI ile Birleşen Bilinçli Hazırlık AI çağında sınav adayının önündeki en büyük tuzak **araç-amaç karışıklığı**. ChatGPT bir araçtır; amacınız sınavı geçmektir. Aracın amacı ele geçirdiği yerlerde başarı kayar. 15 yıllık koçluk pratiğimde gördüğüm: AI'yı **doğru** kullanan aday, kullanmayan adaya göre %15-25 daha hızlı ilerler. AI'yı **yanlış** kullanan aday, hiç kullanmayan adaya göre %30-40 daha yavaş ilerler. Fark, kullanma şeklinde. Eğer ChatGPT/Claude/Gemini ile ilişkinizi optimize etmek istiyorsanız — etik çizgiyi sağlam çizmek, halüsinasyona düşmemek, eleştirel düşünme kasınızı korumak — **birebir koçluk** sizin için uygun olabilir. 📞 **WhatsApp ile iletişim:** [+90 530 444 04 80](https://wa.me/905304440480) — AI kullanım denetimi ücretsiz seans. ### 3 Paket Seçeneği: - **Bronz (4.000 TL/ay)** — Haftalık 1 saat strateji + AI kullanım sınırlaması - **Gümüş (6.000 TL/ay)** — Haftalık 2 saat + AI kullanım optimizasyon planı + sınırsız WhatsApp desteği (en popüler) - **Altın (7.500 TL/ay)** — Haftalık 3 saat + tam AI ekosistem kurulumu + 7/24 destek + 2 saat veli oturumu ## Sonuç ChatGPT, Claude, Gemini, Perplexity — 2026 sınav adayının cebinde sınırsız sabırlı, sınırsız bilgili (ama sınırsız doğru olmayan) bir asistanı var. Bu asistanı **öğretmen olarak** kullanan kazanır; **yazıcı olarak** kullanan kaybeder. Stuart Russell'ın *Human Compatible* (2019) çerçevesinde "yapay zekanın değeri insan hedefine uyumlu çalışmasından gelir" prensibini içselleştirin. Sizin hedefiniz öğrenmek; AI'nın bu hedefe nasıl hizmet edeceğini siz belirlersiniz. Bugün ChatGPT'yi açın. Bir konuda takıldığınızda **çözmesini** değil **strateji önerisini** isteyin. Bir konuyu öğrendikten sonra **kendi cümlelerinizle** anlatın, AI'ya kontrol ettirin. Bir kavramı **3 farklı şekilde** anlatmasını isteyin. 3 ay sonra geri dönüp bu rehberi okuyun. AI'yı kullanma şeklinizdeki dönüşümü göreceksiniz. İyi çalışmalar, başarılı bir sınav dönemi dilerim. — Kazım İncebacak
Kazım İncebacak - Eğitim Koçu

Kazım İncebacak

Profesyonel Eğitim Koçu & Mentor

7 yıldır sınav koçluğu yapan, DGS Sayısal 299. sıra başarısına sahip, öğrencilerini hedeflerine ulaştırmış deneyimli eğitmen. Her öğrencinin farklı olduğuna inanır ve kişiselleştirilmiş stratejiler geliştirir.

7
Yıl Tecrübe
37
Aktif Öğrenci
%85+
Başarı
Daha fazla bilgi

Sınav Hazırlığınızda Yanınızdayız

Kişiselleştirilmiş çalışma programları ve birebir koçluk desteği ile hedeflerinize ulaşın.

İlgili Yazılar

Bu konularda daha fazla bilgi edinmek için diğer yazılarımızı keşfedin