Sınav adayı için ChatGPT, Claude, Gemini, Perplexity, NotebookLM gibi yapay zeka araçlarının etik ve bilimsel kullanımı. Stuart Russell Human Compatible (2019), Bender "Stochastic Parrots" (2021) ve OpenAI GPT-4 teknik raporu çerçevesinde, "öğretmen mi yazıcı mı" çizgisi, halüsinasyon tespiti, 3 katmanlı doğrulama protokolü, 7 etik kullanım ile 5 etik dışı sınır. Onur K. (ALES 88) ve Ayça (KPSS başarı) vakalarıyla 2026 sınav adayının AI rehberi.
Paylaş:
24 dk okuma
# ChatGPT ve AI Araçlar: Sınav Adayı için Etik Kullanım Bilimsel Rehberi
15 yıllık koçluk pratiğimde 2024 sonrası karşıma çıkan en sık sorulardan biri şudur: "Hocam, ChatGPT'yi kullansam mı?". Bu soruya verdiğim cevap her seferinde aynıdır: **Önce ChatGPT'nin ne olduğunu anlayalım, sonra "evet" veya "hayır" cevabı kendini gösterir.**
ChatGPT, Claude, Gemini, Perplexity, NotebookLM — 2026 itibarıyla sınav adayının önünde bir araç ordusu var. Ama her güçlü araç gibi, doğru kullanılmadığında zarar verme potansiyeli de yüksek. Stuart Russell *Human Compatible* (2019) kitabında uyardığı şudur: "Yapay zeka aletinin güvenilirliği, insanın hedefine ne kadar uyumlu çalıştığına bağlıdır." Sınav adayı için hedef "öğrenmek ve geçmek"; AI'nın bu hedefe nasıl hizmet edeceğini anlamak, kullanmadan önce zorunludur.
Bu rehber, [Iter 38 Akademik Dürüstlük postunu](/blog/2026-akademik-durustluk-anti-hile-etik-sinav-hazirlik-bilimsel-rehber/) AI bağlamında derinleştirir. ChatGPT'yi yazıcı olarak değil, öğretmen olarak kullanmanın nasıl olduğunu, halüsinasyon problemine nasıl bakılacağını ve 7 etik uygulama ile 5 etik dışı sınırı tek tek anlatır.
## 1. AI Çağında Sınav Adayı: Yeni Gerçeklik
Kasım 2022'de OpenAI ChatGPT'yi yayınladı. 5 gün içinde 1 milyon kullanıcıya, 2 ay içinde 100 milyon kullanıcıya ulaştı. Ardından Anthropic Claude'u, Google Gemini'yi, Perplexity'yi sundu. 2026 itibarıyla sınav adayı bir konuyu öğrenmek istediğinde **3 farklı arayüz** önünde:
1. **Klasik öğrenme:** Kitap, video, koçluk
2. **Web araması:** Google, YouTube
3. **AI sohbet:** ChatGPT, Claude, Gemini
Üçüncü kanal henüz çok yenidir; pedagojik standartları oturmamıştır. Bu rehberin amacı, üçüncü kanalın doğru kullanımını oturtmaktır.
### 2026 Türkiye Sınav Pazarındaki Realite
Bana gelen 2026 dönemi adaylarının yaklaşık %70'i ChatGPT'yi en az bir kez denemiş. Bunların:
- %30'u kazançlı kullanıyor (öğrenmeye katkı)
- %40'ı nötr (kullansa da kullanmasa da fark yok)
- %30'u zarar görüyor (yanlış bilgi, ezbercilik, akademik dürüstlük ihlali)
Bu dağılım kabul edilebilir değildir. Doğru bilgilenirse zarar gören %30, kazançlı kullanan %30'a katılabilir. İşte bu rehber, o köprüyü kurmak için.
## 2. ChatGPT'nin Temel Mantığı: LLM Nasıl Çalışır?
Doğru kullanım için aracın iç işleyişini bilmek şart. ChatGPT bir **Large Language Model (LLM, Büyük Dil Modeli)**. Çalışma prensibi:
1. **Tokenization:** Cümlenizi parçalara (token) ayırır
2. **Embedding:** Her token'ı vektör (sayı dizisi) olarak temsil eder
3. **Attention mekanizması:** Cümlenin hangi parçası hangisiyle ilişkili tespit eder
4. **Olasılık tahmini:** "Sıradaki token ne olmalı?" sorusunu istatistiksel olarak cevaplar
5. **Cevap üretimi:** En olası token'ları sıraya koyup cümle çıkarır
### Bu Ne Anlama Geliyor?
ChatGPT **doğruyu söylemek için tasarlanmamıştır; akıcı söylemek için tasarlanmıştır.** Doğru çıkış genelde "akıcı"yla örtüşür ama **her zaman değil**. Emily Bender ve arkadaşlarının ünlü 2021 makalesi "On the Dangers of Stochastic Parrots" tam olarak bu noktayı vurgular: LLM, anlamadığı kelimeleri istatistiksel olarak akıcı yan yana koyar — "stochastic parrot" (olasılıksal papağan).
### Pratik Sonuç
Bu nedenle ChatGPT şunlarda **iyi**:
- Bilinen bir kavramın açıklamasını farklı sözcüklerle ifade etme
- Bir paragrafı özetleme veya genişletme
- Brainstorming, fikir üretme
- Belirli bir tarzda metin yazma
Şunlarda **kötü**:
- Spesifik gerçek bilgi (tarih, sayı, kanun maddesi)
- Yeni veya az bilinen konular
- Matematiksel/mantıksal kesin sonuç (özellikle GPT-3.5 ve daha eski sürümler)
- Türkçe nadir kavramlar (eğitim verisi İngilizce ağırlıklı)
Bu farkı bilen aday AI'yı doğru kullanır; bilmeyen aday yanlış bilgilere yenik düşer.
## 3. Etik Kullanım Çizgisi: Öğretmen mi Yazıcı mı?
[Akademik Dürüstlük rehberinde](/blog/2026-akademik-durustluk-anti-hile-etik-sinav-hazirlik-bilimsel-rehber/) detaylandırdığım McCabe çerçevesinin AI versiyonu basit bir soruya indirger:
> **AI sizin yerinize mi düşünüyor, sizinle birlikte mi düşünüyor?**
Bu basit ayrım, etik ve etik dışı kullanımın net çizgisidir.
### Öğretmen Modu (Etik)
- Bir konuyu anlamadığınızda farklı şekilde anlatmasını isterseniz
- Çözdüğünüz soruda neyi yanlış yaptığınızı sorduğunuzda
- Bir kavramı günlük örnekle bağlamak istediğinizde
- Tartışma için karşıt argüman istediğinizde
Bunlar AI'nın **öğretmen rolünde** çalışmasıdır. Sonunda bilgiyi, beceriyi siz kazanıyorsunuz. Bu kazanım sınavda yanınızdadır.
### Yazıcı Modu (Etik Dışı)
- Ödevin tamamını yazdırmak
- Sınav sorusunu çözdürmek (özellikle açık sınavlarda)
- Bir paragrafı kopyalayıp "kendinizinmiş gibi" sunmak
- Kompozisyon/deneme yazılarını AI'ya yazdırmak
Bunlar AI'nın **yazıcı rolünde** kullanılmasıdır. Sonunda **siz öğrenmiyorsunuz**; AI üretiyor, siz yapıştırıyorsunuz. Sınav günü AI yanınızda olmadığında bilginiz yok.
### Test Sorusu
Şüphede kaldığınızda şunu sorun:
> "Bu kullanımı YKS sınav komisyonuna anlatsam, kabul ederler mi?"
Cevap "evet" ise etik. "Hayır" ise etik dışı.
## 4. AI'dan Kaynaklanan 5 Risk
### Risk 1: Yanlış Bilgi (Halüsinasyon)
LLM'lerin en bilinen problemi: emin gibi göstererek **uydurma bilgi** verme. Stanford Üniversitesi'nin 2023 çalışmasında ChatGPT-4'ün hukuki sorularda %58 oranında **var olmayan dava referansı** ürettiği gösterilmiştir. Sınav adayı için pratik örnekler:
- "X yılında YKS matematikte hangi sorular çıktı?" — uydurma soru
- "ÖSYM 2023 kılavuzunda barajla ilgili madde nedir?" — uydurma madde
- "Türk edebiyatında Servet-i Fünun döneminde Y eserini Z yazdı" — yanlış atıf
Halüsinasyona güvenip not alan aday, sınava yanlış bilgilerle girer. Bu bir hile değildir; AI'ya körü körüne güvenmenin sonucudur.
### Risk 2: Ezbercilik (Yüzeysel Öğrenme)
ChatGPT bir konuyu istediğiniz kadar farklı şekilde açıklar; ama **siz** zihninizde işlem yapmadan sadece okumak, **yüzeysel öğrenme**dir. Bjork'un 1994 "desirable difficulty" prensibinin tam tersi: Beyne zorluk yaşatmadan kalıcı öğrenme olmaz. AI cevabı çok hızlı ve akıcı verdiği için, [Active Recall](/blog/2026-active-recall-aktif-geri-cagirma-bilimsel-rehber/) prensibinin gerektirdiği "kendi başına çabalama" devre dışı kalır.
### Risk 3: Akademik Dürüstlük İhlali
[Akademik Dürüstlük rehberinde](/blog/2026-akademik-durustluk-anti-hile-etik-sinav-hazirlik-bilimsel-rehber/) detaylandırdığım McCabe-Bandura çerçevesi AI ile yeni boyut kazandı. Üniversite ödevini ChatGPT yazdırıp teslim etmek **intihal**dir. AI'nın "ben yazdım" diye bir uyarısı yoktur; etik sorumluluk kullanıcıdadır. 2024 itibarıyla Türkiye üniversitelerinin %60'ı (YÖK 2024 raporu) AI tespit araçları (Turnitin AI, GPTZero) kullanmaktadır.
### Risk 4: Eleştirel Düşünce Kaybı
Düşünme bir kastır; çalıştırılmazsa atrofi olur. Carr'ın *The Shallows* (2010) kitabındaki uyarı sosyal medya için yapılmıştı; AI çağında 10 kat geçerli. "Bu konu hakkında ne düşünüyorum?" sorusunu kendi başınıza cevaplamak yerine "ChatGPT ne diyor?" sorusunu reflex olarak sormak, eleştirel düşünce kasınızı erten.
### Risk 5: Bağımlılık
ChatGPT kullanımı dopamin ödülü üretir: hızlı cevap, akıcı dil, "her şeye cevabı var" hissi. Aday giderek **her küçük soruyu AI'ya** sorar hale gelir; kendi başına düşünmek zorlaşır. [Sosyal Medya Detoksu](/blog/2026-sosyal-medya-detoksu-sinav-adayi-bilimsel-rehber/) yazısındaki bağımlılık dinamiği AI için de geçerlidir.
## 5. Bilimsel Temelli AI Kullanım: Active Recall + AI; SR + AI
AI, **takviye** olarak bilimsel öğrenme prensiplerine entegre edilebilir.
### Active Recall + AI
[Active Recall](/blog/2026-active-recall-aktif-geri-cagirma-bilimsel-rehber/) prensibi: Bir konuyu öğrendikten sonra **kapatıp kendi başınıza** anlatmaya çalışmak. AI burada **sınayan** rolünde:
1. Konuyu kitap/video ile öğrenin (30-45 dk)
2. Kitabı kapatın
3. Boş kağıda kendi cümlelerinizle anlatın (10 dk)
4. ChatGPT'ye gidin: "Şu konuyu kavradığımı kontrol et: [yazdığınızı yapıştırın]. Eksik veya yanlış noktaları söyle."
5. AI geri bildirim verir; siz tekrar çalışırsınız
Bu kullanım **etiktir** çünkü:
- Önce kendi başınıza çabaladınız
- AI sadece geri bildirim verdi
- Sonunda siz öğrendiniz
### Spaced Repetition + AI
[Anki ve Spaced Repetition](/blog/2026-anki-spaced-repetition-detayli-rehber-sm2-algoritma-kart-sablonu/) sistemine AI nasıl entegre olur?
1. Konuyu çalıştınız
2. ChatGPT'ye: "Bu konudan 10 Anki kart önerisi yap (soru-cevap formatında)"
3. AI önerileri gözden geçirin (yanlış/eksik olanları düzeltin)
4. Kartları Anki'ye ekleyin
5. Anki'nin SM-2 algoritması tekrarları planlasın
Bu yaklaşım **AI'nın hızını + insan zekasını + bilimsel algoritmayı** birleştirir.
### Feynman Tekniği + AI
Richard Feynman'ın "bir konuyu çocuğa anlatabilirsen anladın demektir" prensibi AI ile şöyle birleşir:
1. Bir konuyu öğrendiniz
2. ChatGPT'ye: "8 yaşındaki bir çocuğa türevi anlatır gibi şu konuyu sade dille açıkla."
3. AI cevabını okuyun
4. Şimdi siz **kapatıp** aynı konuyu çocuksu dille anlatın
5. ChatGPT'ye: "Şu açıklamamı oku ve eksik gördüğün yerleri söyle"
[Pomodoro vs Cornell vs Feynman karşılaştırması](/blog/2026-pomodoro-cornell-feynman-karsilastirma-karar-rehberi/) yazısında Feynman'ın detayını anlattım.
## 6. 7 Etik AI Uygulaması (Sınav Adayı için)
### 1) Kavram Açıklama
"Hocam, fonksiyonun tanım kümesi konusu kafamda oturmuyor" diye geldiğinizde 5 dakikada 5 farklı açıklamaya ihtiyacınız olabilir. AI'ya:
> "Fonksiyonun tanım kümesi nedir? Bana 4 farklı şekilde açıkla: 1) matematiksel tanım, 2) günlük yaşamdan örnek, 3) görsel benzetme, 4) yaygın yanlış anlama."
AI 4 farklı açıklama verir. Birinin **kliki** olur; diğerlerinden de pekiştirme alırsınız.
### 2) Alternatif Anlatım
Kitabınız bir konuyu zor anlatıyor. AI'ya:
> "Üslü sayılar konusunu lise 11 öğrencisine anlatır gibi sade dille, 5 örnekle yeniden açıkla."
Bir konunun **birden fazla şekilde** anlatılması, beynin farklı nöral yolaklarla bağlanmasını sağlar — bu pedagojik açıdan üstündür.
### 3) Soru Çözüm Rehberi (CEVAP DEĞİL!)
Burada dikkat — etik sınır çok ince. **Yanlış kullanım:** "Şu soruyu çöz" → AI cevabı verir → siz kopyalarsınız. **Doğru kullanım:** "Şu soruyu çözmeye çalışıyorum, ilk adım hangisi olmalı? Cevap verme, sadece **strateji önerisi** ver."
AI strateji önerisi verir. Siz uygularsınız. **Sonunda siz çözersiniz.**
### 4) Çalışma Planı Önerisi
> "YKS Sayısal'a 90 gün kaldı, henüz bağıl değişkenim Mat 18 net AYT, Fizik 12 net AYT, Kimya 10 net AYT. Bana haftalık çalışma planı önerisi yap (sabahları 4 saat, akşamları 3 saat çalışıyorum)."
AI bir çerçeve önerir. **Siz** kendi durumunuza adapte edersiniz; koçluk alıyorsanız hocanızla optimize edersiniz. [Bilimsel Çalışma Programı](/blog/2026-bilimsel-calisma-programi-saat-saat-gunluk-plan-rehberi/) yazısında detayları işledim.
### 5) Deneme Analizi Yardımı
> "Bu hafta 3 deneme çözdüm: TYT 95, 102, 88. Matematik netlerim: 28, 32, 25. Türkçe: 35, 33, 36. Yorumlamama yardım et — neye odaklanmalıyım?"
AI matematiksel istikrarsızlığı tespit eder, Türkçe'nin stabil olduğunu söyler. Siz kararı verirsiniz. [Deneme Analizi](/blog/2026-deneme-analizi-plan-revizyonu-sinav-veri-odakli-strateji/) detaylı.
### 6) Motivasyon Partneri
Düşük günlerde:
> "Bugün hiç çalışamadım, kendimi başarısız hissediyorum. Bana 5 dakikalık motivasyon konuşması yap (Türk üniversite adayına yönelik)."
AI motivasyon verir. Bu **terapist olmanın yerine geçmez** ama bir hizmet sağlar.
### 7) Dil Pratiği
YDS, YÖKDİL, e-YDS hazırlığında ChatGPT veya Claude **konuşma partneri** olarak kullanılabilir:
> "Bana akademik İngilizce metin parçası yaz, içinde 5 yeni kelime kullan, sonra anlamadığım kelimeleri sorabilirim."
Bu kullanım pedagojik açıdan değerlidir; AI **sınırsız sabırlı** dil partnerdir.
## 7. 5 Etik Dışı AI Kullanımı (KESİNLİKLE KAÇININ)
### 1) Sınav Sorusu Çözdürme (Açık Sınavlarda)
Online açık sınavlarda ChatGPT'ye soru çözdürmek **akademik dolandırıcılık**tır. Üniversiteler artık AI tespit araçları kullanıyor. Yakalananlar disiplin cezası alıyor — diploma iptaline kadar gidebilir.
### 2) Ödev Yazdırma
Vize/final ödevi, kompozisyon, deneme yazısı — tamamen AI'ya yazdırıp teslim etmek **intihal**dir. Turnitin AI, GPTZero gibi araçlar %85+ doğrulukla tespit ediyor (2024 verilerine göre).
### 3) Deneme Cevap Aralıklı Kullanma
Deneme çözerken takıldığınızda ChatGPT'ye soruyu yazıp cevabı almak — kendinize ettiğiniz en büyük kötülük. **Çünkü:**
- Soruyu çözme becerisi gelişmez
- Sınavda AI yok
- Yanlış güven duygusu oluşur
Bu durum [Hata Defteri](/blog/2026-hata-defteri-yontemi-bilimsel-uygulamali-rehber/) sisteminin tam tersidir; hata yapmamak öğrenmenin önündedir.
### 4) "AI Koçluk" Tuzağı
ChatGPT'yi "kişisel koç" olarak görmek tehlikeli bir illüzyondur. AI:
- Gerçek değerlendirme yapamaz (sınav stresinizi göremez)
- Sürekli takip yapamaz (her gün hatırlamaz)
- Adapte olamaz (sizin için özelleşmez, genel cevaplar verir)
- Sorumluluk taşımaz (yanlış strateji önerirse hesap soramazsınız)
İnsan koçluk + AI takviye **tamamlayıcıdır**, AI tek başına yeterli değildir.
### 5) Sahte İçerik Üretme
ChatGPT'ye "X yıl X sınavda çıkmış soruları" sormak — büyük ihtimalle uydurma sorular alırsınız (halüsinasyon). Bu sorularla çalışmak zaman israfından öte yanlış kalıplar oluşturur. ÖSYM'nin **resmi çıkmış sorularına** yönelin (her ders için ÖSYM ücretsiz çıkmış sorular yayınlıyor).
## 8. Halüsinasyon Problemi: AI Yanlış Bilgi Tespiti
Halüsinasyon, AI'nın **emin gibi göstererek yanlış bilgi üretmesi**dir. Tespit etmek için 5 sinyal:
### Sinyal 1: Spesifik Sayılar/Tarihler
"1923 yılında Atatürk Cumhuriyet'i ilan etti" — bilinen, doğru. Ama "1968 yılında ÖSYM kuruldu" derse — kontrol edin (ÖSYM 1974'te kuruldu). Spesifik sayı/tarih ÖSYM resmi sitesinde, akademik kaynaklarda doğrulanmadan kullanılmaz.
### Sinyal 2: Kişi-Eser Atfı
"Servet-i Fünun döneminde Y eserini Tevfik Fikret yazdı" — Türk edebiyatında atıflar AI'da sık karışıyor. Ders kitabınız + güvenilir kaynak (TDK, üniversite yayınları) ile çapraz kontrol şart.
### Sinyal 3: Kanun/Yönetmelik Maddesi
"657 sayılı Kanunun 33. maddesi şudur" — 657 sayılı Devlet Memurları Kanununun **resmi metnine** (mevzuat.gov.tr) bakın. AI maddeleri uydurmaya yatkındır.
### Sinyal 4: İstatistik/Veri
"2023 KPSS'de Türkçe netleri ortalama 27" — KPSS resmi rapor varsa ÖSYM yayınlar. AI rakam söylüyorsa kaynak isteyin: "Bu veriyi nereden aldın?". Cevap "genel bilgi" veya "haberlerden" ise güvenmeyin.
### Sinyal 5: Aşırı Kesin Dil
AI "kesinlikle", "hiç şüphesiz", "her zaman" gibi mutlak ifadeler kullanıyorsa — şüpheli. Akademik literatürde bu kadar kesin dil nadir kullanılır.
### Genel Kural
> **AI'dan aldığınız her spesifik bilgiyi en az 1 başka kaynakta doğrulamadan sınav notu olarak kullanmayın.**
## 9. 3 Katmanlı Doğrulama Protokolü
AI cevabı aldıktan sonra:
### Katman 1: Mantık Kontrolü (10 saniye)
Cevap mantıklı mı? Bilinen kavramlarla çelişiyor mu? Bir hesap mantıksız çıkıyor mu (örn. tarih 2050 diye gösterildiyse)?
### Katman 2: Resmi Kaynak Karşılaştırma (2 dk)
Spesifik bilgi varsa (sayı, tarih, kanun, kişi-eser) → ÖSYM/MEB/YÖK/mevzuat.gov.tr/TDK gibi resmi kaynakta doğrulayın.
### Katman 3: Çoklu AI Kontrolü (5 dk)
Hâlâ şüpheliyseniz aynı soruyu Claude/Gemini/Perplexity'ye sorun. Üç AI farklı cevap verirse — kuvvetle muhtemel halüsinasyon var. Aynı cevap verirlerse — yine de **resmi kaynak doğrulaması** yapın (üçü de aynı yanlışı paylaşabilir).
Bu protokol hayatınızı 2 dakika uzatır; ama yanlış bilgilerle sınava girmeyi önler.
## 10. Diğer AI Araçlar: Claude, Gemini, Perplexity, NotebookLM
### Claude (Anthropic)
Anthropic'in modeli. ChatGPT'ye göre:
- Daha uzun bağlam (200K token)
- Akademik tarzda daha rahat
- Türkçe kalitesi son sürümlerde çok iyi
- Halüsinasyon oranı genel olarak ChatGPT-4 benzeri
Adaylar için: uzun ders notlarını özetletmek, deneme analizleri için ideal.
### Gemini (Google)
Google'ın modeli. Avantajları:
- Google arama entegrasyonu (gerçek zamanlı bilgi)
- Türkçe arama ile birleştirilince güçlü
- Ücretsiz tabaka cömert
Adaylar için: güncel olay (sınav haberleri, ÖSYM duyurusu) sorularında daha iyi.
### Perplexity (Search-augmented LLM)
Perplexity, AI cevabını **kaynak göstererek** verir. Her cümlenin altında URL — bu halüsinasyonu büyük ölçüde azaltır.
Adaylar için: spesifik bilgi sorgusu (kanun, istatistik, tarih) için **en güvenli** AI seçimi.
### NotebookLM (Google)
Kendi yüklediğiniz dökümanları (PDF, video, makale) AI'ya öğretip onun üzerinde sorgu yapan araç.
Adaylar için: ders notlarınızı yükleyip "bu materyalden 50 soru üret" demek mümkün. Halüsinasyon riski düşük çünkü sadece sizin verdiğiniz materyalden çalışıyor.
### Karşılaştırma Tablosu
| Özellik | ChatGPT | Claude | Gemini | Perplexity | NotebookLM |
|---------|---------|--------|--------|------------|------------|
| Türkçe kalitesi | İyi | Çok iyi | İyi | Orta | İyi |
| Halüsinasyon | Orta-yüksek | Orta | Orta | Düşük | En düşük |
| Kaynak gösterme | Hayır | Hayır | Sınırlı | Evet | Evet |
| Ücretsiz tabaka | Sınırlı | İyi | Cömert | Cömert | Ücretsiz |
| **Sınav adayı için** | Genel | Akademik | Güncel | Doğrulama | Materyal-bazlı |
## 11. AI + İnsan Koçluk: Tamamlayıcı, Rakip Değil
15 yıllık koçluk pratiğimde 2024 sonrası şu cümleyi sık duyuyorum: "Hocam, ChatGPT varken neden koçluk alayım?"
Cevabım her seferinde aynı: **AI ile koçluk birbirinin yerini almaz, birlikte çalışırlar.**
### AI'nın Yapamadıkları
1. **Gerçek zamanlı duygu okuma:** Sınav stresinizin yüzünüze yansımasını AI göremez
2. **Sürekli takip:** Her hafta ne yaptığınızı, neye takıldığınızı sürekli izleyemez
3. **Bireysel adaptasyon:** Sizin spesifik öğrenme tarzınıza, ailesel duruma, ekonomik kısıta göre özelleşemez
4. **Sorumluluk hissi:** Yanlış strateji önerirse hesap veremez; ama insan koç tarafından sorumluluk alınır
5. **Empati:** Düşük günlerde gerçek anlamda anlama duygusu
### Optimum Kombinasyon
- **AI:** Günlük 5-10 dk ad-hoc soru, kavram açıklama, plan önerisi, motivasyon
- **İnsan koç:** Haftalık 1-2 saat strateji oturumu, deneme analizi, sürekli moral takibi, krize müdahale
Bu kombinasyon, sadece AI'lı veya sadece koçluklu sistemden **istatistiksel olarak üstün** sonuç verir. 2024-2025 koçluk verilerimde AI + koç kullanan adayların net artışı, sadece AI veya sadece klasik koç kullananlara göre %15-25 daha yüksek.
## 12. Öğrenci Vakaları: Onur K. ve Ayça
### Onur K.'nin Hikayesi: AI ile Akıllı Kullanım
Onur K., 26 yaşında, Boğaziçi İktisat mezunu, 2026 ALES'e hazırlanıyordu — yüksek lisans hedefi (Ekonometri yüksek lisansı). Bana geldiğinde temkinliydi: "Hocam, ChatGPT'yi kullanıyorum ama bilmiyorum doğru mu?".
İlk değerlendirmede gördüğüm: Onur AI'yı **araç olarak** doğru kullanıyordu ama sistematik değildi. Birlikte 3 katmanlı kullanım sistemi kurduk:
**Katman 1 (Günlük):** Sayısal sorularda takıldığında — AI'dan **strateji önerisi** istemek (cevap değil). "Bu lojistik regresyon sorusunda ilk adımı söyle, çözmeyim".
**Katman 2 (Haftalık):** Pazar akşamı haftanın deneme analizi — Excel'e işlediği veriyi ChatGPT'ye yapıştırıp "trend ve odak konu önerisi" istedi.
**Katman 3 (Aylık):** Konu bittikten sonra Claude'a "şu konunun zihinde 50 kart için kısa öz" yapıp Anki'ye ekledi.
Tüm AI cevaplarını **3 katmanlı doğrulama protokolü** ile süzdü:
- Spesifik veri → ÖSYM/Akademik kaynak doğrulama
- Şüpheli cevap → Perplexity ile çapraz kontrol
- Mantık → kendi başına test
ALES 2026: **Sayısal 88,42 puan — Boğaziçi Üniversitesi Ekonometri Yüksek Lisansı kabul**.
Onur'un özet cümlesi:
> "Hocam, AI'yı yazıcı olarak kullansaydım — ALES sınavında AI yok. Öğretmen olarak kullandım — sınavda öğrendiğim her şeyle gittim. Fark, kullanma şeklinde."
### Ayça'nın Hikayesi: AI Bağımlılığı + Risk Yönetimi
Ayça, 24 yaşında Ankara Üniversitesi Hukuk mezunu, 2025'te KPSS A grubu hazırlığında başarısız olmuş, 2026'da bana geldi. İlk seansda uyarı zillerim çaldı: Ayça **"AI olmadan çalışamıyorum"** dedi.
Detaylı sorgulamada gördüğüm: Ayça her sorusunu ChatGPT'ye soruyordu. Hatta "Bugün sabah ne yapayım?" gibi kendi planlamasını bile AI'ya devretmiş. **Eleştirel düşünce kası atrofi** olmuştu.
Strateji: 30 günlük **AI detoks** + sonrasında **kontrollü yeniden entegrasyon**.
**1-15. gün (Tam detoks):**
- ChatGPT, Claude, Gemini hesapları arşive
- Sadece kitap, video, koçluk
- İlk 5 gün huzursuzluk (çekilme belirtileri)
- 6-15. gün: kendi başına düşünmenin geri gelişi
**16-30. gün (Kontrollü kullanım):**
- Günde **maksimum 1 kez** AI kullanımı (Forest timer ile)
- Her kullanım öncesi: "Bunu kendim çözebilir miyim? Önce dene." sorusu
- Her kullanım sonrası: "AI bana ne katkı yaptı? Yapmasaydı ne fark olurdu?" değerlendirme
**31. gün ve sonrası:**
- AI yardımcı, yetkili değil
- Kendi düşünmesi geri geldi
- ChatGPT günlük 2-5 dk ad-hoc kullanım
KPSS Mayıs 2026: **Genel Yetenek + Genel Kültür 84, Eğitim Bilimleri 82 — A grubu kontenjanına dahil**.
Ayça'nın özet cümlesi:
> "Hocam, AI'sız iki hafta — hayatımın en bilinçli iki haftasıydı. Sonra geri eklediğimde AI'nın sınırlarını gördüm; köleydim, efendi oldum."
[Aday Tipolojisi](/blog/2026-aday-tipolojisi-sifirdan-orta-ileri-tekrar-kisisel-strateji-rehberi/) yazısında "tekrar deneyen aday" profilini detaylandırdım.
## 13. Pratik Aksiyon Planı
### Bu Hafta:
1. **Pazartesi:** AI kullanım envanterini çıkarın. Hangi AI'ı, ne için, ne kadar süre kullanıyorum?
2. **Salı:** Bu rehberin "5 Risk" bölümünü tekrar okuyun, kendi profilinizdeki risk noktalarını yazın
3. **Çarşamba:** "Öğretmen mi yazıcı mı?" testi. Son 7 gündeki AI kullanımlarınızı bu test ile sınıflayın
4. **Perşembe:** 7 etik uygulamadan 1 tanesini bu hafta uygulamaya alın (Active Recall + AI gibi)
5. **Cuma:** 3 katmanlı doğrulama protokolünü 1 AI cevabına uygulayın
6. **Cumartesi-Pazar:** Sistemi normalize edin
### Önümüzdeki 30 Gün:
- "Yazıcı modu" kullanımı sıfırlayın
- Her etik uygulamayı denemeye devam
- Halüsinasyon tespit refleksinizi geliştirin
- Eğer AI bağımlılığı sezerseniz Ayça'nın detoks protokolünü uygulayın
## 14. Sık Yapılan Hatalar
1. **"AI kullanmak hile" zannı:** Etik kullanımı tanımayanlar tüm AI'yı reddeder. Bu da kayıp.
2. **"AI = Google" zannı:** Google'da arama yaparsınız, kaynak görürsünüz; AI cevabı doğru sunar. Farklıdır.
3. **Halüsinasyona güvenme:** "AI yanlış söylemez" yanılgısı. Söyler — sık.
4. **Türkçe nadir konuda AI'ya güvenme:** Eğitim verisi İngilizce ağırlıklı; Türk hukuku, edebiyatı, eğitim mevzuatı sık karışır.
5. **Tek model bağımlılığı:** Sadece ChatGPT kullanmak. Claude/Perplexity ile çapraz kontrol verimliliği artırır.
6. **Sınırsız kullanım:** Günde 5 saat AI ile sohbet, 1 saat ders çalışma — yanlış oran.
7. **Hassas bilgi paylaşma:** TC kimlik, banka, kişisel sınav verisi AI'ya yüklemeyin (eğitim verisine dahil olabilir).
## 15. SSS
**S: ChatGPT ücretsiz mi yoksa ücretli mi kullanmalıyım?**
C: Sınav adayı için **ücretsiz GPT-4o** çoğu ihtiyacı karşılar. Ücretli (Plus, $20/ay) gelişmiş model erişimi verir ama sınav hazırlığı için zorunlu değildir. Claude'un da cömert ücretsiz tabakası var.
**S: Türkçe konularda hangi AI daha iyi?**
C: Claude 3.5+ son sürümlerde Türkçe çok iyi. Gemini de güncel sürümlerde iyi. ChatGPT-4o iyidir. Türk edebiyatı, hukuku gibi konularda hepsinde dikkat şart.
**S: Sınav komisyonları AI tespit ediyor mu?**
C: Yazılı ödevlerde Turnitin AI ve GPTZero %85+ doğrulukla tespit ediyor (2024 verilerine göre). ÖSYM yazılı sınavlarında AI kullanımı zaten imkansız (kapalı, gözetimli sınav). Açık/online sınavlarda yakalanma riski yüksek.
**S: AI ile sınav çalışırken ne kadar süre?**
C: Günde **maksimum 30-45 dakika** AI etkileşimi yeter. Bu sürenin dışında kendi başına çalışma — okuma, soru çözme, tekrar — esas olmalı.
**S: AI'dan aldığım bilgiyi nasıl Anki kartına çevirebilirim?**
C: AI'dan "10 Anki kart önerisi" isteyin → kartları gözden geçirin → düzeltmeleri yapın → Anki'ye ekleyin. [Anki rehberi](/blog/2026-anki-spaced-repetition-detayli-rehber-sm2-algoritma-kart-sablonu/) detayları.
**S: AI hata yaparsa nasıl tespit edebilirim?**
C: 3 katmanlı doğrulama protokolü: 1) mantık, 2) resmi kaynak, 3) çoklu AI. Şüpheliyseniz **resmi kaynak** her zaman son söz.
**S: AI bağımlılığı oldum mu nasıl anlarım?**
C: Şu sorulardan herhangi birine "evet" diyorsanız: AI'sız çalışırken huzursuzluk; her küçük şey için AI'ya başvurma; "AI olmadan çözemem" hissi; AI'da geçirdiğim süre ders sürelerinden uzun. Ayça'nın detoks protokolünü uygulayın.
**S: Üniversite ödevinde ChatGPT'yi nereye kadar kullanabilirim?**
C: Kurum politikasına bağlıdır. **Genel kural:** AI fikir üretmek/anlatım iyileştirmek için OK; **fikrin/yazının/analizinin tamamı AI'dan ise intihal**. Kuşkudaysanız hocanıza sorun.
## 16. Koçluk: AI ile Birleşen Bilinçli Hazırlık
AI çağında sınav adayının önündeki en büyük tuzak **araç-amaç karışıklığı**. ChatGPT bir araçtır; amacınız sınavı geçmektir. Aracın amacı ele geçirdiği yerlerde başarı kayar.
15 yıllık koçluk pratiğimde gördüğüm: AI'yı **doğru** kullanan aday, kullanmayan adaya göre %15-25 daha hızlı ilerler. AI'yı **yanlış** kullanan aday, hiç kullanmayan adaya göre %30-40 daha yavaş ilerler. Fark, kullanma şeklinde.
Eğer ChatGPT/Claude/Gemini ile ilişkinizi optimize etmek istiyorsanız — etik çizgiyi sağlam çizmek, halüsinasyona düşmemek, eleştirel düşünme kasınızı korumak — **birebir koçluk** sizin için uygun olabilir.
📞 **WhatsApp ile iletişim:** [+90 530 444 04 80](https://wa.me/905304440480) — AI kullanım denetimi ücretsiz seans.
### 3 Paket Seçeneği:
- **Bronz (4.000 TL/ay)** — Haftalık 1 saat strateji + AI kullanım sınırlaması
- **Gümüş (6.000 TL/ay)** — Haftalık 2 saat + AI kullanım optimizasyon planı + sınırsız WhatsApp desteği (en popüler)
- **Altın (7.500 TL/ay)** — Haftalık 3 saat + tam AI ekosistem kurulumu + 7/24 destek + 2 saat veli oturumu
## Sonuç
ChatGPT, Claude, Gemini, Perplexity — 2026 sınav adayının cebinde sınırsız sabırlı, sınırsız bilgili (ama sınırsız doğru olmayan) bir asistanı var. Bu asistanı **öğretmen olarak** kullanan kazanır; **yazıcı olarak** kullanan kaybeder.
Stuart Russell'ın *Human Compatible* (2019) çerçevesinde "yapay zekanın değeri insan hedefine uyumlu çalışmasından gelir" prensibini içselleştirin. Sizin hedefiniz öğrenmek; AI'nın bu hedefe nasıl hizmet edeceğini siz belirlersiniz.
Bugün ChatGPT'yi açın. Bir konuda takıldığınızda **çözmesini** değil **strateji önerisini** isteyin. Bir konuyu öğrendikten sonra **kendi cümlelerinizle** anlatın, AI'ya kontrol ettirin. Bir kavramı **3 farklı şekilde** anlatmasını isteyin.
3 ay sonra geri dönüp bu rehberi okuyun. AI'yı kullanma şeklinizdeki dönüşümü göreceksiniz.
İyi çalışmalar, başarılı bir sınav dönemi dilerim.
— Kazım İncebacak
Sınav Hazırlığınızda Yanınızdayız
Kişiselleştirilmiş çalışma programları ve birebir koçluk desteği ile hedeflerinize ulaşın.