onedio
article/comments
article/share
Haberler
Okullarda Yapay Zekâ: Ne Oluyor, Ne Olmalı? “AI Geldi, Okul Aynı Kaldı” Dönemi Bitti

etiket Okullarda Yapay Zekâ: Ne Oluyor, Ne Olmalı? “AI Geldi, Okul Aynı Kaldı” Dönemi Bitti

Kısa bir acı gerçek: Okullar yapay zekâyı çoğu zaman “ödevi hızlandıran, öğretmeni yormayan, veliyi sakinleştiren” bir sihirli değnek gibi kullanıyor. Sonuç? Öğrenme güçlenmiyor, sadece okulun eski düzeni daha hızlı çalışıyor. Teknoloji gelişiyor; eğitim ise çoğu yerde aynı yerde sayıyor. İnatla.

İçeriğin Devamı Aşağıda chevron-right-grey
Reklam

1) Şu anda olan şey: “Araç geldi, sistem aynı kaldı”

1) Şu anda olan şey: “Araç geldi, sistem aynı kaldı”

Bugün birçok okulda yapay zekâ şu üç amaçla devrede:

Öğretmen için: Ders planı, ölçme-değerlendirme ve içerik üretimini hızlandırmak.

Öğrenci için: Ödevi daha hızlı bitirmek, araştırmayı chatbota yaptırmak.

Yönetim için: “Biz de AI kullanıyoruz” diyebilmek (broşüre yazmak için).

Buradaki asıl sorun şu: Yapay zekâ öğrenmenin özünü dönüştürmek yerine okulun eski rutinlerini (standart müfredat, standart sınav, “tek doğru cevap”) turbo hale getiriyor. Yani “öğrenme” değil, “okul işleri” hızlanıyor.

2) Riskin adı: “AI ile zenginleşme” değil, “AI ile tükenme”

2) Riskin adı: “AI ile zenginleşme” değil, “AI ile tükenme”

Yapay zekâ doğru tasarlanırsa öğrenmeyi güçlendirir, yanlış kullanılırsa temeli oyar. Riskler genelde üç kanalda birikiyor:

a) Bilişsel riskler (düşünmeyi dış kaynak yapmak)

Hızlı cevap bağımlılığı: Soru sormadan cevap arama alışkanlığı.

Üretmeden tüketme: “Ben düşündüm” zannedip sadece kopyalama.

Zorlanmaya tahammülün düşmesi: Zihin kası çalışmadan güçlenmiyor.

b) Sosyal-duygusal riskler (ilişki yerine ekran)

Öğretmen ve akran ilişkisi yerine “bot ilişkisi”.

Geri bildirim kültürü yerine “anında onay” arayışı.

Öz-düzenleme zayıflaması: Duyguyu yönetmeden, dikkat yönetimi olmuyor.

c) Güvenlik ve etik riskler (mahremiyet, manipülasyon)

Veri mahremiyeti ve çocuk verisinin korunması.

Yanıltıcı içerik ve yanlış bilgi (çok ikna edici olabiliyor).

Bağımlılık tasarımları ve yönlendirme riski.

3) Peki ne olmalı: Okulun “AI stratejisi” değil, “insan stratejisi” olmalı

3) Peki ne olmalı: Okulun “AI stratejisi” değil, “insan stratejisi” olmalı

Yapay zekâ tartışmasını teknoloji tartışması sanmak klasik bir yönetim hatası. Asıl soru şu:

“Bu okul, çocukta hangi insan kapasitesini büyütmek için var?”

Benim “bilgece” çerçevem (Bilgelik Pedagojisi çizgisiyle):

Yönelim → Uygulama → Farkındalık → Paylaşım

Yönelim: Pusulayı netleştir

Okul şunu yazılı hale getirmeli: Yapay zekâ bizim için neyin aracı, neyin yerine geçemez? “Kolaylaştırma” ile “çocuğun yerine yapma” arasındaki kırmızı çizgi nerede?

Uygulama: “Söyleyen AI” değil “öğreten AI”

Yapay zekâ cevap veren bir ‘kopya makinesi’ gibi konumlanırsa öğrenme çöker. Koç gibi konumlanırsa öğrenme büyür: ipucu verir, soru sorar, düşünmeyi yapılandırır, süreç geri bildirimi verir.

Sınıfta bunun karşılığı:

Soru üretme görevleri (problem bulma).

Kanıtla konuşma (kaynak değerlendirme, çapraz kontrol).

Üretim odaklı çıktılar (rapor, prototip, sunum, toplumsal fayda projesi).

Farkındalık: AI okuryazarlığı “buton eğitimi” değildir

“ChatGPT nasıl kullanılır” anlatmak tek başına okuryazarlık değildir. Okuryazarlık şunları içerir: model yanılabilirliği, önyargı ve yönlendirme, kaynak doğrulama, veri izi ve mahremiyet, ne zaman kullanılmaması gerektiği.

Paylaşım: Yasak/serbest ikiliği yerine ortak kültür

Okulun bir “AI kullanım protokolü” olmalı:

Şeffaflık: “AI kullandıysam nerede, nasıl?”

Emeğe saygı: “Ben ne ürettim, AI ne katkı verdi?”

Değerlendirme: Ürün kadar süreç (taslaklar, düşünme adımları, geri bildirim döngüsü).

4) Okulların bugün yapması gereken 7 hamle

4) Okulların bugün yapması gereken 7 hamle

Sınıf deneyimini yeniden tasarla: Öğrenci daha çok “tamamlayan” değil, “üreten” olsun.

Araçları birlikte seç: Öğretmen-öğrenci-veli masada yoksa bu iş ‘edtech dayatması’na döner.

AI’yi öğretmen gibi değil, koç gibi konumla: İpucu, geri bildirim, düşünme rutini.

Okul içi izleme yap: Öğrenme, motivasyon, etik ihlal, bağımlılık sinyallerini ölç.

AI okuryazarlığını müfredata göm: Kulüp işi değil, kültür işi.

Öğretmeni güçlendir: Öğretmen içerik anlatıcısından ‘öğrenme mimarı’na geçince AI faydaya döner.

Net bir etik çerçeve yayınla: Mahremiyet, yaşa uygunluk, sınır, şeffaflık, hesap verebilirlik.

5) Son söz: Okulun gramerini değiştirmeden AI sadece makyaj olur

5) Son söz: Okulun gramerini değiştirmeden AI sadece makyaj olur

Yapay zekâ okulları iki yola ayırıyor: Ya “daha hızlı ödev, daha çok test, daha az düşünme” ile çürümeyi hızlandıracak ya da okulu değer üreten, problem bulan, birlikte düşünen bir ekosisteme çevirip öğrenmeyi insanileştirecek. Teknoloji tarafsız değil; onu hangi pedagojik pusulayla kullandığın belirliyor.

Bu yüzden mesele “AI kullanıyor muyuz?” değil; “Çocukların insan kalmasına ve büyümesine yarıyor mu?” sorusu.

Kayhan Karlı

Eğitimci / YÖMEV Başkanı

Instagram | YouTube | LinkedIn

Bu makalede öne sürülen fikir ve yaklaşımlar tamamıyla yazarlarının özgün düşünceleridir ve Onedio'nun editöryal politikasını yansıtmayabilir. ©Onedio

Yorumlar ve Emojiler Aşağıda chevron-right-grey
Reklam

Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!

category/test-white Test
category/gundem-white Gündem
category/magazin-white Magazin
category/video-white Video
category/eglence BU İÇERİĞE EMOJİYLE TEPKİ VER!
0
0
0
0
0
0
0
Yorumlar Aşağıda chevron-right-grey
Reklam