Düşünme sorumluluğumuz nerede
Özellikle son bir yılda kurumlarda sessiz ama yaygın bir pratik şekilleniyor. E-postalar, sunumlar, raporlar hızlıca hazırlanıyor. Çünkü hemen her çalışan, işinin bir yerinde ChatGPT gibi yapay zekâ araçlarını kullanıyor.
İlk bakışta verimlilik artmış gibi görünüyor. Ancak içeriklere yakından bakıldığında başka bir tablo ortaya çıkıyor:
Kavramlar yersiz, ifadeler bağlamından kopuk, içerik üretilmiş ama üzerinde düşünülmemiş.
Temel sorun şu:
Konu hakkında temel bilgi eksikliği + yapay zekâdan gelen metne aşırı güven.
Yapay zekâ güçlü bir araç. Ancak komut, konunun doğasına temas etmiyorsa ve üretilen bilgi hakkında kullanıcı kontrol sağlayacak bir temele sahip değilse araç ne kadar iyi olursa olsun katkısı sınırlı kalıyor.
Ve daha da önemlisi;
Ortaya çıkan metin, kişiye gerçek bir yapabilirlik hissi veriyor. Oysa o his, bilgiye ya da yetkinliğe değil; aracın dil üretme becerisine dayanıyor. Bu da “bilmeden yapabilmek” gibi tehlikeli bir yanılsamayı besliyor.
KPMG' nin 2024 tarihli “Trust in Artificial Intelligence” araştırmasına göre;
- AI kullanan çalışanların %66’sı çıkan sonuçları doğrulamıyor.
- %57’si bu araçları yöneticilerinden gizli kullanıyor.
- Ve sadece %47’si, bu araçları nasıl kullanacağına dair herhangi bir eğitim almış durumda.
Bu veriler bize şunu söylüyor: Yapay zekâ, bireyin bilgi boşluğunu doldurmuyor; aksine, o boşluğu görünmez hâle getiriyor.
Tarihsel bir benzetme yapmak gerekirse, bu durum hesap makinelerinin yaygınlaşmasına benziyor. Hesap makineleri dört işlem yapabiliyor ama matematiksel düşünme becerisi gelişmemişse problemi çözmeye yetmiyor.
Bugün de kullanıcı yapay zekâ ile anlamadan üretebiliyor. Ancak içerik ne kadar düzgün görünse de; altı boşsa, kalitesi zayıflıyor.
Bu tablo yalnızca bireysel gelişimi değil, organizasyonel çıktıları da etkiliyor:
Karar destek belgelerinde kavramsal hatalar artıyor.
Proje dokümanları hızla hazırlanıyor ama metodolojik bütünlük taşımıyor.
Öğrenme süreçleri yerine "kopyala-yapıştır-yayınla" döngüsü devreye giriyor.
Yapay zekâyı kullanmakla, onunla birlikte düşünebilmek arasındaki farkın önemini iyi kavramak gerekiyor.
Burada kurumlara önemli bir risk yönetimi sorumluluğu düşüyor:
Yapay zekâ kullanımını teşvik ederken, bunu bilgi okuryazarlığı, kavramsal yetkinlik ve eleştirel düşünceyle desteklemek zorundalar.
Aksi halde yapay zekâ, üretimi artırır ama anlamı sığlaştırır. Ve uzun vadede kurum içinde görünmeyen ama yaygın bir risk üretir:
Yeterli görünmenin ama yetkin olmamanın kurumsal maliyeti.
Şimdi şu soruya dürüstçe bir bakalım:
Yapay zekâ ile işleri mi hızlandırıyoruz, yoksa düşünme sorumluluğumuzu ona mı devrediyor muyuz?
Herkes kendi açısından haklıdır
Liderin İç Sesi
Yorumlar