#36

#36 Toplum ve Teknoloji

Kitap Okumak Neden Hala Önemli?

Kullandığımız araçlar, onları kullanma biçimlerimiz ve edinilen alışkanlıklarımızı kökten bir değişime uğratıyor. Geçtiğimiz hafta The New York Times‘da yayımlanan bir makalede, bu dönüşümü inceleyen çarpıcı bir üniversite çalışmasına yer verildi. Çalışmada bir profesör, 250 öğrencisini iki gruba ayırarak bir sınav uyguluyor. Bir grup geleneksel araştırma yöntemlerini kullanırken, diğer grup yapay zeka (YZ) araçlarına başvuruyor. Sonuçlar ise, geleneksel yöntemleri kullanan öğrencilerin lehine olacak şekilde oldukça belirgin bir fark ortaya koyuyor.

Yapay zeka özetlerine güvenen öğrencilerin sunduğu öneriler, "sağlıklı beslen, su iç, iyi uyu" gibi yüzeysel, tekrar eden ve çoğunlukla klişelerden ibaret kalıyor. Buna karşın, klasik yöntemlerle arama yapan öğrenciler fiziksel, zihinsel ve duygusal sağlık arasında anlamlı ayrımlar kuran, daha ayrıntılı tavsiyeler üreterek konuya dair derin bir vukufiyet kazanıyorlar. Bu öğrenciler, edindikleri bilgileri kendi özgün cümlelerine dönüştürme yeteneği sergiliyorlar.

Teknoloji şirketleri ve bazı kullanıcılar yapay zeka araçlarının öğrenmeyi ve üretkenliği artırdığını savunuyor. Ancak, bahsi geçen çalışma ve benzer akademik araştırmalar, yapay zekaya aşırı bağımlılığın bilişsel performansı düşürdüğünü açıkça gösteriyor. Araştırmayı yürüten Dr. Melumad bu durumdan endişe duyuyor ve "Gençlerin artık doğru şekilde Google araması yapamamasından kaygılanıyorum" diyor. Gerçekten de, arama motorlarında nitelikli araştırma yapmak için gerekli olan ön bilgileri dahi muhafaza etmeye gerek kalmayacakmış gibi görünüyor.

2024 yılında Oxford Sözlüğü'nün "brain rot" (beyin çürümesi) terimini yılın kelimesi seçmesi de bu tehlikeli tabloyla paralellik gösteriyor. Esasen düşük kaliteli içerik tüketiminin zihinsel yetileri köreltmesini ifade eden bu terim (özellikle TikTok ve Instagram videoları bağlamında), yapay zeka çağında öğrenme süreçlerinin niteliğinin düşmesi olarak yeni bir anlam daha kazanıyor.

Peki ChatGPT ile yazmak gerçekten "yazmak" sayılıyor mu?

Yukarıdaki çalışmaya benzer olarak MIT’de yapılan başka bir çalışma öğrencilerin yazma alışkanlıkları üzerine odaklanıyor. Bu çalışmada 54 üniversite öğrencisinden bir kompozisyon yazmaları isteniyor. Bir grup ChatGPT kullanabilirken, öteki grup Google aramalarına başvuruyor, üçüncü grup ise sadece kendi bilgileriyle yazıyor. Bu süreç boyunca öğrencilerin beyin aktiviteleri sensörlerle ölçülüyor.

ChatGPT kullananların en düşük beyin aktivitesine sahip olduğu ortaya çıkıyor. Daha önemlisi ise yazıyı bitirdikten bir dakika sonra, ChatGPT kullanan öğrencilerin yüzde 83’ü kendi yazılarından tek bir cümleyi bile hatırlayamıyor. Google araması yapanlar bazı cümleleri hatırlarken kendi başına yazan öğrenciler ise metinlerinin büyük bölümünü doğru şekilde aktarabiliyorlar.

MIT'den Nataliya Kosmyna, şu soruyu yöneltiyor:
"Bir dakika sonra bir cümleyi bile hatırlamıyorsan, metne gerçekten sahiplik hissedebilir misin?"

Bu durum, özellikle bilgi ve hatırlama gerektiren meslekler için ciddi bir uyarı niteliği taşıyor.

Yazma

Yapay zekayı daha sağlıklı nasıl kullanabiliriz?

Elbette bu çalışmaları hiçbiri reaksiyoner bir endişe ile yapay zeka kullanımına karşı çıkmak anlamına gelmiyor. Elbette kullanmanın çok faydalı yönleri var. Fakat bütünüyle savunmasız kullanımdan ziyade neyi nasıl kullandığımıza dikkat etmemiz elzem.

MIT çalışmasının ilginç bir bulgusu, yapay zekayı en verimli kullanma biçiminin sürecin başında değil sonunda olduğunu gösteriyor. Deneyde gruplar yer değiştirdiğinde, önce kendi beynine dayanarak yazan öğrenciler ChatGPT’ye geçtiğinde en yüksek beyin aktivitesini göstermeye devam ediyorlar. Buna karşılık, başlangıçta ChatGPT kullanan öğrenciler yalnızca kendi beyinlerine güvenmek zorunda kaldıklarında aynı seviyeye ulaşamıyorlar.

Bu sonuçlar, yazma ve öğrenme sürecine önce kendi başımıza başlayıp, yalnızca son aşamada yapay zekayı düzeltme ve geliştirme için kullanmanın daha sağlıklı olduğunu düşündürüyor. Tıpkı matematikte formülleri önce kağıt kalemle öğrendikten sonra hesap makinesi kullanmak gibi.

Dr. Melumad da benzer bir noktayı vurguluyor. YZ araçları, daha önce beynin aktif olarak yaptığı tarama, seçme ve okuma süreçlerini otomatikleştirerek bizi pasifleştiriyor. Bu nedenle, chatbotlardan geniş konuları baştan sona araştırmalarını istemek yerine, sadece küçük ve net sorular için yararlanmak daha yerinde olabilir. Bir konu hakkında gerçekten derinlemesine öğrenmek isteyenler için ise hala en iyi yöntem aynı: kitap okumak.

Açık Ağırlıklı Yapay Zeka Modelleri ve Savunma Sektöründeki Yeri

OpenAI, geçtiğimiz Ağustos ayında yeni modellerini duyurdu. Açık ağırlıklı (open-weight) olan bu modeller, gpt-oss-120b ve gpt-oss-20b isimleriyle piyasaya sürüldü. Her ne kadar isimleri karışık olsa da yeni modeller açık ağırlıklı olmaları nedeniyle ortak bir ağa bağlanmadan yerel sistemlerde çalışabiliyor. Ortak bir ağa, yani internete bağlanmadan çalışan bu modellerin piyasaya çıkışı, güvenlik tedbirlerinin yüksek olduğu istihbarat ve savunma altyapıları için önemli bir gelişme olarak karşılandı. Wired’ın haberine göre şimdilik ABD ordusu tarafından test edilseler de OpenAI’ın modellerinin askeri kullanımda diğer şirketlere kıyasla hala yarışın gerisinde olduğu söyleniyor.

Bu modellerin savunma sektörüne katkısına değinmeden önce açık ağırlıklı kavramının ne olduğuna açıklamak gerekiyor. Açık kaynak (open-source) ve açık ağırlık (open-weight) kavramları yapay zeka ekosisteminde uzun süredir iç içe kullanılıyor. Ancak aralarında önemli farklar var. Açık kaynak yaklaşımında modelin mimarisi, eğitim kodları ve tüm geliştirme süreci serbest biçimde erişilebilir durumda olur. Buna karşılık açık ağırlıklı modeller tam anlamıyla açık kaynak değildirler. Modelin ağırlıklarına erişim sağlanır ve model indirilebilir, ancak eğitim süreci veya kod altyapısının tamamı paylaşılmayabilir. Yine de bu modeller, kapalı ve ticari amaçlı sistemlere kıyasla çok daha yüksek bir özerklik, denetim ve yerel çalışma imkanı sunar.

Açık ağırlıklı yapay zeka modelleri

Kaynak: Reuters

Bu imkanlar, özellikle ulusal güvenlik ve savunma amaçlı kullanımda açık ağırlıklı modelleri kritik hale getiriyor. Zira savunma kurumları çoğu zaman "air-gapped" yani internetsiz, kapalı ağlarda çalışmak zorundalar. Güvenlik gerekçeleriyle bulut bağlantısı gerektiren ticari modeller bu ortamlarda kullanılmıyor. Açık ağırlıklı bir model ise kurumun kendi sunucusuna indirilebilir, hassas verilerin dışarı çıkmadan işlenmesine olanak tanıyabilir ve istenildiğinde model tamamen izole bir donanım üzerinde çalıştırılabilir. Gizlilik, tam kontrol ve dış bağımlılığın azaltılması açısından bu yaklaşım kapalı bulut modellerine göre ciddi avantaj sağlar.

Bununla birlikte bazı firmalar OpenAI’ın açık ağırlıklı modellerinin bazı dillerde veya düşük donanımlı ortamlarda performanslarının yetersiz kaldığını belirtiyor. Özellikle görüntü ve ses işleme yeteneklerinin bulunmaması, çoklu veri türleriyle çalışan savunma analizlerinde önemli bir eksiklik teşkil ediyor. Diğer yandan bazı şirketler, bu modelleri belirli görevler için "fine-tuningle" (ince ayarlarla) yeniden eğiterek tatmin edici sonuçlar aldığını da bildiriyor.

Sonuç olarak, yapay zekanın savunma sanayi ve ulusal güvenlik konularında çeşitlenen rolü, açık ağırlıklı modelleri giderek daha çok popülerleştiriyor. Kurumların kapalı, açık kaynak ve açık ağırlıklı modelleri bir arada kullanarak kendi ihtiyaçlarına uygun hibrit çözümler geliştirmesi, önümüzdeki dönemde daha da yaygın bir yaklaşım haline gelecek gibi görünüyor. Öte yandan, özellikle bu gelişmeden gördüğümüz bir başka nüans ise, OpenAI gibi özerkliği vurgulanan bir şirket doğrudan olmasa da stratejik adımlarla dolaylı olarak askeri inovasyonlara imkan tanıyan modeller ortaya koyuyor olması. Zira doğrudan askeri projeler yapmanın yerine askeri inovasyona müsait açık ağırlık modeller üretmek birbirine oldukça benzer. Bu noktada başta OpenAI olmak üzere birçok büyük teknoloji şirketinin özellikle güvenlik kurumlarıyla çok daha yakınlaşacağını ve pastadan pay kapmak için onların ihtiyaçları doğrultusunda ürünler geliştireceğini de söylemek mümkün.

Siber Saldırıda Yapay Zeka Eşiği

Yapay zeka her alanda olduğu gibi siber saldırı ve güvenlik konusunda da süreç hızlandırma ve otomatikleştirme becerileriyle öne çıkmaya başladı. Evet, yapay zeka ve büyük dil modelleri birçok süreci hızlandırarak ve otomasyon haline getirerek insanlığa faydalı bir araç olarak kullanılabilir. Ancak aynı şekilde bu potansiyel kötüye kullanıldığı zaman da büyük riskler doğurabiliyor ve bu kötüye kullanım teknolojinin bize sunduğu imkanları gölgede bırakıyor. Geçtiğimiz günlerde bu risklerin operasyonel bir gerçekliğe dönüştüğüne dair bugüne kadarki en somut kanıt, bizzat bir yapay zeka modeli geliştiricisi tarafından kamuoyuna sunuldu.

Claude modelinin yaratıcısı olan Anthropic şirketi, 14 Kasım 2025 tarihlerinde yaptığı bir açıklamayla Çin Devleti’nin desteklediğini iddia ettiği bir bilgisayar korsanı grubunun, modelin gelişmiş bir sürümünü kullanarak büyük ölçekli ve otonom bir siber casusluk kampanyası yürüttüğünü tespit edip engellediğini duyurdu. Bu olay, yapay zekanın siber saldırılarda sadece bir yardımcı olmaktan çıkıp saldırının ana operatörü haline geldiği ilk büyük ölçekli vaka olarak kayıtlara geçti.

Anthropic'in "Tehdit İstihbaratı" ekibinin raporuna göre, olaylar zinciri 2025 yılının Eylül ayı ortalarında tespit edildi. Çinli Hacker grubu teknoloji devleri, finans kuruluşları, kimya üreticileri ve çeşitli devlet kurumlarının da aralarında bulunduğu yaklaşık 30 küresel kuruluşu hedef aldı. Anthropic, saldırı girişimlerinin çoğunun hedeflere ulaşmadan engellendiğini ancak az sayıda da olsa bazı sızma girişimlerinin başarıya ulaştığını belirtti.

Siber saldırı
Saldırganların temel hedefi ve başarıya ulaştıkları nokta, Claude modelinin güvenlik kısıtlamalarını aşarak modelin kapasitesini kötüye kullanmak üzerine kuruluydu. Anthropic, saldırganların bunu başarmak için birkaç akıllıca yöntem kullandığını belirtti. Hacker grubu, modelin yerleşik güvenlik protokollerini aşmak için klasik bir "jailbreak" (kısıtlama kırma) tekniği kullandılar. Claude'a kendisinin "meşru bir siber güvenlik firmasının çalışanı" olduğunu ve "savunma amaçlı sızma testleri" yürüttüğünü söylediler. Bu senaryo, modelin normalde zararlı olarak işaretleyeceği eylemleri meşru bir bağlamda değerlendirmesine neden oldu.

Devamında saldırganlar yapay zekadan "Filanca şirketi hackle" gibi büyük ve açıkça kötü niyetli bir talepte bulunmuyorlar. Bunun yerine, tam bir siber saldırı zincirini binlerce küçük çaplı ve çeşitli görevlere bölünüyor. Bu görevler arasında "Bu IP aralığındaki açık portları tara." veya "Bu sunucuda çalışan yazılımın bilinen zafiyetlerini listele." gibi istekler yer alıyor. Yapay zeka, bu görevlerin her birini daha büyük bir kötü niyetli planın parçası olduğunu fark etmeden yerine getiriyor.

Anthropic’in raporuna göre bu sistem sayesinde yapılan saldırılarda yapay zeka saniyede binlerce istek gönderebiliyordu. Bu da insan operatörlerden oluşan bir ekibin ulaşmasının imkansız olduğu bir saldırı hızı anlamına geliyor. Yapay zeka, sistemleri tarıyor, zafiyetleri buluyor, kötü amaçlı kodları yazıyor, kimlik bilgilerini topluyor ve hatta sızdırılan verileri önem sırasına göre kategorize edip saldırganlar için belge haline getiriyordu. Şirket, tüm operasyonun %80 ila %90’ının yapay zeka tarafından otonom olarak yürütüldüğünü tahmin ediyor. İnsan operatörlerin, tüm süreç boyunca sadece 4 ila 6 kritik karar noktası için müdahale ettiği tahmin ediliyor.

Bu olay doğal olarak uzmanları yapay zeka destekli savunma (AI-driven defense) sistemlerinin geliştirilmesinin aciliyet teşkil ettiği fikrine itti. Yapay zeka şirketleri, kendi modellerini bu saldırıyı tespit etmek ve savuşturmak için kullanılabileceğini belirterek, yapay zeka destekli bir siber saldırının ancak yapay zeka desteği ile savunabileceğini öne sürüyor.

Ancak öte taraftan daha şüpheci yaklaşan bazı uzmanlar ise durumun abartıldığını öne sürüyor. Anthropic'in tanımladığı saldırının komplike olmadığı, bunun sadece "çok süslü bir otomasyon" veya "akıllı kopyala-yapıştır" olduğu iddia ediliyor. Bu görüşe göre, yapay zeka hala "halüsinasyon" görmeye (yanlış veya uydurma bilgi üretmeye) meyilli.

Bu uzmanlara göre öncelikle yapılması gereken şey yapay zeka şirketlerinin kendi modellerini kötü kullanıma karşı güvenli hale getirmesi. Jailbreak ve roleplay gibi metodlar dil modellerinin sınırlarını aşmak için kullanılan en yaygın yöntemler. Bu ölçüde büyük saldırıların bile temelinde internette herkesin rahatça ulaşıp öğrenebileceği zayıf noktalar üzerinden ilerlediği tahmin ediliyor. Bu zayıflıkların üzerine düşülmesi kötü niyetli kullanımın teknolojik gelişimi gölgelememesi açısından oldukça mühim.
Toplum ve Teknoloji
17 Kasım 2025
Bir dakika sonra hatırlamadığımız cümlenin sahibi olabilir miyiz?