Dijital dünyanın yeni kirliliği olarak adlandırılan AI slop, yani yapay zeka ürünü niteliksiz içerikler, çocukların ruh sağlığı ve gelişimi üzerinde ciddi bir tehdit oluşturuyor. Bu durum tedirginlik uyandıran boyutlara varmış durumda. Amerika’da aralarında çocuk hakları aktivistleri, akademisyenler ve eğitim sendikalarının bulunduğu 200’den fazla kuruluş, YouTube’a yönelik sert bir açık mektup yayınlayarak bu içeriklerin tamamen yasaklanmasını talep etti. Mektuba göre platformun çocukların dikkatini suistimal ederek bu çöplükten milyonlarca dolar kar elde ettiği öne sürülüyor.
Söz konusu mektup ve gündem Fairplay isimli bir oluşum tarafından 200’e yakın akademik ve sosyal dünyadan etkili isim ve birliğin desteği ile organize ediliyor. Bu organizasyonun öncü isimlerinden biri ise neredeyse dünya çapında meşhur sosyal psikologlardan biri olan Jonathan Haidt. Mektubun ana meselesi, Haidt’in de metinlerinde çok sık ele aldığı; sosyal medyanın ve bu mektup özelinde Youtube’daki yapay zeka üretimi kalitesiz içeriklerin gerçeklik algısını bozduğu, öğrenme süreçlerini yıktığı, dikkat dağıttığı yönündeki etkiler. Bu etkiler yetişkinler için bile oldukça zararlı sonuçlar doğurabilirken çocuklar için durum daha da vahim.
Kaynak: AAPeki, tam olarak nedir bu AI slop videoları? Kısaca, bu içeriklerin yapay zeka araçlarıyla seri şekilde üretilen, genellikle tuhaf, mantıksız ve sadece izleyicinin ve özellikle küçük çocukların dikkatini hapsetmek için tasarlanmış içerikler olduğunu söyleyebiliriz. Tekrarlayan hareketler yapan çizgi karakterler, hatalı bilgilerle dolu sözde eğitici videolar ve hiçbir amacı olmayan hipnotik döngüler bu türün en belirgin örnekleri arasında sayılabilir. İçeriklerin ne bir anlatısı ne de tutarlı bir sürekliliği bulunuyor. Tam da bu sebepten ötürü, özellikle gelişim çağındaki çocuklar için ciddi erozyona sebep olabiliyor. Çocuklar gündelik hayatlarında da hipnoz edici ve anlatısal bütünlüğü olmayan bir deneyim alanı arıyorlar.
Meselenin bir de çok büyük meblağlara ulaşan ekonomik boyutu var. Araştırmalar, sadece çocukları hedefleyen en popüler yapay zeka kanallarının yıllık 4,25 milyon dolardan fazla gelir elde ettiğini gösteriyor. Mektubu yazan aktivistler, platformun bu içeriklerden ciddi bir komisyon aldığını ve bu finansal teşvikler ortadan kalkmadığı sürece sorunun çözülemeyeceğini iddia ediyor. Fairplay direktörü Rachel Franz, YouTube’un bu içerikleri aktif olarak önerdiğini ve ebeveynlerin bu algoritmik tuzaktan kaçmasının neredeyse imkansız olduğunu belirtiyor.
Algoritmanın davranış istatistiğine göre, çocuklar YouTube’da alışık olduğumuz biçimde çizgi film yahut çocuk şarkısı içerikleri yapan popüler ve güvenilir içerikleri izledikten sonra algoritmanın önerdiği videoların %40’ı doğrudan yapay zeka tarafından üretilmiş düşük kaliteli içeriklerden oluşuyor. Yahut yeni açılan hesaplarda önerilen kısa videoların %21’i tamamen AI slop kategorisine giriyor. Çocuklar için yayın yapan YouTube Kids platformundaki içeriklerin sadece %5 ile %16 arasındaki bir kısmının gerçek anlamda yüksek kaliteli veya eğitici olduğu tahmin ediliyor.
YouTube’un çatı şirketi Google, kendi AI Futures Fund aracılığıyla bebekleri hedefleyen yapay zeka stüdyosu Animaj’a 1 milyon dolarlık yatırım yaparak bu ekosistemi doğrudan destekliyor gibi görünüyor. Her ne kadar iddiaları slop içerikler olmasa da yapay zekanın nihai verimsizliğini ve eksikliğini insan müdahalesi olmadan kapatmaları neredeyse imkansız.
Google ve Youtube CEO’larına gönderilen mektupta talepler madde madde sıralanmış biçimde net. YouTube Kids platformunda yapay zeka üretimi tüm içeriklerin tamamen yasaklanması, ana platformdaki tüm AI videolarının açıkça etiketlenmesi ve algoritmaların 18 yaş altı kullanıcılara bu tarz içerikleri önermesinin durdurulması isteniyor. Ayrıca ebeveynlere yapay zeka içeriklerini tamamen kapatma imkanı tanıyan bir kontrol mekanizması getirilmesi ve YouTube’un yapay zeka odaklı çocuk stüdyolarına yaptığı yatırımları durdurması talep ediliyor.
YouTube yönetimi yüksek standartlara sahip olduğunu iddia etse de uzmanlar, okuma yazma bilmeyen çocukların yapay zeka etiketlerini anlayamayacağını hatırlatarak aktivistler Youtube’u radikal ve yapısal değişiklikler yapmaya çağırıyor. Zira yapay zeka tehlikesine karşı Youtube da hem kullanıcı deneyimi hem de platform güvenliği adına bir takım adımlar atmıştı. Hatta 2026 hedefleri arasına yerleştirdikleri, platformu düşük kaliteli içeriklere karşı yönetme planı da bu adımlar arasında sayılabilir. Ancak bu hedef ne kadar beklenen neticeyi verecek sorusunun cevabı şimdilik muamma.
Yapay Zeka Çağında İçerik Denetimi: Güvenlik mi, Kontrol mü?
İnternetin geniş yayılımı bilgi denetimi açısından büyük problemlerle karşılaşmamıza sebep oldu. Kimin hangi kaynağa dayanarak ne söylediği meselesi zaten netameli bir mesele iken yapay zeka üretimi metinlerin gündemimize girmesiyle iş artık kontrol edilemez boyutlara ilerlemekte. İçinde bulunduğumuz çağda içerik denetimi teknik bir mesele olmanın ötesine geçip doğrudan toplumsal ve politik bir güç alanına dönüşüyor. Brett Levenson’ın Apple’dan ayrılıp Facebook’ta görev aldığı döneme bakmak, bu dönüşümün köklerini anlamak açısından çokça önem taşıyor.
2019’da Facebook, Cambridge Analytica skandalı sonrası büyük bir güven krizi yaşıyordu. O dönemde içerik moderasyonu büyük ölçüde manuel süreçlere dayanıyordu. Levenson’un belirtmesine göre dünyanın farklı bölgelerinde çalışan moderatörler birçok noktada hatalı çevrilmiş Facebook regülasyonlarını ezberlemek zorundaydı ve içerik başına sadece saniyeler içinde karar veriyordu. Bu sistem teknik olarak yetersiz olmakla beraber aynı zamanda keyfi ve tutarsız görülüyordu.
Kaynak: AAAncak mesele sadece verimsizlik değildi. Facebook’un geçmişte içerik moderasyonunu nasıl uyguladığı, bu mekanizmanın aynı zamanda bir yönlendirme aracı olabileceğini de gösterdi. Seçim dönemlerinde hangi içeriklerin öne çıkarıldığı, hangilerinin bastırıldığı; hangi politik aktörlerin görünürlüğünün arttığı ya da azaldığı gibi konular, platformun doğrudan ya da dolaylı biçimde kamusal tartışmayı şekillendirebildiğini ortaya koydu. Moderasyon yalnızca zararlı içeriği temizlemekle kalmayıp aynı zamanda bilgi akışını yeniden düzenlemek anlamına geliyordu.
Bugün geldiğimiz noktada ise problem daha da karmaşık. AI tabanlı sistemler içerik üretimini katlanarak artırdı. Chatbotlar, görsel üretim araçları ve dijital karakterler artık sürekli içerik üretiyor. Bu da klasik insan moderatör modelini sürdürülemez hale getiriyor. İşte bu noktada Levenson’ın kurduğu Moonbounce devreye giriyor.
Moonbounce’un yaklaşımı policy as code, yani politikaların doğrudan yazılıma dönüştürülmesi. Artık kurallar bir dokümanda beklemiyor; sistemin içinde çalışıyor. İçerik üretildiği anda analiz ediliyor ve milisaniyeler içinde karar veriliyor. Bu, manuel moderasyonun yavaşlık, tutarsızlık ve gecikmiş müdahale gibi başat sorunlarını büyük ölçüde ortadan kaldırıyor.
Ancak burada kritik bir soru ortaya çıkıyor: Bu dönüşüm sadece teknik bir iyileşme mi, yoksa daha güçlü bir kontrol mekanizmasının başlangıcı mı? Çünkü AI destekli moderasyon sistemleri çok daha hızlı çalışıyor, çok daha geniş ölçekte uygulanabiliyor ve en önemlisi merkezi olarak güncellenebiliyor.
Bu da şu anlama geliyor: Eğer geçmişte manuel moderasyon belirli sosyal ve politik sonuçlar doğurabiliyorsa, AI destekli sistemler bunu çok daha etkili ve görünmez şekilde yapabilir. İçeriğin yayılımını yavaşlatmak, görünürlüğünü azaltmak ya da tamamen engellemek artık saniyeler içinde ve otomatik olarak gerçekleşebiliyor.
Netice itibariyle içerik moderasyonunda yaşanan bu dönüşüm iki yönlü okunmalı. Bir yandan daha güvenli ve hızlı sistemler geliştiriliyor. Diğer yandan bu sistemler bilgi akışını şekillendirme kapasitesini de güçlendiriyor. AI çağında moderasyon yalnızca zararlı içeriği engellemekle kalmayıp aynı zamanda gerçekliğin nasıl sunulacağını belirlemek anlamına geliyor. Bu yüzden asıl tartışma teknik olmaktan öte politik olarak karşımıza çıkıyor: Kim, hangi kuralları yazıyor ve bu kurallar kimin ve neyin yararına çalışıyor?