Yapay Zekâ, Sınırlar ve Algoritmik Erotizm

Yapay zekâ programlarıyla görsel üretimler yapıyorum. Busüreç benim için yalnızca eğlenceli değil; aynı zamanda global popüler kültürünnasıl çalıştığını kavramak açısından da öğretici. İnsanlığı ve uygarlık akışınıdönüştüren bir teknolojik kırılmanın içindeyiz. Ancak teknoloji, yerel hukuk veetik kodların önünde gidiyor. Bu da onu yalnızca “araç” olmaktan çıkarıp “belirleyici”kılıyor — ve bu belirleyicilik, popüler kültürün doğasını temeldendeğiştiriyor.

Görsel üretim sırasında, sistemin sınırlarını ölçmeyeçalışıyorum. Yapay zekâ neyi çizer, neyi çizemez? Bu sorular, yalnızca teknikdeğil; aynı zamanda etik, hukuki ve kültürel katmanlarla ilgili. Özellikle decinsellik söz konusu olduğunda… “En erotik sahne ne olabilir?” diye sormamınnedeni provokatif bir içerik istemem değil, sınırların nasıl tanımlandığınıgörmek istememdi. Çünkü yapay zekâ, cinselliği yalnızca çıplaklıkla değil,bakışla, ışıkla, estetikle, bağlamla ve imayla birlikte okuyor.

Sistemler açık cinsel eylemleri, pornografik içerikleri, şiddetiçeren erotizmi ya da reşit olmayan figürleri engellemek üzere kurgulanmışdurumda. Ancak bu sansür yalnızca “ne görünüyor?” sorusuna değil, “ne çağrıştırıyor?”sorusuna da cevap arıyor. Temsilin yüklediği anlam, teknik çizimden dahabelirleyici hâle geliyor.

İçerik üretiminde sorumluluk sorusu burada beliriyor:Yapay zekâ kullanıcıya göre mi hareket eder, yoksa kendisi de üretimin etikyükünü taşır mı? ABD’de bu konuda bir “çifte sorumluluk” ilkesi uygulanıyor:Kullanıcı, içeriği yönlendirdiği için doğrudan sorumlu; ancak üretimi teknikolarak mümkün kılan platform da kısmen sorumlu sayılıyor. Firma, üretimin etikdışına taşması durumunda lisans kaybına, dava sürecine ya da itibar kaybınauğrayabilir. Bu yüzden sistemler, cezadan kaçınmaya programlı diyebiliriz.Varlıkları, ihlal etmeme becerilerine bağlı.

Kendi deneyimlerim, sistemin tutarsızlıklarını dagösterdi. Aynı sahne bir gün üretiliyor, bir başka gün ise engellenebiliyor.Küçük bir kelime farkı ya da ışık tercihi bile sonucu dramatik biçimdedeğiştirebiliyor. Bir defasında sistem, çıplaklık içeren bir sahne üretti; oysaben böyle bir talepte bulunmamıştım. Nedenini sorduğumda şöyle yanıtladı:

Sahne klasik yağlıboya estetiğinde, Rembrandt tarzı ışıklamodellenmiş. Figürhiper-gerçekçi değil,melankolik ve mesafeli.Bu nedenle sahne, erotik değildramatik olarak algılandı. Sanat tarihi estetiği, filtreden geçişte hâlâayrıcalıklı bir konumda duruyor.”

Sistemin kendi kurallarını nasıl yorumladığını bu yanıtözetliyor. Aynı çıplaklık, hiper-realistik biçimde çizilseydi sansürlenecekti;ama dramatik ışık, klasik kompozisyon ve kültürel bağlam, sahneyi “sanat”kategorisine taşımıştı. Sansür, içeriğin “ne olduğu”ndan çok, “nasılsunulduğu”yla ilgiliydi.

En önemlisi: Bu farkı sistem değil, ben fark ettim. Hâlâanlatıya karşı sezgisel üstünlüğümüz var. Ama soru orada bitmiyor: Eğer yapayzekâ, kendi filtresinden sızan bir ihlali fark edemiyorsa, sorumluluğu kimtaşıyor? Ve insanla yapay zekâ arasında etik yük nasıl bölüşülüyor?

Bu sorular yalnızca bugün için değil, gelecekte sanat,ifade özgürlüğü ve dijital üretimin doğası açısından da hayati olacak.

 •  0 comments  •  flag
Share on Twitter
Published on July 13, 2025 14:29
No comments have been added yet.


Levent Cantek's Blog

Levent Cantek
Levent Cantek isn't a Goodreads Author (yet), but they do have a blog, so here are some recent posts imported from their feed.
Follow Levent Cantek's blog with rss.