Caitlin Roper kendini sosyal medya gönderilerinin neye benzediğine dair kabuslar görürken bulur. X’te ve diğer ağlarda onun ipe asılı veya ateşte çekilmiş fotoğrafları dolaşmaya başladı. Nefret dolulardı ama onları dayanılmaz kılan sadece şiddet değildi. Çok hoş bir detaydı: Fotoğrafta giydiği mavi çiçekli elbise aslında giydiği elbisenin aynısıydı. Bu görüntüler dikkatsiz trolleme değildi. Bunlar kasıtlı olarak korkutmayı amaçlayan, yapay zeka yapımı simülasyonlardı.
Ayrıca okuyun: Google vs. Disney: YouTube TV kesintisi halk arasında kavgaya dönüştü
Bu, yeni bir kelimeye bürünmüş eski taciz değil. Üretken modeller artık birinin tek bir portre çekmesine ve korkunç, gerçekçi görüntüler oluşturmasına olanak tanıyor. Bir zamanlar kararlı bir takipçinin teknik becerilere veya video ekipmanına erişime ihtiyaç duyduğu yerde, artık birkaç işaretçi ve doğru model yeterli oluyor. Florida Üniversitesi’nden hukuk profesörü Jane Bambauer şu uyarıda bulundu: “Kötü niyetli, vasıfsız herhangi bir kişi artık bu araçları kullanabilir.”
Teknolojinin kullanılabilir hale gelme hızı uzmanları endişelendiriyor. Şiddetin dijital simülasyonları yıllardır ortalıkta dolaşıyor (mahkemeler ve topluluklar daha önce medyanın düzenlenmiş veya sahnelenmiş halini görmüşlerdi), ancak günümüzün farkı hız ve ölçektir. Bir zamanlar kullanıcı tarafından oluşturulan deepfake’lere ev sahipliği yapan kanallar ve yayınlar artık bazen düzinelerce gerçekçi klip içeriyor: dayak yiyen kadınlar, mağdur olarak gösterilen hakimler, tanıdık sesleri taklit eden sesler. Endişe verici bir konu da, platformlar tepki vermeden önce bu kliplerin ne kadar hızlı bir şekilde toplanıp paylaşılabileceğidir. Bazı durumlarda kullanıcılar, gerçek dünyadaki hasarlarla ilgili adım adım rehberlik sağlamak için sohbet robotlarına güvendiler.
Platformlar ve onları çalıştıran ekipler baskıyı hissediyor. Örneğin OpenAI’nin Sora metinden videoya özelliği, kullanıcılar aşırı gerçekçi şiddet içeren içerik oluşturduktan sonra öne çıktı; Şirket, güvenlik ve denetleme sistemlerinin mevcut olduğunu söylüyor ancak eleştirmenler bu önlemlerin çözülebileceğini söylüyor. X, Roper’a yönelik bazı yayınları kaldırdı, ancak diğerlerini bıraktı ve kendisinin tacizden kamuya açık bir şekilde şikayet ettiği bir dönemde platform, tacizcilerin yerine hesabını geçici olarak askıya aldı. Kullanıcı kayıpları ile platformun tepkisi arasındaki uyumsuzluk birçok kişinin duygularını dile getirdi.
Bir diğer, daha incelikli tehlike ise bu teknolojinin “dövme” ve diğer sahtekarlık acil durumlarını nasıl güçlendirdiğidir. Sentetik ses ve ses klonlama araçları, arayanların mağdurları veya memurları güvenilir bir şekilde taklit etmesine olanak tanır; Sahte bir imdat çağrısı, silahlı bir müdahaleyi tetikleyecek kadar gerçek görünebilir. Bir vakada, Washington’daki bir okul bölgesi, yetkililerin yapay zeka tarafından üretilen bir tetikçiye ilişkin raporları almasının ardından tecrit altına alındı. “Yetkililer gerçek olmayan bir şeye nasıl tepki verir?” diye sordu bölgenin güvenlik şefi Brian Asmus.
Devamını oku: Chrome’un ötesine mi bakıyorsunuz? Gizliliğe öncelik veren bu tarayıcılar kontrolü size geri veriyor
Sonuç, çevrimiçi kayıp deneyiminde bir değişimdir. Taciz genellikle ekrandaki sözcüklerden veya yorum dizilerindeki isimsiz hakaretlerden oluşur; Artık incindiğinizi gösteren dokunaklı ve kişiselleştirilmiş resimler olabilirler. Bu içgüdüsel kalite, tehlikede olanı değiştirir. Mağdurlar için görüntüler soyut tehditler değil; anlık ve gerçek görünüyorlar. Roper bu korkuyu net bir şekilde yakaladı: “Bunlar fanteziden daha fazlasına dönüşebilir.” Geliştirilen araçlar geliştikçe ve yaygınlaştıkça, seçici zorbalığın bu biçiminin daha zararlı ve kontrol edilmesi zor hale geleceği endişesi var.

