O yapay zeka uygulamasına tepki! Çıplak gösteriyor...
Kadınların çıplak halini gösteren uygulama DeepNude ABD’de büyük tepkiye sebep oldu.
Yapay zeka destekli uygulama DeepNude ile kadınların çıplak halini gerçeğe en yakın şekilde görüntüleyebiliyorsunuz. Yani uygulama ile fotoğraftaki kıyafetler kaldırılarak yapay zekanın tahmin ettiği müstehcen bölgeler ekleniyor. Uygulama ücretsiz olarak kullanıldığında fotoğraf üstünde ‘FAKE‘ ibaresi ve müstehcen bölgelerde sansür barındırıyor fakat 99 dolar karşılığında bu çıktıyı filigransız ve sansürsüz bir şekilde alabiliyorsunuz. Ayrıca uygulamanın erkekler üzerinde çalışmadığını da belirtmek gerekir.
ABD halkı ise hızlı bir şekilde popüler olarak büyük bir kullanıcı kitlesine ulaşan bu uygulamanın sahte çıplak resimler oluşturularak kişilere şantaj, taciz veya buna benzer şeyler ile kullanılabileceği üzerinde tartışıyor. ABD mahkemesine gelen birçok şikayet ise bu ve buna benzer uygulamaların yasaklanması yönünde. Özellikle de ebeveynler uygulamanın kötüye kullanılma ihtimalinin çok yüksek olduğu konusunda net bir tavır gösteriyor.
Bu şikayetlerin ardından uygulama yaratıcısı Alberto da açıklama yaptı. “DeepNude uygulaması eğlence amaçlı çıkarıldı. Normalde Photoshop ile de yapılabilecek bir işlemi bizim uygulamamız yapay zeka sayesinde bir tık ile yapabiliyor. Ama gerçekten güvenlik sorunu oluşturursa ve resmi olarak kanıtlanırsa uygulamayı kaldıracağım.” diyerek şikayetçileri biraz da olsa yumuşattı. Herhangi bir dava açılacak mı veya bir sorun oluşturacak mı henüz belli değil. Fakat şikayetler yakın zamanda sona erecek gibi durmuyor.
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.