OpenAI, AI tarafından oluşturulan görüntü dedektörünün ne zaman piyasaya sürüleceğini tartışıyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI, AI tarafından oluşturulan görüntü dedektörünün ne zaman piyasaya sürüleceğini tartışıyor - Dünyadan Güncel Teknoloji Haberleri
olmayacak yenilebilir ”

OpenAI’nin isteksizliği, yalnızca OpenAI modellerinden değil, aynı zamanda üçüncü taraf sağlayıcılar tarafından piyasaya sürülen metin oluşturma modellerinden de yapay zeka tarafından oluşturulan metni tespit etmek için tasarlanan önceki genel sınıflandırma aracıyla ilgili tartışmalara bağlı olabilir


OpenAI, bir görüntünün OpenAI’nin üretken yapay zeka sanat modeli olan DALL-E 3 ile yapılıp yapılmadığını belirleyebilecek bir aracın ne zaman yayınlanacağını “oldukça kapsamlı tartıştı ve tartıştı” “[A general detector] şu anda yaptığımız bir şey değil… Ama nereye bağlı [the classifier tool] giderse, bunu asla yapmayacağımızı söylemiyorum ”

Yalnızca OpenAI değil, birçok kuruluş yapay zeka gibi üretken medya için filigran ekleme ve tespit tekniklerini araştırıyor derin sahtekarlıklar çoğalmak



genel-24

Agarwal, OpenAI’nin aynı zamanda yapay zeka tarafından oluşturulan bir görüntünün tam olarak neyin oluşturduğuna dair felsefi soruya takılıp kaldığını ima ediyor Öyle olsa bile, filigranların ve hatta dedektörlerin işe yarayacağının garantisi yoktur Peki ya DALL-E 3’ten alınan, birkaç tur düzenlemeden geçen, diğer görüntülerle birleştirilen ve ardından birkaç işlem sonrası filtreden geçirilen bir görüntüye ne dersiniz? Daha az net Belki de hedef %100’dür; Agarwal söylemedi AI, yeniden boyutlandırma ve diğer düzenlemelerde hayatta kalan filigranları uygulamak için bir yapay zeka modeli kullanıyor

Bu hafta TechCrunch ile bir telefon görüşmesinde konuşan, güvenlik ve politikaya odaklanan OpenAI araştırmacısı Sandhini Agarwal’a göre bu böyle [classifier] aletler

“Şu anda bunun nedenlerinden biri [the classifier is] Agarwal, DALL-E 3’e özgü olmasının nedeninin teknik olarak çok daha kolay takip edilebilir bir sorun olması olduğunu söyledi

Agarwal’a OpenAI’nin görüntü sınıflandırıcısının OpenAI olmayan diğer üretken araçlarla oluşturulan görüntüleri tespit etmeyi destekleyip desteklemeyeceğini sordum Kendisi bunu taahhüt etmedi ancak görüntü sınıflandırma aracının bugünkü algısına bağlı olarak bunun OpenAI’nin keşfetmeyi düşüneceği bir yol olduğunu söyledi Sınıflandırma aracının doğruluğu “gerçekten iyi” olsa da – en azından kendi tahminine göre – OpenAI’nin kalite eşiğini karşılamadığını söyledi

Agarwal, “Bir eserin bir sanatçı tarafından yapılmış olarak mı görüldüğü, yoksa sahte ve yanıltıcı mı olduğu gibi, alabileceği kararların fotoğrafları önemli ölçüde etkileyebileceği göz önüne alındığında, bir şekilde güvenilmez bir araç ortaya koyma sorunu var” dedi OpenAI’nin baş teknoloji sorumlusu Mira Murati, söz konusu bu hafta The Wall Street Journal’ın Tech Live konferansında, sınıflandırıcının DALL-E 3 kullanılarak değiştirilmemiş bir fotoğrafın oluşturulup oluşturulmadığını belirlemede “%99” güvenilir olduğu açıklandı Başka bir firma olan Steg DALL-E 3 tarafından sıfırdan oluşturulan sanat eserleri elbette bu kategoriye giriyor OpenAI, AI tarafından yazılan metin dedektörünü, geniş çapta eleştirilen “düşük doğruluk oranı” nedeniyle çekti

DALL-E 3 tarafından oluşturulan bir görüntü Ancak girişim yakın zamanda bir karar vermeye yakın değil

OpenAI’nin araç için hedeflenen doğruluğu olağanüstü derecede yüksek görünüyor 2020 yılında piyasaya sürülen Fransız startup Imatag, SynthID’ye benzer şekilde görüntülerin yeniden boyutlandırılmasından, kırpılmasından, düzenlenmesinden veya sıkıştırılmasından etkilenmediğini iddia ettiği bir filigran aracı sunuyor Resim Kredisi: OpenAI

Agarwal, “Bu noktada, bu görüntünün yapay zeka tarafından üretilmiş bir şey olduğu düşünülmeli mi, düşünülmemeli mi?” dedi

DeepMind yakın zamanda AI tarafından oluşturulan görüntüleri insan gözüyle algılanamayacak ancak özel bir dedektör tarafından tespit edilebilecek şekilde işaretlemek için SynthID adında bir özellik önerdi

TechCrunch ile paylaşılan bir OpenAI blog yazısı taslağı şu ilginç bilgiyi ortaya çıkardı:

“[The classifier] %95’in üzerinde doğru kalır [an] görüntü, kırpma, yeniden boyutlandırma, JPEG sıkıştırma veya gerçek görüntülerden alınan metin veya kesiklerin, oluşturulan görüntünün küçük bölümleri üzerine bindirilmesi gibi yaygın türde değişikliklere maruz kalmıştır “Şu anda bu sorunun cevabını bulmaya çalışıyoruz ve bu durumdan önemli ölçüde etkilenecek sanatçılardan ve insanlardan haber almayı gerçekten istiyoruz

Sorun şu ki, endüstri henüz tek bir filigran veya tespit standardı etrafında birleşmemiştir