Metinleri videoya aktarma modeli, dakikalar içinde gerçekçi videolar oluşturabiliyor. OpenAI’nin Sora’sı tehlikeleri de beraberinde getiriyor.
Anadolu Üniversitesi Sosyal Medya ve Dijital Güvenlik Eğitim Uygulama ve Araştırma Merkezi (SODİGEM) uzmanlarından Dr. Öğr. Üyesi Serap Şişman Uğur, ABD’li bir firmanın deneme aşamasındaki yapay zeka uygulaması “Sora”nın herkesin kullanımına açıldığında, metinleri gerçekçi videolara dönüştürebilme özelliğiyle dezenformasyon ve suç amaçlı kullanabileceği uyarısında bulundu.
TANITILDI ANCAK DAHA KULLANIMA SUNULMADI
Üniversitenin Eğitim Fakültesinde görevli Uğur, yaptığı açıklamada, San Francisco merkezli teknoloji şirketi OpenAI tarafından geliştirilen ve metinden videoya yapay zeka araçlarının en üst versiyonu olarak değerlendirilebilecek Sora’nın tanıtıldığını ancak henüz kullanıma sunulmadığını hatırlattı.
Göz Atın
OpenAI’ın CEO’su Sam Altman’dan yapay zeka uyarısı
Deniz kaplumbağaları yapay zeka tabanlı sistemle takip edilecek
Uğur, girilen metne göre şimdilik bir dakikalık video üretebilen Sora’nın, bu videoları oluştururken öncelikle kendisine verilen istemleri analiz edip bu istem komutlarına göre tek seferde tüm sahneyi oluşturduğunu aktardı.
Uygulamanın videodan video düzenleme, videoları birbirine bağlama, döngü videoları oluşturma, 3D video ya da dijital dünya simülasyonu hazırlama gibi görevleri yerine getirebildiğini bildiren Uğur, “Sora’nın oluşturduğu belirtilerek paylaşılan videolar incelendiğinde gerçekçiliğinin ürkütücü bir boyutta olduğunu söylemek yanlış olmaz. Nitekim Princeton Üniversitesinden bilgisayar bilimleri profesörü Arvind Narayanan, OpenAI tarafından paylaşılan Sora teknolojisi demo videolarına dayanarak bu yeni teknolojinin diğer video oluşturma araçlarından önemli ölçüde daha gelişmiş göründüğünü belirtmekte, bu yapay zeka hamlelerin daha gerçekçi ve inandırıcı ‘deepfake’ videolar haline gelebileceği konusunda endişelerini dile getirmektedir.” ifadesini kullandı.
Dr. Öğretim Üyesi Uğur, Sora’nın metinden videoya yapay zeka araçlarını kendisini kullanabilen ya da geliştirebilecek kişilere yeni istihdam alanları açabileceğine dikkati çekti.
Bu durumun, film sektöründe set işçilerinden kamera önündekilere birçok mesleğin riske girmesine yol açabileceğini kaydeden Uğur, yapay zekanın sektör üzerindeki etkilerini değerlendiren film yönetmeni ve görsel efekt uzmanı Michael Gracey’nin, animasyon filmler yapmak için 3 yıl boyunca 100 veya 200 sanatçıdan oluşan ekibe ihtiyaç duyulmayacak noktaya gelinebileceği uyarısında bulunduğunu belirtti.
Uygulama sayesinde kötü amaçlı içerik üretilebileceğine yönelik risklere değinen Uğur, şunları kaydetti:
“Sora halkın kullanımına açıldığında çok büyük ölçeklerde sahte içerik üretileceği aşikar. Bu içerikler, çevrim içi dezenformasyonun yanında dolandırıcılık ve sahtekarlıklara yardımcı olmak için kullanılabilecek şekilde yapılandırılabileceği gibi birilerinin özel hayatına müdahaleden nefret içerikleri üretimine kadar birçok alana yayılabilir. Ağır şiddet, çocuk pornosu, vahşet gibi görüntüler içeren içeriklerin istem olarak Sora’ya girilmesi durumunda ne yapacağı belirsiz gibi görünüyor. OpenAI bu teknolojiyi şiddet ve cinsel içeriklerin engellenmesi ve ünlü benzerliği videoları gibi içeriklerin üretilmesi amacıyla kullanılamaması konusunda eğiteceklerini belirtmekte. Bir devlet yetkilisi, ünlü veya sevmediğiniz bir kişinin görüntüsünü yükleyerek potansiyel olarak tehlikeli ve sakıncalı videoların üretilmesi de mümkün olabileceğinden OpenAI’nin, Sora’yı şimdilik genel kullanıma açmamasının doğru bir hamle olduğu söylenebilir. Ayrıca Sora’nın ürettiği video içeriklerinin başkalarının telif hakkıyla korunan çalışmalarını ihlal edip etmeyeceği de ayrı bir sorun olarak ortaya çıkıyor. OpenAI, Sora’nın eğitim verilerinin lisanslanan içeriklerden ve kamuya açık içeriklerden oluştuğunu belirtse de bu konu da henüz net değil gibi görünüyor.”