- İzmir
- 29.06.2025 18:13
Yapay zekanın neden olduğu bilgi kirliliğinden etkilenmemek için önerilerde bulunan Yaşar Üniversitesi İletişim Fakültesi Öğretim Üyesi Prof. Dr. Özlem Alikılıç, izleyicilerin görüntülere şüpheli yaklaşması gerektiğine dikkat çekti.
Son zamanlarda yapay zeka kullanımının da artmasıyla sosyal medyada yayılan videolar, gerçekçiliğiyle ön plana çıkıyor. Kullanıcılar arasında görüntülerin yapay zekayla hazırlandığını tespit edebilenler olduğu kadar, görüntülerin gerçekçiliğine aldanan izleyiciler de bulunuyor. Sokak röportajından kaza ve afet görüntülerine, politikacı ve ünlü kişilerin açıklamalarından geleceğe yönelik kurgu haberlere üretilen sahte içerikler, bu nedenle bir bilgi kirliliğini de beraberinde getiriyor. Söz konusu bilgi kirliliğinden etkilenmeme yönünde değerlendirmelerde bulunan Yaşar Üniversitesi İletişim Fakültesi Halkla İlişkiler ve Reklamcılık Bölümü Öğretim Üyesi Prof. Dr. Özlem Alikılıç, “Öncelikle insanların, maruz kaldıkları içeriğin sahte olabileceği konusunda şüpheci olması, izlediği veya dinlediği içeriğe dikkat etmesi ve sahtelik konusunda farkındalık seviyesini artırması gerekiyor. Ardından sahte içeriği nasıl tanıyacağını öğrenmesi gerekiyor. Yapay zeka ile üretilen tüm videolarda ‘AI-Generated’ veya ‘Yapay zeka ile üretilmiştir’ etiketi otomatik olarak görünür hale getirilmeli. Konuyla ilgili kamu spotları oluşturulmalı. Unutmayın, yapay zeka insanlığın aynasıdır; onu iyiye kullanmak da kötüye kullanmak da bize bağlı” ifadelerini kullandı.
Yapay zeka ve derin öğrenme teknikleriyle hazırlanan, oldukça gerçekçi derin sahtecilik (Deepfake) videolarıyla ilgili uyarı yapan Alikılıç, değerlendirmesinde şunları kaydetti: “Dünyada ve ülkemizde birçok önde gelen isme ait siyasi açıklamaların çarpıtılması için sahte görüntüler oluşturulması, derin sahtecilik teknolojisinin kamuoyunu etkileme ve siyasi anlatıları çarpıtma potansiyeline önemli örnekler teşkil etmektedir. Ayrıca maalesef ki bu durum, toplumsal kutuplaşmayı derinleştirebilir, siyasi manipülasyona zemin hazırlayabilir ve güvenilir bilgi ekosistemini zedeleyebilir. Sadece bu yönde değil finansal açıdan da büyük tehditler teşkil ediyor. Derin sahtecilik videoları finansal dolandırıcılık yapmak amacıyla da kullanılmaya başlandı. YouTube’da 237 milyon abonesi olan bir yayıncının ses ve görüntüsünün, derin sahtecilik ile finansal dolandırıcılık yapan birileri tarafından başka bir sosyal medya platformunda taklit edilmesi ve onun adına bir cep telefonu markasının en pahalı sürümünü hediye etme sözü verilmesi bunun son örneklerinden. Bu olaylar, her yaştan insanı hedef alan, yapay zeka araçları kullanılarak yapılan dolandırıcılıklara karşı bizlerin ne kadar savunmasız kalabildiğimizi gösteriyor.”
Prof. Dr. Alikılıç, sahte içeriklere karşı neler yapılabileceğini anlattığı konuşmasına şöyle devam etti: “Bu konuyu bana göre dört katmanda ele almak gerekiyor: şüphe-dikkat-farkındalık, bireysel eğitim, kurumsal sorumluluk, teknik önlemler ve yasal düzenlemeler. Öncelikle insanların, maruz kaldıkları içeriğin sahte olabileceği konusunda şüpheci olması, izlediği veya dinlediği içeriğe dikkat etmesi ve sahtelik konusunda farkındalık seviyesini artırması gerekiyor. Ardından sahte içeriği nasıl tanıyacağını öğrenmesi gerekiyor. Ben buna “Eğitim yoluyla insan müdahalesi” ismini veriyorum. Örneğin; videolardaki anormal detaylar, ses uyumsuzlukları gibi, görüntüdeki tuhaf mantık hataları gibi. Ama burada sadece bireylere yüklenmek yetmez; medya kuruluşlarının toplumun dezenformasyonla mücadelesinde insiyatif alması, bunun bir kurumsal vatandaşlık görevi olduğuna inanması ve bu doğrultuda bazı aksiyonlar alması gerekiyor. Örneğin, doğrulama mekanizmaları oluşturması, bu videoları paylaşırken konuyla ilgili bilgilendirici içerik ve etiketleme yapması lazım. En nihayetinde kanunların da bu yeni manipülasyon yöntemlerine hızlıca ayak uydurması gerekecek.”
Derin sahtecilikle mücadelede insan unsurunun, özellikle de eğitimin rolünün vazgeçilmez olduğunu söyleyen Prof. Dr. Alikılıç, “Kritik olan, toplumun her kesiminde "dijital şüphecilik refleksi" oluşturmak. Unutmayın, yapay zeka, insanlığın aynasıdır; onu iyiye kullanmak da kötüye kullanmak da bize bağlı” dedi. Alikılıç, açıklamasında şunları kaydetti: “Bu mücadeledeki vurguyu kamuoyunu yapay zeka ile korkutmak yerine, yapay zeka karşısında güçlendirmek üzerine kurmalıyız. Yapay zekayı düşman değil, kontrol edilmesi gereken bir araç olarak göstermeliyiz. Yapay zeka okuryazarlığını geliştirmek için; Okul müfredatlarına dijital okuryazarlık dersleri eklenmeli. İlköğretimden itibaren ‘Medya ve Dijital Okuryazarlığı’ ve ‘Yapay Zeka Güvenliği ve Etik’ dersleri zorunlu hale getirilmeli. Belediyeler, STK'lar ve devlet kurumları iş birliğiyle aynı okullardakine benzer eğitimler planlanmalı. Özellikle, dijital kullanımı yüksek olan 50 yaş üstü gruba yönelik projelerin öncelikli olması gerekli. En çok izlenen televizyon kanallarının reklam kuşaklarında kamu spotlarının gösterilmesi etkili olabilir. Yapay zeka ile üretilen tüm videolarda ‘AI-Generated’ veya ‘Yapay zeka ile üretilmiştir’ etiketi otomatik olarak görünür hale getirilmeli. Teyit veya arama motorları kuruluşlarıyla iş birliği yapılarak, ‘Derin Sahtecilik Tarayıcısı’ eklentileri veya yapay zeka izlerini tarayıp belirleyen görsel arama araçları yaygınlaştırılmalı. Sosyal medya şirketleri, algoritmalarını dezenformasyonu yaymaya değil, çürütmeye odaklayacak şekilde güncellemeli.”
Hukuki anlamda da yasal düzenlemelerin getirilmesi gerektiğine dikkat çeken Prof. Dr. Özlem Alikılıç, “Kasıtlı dezenformasyon için cezai yaptırımlar getirilmeli. Yapay zeka üretimi sahte içeriklerin siyasi manipülasyon amacıyla kullanılması ve kamuoyunu yanıltması ve negatif yönlendirmesi suç sayılmalı” ifadeleriyle konuşmasını noktaladı.