Yapay zeka çılgınlığı ve manipülasyon tehlikesi
Yapay zeka şirketi OpenAI, son derece gerçekçi biçimde 60 saniyelik videolar oluşturabilen, üretebilen yeni bir aracını duyurdu. Bu araçla, sadece metin girdisi kullanarak etkileyici görseller oluşturmak mümkün hale geldi. Üstelik görsellerin gerçekliğinin ayırt edilmesi neredeyse imkansız! Bu türden bir yapay zekanın manipülasyon yeteneklerine sahip olması, yapay zeka teknolojileri hakkındaki endişeleri de beraberinde getirdi.
Giriş Tarihi: 18.02.2024
10:28
Güncelleme Tarihi: 18.02.2024
12:34
Erişim şimdilik sınırlı halde
⚫ Metinden yola çıkarak birçok talimatı videoya dökebilen Sora yapay zeka arac ı, şimdilik sadece sınırlı sayıda kişi ve ekip tarafından kullanılabiliyor. Özellikle yanıltıcı ve manipülatif videolar üreterek kitleleri yönlendirme potansiyeline sahip olması nedeniyle bu durum endişe oluşturuyor.
⚫ Sora adlı yapay zeka aracına , doğurabileceği riskleri ve kritik alanları değerlendirmek amacıyla yalnızca OpenAI şirketinin 'red team' ekibi erişebiliyor. Şirket aynı zamanda, bir dizi görsel sanatçıya, tasarımcıya ve film yapımcısına erişim izni vereceğini belirterek, verilen geri dönütleri Sora'nın güncellemesi için kullanacaklarını açıkladı.
İNSANLIĞIN AY'LA BULUŞMASI: NEİL ARMSTRONG VE APOLLO 11 MACERASI
Yapay zekada manipülasyon mümkün mü?
⚫ Yapay zeka hakkında en ürkütücü sorulardan biri de "Yapay zekada manipülasyon mümkün müdür? " sorusudur. Bunu da yapay zekaya sorduğumuzda verdiği cevap şöyle oluyor: "Evet, yapay zekada manipülasyon mümkündür. Yapay zeka sistemleri, veri girişlerine, eğitim sürecine ve çalışma koşullarına bağlı olarak istenmeyen sonuçlara yol açabilir veya yönlendirilebilir."
⚫ Kuşkusuz bu soru, devrimsel nitelikteki teknolojik her gelişmenin ardından akıllara gelmiştir: Bilgisayar, cep telefonları vs. Ancak yapay zeka teknolojisinin bu denli hızla ilerlemesi, bazı büyük riskleri de beraberinde getiriyor. Manipülasyonlar, yanıltıcı ve aldatıcı içerikler... Gerçek olmayan bir görsel içerik oluşturmak, hiç gerçekleşmemiş olayları yaşanmış gibi göstermek ve var olmayan pek çok araç-gereç ve formları gerçekçi şekilde kurgulamak kitlesel sorunlara yol açar. Özellikle, ülkelerin politikaları gereği ve birtakım kötü niyetli grupların kitleleri harekete geçirebilecek manipülatif içerikleri üretebilme imkanı bu teknoloji ile gerçekleşebilir.
Yapay zeka teknolojileri, psikolojik harp teknikleri olarak kullanılması mümkün müdür?
⚫ Bu sorunun cevabı kesinlikle "evet " olacaktır ve hatta yapay zeka şirketlerinin en büyük yatırımcılarına bakıldığı zaman, bu teknolojinin insanlar üzerinde özellikle psikolojik ve manipülatif etki oluşturmak için kullanılabileceği konusunda hiç şüphe yoktur. Sosyal medyanın ve dünyanın dev şirketleri olan: Meta (Facebook), Microsoft , Apple , Tesla , Amazon ve Çinli diğer şirketler bu teknolojiye en büyük yatırımları yapanlar olarak ön plana çıkıyor.
⚫ Yapay zeka teknolojilerinin manipülasyon gibi psikolojik harp stratejileri bakımından birden fazla şekilde kullanımı olabilir:
🔸 M anipülasyon ve Propaganda : Yapay zeka algoritmaları, sosyal medya platformları ve diğer çevrim içi platformlarda propaganda ve manipülasyon amacıyla kullanılabilir. İnsan davranışlarını analiz ederek, hedef kitlelerin duygusal ve düşünsel eğilimlerini anlamak ve onları yönlendirmek için kullanılabilirler.
🔸 Sosyal mühendislik : Yapay zeka, hedeflenen bireyler veya gruplar hakkında derinlemesine bilgi toplayabilir ve bu bilgileri kullanarak onları manipüle etmek için özel olarak tasarlanmış içerikler oluşturabilir. Bu, hedef kitlenin düşüncelerini, duygularını ve davranışlarını etkilemek için kullanılabilir.
🔸 Duygu analizi ve tahmin : Yapay zeka, metin, ses veya görüntü analizi gibi teknikler kullanarak insanların duygusal durumlarını belirleyebilir ve gelecekteki davranışlarını tahmin edebilir. Bu bilgiler, psikolojik harp stratejilerinin planlanması ve uygulanması için değerli olabilir.
Bu teknoloji kötü niyetli ellere geçerse ne olacak?
⚫ Yapay zeka araçları hemen hemen hayatımızın pek çok noktasında insan yaşamını kolaylaştırmıştır. Sağlık sektöründen otomasyona, eğitimden görsel sanatlara kadar birçok alanda önemli kolaylıklar sağlarken aynı anda zamandan ve emekten de tasarruf sağlamaktadır. Ancak, bu teknolojinin kötü niyetli kişilerin eline geçmesi durumunda ortaya çıkabilecek riskleri de göz ardı etmemeliyiz. Sahte görüntülerin manipüle edilmesiyle çeşitli dolandırıcılık vakaları ortaya çıkabilir veya yanıltıcı içerikler üretilebilir. Bu nedenle, yapay zeka teknolojilerinin gelişimiyle birlikte etik ve güvenlik konularına daha fazla önem verilmesi gerekmektedir.
⚫ Bu soruların ve endişelerin bütün cevabı, yapay zeka araçlarını üreten şirketlerin inisiyatifinde. Henüz ülkeler ve uluslararası hukuk bazında bu konuyla alakalı bir düzenleme söz konusu değil ancak OpenAI, güvenlik önlemlerini sürekli güncellediğini belirtiyor.
⚫ Open AI şirketi, manipülasyon, dezenformasyon, yanlış bilgi, nefret içeriği ve ön yargı gibi konularda uzmanlaşmış "Red team "lerle iş birliği yaptığını açıkladı. Yapay zeka ile üretilen görsel içeriklere C2PA standardında metadata ekleneceğini açıkladı. Böylece, yapay zeka veya insan tarafından oluşturulan içeriğin tespiti ve takibi için bir izleme sistemi oluşturuluyor.
⚫ Bu önlemlerin yeterli olup olmayacağı belirsiz. Çünkü benzeri çalışmalar yapan şirketler de yeni ürünler üretmeye devam ediyor. Şirketler arasındaki rekabetin yoğunluğu göz önünde bulundurulduğunda, etik boyutun ne kadar önemsendiği de belirsiz kalıyor. Bu önlemlere ne kadar sadık kalacakları zamanla ortaya çıkacak.
YAPAY ZEKA'NIN YAPAMADIĞI