Bilgisayarların icat edilmesiyle hayatımız her alanda kolaylaşmış, bir o kadar da tehlikenin içine girmiştir. İnsanoğlu bilgisayarları günümüze kadar gündelik hayatlarını kolaylaştırmak için evlerinin içine sokmuştur. Ancak yeni yazılım dilleri ve teknolojinin ilerlemesiyle bilgisayar isteğimiz dışında olsa bile insanları tehlikeye sokmaktadır. Bunlardan bir tanesi de 2017 yılında duyduğumuz derin sahte diğer orijinal adıyla Deepfake’tir. Makalemizin konusu da son zamanlarda kamuoyunu meşgul eden ve insanların aslında söylemedikleri halde söylenmiş gibi gösteren yüz ifadelerinin insanları ne tür çıkmaza soktuklarını göstermektir. Siyaset ya da sanat alanında tanınmış insanların yüzlerini başka yüzlere yerleştirme yoluyla yapılan bu işlem gelecekte insanların özel hayatlarını daha çok tehdit etmeye başlayacaktır. Bu konu sadece ünlü insanlar için değil herhangi bir kişi için de geçerlidir. Deepfake konusu ilerleyen zamanlarda teknolojinin de yardımı ile kendini çok geliştirerek hem kullanıcıların kullanımı açısından kolaylaşacak hem de uygunsuz video kirliliği ortaya çıkacaktır. Bu araştırma, Deepfake konusunda ülkemizde sıkıntı çeken kişilerin ne yapmaları gerektiği konusunda yol göstermek için de önemlidir. Makalede doküman analizi yapılmış olup, Deepfake tehlikesinin hem kötü hem de iyi yönleriyle tartışılarak, ne gibi önlemler alınabileceği hakkında da bilgi vermektedir. Deepfake konusunu bu açıdan diğer çalışmalara yön vermesi bakımından da önemlidir. Araştırmada deepfake videoları yüzünden birçok insanın sıkıntıya düştüğü ve bu videoların ilk başta intikam amaçlı olarak yapıldığı daha sonraları da eğlenceye yönelik içeriklerin üretildiği görülmüştür.
With the invention of computers, our life has become easier in every area and has been in danger. Human beings have put computers in their homes to make their daily lives easier. However, with the advancement of new software languages and technology, even if the computer is out of our desire, it puts people at risk. One of them is Deepfake, which is another deep fake we heard in 2017. The subject of our article is to show what kind of deadlock people's facial expressions have recently been busy with and that make people seem to have been told even though they don't actually say it. This process, which is done by placing the faces of well-known people in the field of politics or art, will start to threaten the private lives of people more in the future. This topic applies not only to famous people, but also to any person. The subject of Deepfake will improve itself with the help of technology in the future and it will both be easier for users to use and inappropriate video pollution will occur. This research is also important to guide the people who have trouble in our country about Deepfake about what to do. The article has been examined with the literature review method and also gives information about what measures can be taken by discussing the danger of Deepfake with both its bad and good aspects. Deepfake is also important in terms of guiding other studies in this respect. In the research, it was seen that many people were distressed because of the deepfake videos and these videos were made for revenge at first and then entertainment content was produced.
Birincil Dil | Türkçe |
---|---|
Konular | Sosyoloji |
Bölüm | Makaleler |
Yazarlar | |
Yayımlanma Tarihi | 31 Ağustos 2020 |
Kabul Tarihi | 3 Temmuz 2020 |
Yayımlandığı Sayı | Yıl 2020 Cilt: 16 Sayı: 28 |