Edge
detection is one of the most basic stages of image processing and have been
used in many areas. Its purpose is to determine the pixels formed the objects.
Many researchers have aimed to determine objects' edges correctly, like as they
are determined by the human eye. In this study, a new edge detection technique
based on spiking neural network is proposed. The proposed model has a different
receptor structure than the ones found in literature and also does not use gray
level values of the pixels in the receptive field directly. Instead, it takes
the gray level differences between the pixel in the center of the receptive
field and others as input. The model is tested by using BSDS train dataset.
Besides, the obtained results are compared with the results calculated by Canny
edge detection method.
Kenar
algılama, görüntü işlemenin en temel aşamalarından biridir ve birçok farklı
alanda kullanılmaktadır. Kenar belirleme yöntemlerinin amacı görüntüyü
oluşturan pikselleri belirlemektir. Çoğu araştırmacı, insan gözünün belirlediği
gibi nesnelerin kenarlarını doğru algılamayı hedeflemiştir. Bu çalışmada,
iğnecikli sinir ağ yapısına dayalı yeni bir kenar algılama tekniği
önerilmiştir. Önerilen model, literatürde bulunanlardan farklı bir alıcı
yapısına sahiptir ve doğrudan alıcı alandaki piksellerin gri seviye değerlerini
kullanmamaktadır. Bunun yerine, girdi olarak alıcı alanın ortasındaki piksel
ile diğerleri arasındaki gri seviye farklarını kullanarak kenar algılama
işlemini gerçekleştirmektedir. Geliştirilen model, BSDS öğrenme veri seti
kullanılarak test edilmiştir. Ayrıca, elde edilen sonuçlar Canny kenar algılama
yöntemi yardımıyla hesaplananlar ile karşılaştırılmıştır.
Primary Language | English |
---|---|
Subjects | Engineering |
Journal Section | Articles |
Authors | |
Publication Date | August 25, 2019 |
Published in Issue | Year 2019 Volume: 23 Issue: 2 |
e-ISSN :1308-6529
Linking ISSN (ISSN-L): 1300-7688
All published articles in the journal can be accessed free of charge and are open access under the Creative Commons CC BY-NC (Attribution-NonCommercial) license. All authors and other journal users are deemed to have accepted this situation. Click here to access detailed information about the CC BY-NC license.