Bu çalışmada nesne tespitinde ve nesne tanımada literatürde sıklıkla kullanılan iki popüler özniteliğin sınıflandırma performansı tahmini karşılaştırılması yapılmıştır. Birinci öznitelik, orijinal ismiyle Histogram of Oriented Gaussians (HOG), veya Türkçe’deki karşılığı ile Yönlendirilmiş Gradyanların Histogramları, nesne tespitinde ve nesne tanımada en sık kullanılan özniteliklerden birisidir. İkinci öznitelik, orijinal ismiyle Scale Invariant Feature Transform (SIFT), veya Türkçe’deki karşılığı ile Ölçek Değişmez Unsur Dönüşümü, yine nesne tespitinde ve nesne tanımada çok sık kullanılan bir başka özniteliktir. Bu iki öznitelikten birisinin çıktısını herhangi bir sınıflandırıcıya girerek oldukça başarılı sonuçlar almak mümkündür. Peki sınıflandırıcıdan bağımsız olarak hangi öznitelik daha iyi sınıflandırma performansı vermeye yatkındır? Bu çalışmada bu soru cevaplanmaya çalışılmıştır. Veri olarak VisDrone veri setinden araba ve yaya sınıflarından 10’ar tane görüntü kullanılmıştır. Bu iki sınıftan örnek görüntülerin sınıf içi ve sınıflar arası ortalama uzaklıkları hesaplanmış ve sonuçlar raporlanmıştır. Fisher’in Ayırtacına benzer bir mantık ile bir performans metriği hesaplanmıştır. Elde edilen sonuçlardan HOG özniteliğinin sınıflandırıcıdan bağımsız olarak bu örnek veri setinde sınıflandırma için daha uygun bir öznitelik olduğu tahminine varılmıştır.
In this study performance comparison two popular features used in object recognition is done. First feature, namely Histogram of Oriented Gaussians (HOG) is one of the mostly used features in object detection and object recognition. Second feature, namely Scale Invariant Feature Transform (SIFT) is also widely used in object detection and object recognition. The output of one of these feature extractors is fed to various classifiers and quite successful results are achieved. The question is which one of these two features is more suitable for classification task independent from classifier type. This question is tried to be answered in this study. A subset of VisDrone dataset is used. 10 pictures of cars and 10 pictures of pedesterians are used for testing the feature extractors. Average within class distances and average between class distances are calculated and results are reported. A performance metric similar to Fisher’s Discriminant is used to calculate and compare the performances. It is found that HOG feature extractor seems to have slightly better results for classification independent from classifier used.
Primary Language | Turkish |
---|---|
Subjects | Engineering |
Journal Section | Articles |
Authors | |
Early Pub Date | December 31, 2022 |
Publication Date | December 31, 2022 |
Published in Issue | Year 2022 Issue: 45 |