Research Article
BibTex RIS Cite

Nesne Tanımada Kullanılan İki Popüler Özniteliğin Karşılaştırılması

Year 2022, Issue: 45, 85 - 87, 31.12.2022
https://doi.org/10.31590/ejosat.1222402

Abstract

Bu çalışmada nesne tespitinde ve nesne tanımada literatürde sıklıkla kullanılan iki popüler özniteliğin sınıflandırma performansı tahmini karşılaştırılması yapılmıştır. Birinci öznitelik, orijinal ismiyle Histogram of Oriented Gaussians (HOG), veya Türkçe’deki karşılığı ile Yönlendirilmiş Gradyanların Histogramları, nesne tespitinde ve nesne tanımada en sık kullanılan özniteliklerden birisidir. İkinci öznitelik, orijinal ismiyle Scale Invariant Feature Transform (SIFT), veya Türkçe’deki karşılığı ile Ölçek Değişmez Unsur Dönüşümü, yine nesne tespitinde ve nesne tanımada çok sık kullanılan bir başka özniteliktir. Bu iki öznitelikten birisinin çıktısını herhangi bir sınıflandırıcıya girerek oldukça başarılı sonuçlar almak mümkündür. Peki sınıflandırıcıdan bağımsız olarak hangi öznitelik daha iyi sınıflandırma performansı vermeye yatkındır? Bu çalışmada bu soru cevaplanmaya çalışılmıştır. Veri olarak VisDrone veri setinden araba ve yaya sınıflarından 10’ar tane görüntü kullanılmıştır. Bu iki sınıftan örnek görüntülerin sınıf içi ve sınıflar arası ortalama uzaklıkları hesaplanmış ve sonuçlar raporlanmıştır. Fisher’in Ayırtacına benzer bir mantık ile bir performans metriği hesaplanmıştır. Elde edilen sonuçlardan HOG özniteliğinin sınıflandırıcıdan bağımsız olarak bu örnek veri setinde sınıflandırma için daha uygun bir öznitelik olduğu tahminine varılmıştır.

References

  • Zaidi, S. S. A., Ansari, M. S., Aslam, A., Kanwal, N., Asghar, M., & Lee, B. (2022). A survey of modern deep learning based object detection models. Digital Signal Processing, 103514.
  • Hart, P. E., Stork, D. G., & Duda, R. O. (2000). Pattern classification. Hoboken: Wiley.
  • K. Gauen, R. Dailey, J. Laiman, Y. Zi, N. Asokan, Y.-H. Lu, G.K. Thiruvathukal, M.-L. Shyu, S.-C. Chen, Comparison of visual datasets for machine learning, in: 2017 IEEE International Conference on Information Reuse and Integration (IRI), 2017, pp.346–355.
  • W. Zhiqiang, L. Jun, A review of object detection based on convolutional neural network, in: 2017 36th Chinese Control Conference (CCC), 2017, pp.11104–11109.
  • J. Huang, V. Rathod, C. Sun, M. Zhu, A. Korattikara, A. Fathi, I. Fischer, Z. Wo-jna, Y. Song, S. Guadarrama, K. Murphy, Speed/accuracy trade-offs for modern convolutional object detectors, arXiv:1611.10012, 2017.
  • N. Dalal, B. Triggs, Histograms of oriented gradients for human detection, in: 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), vol. 1, ISSN1063-6919, 2005-06, pp.886–893.
  • Lowe, D. G. (1999, September). Object recognition from local scale-invariant features. In Proceedings of the seventh IEEE international conference on computer vision (Vol. 2, pp. 1150-1157). IEEE.
  • Zhu, P., Wen, L., Du, D., Bian, X., Ling, H., Hu, Q., ... & Song, Z. (2018). Visdrone-det2018: The vision meets drone object detection in image challenge results. In Proceedings of the European Conference on Computer Vision (ECCV) Workshops (pp. 0-0).

Comparison of Two Popular Features Used in Object Recognition

Year 2022, Issue: 45, 85 - 87, 31.12.2022
https://doi.org/10.31590/ejosat.1222402

Abstract

In this study performance comparison two popular features used in object recognition is done. First feature, namely Histogram of Oriented Gaussians (HOG) is one of the mostly used features in object detection and object recognition. Second feature, namely Scale Invariant Feature Transform (SIFT) is also widely used in object detection and object recognition. The output of one of these feature extractors is fed to various classifiers and quite successful results are achieved. The question is which one of these two features is more suitable for classification task independent from classifier type. This question is tried to be answered in this study. A subset of VisDrone dataset is used. 10 pictures of cars and 10 pictures of pedesterians are used for testing the feature extractors. Average within class distances and average between class distances are calculated and results are reported. A performance metric similar to Fisher’s Discriminant is used to calculate and compare the performances. It is found that HOG feature extractor seems to have slightly better results for classification independent from classifier used.

References

  • Zaidi, S. S. A., Ansari, M. S., Aslam, A., Kanwal, N., Asghar, M., & Lee, B. (2022). A survey of modern deep learning based object detection models. Digital Signal Processing, 103514.
  • Hart, P. E., Stork, D. G., & Duda, R. O. (2000). Pattern classification. Hoboken: Wiley.
  • K. Gauen, R. Dailey, J. Laiman, Y. Zi, N. Asokan, Y.-H. Lu, G.K. Thiruvathukal, M.-L. Shyu, S.-C. Chen, Comparison of visual datasets for machine learning, in: 2017 IEEE International Conference on Information Reuse and Integration (IRI), 2017, pp.346–355.
  • W. Zhiqiang, L. Jun, A review of object detection based on convolutional neural network, in: 2017 36th Chinese Control Conference (CCC), 2017, pp.11104–11109.
  • J. Huang, V. Rathod, C. Sun, M. Zhu, A. Korattikara, A. Fathi, I. Fischer, Z. Wo-jna, Y. Song, S. Guadarrama, K. Murphy, Speed/accuracy trade-offs for modern convolutional object detectors, arXiv:1611.10012, 2017.
  • N. Dalal, B. Triggs, Histograms of oriented gradients for human detection, in: 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), vol. 1, ISSN1063-6919, 2005-06, pp.886–893.
  • Lowe, D. G. (1999, September). Object recognition from local scale-invariant features. In Proceedings of the seventh IEEE international conference on computer vision (Vol. 2, pp. 1150-1157). IEEE.
  • Zhu, P., Wen, L., Du, D., Bian, X., Ling, H., Hu, Q., ... & Song, Z. (2018). Visdrone-det2018: The vision meets drone object detection in image challenge results. In Proceedings of the European Conference on Computer Vision (ECCV) Workshops (pp. 0-0).
There are 8 citations in total.

Details

Primary Language Turkish
Subjects Engineering
Journal Section Articles
Authors

Kaan Yasin Kocaman 0000-0001-5592-8680

Celal Onur Gökçe 0000-0003-3120-7808

Early Pub Date December 31, 2022
Publication Date December 31, 2022
Published in Issue Year 2022 Issue: 45

Cite

APA Kocaman, K. Y., & Gökçe, C. O. (2022). Nesne Tanımada Kullanılan İki Popüler Özniteliğin Karşılaştırılması. Avrupa Bilim Ve Teknoloji Dergisi(45), 85-87. https://doi.org/10.31590/ejosat.1222402