Hava robotiği olarak adlandırılan insansız hava araçları (İHA), afet yönetimi, trafik yoğunluğu ve sınır güvenliği gibi sivil ve askeri alanlarda veri ve görüntü toplamak için son zamanlarda sıklıkla kullanılmaktadır. Kamera görüş açısının değişkenliğinden dolayı İHA ile yüksek irtifada alınan görüntüler üzerinden anlık nesne tespiti yapmanın zorlukları vardır. Bu çalışma İHA’ ya CSI (Camera Serial Interface) modülü ile bağlanmış bir kameradan, farklı açı ve koşullarda alınan görseller ile Evrişimli Sinir Ağı tabanlı SSD MobileNet kütüphanesi kullanılarak nesne tespit etmeyi amaçlamaktadır. İHA üzerinden kamera ile elde edilen görüntüler NVIDIA Jetson Nano gömülü sistem bilgisayarı ile işlenmiş ve sınıflandırılmıştır. Gerçek zamanlı hedef tespitinde karşılaşılan problemlerin başında, değişken hava koşulları ve aydınlatma sebebiyle düşük çözünürlüklü elde edilen hareketli nesnelerin sınıflandırılması yer almaktadır. Bu duruma derin öğrenme kütüphanesinde yer alan öğrenilmiş görsellerle, kameradan alınan görseller arasındaki yakın özellikli veriler eşleştirilerek çözüm aranmaktadır. Bu çalışmada gömülü sistem içerisinde bir algoritma oluşturularak elde edilen görüntüler üzerinde düzenleme yapılmış, derin öğrenme kütüphanesi ile özellik karşılaştırma işleminin ardından elde edilen çıktılar nesne sınırı ve mAP (mean Average Precision) ortalama hassasiyet yüzdesi kullanılarak değerlendirilmiştir. Sonuç olarak, İHA üzerinden alınmış gerçek zamanlı görsel verilerden insan tespiti için %95.5 mAP son kesinlik ve %69.45 mAP ortalama hassasiyet, araç tespiti için %83.4 mAP son kesinlik ve % 64.5 mAP ortalama hassasiyet elde edilmiştir.
Unmanned aerial vehicles (UAVs), called aerial robotics, have been frequently used recently to collect data and images in civilian and military areas such as disaster management, traffic density and border security. Due to the variability of the camera view angle, there are difficulties in making instant object detection on the images taken at high altitude with the UAV. This study aims to detect objects from a camera connected to the UAV with the CSI (Camera Serial Interface) module using images taken at different angles and conditions and a Convolutional Neural Network-based SSD MobileNet library. The images obtained with the camera via the UAV were processed and classified with the NVIDIA Jetson Nano embedded system computer. One of the problems encountered in real-time target detection is the classification of moving objects with low resolution due to variable weather conditions and lighting. A solution to this situation is sought by matching the close-featured data between the learned images contained in the deep learning library and the images from the camera. In this study, the images obtained by creating an algorithm in the embedded system were edited, and the outputs obtained after the feature comparison process with the deep learning library were evaluated using the object boundary and mAP (mean Average Precision) average precision percentage. As a result, 95.5% mAP final accuracy and 69.45% Map average accuracy for human detection, 83.4% mAP final accuracy and 64.5% mAP average accuracy for vehicle detection were obtained from real-time visual data received from the UAV.
Primary Language | Turkish |
---|---|
Subjects | Engineering |
Journal Section | Articles |
Authors | |
Early Pub Date | January 30, 2022 |
Publication Date | March 31, 2022 |
Published in Issue | Year 2022 Issue: 34 |