Please use this identifier to cite or link to this item: https://hdl.handle.net/20.500.13087/1638
Title: Visual object tracking by using deep neural networks
Other Titles: Derin sinir ağları kullanılarak görsel nesne takibi
Authors: Kahvecioğlu, Sinem
Çevikalp, Hakan
Sarıbaş, Hasan
Keywords: Elektrik ve Elektronik Mühendisliği
Electrical and Electronics Engineering
Havacılık Mühendisliği
Aeronautical Engineering
Sivil Havacılık
Civil Aviation
Derin öğrenme
Deep learning
Nesne izleme
Object tracking
Issue Date: 2020
Publisher: Eskişehir Teknik Üniversitesi
Abstract: Bu tezde, nesne takibi için yeni yöntemler önerilmiştir. İlk olarak, farklı nesne takip veri setlerinde en iyi sonuçları elde edebilmek için derin öğrenme tabanlı 2 akışlı küçük mimariye sahip bir yöntem önerilmiştir. Önerilen yöntemde iki akışlı bir yapay sinir ağı ile hem uzamsal hem de zamansal bilgilerden yararlanılmış ve de ranking loss fonksiyonu kullanılmıştır. Önerilen ranking loss optimizasyon fonksiyonu ile sinir ağları hedef nesneyi daha iyi çevreleyen bölgelere daha yüksek skor vermeyi öğrenir. Uzamsal ve zamansal sinir ağlarından gelen skorlar birleştirilir. Önerilen yöntem test edilen nesne takip veri setlerinin çoğunda en iyi sonuçları elde etmiştir. Derin öğrenme tabanlı yönteme ek olarak, İnsansız hava araçlarının (İHA) tespit ve takibi için ilinti filtresi tabanlı hibrit bir yöntem önerilmiştir. İHA'ların ilk framede ve takipçinin başarısız olduğu durumlarda tespit edilmesi için derin öğrenme tabanlı YOLOv3 nesne tespit yöntemi kullanılmıştır. İHA'ların gerçek zamanlı olarak takip edilmesi için ise Çekirdekleşmiş İlinti Filtresi kullanılmıştır. Nesne tespit ve takip yöntemlerinin birlikte kullanılmasıyla, tek kart bilgisayarlarda bile gerçek zamanlı çalışabilen yüksek doğruluğa sahip yöntem geliştirilmiştir. YOLOv3 nesne tespit yönteminin eğitilmesi ve önerilen yöntemin test edilmesi için UAV Tracking adında yeni bir nesne takip veri seti oluşturulmuştur. Önerilen yöntem bu veri set üzerinde en iyi sonuçları elde etmiştir. Son olarak, önerilen yöntem genel nesne takibi için genelleştirilmiştir.
In this thesis, new methods have been proposed to track arbitrary objects. To this end, first, a novel lightweight two-stream deep learning-based tracker has been developed to obtain state-of-the-art results on different single object tracking benchmarks. In the proposed deep learning-based method, both spatial and temporal features are used and a ranking loss is employed. Using ranking loss term in the optimization function enforces the neural networks to learn to give higher scores to the candidate regions that better frame the target than the regions that frame the target object with less accuracy. The classifier scores received from spatial and temporal networks are fused. The experiments were conducted on eight different benchmarks. The proposed tracker achieves state-of-the-art results on most of the tested challenging tracking benchmarks. In addition to a deep learning-based tracker, a hybrid correlation filter-based tracker has been developed to detect and track UAVs. To detect the target UAV at the beginning of the tracking and in the case where the tracked UAV has been lost, the deep learning based YOLOv3 detector has been used. A kernelized correlation filter has been used to track detected target UAVs in real-time. Combining the detector and tracker provides high accuracy and real-time performance even on onboard computers. A new dataset called as UAV Tracking has been created to train the YOLOv3 detector and test the proposed method. The proposed method achieves state-of-the-art performances on created UAV Tracking dataset. Finally, the proposed method has been generalized for general tracking.
URI: https://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=_F5QEpayDXGqGZlp9XiFtIDcDUb3o7eFCz5rNkLnMJV1suf16J5aeaZTYKJKclk1
https://hdl.handle.net/20.500.13087/1638
Appears in Collections:Tez Koleksiyonu

Show full item record

CORE Recommender

Page view(s)

48
checked on Oct 3, 2022

Google ScholarTM

Check


Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.