विज़ुअल ओडोमेट्री

From Vigyanwiki
Revision as of 16:05, 7 July 2023 by alpha>Indicwiki (Created page with "{{short description|Determining the position and orientation of a robot by analyzing associated camera images}} Image:Optical flow example v2.png|thumb|right|वीडिय...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
वीडियो अनुक्रम में किसी गतिशील वस्तु का ऑप्टिकल प्रवाह वेक्टर।

रोबोटिक्स और कंप्यूटर दृष्टि में, विज़ुअल ओडोमेट्री संबंधित कैमरा छवियों का विश्लेषण करके रोबोट की स्थिति और अभिविन्यास निर्धारित करने की प्रक्रिया है। इसका उपयोग विभिन्न प्रकार के रोबोटिक अनुप्रयोगों में किया गया है, जैसे कि मंगल अन्वेषण रोवर ्स पर।[1]


अवलोकन

मार्गदर्शन में, odometry व्हील रोटेशन को मापने के लिए रोटरी कोडित्र जैसे उपकरणों के माध्यम से समय के साथ स्थिति में परिवर्तन का अनुमान लगाने के लिए एक्चुएटर्स के आंदोलन से डेटा का उपयोग होता है। जबकि कई पहिएदार या ट्रैक किए गए वाहनों के लिए उपयोगी है, पारंपरिक ओडोमेट्री तकनीक को पैर टांगों वाला रोबोट जैसे गैर-मानक लोकोमोशन तरीकों वाले मोबाइल रोबोट पर लागू नहीं किया जा सकता है। इसके अलावा, ओडोमेट्री सार्वभौमिक रूप से सटीक समस्याओं से ग्रस्त है, क्योंकि पहिये फिसलते हैं और फर्श पर फिसलते हैं, जिससे पहिया घूमने की तुलना में गैर-समान दूरी तय होती है। जब वाहन गैर-चिकनी सतहों पर चलता है तो त्रुटि और बढ़ जाती है। ओडोमेट्री रीडिंग तेजी से अविश्वसनीय हो जाती है क्योंकि ये त्रुटियां समय के साथ बढ़ती और बढ़ती जाती हैं।

विज़ुअल ओडोमेट्री यात्रा की गई दूरी का अनुमान लगाने के लिए अनुक्रमिक कैमरा छवियों का उपयोग करके समतुल्य ओडोमेट्री जानकारी निर्धारित करने की प्रक्रिया है। विज़ुअल ओडोमेट्री किसी भी प्रकार की गति का उपयोग करके रोबोट या वाहनों में उन्नत नेविगेशनल सटीकता की अनुमति देती है[citation needed] सतह।

प्रकार

वीओ विभिन्न प्रकार के होते हैं।

एककोशिकीय और स्टीरियो

कैमरा सेटअप के आधार पर, VO को मोनोकुलर VO (एकल कैमरा), स्टीरियो VO (स्टीरियो सेटअप में दो कैमरे) के रूप में वर्गीकृत किया जा सकता है।

VIO का व्यापक रूप से वाणिज्यिक क्वाडकॉप्टर में उपयोग किया जाता है, जो जीपीएस से वंचित स्थितियों में स्थानीयकरण प्रदान करता है

सुविधा-आधारित और प्रत्यक्ष विधि

पारंपरिक वीओ की दृश्य जानकारी फीचर-आधारित विधि द्वारा प्राप्त की जाती है, जो छवि फीचर बिंदुओं को निकालती है और उन्हें छवि अनुक्रम में ट्रैक करती है। वीओ अनुसंधान में हाल के विकास ने एक विकल्प प्रदान किया है, जिसे प्रत्यक्ष विधि कहा जाता है, जो छवि अनुक्रम में पिक्सेल तीव्रता को सीधे दृश्य इनपुट के रूप में उपयोग करता है। संकर विधियाँ भी हैं।

दृश्य जड़त्वीय ओडोमेट्री

यदि वीओ प्रणाली के भीतर एक जड़त्वीय माप इकाई (आईएमयू) का उपयोग किया जाता है, तो इसे आमतौर पर विजुअल इनर्शियल ओडोमेट्री (वीआईओ) के रूप में जाना जाता है।

एल्गोरिदम

दृश्य ओडोमेट्री के अधिकांश मौजूदा दृष्टिकोण निम्नलिखित चरणों पर आधारित हैं।

  1. इनपुट छवियाँ प्राप्त करें: एकल कैमरे का उपयोग करके।[2][3]स्टीरियो कैमरा,[3][4]या सर्वदिशात्मक कैमरे।[5][6]
  2. छवि सुधार: लेंस विरूपण हटाने आदि के लिए छवि प्रसंस्करण तकनीक लागू करें।
  3. फ़ीचर डिटेक्शन (कंप्यूटर विज़न): रुचि ऑपरेटरों को परिभाषित करें, और फ़्रेम में सुविधाओं का मिलान करें और ऑप्टिकल फ़्लो फ़ील्ड का निर्माण करें।
    1. फ़ीचर निष्कर्षण और सहसंबंध।
    2. ऑप्टिकल प्रवाह क्षेत्र का निर्माण करें (लुकास-कनाडे विधि)।
  4. संभावित ट्रैकिंग त्रुटियों के लिए फ़्लो फ़ील्ड वैक्टर की जाँच करें और आउटलेर्स को हटा दें।[7]
  5. ऑप्टिकल प्रवाह से कैमरे की गति का अनुमान।[8][9][10][11]
    1. विकल्प 1: राज्य अनुमान वितरण रखरखाव के लिए कलमन फ़िल्टर
    2. विकल्प 2: उन विशेषताओं के ज्यामितीय और 3डी गुणों का पता लगाएं जो दो आसन्न छवियों के बीच पुन: प्रक्षेपण त्रुटि के आधार पर हानि फ़ंक्शन को कम करते हैं। यह गणितीय न्यूनतमकरण या यादृच्छिक नमूनाकरण द्वारा किया जा सकता है।
  6. छवि पर कवरेज बनाए रखने के लिए ट्रैकप्वाइंट का आवधिक पुनर्संयोजन।

फीचर-आधारित तरीकों का एक विकल्प प्रत्यक्ष या उपस्थिति-आधारित दृश्य ओडोमेट्री तकनीक है जो सीधे सेंसर स्पेस में त्रुटि को कम करती है और बाद में फीचर मिलान और निष्कर्षण से बचती है।[4][12][13] एक अन्य विधि, गढ़ी गई 'विज़ियोडोमेट्री' सुविधाओं को निकालने के बजाय चरण सहसंबंध का उपयोग करके छवियों के बीच समतल रोटो-अनुवाद का अनुमान लगाती है।[14][15]


अहंकार

कोने का पता लगाने का उपयोग करके अहंकार का अनुमान

ईगोमोशन को एक वातावरण के भीतर कैमरे की 3डी गति के रूप में परिभाषित किया गया है।[16] कंप्यूटर विज़न के क्षेत्र में, एगोमोशन का तात्पर्य एक कठोर दृश्य के सापेक्ष कैमरे की गति का अनुमान लगाना है।[17] अहंकार अनुमान का एक उदाहरण सड़क पर लाइनों या कार से देखे जा रहे सड़क संकेतों के सापेक्ष कार की चलती स्थिति का अनुमान लगाना होगा। ऑटोनॉमस_रोबोट#ऑटोनॉमस_नेविगेशन अनुप्रयोगों में अहंकार का आकलन महत्वपूर्ण है।[18]


अवलोकन

कैमरे की अहं गति का अनुमान लगाने का लक्ष्य कैमरे द्वारा ली गई छवियों के अनुक्रम का उपयोग करके वातावरण के भीतर उस कैमरे की 3डी गति को निर्धारित करना है।[19] किसी वातावरण में कैमरे की गति का अनुमान लगाने की प्रक्रिया में चलते कैमरे द्वारा कैप्चर की गई छवियों के अनुक्रम पर दृश्य ओडोमेट्री तकनीकों का उपयोग शामिल होता है।[20]यह आमतौर पर एक क्रम में दो छवि फ़्रेमों से ऑप्टिकल प्रवाह का निर्माण करने के लिए फ़ीचर डिटेक्शन (कंप्यूटर विज़न) का उपयोग करके किया जाता है[16]एकल कैमरे या स्टीरियो कैमरे से उत्पन्न।[20] प्रत्येक फ़्रेम के लिए स्टीरियो छवि जोड़े का उपयोग करने से त्रुटि को कम करने में मदद मिलती है और अतिरिक्त गहराई और पैमाने की जानकारी मिलती है।[21][22] पहले फ़्रेम में सुविधाओं का पता लगाया जाता है, और फिर दूसरे फ़्रेम में उनका मिलान किया जाता है। फिर इस जानकारी का उपयोग उन दो छवियों में पाई गई विशेषताओं के लिए ऑप्टिकल प्रवाह क्षेत्र बनाने के लिए किया जाता है। ऑप्टिकल प्रवाह क्षेत्र दर्शाता है कि कैसे विशेषताएं एक बिंदु, विस्तार के फोकस से अलग हो जाती हैं। विस्तार के फोकस का पता ऑप्टिकल प्रवाह क्षेत्र से लगाया जा सकता है, जो कैमरे की गति की दिशा को दर्शाता है, और इस प्रकार कैमरे की गति का अनुमान प्रदान करता है।

छवियों से अहंकार संबंधी जानकारी निकालने की अन्य विधियाँ भी हैं, जिसमें एक ऐसी विधि भी शामिल है जो सुविधा का पता लगाने और ऑप्टिकल प्रवाह क्षेत्रों से बचती है और सीधे छवि की तीव्रता का उपयोग करती है।[16]


यह भी देखें

संदर्भ

  1. Maimone, M.; Cheng, Y.; Matthies, L. (2007). "Two years of Visual Odometry on the Mars Exploration Rovers" (PDF). Journal of Field Robotics. 24 (3): 169–186. CiteSeerX 10.1.1.104.3110. doi:10.1002/rob.20184. S2CID 17544166. Retrieved 2008-07-10.
  2. Chhaniyara, Savan; KASPAR ALTHOEFER; LAKMAL D. SENEVIRATNE (2008). "Visual Odometry Technique Using Circular Marker Identification For Motion Parameter Estimation". Advances in Mobile Robotics: Proceedings of the Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines, Coimbra, Portugal. The Eleventh International Conference on Climbing and Walking Robots and the Support Technologies for Mobile Machines. Vol. 11. World Scientific, 2008.
  3. 3.0 3.1 Nister, D; Naroditsky, O.; Bergen, J (Jan 2004). Visual Odometry. Computer Vision and Pattern Recognition, 2004. CVPR 2004. Vol. 1. pp. I–652 – I–659 Vol.1. doi:10.1109/CVPR.2004.1315094.
  4. 4.0 4.1 Comport, A.I.; Malis, E.; Rives, P. (2010). F. Chaumette; P. Corke; P. Newman (eds.). "Real-time Quadrifocal Visual Odometry". International Journal of Robotics Research. 29 (2–3): 245–266. CiteSeerX 10.1.1.720.3113. doi:10.1177/0278364909356601. S2CID 15139693.
  5. Scaramuzza, D.; Siegwart, R. (October 2008). "Appearance-Guided Monocular Omnidirectional Visual Odometry for Outdoor Ground Vehicles". IEEE Transactions on Robotics. 24 (5): 1015–1026. doi:10.1109/TRO.2008.2004490. hdl:20.500.11850/14362. S2CID 13894940.
  6. Corke, P.; Strelow, D.; Singh, S. "Omnidirectional visual odometry for a planetary rover". Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. Vol. 4. doi:10.1109/IROS.2004.1390041.
  7. Campbell, J.; Sukthankar, R.; Nourbakhsh, I.; Pittsburgh, I.R. "Techniques for evaluating optical flow for visual odometry in extreme terrain". Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on. Vol. 4. doi:10.1109/IROS.2004.1389991.
  8. Sunderhauf, N.; Konolige, K.; Lacroix, S.; Protzel, P. (2005). "Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle". In Levi; Schanz; Lafrenz; Avrutin (eds.). Tagungsband Autonome Mobile Systeme 2005 (PDF). Reihe Informatik aktuell. Springer Verlag. pp. 157–163. Archived from the original (PDF) on 2009-02-11. Retrieved 2008-07-10.
  9. Konolige, K.; Agrawal, M.; Bolles, R.C.; Cowan, C.; Fischler, M.; Gerkey, B.P. (2006). "Outdoor mapping and navigation using stereo vision". Proc. Of the Intl. Symp. On Experimental Robotics (ISER). Springer Tracts in Advanced Robotics. 39: 179–190. doi:10.1007/978-3-540-77457-0_17. ISBN 978-3-540-77456-3.
  10. Olson, C.F.; Matthies, L.; Schoppers, M.; Maimone, M.W. (2002). "Rover navigation using stereo ego-motion" (PDF). Robotics and Autonomous Systems. 43 (4): 215–229. doi:10.1016/s0921-8890(03)00004-6. Retrieved 2010-06-06.
  11. Cheng, Y.; Maimone, M.W.; Matthies, L. (2006). "Visual Odometry on the Mars Exploration Rovers". IEEE Robotics and Automation Magazine. 13 (2): 54–62. CiteSeerX 10.1.1.297.4693. doi:10.1109/MRA.2006.1638016. S2CID 15149330.
  12. Engel, Jakob; Schöps, Thomas; Cremers, Daniel (2014). "LSD-SLAM: Large-Scale Direct Monocular SLAM" (PDF). In Fleet D.; Pajdla T.; Schiele B.; Tuytelaars T. (eds.). Computer Vision. European Conference on Computer Vision 2014. Lecture Notes in Computer Science. Vol. 8690. doi:10.1007/978-3-319-10605-2_54.
  13. Engel, Jakob; Sturm, Jürgen; Cremers, Daniel (2013). "एक मोनोकुलर कैमरे के लिए अर्ध-सघन दृश्य ओडोमेट्री" (PDF). IEEE International Conference on Computer Vision (ICCV). CiteSeerX 10.1.1.402.6918. doi:10.1109/ICCV.2013.183.
  14. Zaman, M. (2007). "High Precision Relative Localization Using a Single Camera". Robotics and Automation, 2007.(ICRA 2007). Proceedings. 2007 IEEE International Conference on. doi:10.1109/ROBOT.2007.364078.
  15. Zaman, M. (2007). "High resolution relative localisation using two cameras". Journal of Robotics and Autonomous Systems. 55 (9): 685–692. doi:10.1016/j.robot.2007.05.008.
  16. 16.0 16.1 16.2 Irani, M.; Rousso, B.; Peleg S. (June 1994). "Recovery of Ego-Motion Using Image Stabilization" (PDF). IEEE Computer Society Conference on Computer Vision and Pattern Recognition: 21–23. Retrieved 7 June 2010.
  17. Burger, W.; Bhanu, B. (Nov 1990). "Estimating 3D egomotion from perspective image sequence". IEEE Transactions on Pattern Analysis and Machine Intelligence. 12 (11): 1040–1058. doi:10.1109/34.61704. S2CID 206418830.
  18. Shakernia, O.; Vidal, R.; Shankar, S. (2003). "Omnidirectional Egomotion Estimation From Back-projection Flow" (PDF). Conference on Computer Vision and Pattern Recognition Workshop. 7: 82. CiteSeerX 10.1.1.5.8127. doi:10.1109/CVPRW.2003.10074. S2CID 5494756. Retrieved 7 June 2010.
  19. Tian, T.; Tomasi, C.; Heeger, D. (1996). "इगोमोशन गणना के दृष्टिकोण की तुलना" (PDF). IEEE Computer Society Conference on Computer Vision and Pattern Recognition: 315. Archived from the original (PDF) on August 8, 2008. Retrieved 7 June 2010.
  20. 20.0 20.1 Milella, A.; Siegwart, R. (January 2006). "Stereo-Based Ego-Motion Estimation Using Pixel Tracking and Iterative Closest Point" (PDF). IEEE International Conference on Computer Vision Systems: 21. Archived from the original (PDF) on 17 September 2010. Retrieved 7 June 2010.
  21. Olson, C. F.; Matthies, L.; Schoppers, M.; Maimoneb M. W. (June 2003). "Rover navigation using stereo ego-motion" (PDF). Robotics and Autonomous Systems. 43 (9): 215–229. doi:10.1016/s0921-8890(03)00004-6. Retrieved 7 June 2010.
  22. Sudin Dinesh, Koteswara Rao, K. ; Unnikrishnan, M. ; Brinda, V. ; Lalithambika, V.R. ; Dhekane, M.V. "Improvements in Visual Odometry Algorithm for Planetary Exploration Rovers". IEEE International Conference on Emerging Trends in Communication, Control, Signal Processing & Computing Applications (C2SPCA), 2013