स्वचालित निर्णय-निर्धारण: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 1: Line 1:
{{Short description|Decision-making process conducted with varying degrees of human oversight}}
{{Short description|Decision-making process conducted with varying degrees of human oversight}}
'''स्वचालित निर्णय लेना'''(एडीएम) में डेटा, मशीनों और एल्गोरिदम का उपयोग सम्मिलित है, जिसमें सार्वजनिक प्रशासन, व्यवसाय, स्वास्थ्य, शिक्षा, कानून, रोजगार, परिवहन, मीडिया और मनोरंजन सहित कई संदर्भों में निर्णय लेने के लिए मानव की अलग-अलग डिग्री होती है। निरीक्षण या हस्तक्षेप। एडीएम में डेटाबेस, टेक्स्ट, सोशल मीडिया, सेंसर, इमेज या स्पीच जैसे कई स्रोतों से बड़े पैमाने पर डेटा सम्मिलित होता है, जिसे कंप्यूटर सॉफ्टवेयर, एल्गोरिदम, मशीन लर्निंग, [[ प्राकृतिक भाषा प्रसंस्करण |प्राकृतिक भाषा प्रसंस्करण]] , [[ कृत्रिम होशियारी |कृत्रिम होशियारी]], संवर्धित सहित विभिन्न तकनीकों का उपयोग करके संसाधित किया जाता है। खुफिया और रोबोटिक्स। कई संदर्भों में स्वचालित निर्णय लेने वाली प्रणालियों (एडीएमएस) का बढ़ता उपयोग मानव समाज के लिए तकनीकी, कानूनी, नैतिक, सामाजिक, शैक्षिक, आर्थिक और स्वास्थ्य परिणामों पर विचार करने के लिए कई लाभ और चुनौतियां प्रस्तुत करता है।<ref>{{cite journal |last1=Marabelli |first1=Marco |last2=Newell |first2=Sue |last3=Handunge |first3=Valerie |title=The lifecycle of algorithmic decision-making systems: Organizational choices and ethical challenges |journal=Journal of Strategic Information Systems |date=2021 |volume=30 |issue=1 |page=1-15 |url=https://www.researchgate.net/publication/353377939_The_lifecycle_of_algorithmic_decision-making_systems_Organizational_choices_and_ethical_challenges |access-date=November 1, 2022}}</ref><ref name=":1">{{Cite book |last1=Larus|first1=James|last2=Hankin|first2=Chris|last3=Carson|first3=Siri Granum|last4=Christen|first4=Markus|last5=Crafa|first5=Silvia|last6=Grau|first6=Oliver|last7=Kirchner|first7=Claude|last8=Knowles|first8=Bran|last9=McGettrick|first9=Andrew|last10=Tamburri|first10=Damian Andrew|last11=Werthner|first11=Hannes|year=2018|title=When Computers Decide: European Recommendations on Machine-Learned Automated Decision Making|url=https://dl.acm.org/doi/book/10.1145/3185595 |location=New York |publisher=Association for Computing Machinery|doi=10.1145/3185595}}</ref><ref>{{Cite journal|last1=Mökander|first1=Jakob|last2=Morley|first2=Jessica|last3=Taddeo|first3=Mariarosaria|last4=Floridi|first4=Luciano|date=2021-07-06|title=Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations|journal=Science and Engineering Ethics|language=en|volume=27|issue=4|pages=44|doi=10.1007/s11948-021-00319-4|issn=1471-5546|pmc=8260507|pmid=34231029|arxiv=2110.10980}}</ref>
'''स्वचालित निर्णयन'''(एडीएम) में डेटा, मशीनों और एल्गोरिदम का उपयोग सम्मिलित है, जिसमें सार्वजनिक प्रशासन, व्यवसाय, स्वास्थ्य, शिक्षा, कानून, रोजगार, परिवहन, मीडिया और मनोरंजन सहित कई संदर्भों में निर्णय लेने के लिए मानव की अलग-अलग डिग्री होती है। निरीक्षण या हस्तक्षेप। एडीएम में डेटाबेस, टेक्स्ट, सोशल मीडिया, सेंसर, इमेज या स्पीच जैसे कई स्रोतों से बड़े पैमाने पर डेटा सम्मिलित होता है, जिसे कंप्यूटर सॉफ्टवेयर, एल्गोरिदम, मशीन लर्निंग, [[ प्राकृतिक भाषा प्रसंस्करण |प्राकृतिक भाषा प्रसंस्करण]] , [[ कृत्रिम होशियारी |कृत्रिम होशियारी]], संवर्धित सहित विभिन्न तकनीकों का उपयोग करके संसाधित किया जाता है। खुफिया और रोबोटिक्स। कई संदर्भों में स्वचालित निर्णय लेने वाली प्रणालियों (एडीएमएस) का बढ़ता उपयोग मानव समाज के लिए तकनीकी, कानूनी, नैतिक, सामाजिक, शैक्षिक, आर्थिक और स्वास्थ्य परिणामों पर विचार करने के लिए कई लाभ और चुनौतियां प्रस्तुत करता है।<ref>{{cite journal |last1=Marabelli |first1=Marco |last2=Newell |first2=Sue |last3=Handunge |first3=Valerie |title=The lifecycle of algorithmic decision-making systems: Organizational choices and ethical challenges |journal=Journal of Strategic Information Systems |date=2021 |volume=30 |issue=1 |page=1-15 |url=https://www.researchgate.net/publication/353377939_The_lifecycle_of_algorithmic_decision-making_systems_Organizational_choices_and_ethical_challenges |access-date=November 1, 2022}}</ref><ref name=":1">{{Cite book |last1=Larus|first1=James|last2=Hankin|first2=Chris|last3=Carson|first3=Siri Granum|last4=Christen|first4=Markus|last5=Crafa|first5=Silvia|last6=Grau|first6=Oliver|last7=Kirchner|first7=Claude|last8=Knowles|first8=Bran|last9=McGettrick|first9=Andrew|last10=Tamburri|first10=Damian Andrew|last11=Werthner|first11=Hannes|year=2018|title=When Computers Decide: European Recommendations on Machine-Learned Automated Decision Making|url=https://dl.acm.org/doi/book/10.1145/3185595 |location=New York |publisher=Association for Computing Machinery|doi=10.1145/3185595}}</ref><ref>{{Cite journal|last1=Mökander|first1=Jakob|last2=Morley|first2=Jessica|last3=Taddeo|first3=Mariarosaria|last4=Floridi|first4=Luciano|date=2021-07-06|title=Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations|journal=Science and Engineering Ethics|language=en|volume=27|issue=4|pages=44|doi=10.1007/s11948-021-00319-4|issn=1471-5546|pmc=8260507|pmid=34231029|arxiv=2110.10980}}</ref>
== सिंहावलोकन ==
== सिंहावलोकन ==
सम्मिलित स्वचालन के स्तर के आधार पर एडीएम की विभिन्न परिभाषाएँ हैं। कुछ परिभाषाओं से पता चलता है कि एडीएम में मानव इनपुट के बिना विशुद्ध रूप से तकनीकी साधनों के माध्यम से किए गए निर्णय सम्मिलित हैं<ref>{{Cite report|last=UK Information Commissioner's Office|date=2021-09-24|title=यूके जनरल डेटा प्रोटेक्शन रेगुलेशन (यूके जीडीपीआर) के लिए गाइड|url=https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/|url-status=live|access-date=2021-10-05|website=|publisher=Information Commissioner's Office UK|language=en|archive-url=https://web.archive.org/web/20181221081725/https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/ |archive-date=2018-12-21 }}</ref> जैसे कि यूरोपीय संघ के सामान्य डेटा संरक्षण विनियमन (अनुच्छेद 22)। हालांकि, एडीएम प्रौद्योगिकियां और अनुप्रयोग [[निर्णय समर्थन प्रणाली]] से लेकर कई रूप ले सकते हैं जो मानव निर्णय-निर्माताओं को कार्रवाई करने के लिए सिफारिशें करते हैं, जिन्हें कभी-कभी संवर्धित बुद्धिमत्ता [5] या 'साझा निर्णय लेने' के रूप में जाना जाता है, पूरी तरह से स्वचालित निर्णय लेने की प्रक्रिया जो मानव भागीदारी के बिना व्यक्तियों या संगठनों की ओर से निर्णय लेती है।<ref name=":3">{{Cite journal|last1=Araujo|first1=Theo|last2=Helberger|first2=Natali|last3=Kruikemeier|first3=Sanne|last4=de Vreese|first4=Claes H.|date=2020-09-01|title=In AI we trust? Perceptions about automated decision-making by artificial intelligence|journal=AI & Society|language=en|volume=35|issue=3|pages=611–623|doi=10.1007/s00146-019-00931-w|hdl=11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5|s2cid=209523258|issn=1435-5655|url=https://pure.uva.nl/ws/files/50211045/Araujo2020_Article_InAIWeTrustPerceptionsAboutAut.pdf }}</ref> स्वचालित निर्णय लेने वाली प्रणालियों में उपयोग किए जाने वाले मॉडल कृत्रिम बुद्धि और [[कृत्रिम तंत्रिका नेटवर्क]] (डीएनएन) के माध्यम से चेकलिस्ट और निर्णय पेड़ के रूप में सरल हो सकते हैं।
सम्मिलित स्वचालन के स्तर के आधार पर एडीएम की विभिन्न परिभाषाएँ हैं। कुछ परिभाषाओं से पता चलता है कि एडीएम में मानव इनपुट के बिना विशुद्ध रूप से तकनीकी साधनों के माध्यम से किए गए निर्णय सम्मिलित हैं<ref>{{Cite report|last=UK Information Commissioner's Office|date=2021-09-24|title=यूके जनरल डेटा प्रोटेक्शन रेगुलेशन (यूके जीडीपीआर) के लिए गाइड|url=https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/|url-status=live|access-date=2021-10-05|website=|publisher=Information Commissioner's Office UK|language=en|archive-url=https://web.archive.org/web/20181221081725/https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/ |archive-date=2018-12-21 }}</ref> जैसे कि यूरोपीय संघ के सामान्य डेटा संरक्षण विनियमन (अनुच्छेद 22)। हालांकि, एडीएम प्रौद्योगिकियां और अनुप्रयोग [[निर्णय समर्थन प्रणाली]] से लेकर कई रूप ले सकते हैं जो मानव निर्णय-निर्माताओं को कार्रवाई करने के लिए सिफारिशें करते हैं, जिन्हें कभी-कभी संवर्धित बुद्धिमत्ता [5] या 'साझा निर्णय लेने' के रूप में जाना जाता है, पूरी तरह से स्वचालित निर्णय लेने की प्रक्रिया जो मानव भागीदारी के बिना व्यक्तियों या संगठनों की ओर से निर्णय लेती है।<ref name=":3">{{Cite journal|last1=Araujo|first1=Theo|last2=Helberger|first2=Natali|last3=Kruikemeier|first3=Sanne|last4=de Vreese|first4=Claes H.|date=2020-09-01|title=In AI we trust? Perceptions about automated decision-making by artificial intelligence|journal=AI & Society|language=en|volume=35|issue=3|pages=611–623|doi=10.1007/s00146-019-00931-w|hdl=11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5|s2cid=209523258|issn=1435-5655|url=https://pure.uva.nl/ws/files/50211045/Araujo2020_Article_InAIWeTrustPerceptionsAboutAut.pdf }}</ref> स्वचालित निर्णय लेने वाली प्रणालियों में उपयोग किए जाने वाले मॉडल कृत्रिम बुद्धि और [[कृत्रिम तंत्रिका नेटवर्क]] (डीएनएन) के माध्यम से चेकलिस्ट और निर्णय पेड़ के रूप में सरल हो सकते हैं।
Line 99: Line 99:
एडीएम को विधायी प्रतिक्रियाओं में सम्मिलित हैं:
एडीएम को विधायी प्रतिक्रियाओं में सम्मिलित हैं:


* [[यूरोपीय संघ]] सामान्य डेटा संरक्षण [[विनियमन (यूरोपीय संघ)]], 2016 में पेश किया गया, यूरोपीय संघ (ईयू) में डेटा संरक्षण और गोपनीयता पर यूरोपीय संघ के कानून में एक विनियमन है। अनुच्छेद 22(1) डेटा विषयों के निर्णय के अधीन नहीं होने के अधिकार को स्थापित करता है, जिसके कानूनी या अन्य महत्वपूर्ण प्रभाव होते हैं, जो पूरी तरह से स्वचालित व्यक्तिगत निर्णय लेने पर आधारित होते हैं।<ref>{{Cite web|title=EUR-Lex - 32016R0679 - EN - EUR-Lex|url=https://eur-lex.europa.eu/eli/reg/2016/679/oj|access-date=2021-09-13|website=eur-lex.europa.eu|language=en}}</ref><ref>{{Cite journal|last=Brkan|first=Maja|date=2017-06-12|title=सामान्य डेटा संरक्षण विनियमन के तहत एआई-समर्थित निर्णय लेना|journal=Proceedings of the 16th Edition of the International Conference on Articial Intelligence and Law|series=ICAIL '17|location=London, United Kingdom|publisher=Association for Computing Machinery|pages=3–8|doi=10.1145/3086512.3086513|isbn=978-1-4503-4891-1|s2cid=23933541}}</ref> जीडीपीआर में स्पष्टीकरण के अधिकार पर कुछ नियम भी सम्मिलित हैं, हालांकि इनका सटीक दायरा और प्रकृति वर्तमान में यूरोपीय संघ के न्यायालय द्वारा समीक्षा के अधीन है। [41] इन प्रावधानों को पहली बार GDPR में पेश नहीं किया गया था, लेकिन 1995 में डेटा प्रोटेक्शन डायरेक्टिव और 1978 के फ्रांसीसी कानून, लोई इंफॉर्मेटिक एट लिबर्टेस [fr] के बाद से पूरे यूरोप में एक समान रूप में सम्मिलित हैं।<ref>{{Cite web |last=Court of Justice of the European Union |title=Request for a preliminary ruling from the Verwaltungsgericht Wien (Austria) lodged on 16 March 2022 – CK (Case C-203/22) |url=https://curia.europa.eu/juris/document/document.jsf;jsessionid=D5AAF1438A2EF2166055E0308FADD999?text=&docid=260303&pageIndex=0&doclang=EN&mode=lst&dir=&occ=first&part=1&cid=6699684}}</ref> इसी तरह युगांडा, मोरक्को और अमेरिकी राज्य वर्जीनिया सहित दुनिया भर के कई अन्य न्यायालयों के [[डेटा संरक्षण निर्देश]] में अलग-अलग संलग्न अधिकारों और दायित्वों के साथ दायरे और शब्दों के प्रावधान सम्मिलित हैं।<ref>{{Interlanguage link|loi informatique et libertés|fr}}.<nowiki><ref>= एडवर्ड्स 46-54 >{{Cite journal |last1=Edwards |first1=Lilian |last2=Veale |first2=Michael |date=May 2018 |title=एल्गोरिथम को गुलाम बनाना: "स्पष्टीकरण के अधिकार" से "बेहतर निर्णय के अधिकार" तक?|url=</nowiki>https://ieeexplore.ieee.org/document/8395080 |journal=IEEE Security & Privacy |volume=16 |issue=3 |pages=46–54 |doi=10.1109/MSP.2018.2701152 |s2cid=4049746 |issn=1540-7993}। रेफरी>{{Cite journal |last1=Binns |first1=Reuben |last2=Veale |first2=Michael |date=2021-12-20 |title=क्या यह आपका अंतिम निर्णय है? मल्टी-स्टेज प्रोफाइलिंग, चयनात्मक प्रभाव और GDPR का अनुच्छेद 22|url=https://academic.oup.com/idpl/article/11/4/319/6403925 |journal=International Data Privacy Law |language=en |volume=11 |issue=4 |page=320 |doi=10.1093/idpl/ipab020 |issn=2044-3994}}<nowiki></ref></nowiki></ref>
* [[यूरोपीय संघ]] सामान्य डेटा संरक्षण [[विनियमन (यूरोपीय संघ)]], 2016 में पेश किया गया, यूरोपीय संघ (ईयू) में डेटा संरक्षण और गोपनीयता पर यूरोपीय संघ के कानून में एक विनियमन है। अनुच्छेद 22(1) डेटा विषयों के निर्णय के अधीन नहीं होने के अधिकार को स्थापित करता है, जिसके कानूनी या अन्य महत्वपूर्ण प्रभाव होते हैं, जो पूरी तरह से स्वचालित व्यक्तिगत निर्णय लेने पर आधारित होते हैं।<ref>{{Cite web|title=EUR-Lex - 32016R0679 - EN - EUR-Lex|url=https://eur-lex.europa.eu/eli/reg/2016/679/oj|access-date=2021-09-13|website=eur-lex.europa.eu|language=en}}</ref><ref>{{Cite journal|last=Brkan|first=Maja|date=2017-06-12|title=सामान्य डेटा संरक्षण विनियमन के तहत एआई-समर्थित निर्णय लेना|journal=Proceedings of the 16th Edition of the International Conference on Articial Intelligence and Law|series=ICAIL '17|location=London, United Kingdom|publisher=Association for Computing Machinery|pages=3–8|doi=10.1145/3086512.3086513|isbn=978-1-4503-4891-1|s2cid=23933541}}</ref> जीडीपीआर में स्पष्टीकरण के अधिकार पर कुछ नियम भी सम्मिलित हैं, हालांकि इनका सटीक दायरा और प्रकृति वर्तमान में यूरोपीय संघ के न्यायालय द्वारा समीक्षा के अधीन है। [41] इन प्रावधानों को पहली बार GDPR में पेश नहीं किया गया था, लेकिन 1995 में डेटा प्रोटेक्शन डायरेक्टिव और 1978 के फ्रांसीसी कानून, लोई इंफॉर्मेटिक एट लिबर्टेस [fr] के बाद से पूरे यूरोप में एक समान रूप में सम्मिलित हैं।<ref>{{Cite web |last=Court of Justice of the European Union |title=Request for a preliminary ruling from the Verwaltungsgericht Wien (Austria) lodged on 16 March 2022 – CK (Case C-203/22) |url=https://curia.europa.eu/juris/document/document.jsf;jsessionid=D5AAF1438A2EF2166055E0308FADD999?text=&docid=260303&pageIndex=0&doclang=EN&mode=lst&dir=&occ=first&part=1&cid=6699684}}</ref> इसी तरह युगांडा, मोरक्को और अमेरिकी राज्य वर्जीनिया सहित दुनिया भर के कई अन्य न्यायालयों के [[डेटा संरक्षण निर्देश]] में अलग-अलग संलग्न अधिकारों और दायित्वों के साथ दायरे और शब्दों के प्रावधान सम्मिलित हैं।<ref>{{Interlanguage link|loi informatique et libertés|fr}}.<nowiki><ref>= एडवर्ड्स 46-54 >{{Cite journal |last1=Edwards |first1=Lilian |last2=Veale |first2=Michael |date=May 2018 |title=एल्गोरिथम को गुलाम बनाना: "स्पष्टीकरण के अधिकार" से "बेहतर निर्णय के अधिकार" तक?|url=</nowiki>https://ieeexplore.ieee.org/document/8395080 |journal=IEEE Security & Privacy |volume=16 |issue=3 |pages=46–54 |doi=10.1109/MSP.2018.2701152 |s2cid=4049746 |issn=1540-7993}। रेफरी>{{Cite journal |last1=Binns |first1=Reuben |last2=Veale |first2=Michael |date=2021-12-20 |title=क्या यह आपका अंतिम निर्णय है? मल्टी-स्टेज प्रोफाइलिंग, चयनात्मक प्रभाव और GDPR का अनुच्छेद 22|url=https://academic.oup.com/idpl/article/11/4/319/6403925 |journal=International Data Privacy Law |language=en |volume=11 |issue=4 |page=320 |doi=10.1093/idpl/ipab020 |issn=2044-3994}}&lt;nowiki&gt;</ref></nowiki></ref>
* फ्रांसीसी लोई पोर यूने रेपुब्लिक न्यूमेरिक के तहत 'एल्गोरिदमिक ट्रीटमेंट' बनाने वाले सार्वजनिक क्षेत्र के स्वचालित निर्णयों की व्याख्या के अधिकार <रेफरी नाम = एडवर्ड्स 46–54 />
* फ्रांसीसी लोई पोर यूने रेपुब्लिक न्यूमेरिक के तहत 'एल्गोरिदमिक ट्रीटमेंट' बनाने वाले सार्वजनिक क्षेत्र के स्वचालित निर्णयों की व्याख्या के अधिकार <रेफरी नाम = एडवर्ड्स 46–54 />


Line 126: Line 126:
* [[स्वचालित निर्णय समर्थन]]
* [[स्वचालित निर्णय समर्थन]]
* एल्गोरिथम पूर्वाग्रह
* एल्गोरिथम पूर्वाग्रह
* [[निर्णय लेने वाला सॉफ्टवेयर]]
* [[निर्णय लेने वाला सॉफ्टवेयर|निर्णयन सॉफ्टवेयर]]
* [[निर्णय प्रबंधन]]
* [[निर्णय प्रबंधन]]
*कृत्रिम बुद्धिमत्ता की नैतिकता
*कृत्रिम बुद्धिमत्ता की नैतिकता
* एल्गोरिथम द्वारा सरकार
* सरकार द्वारा एल्गोरिथम  
*यंत्र अधिगम
*यंत्र शिक्षण
*अनुशंसा प्रणाली
*संस्तुति प्रणाली


== संदर्भ ==
== संदर्भ ==

Revision as of 09:34, 15 June 2023

स्वचालित निर्णयन(एडीएम) में डेटा, मशीनों और एल्गोरिदम का उपयोग सम्मिलित है, जिसमें सार्वजनिक प्रशासन, व्यवसाय, स्वास्थ्य, शिक्षा, कानून, रोजगार, परिवहन, मीडिया और मनोरंजन सहित कई संदर्भों में निर्णय लेने के लिए मानव की अलग-अलग डिग्री होती है। निरीक्षण या हस्तक्षेप। एडीएम में डेटाबेस, टेक्स्ट, सोशल मीडिया, सेंसर, इमेज या स्पीच जैसे कई स्रोतों से बड़े पैमाने पर डेटा सम्मिलित होता है, जिसे कंप्यूटर सॉफ्टवेयर, एल्गोरिदम, मशीन लर्निंग, प्राकृतिक भाषा प्रसंस्करण , कृत्रिम होशियारी, संवर्धित सहित विभिन्न तकनीकों का उपयोग करके संसाधित किया जाता है। खुफिया और रोबोटिक्स। कई संदर्भों में स्वचालित निर्णय लेने वाली प्रणालियों (एडीएमएस) का बढ़ता उपयोग मानव समाज के लिए तकनीकी, कानूनी, नैतिक, सामाजिक, शैक्षिक, आर्थिक और स्वास्थ्य परिणामों पर विचार करने के लिए कई लाभ और चुनौतियां प्रस्तुत करता है।[1][2][3]

सिंहावलोकन

सम्मिलित स्वचालन के स्तर के आधार पर एडीएम की विभिन्न परिभाषाएँ हैं। कुछ परिभाषाओं से पता चलता है कि एडीएम में मानव इनपुट के बिना विशुद्ध रूप से तकनीकी साधनों के माध्यम से किए गए निर्णय सम्मिलित हैं[4] जैसे कि यूरोपीय संघ के सामान्य डेटा संरक्षण विनियमन (अनुच्छेद 22)। हालांकि, एडीएम प्रौद्योगिकियां और अनुप्रयोग निर्णय समर्थन प्रणाली से लेकर कई रूप ले सकते हैं जो मानव निर्णय-निर्माताओं को कार्रवाई करने के लिए सिफारिशें करते हैं, जिन्हें कभी-कभी संवर्धित बुद्धिमत्ता [5] या 'साझा निर्णय लेने' के रूप में जाना जाता है, पूरी तरह से स्वचालित निर्णय लेने की प्रक्रिया जो मानव भागीदारी के बिना व्यक्तियों या संगठनों की ओर से निर्णय लेती है।[5] स्वचालित निर्णय लेने वाली प्रणालियों में उपयोग किए जाने वाले मॉडल कृत्रिम बुद्धि और कृत्रिम तंत्रिका नेटवर्क (डीएनएन) के माध्यम से चेकलिस्ट और निर्णय पेड़ के रूप में सरल हो सकते हैं।

1950 के दशक के बाद से कंप्यूटर जटिल, अस्पष्ट और अत्यधिक कुशल कार्यों जैसे छवि और भाषण मान्यता, गेमप्ले, वैज्ञानिक और चिकित्सा विश्लेषण और कई डेटा स्रोतों में अनुमान लगाने की क्षमता रखने के लिए बुनियादी प्रसंस्करण करने में सक्षम होने से चले गए हैं। एडीएम अब समाज के सभी क्षेत्रों और मनोरंजन से लेकर परिवहन तक कई विविध डोमेन में तेजी से तैनात किया जा रहा है।

एक एडीएम प्रणाली (एडीएमएस) में कई निर्णय बिंदु, डेटा सेट और प्रौद्योगिकियाँ (एडीएमटी) सम्मिलित हो सकती हैं और एक बड़ी प्रशासनिक या तकनीकी प्रणाली जैसे आपराधिक न्याय प्रणाली या व्यावसायिक प्रक्रिया के भीतर बैठ सकती हैं।

डेटा

स्वचालित निर्णय लेने में एक इनपुट के रूप में डेटा का उपयोग सम्मिलित होता है, या तो एक प्रक्रिया, मॉडल या एल्गोरिथम के भीतर विश्लेषण किया जाता है, या सीखने और नए मॉडल बनाने के लिए।[6] एडीएम प्रणालियाँ सिस्टम के लक्ष्यों और संदर्भों के आधार पर डेटा प्रकारों और स्रोतों की एक विस्तृत श्रृंखला का उपयोग और कनेक्ट कर सकती हैं, उदाहरण के लिए सेल्फ-ड्राइविंग कारों और रोबोटिक्स के लिए सेंसर डेटा, सुरक्षा प्रणालियों के लिए पहचान डेटा, सार्वजनिक प्रशासन के लिए जनसांख्यिकीय और वित्तीय डेटा, स्वास्थ्य में चिकित्सा रिकॉर्ड, कानून में आपराधिक रिकॉर्ड। इसमें कभी-कभी बड़ी मात्रा में डेटा और कंप्यूटिंग शक्ति सम्मिलित हो सकती है।

डेटा गुणवत्ता

एडीएम सिस्टम में उपलब्ध और उपयोग किए जाने योग्य डेटा की गुणवत्ता परिणामों के लिए मौलिक है और कई कारणों से अक्सर अत्यधिक समस्याग्रस्त होती है। डेटासेट अक्सर अत्यधिक परिवर्तनशील होते हैं, बड़े पैमाने पर डेटा को निगमों या सरकारों द्वारा नियंत्रित किया जा सकता है, गोपनीयता या सुरक्षा कारणों से प्रतिबंधित, अधूरा, पक्षपाती, समय या कवरेज के मामले में सीमित, विभिन्न तरीकों से शर्तों को मापने और वर्णन करने और कई अन्य मुद्दे।

डेटा से सीखने के लिए मशीनों के लिए, अक्सर बड़े कॉर्पस की आवश्यकता होती है जिसे प्राप्त करना या गणना करना जटिल हो सकता है, हालांकि जहां उपलब्ध है वहां महत्वपूर्ण सफलताएं प्रदान की हैं, उदाहरण के लिए छाती के एक्स-रे के निदान में।।[7]

एडीएम टेक्नोलॉजीज

स्वचालित निर्णय लेने वाली प्रौद्योगिकियां (एडीएमटी) सॉफ्टवेयर-कोडित डिजिटल उपकरण हैं जो स्वचालित निर्णय लेने वाली प्रणालियों के कार्य में योगदान करते हुए इनपुट डेटा को आउटपुट डेटा में अनुवाद को स्वचालित करती हैं।[6] एडीएम अनुप्रयोगों और प्रणालियों में उपयोग की जाने वाली तकनीकों की एक विस्तृत श्रृंखला है।

एडीएमटीs में बुनियादी कम्प्यूटेशनल ऑपरेशन सम्मिलित हैं

  • खोज (1-2-1, 1-2-कई, डेटा मिलान/मर्ज सम्मिलित है)
  • मिलान (दो अलग-अलग चीजें)
  • गणितीय गणना (सूत्र)

मूल्यांकन और समूहीकरण के लिए एडीएमटीs:

अंतरिक्ष और प्रवाह से संबंधित एडीएमटीs:

  • सोशल नेटवर्क विश्लेषण (लिंक भविष्यवाणी सम्मिलित है)
  • मैपिंग
  • मार्ग

एडीएमटीs जटिल डेटा स्वरूपों के प्रसंस्करण के लिए

अन्य ए.डी.एम.टी

मशीन लर्निंग

मशीन लर्निंग (एमएल) में अनुभव से सीखने और समस्याओं को हल करने के लिए बड़े डेटा सेट और उदाहरणों के माध्यम से कंप्यूटर प्रोग्राम का प्रशिक्षण सम्मिलित है।[2] मशीन लर्निंग का उपयोग डेटा उत्पन्न करने और उसका विश्लेषण करने के साथ-साथ एल्गोरिथम गणना करने के लिए किया जा सकता है और छवि और वाक् पहचान, अनुवाद, पाठ, डेटा और सिमुलेशन पर लागू किया गया है। जबकि मशीन लर्निंग कुछ समय के लिए आसपास रहा है, यह गहरे तंत्रिका नेटवर्क (डीएनएन) के प्रशिक्षण में हाल की सफलताओं के कारण तेजी से शक्तिशाली होता जा रहा है, और जीपीयू कोप्रोसेसरों और क्लाउड कंप्यूटिंग के साथ डेटा भंडारण क्षमता और कम्प्यूटेशनल शक्ति में नाटकीय वृद्धि हुई है।[2]

फाउंडेशन मॉडल पर आधारित मशीन लर्निंग सिस्टम गहरे तंत्रिका नेटवर्क पर चलते हैं और बड़ी मात्रा में सामान्य डेटा जैसे पाठ और छवियों पर एकल विशाल प्रणाली को प्रशिक्षित करने के लिए पैटर्न मिलान का उपयोग करते हैं। शुरुआती मॉडल में प्रत्येक नई समस्या के लिए खरोंच से शुरू करने की प्रवृत्ति थी, हालांकि 2020 की शुरुआत से कई नई समस्याओं के अनुकूल होने में सक्षम हैं।[8] इन तकनीकों के उदाहरणों में Open AI का DALL-E (एक छवि निर्माण कार्यक्रम) और उनके विभिन्न GPT भाषा मॉडल और Google का PaLM भाषा मॉडल कार्यक्रम सम्मिलित हैं।

अनुप्रयोग

एडीएम का उपयोग सार्वजनिक और निजी दोनों क्षेत्रों के संगठनों द्वारा मानव निर्णय लेने को बदलने या बढ़ाने के लिए कई कारणों से किया जा रहा है, जिसमें निरंतरता बढ़ाने, दक्षता में सुधार करने, लागत कम करने और जटिल समस्याओं के नए समाधानों को सक्षम करने में मदद करना सम्मिलित है।[9]

बहस

तर्क की गुणवत्ता का आकलन करने के लिए प्रौद्योगिकी के उपयोग में अनुसंधान और विकास चल रहा है,[10][11][12] तर्कपूर्ण निबंधों का आकलन[13][14] और निर्णायक बहसें।[15][16][17][18] इन तर्क तकनीकों के संभावित अनुप्रयोग शिक्षा और समाज तक फैले हुए हैं। इस संबंध में जिन परिदृश्यों पर विचार किया जाना है, उनमें संवादी, गणितीय, वैज्ञानिक, व्याख्यात्मक, कानूनी और राजनीतिक तर्क-वितर्क और वाद-विवाद का मूल्यांकन और मूल्यांकन सम्मिलित है।

कानून

दुनिया भर की राष्ट्रीय कानूनी प्रणालियों की सूची में, कई संदर्भों में न्यायाधीशों, सिविल सेवकों और पुलिस अधिकारियों के मानवीय निर्णय को पूरक या बदलने के लिए एल्गोरिथम उपकरण जैसे जोखिम मूल्यांकन उपकरण (RAI) का उपयोग किया जा रहा है।[19] संयुक्त राज्य अमेरिका में RAI का उपयोग पूर्व-परीक्षण निरोध और सजा के फैसले में पुनरावृत्ति के जोखिम की भविष्यवाणी करने के लिए स्कोर उत्पन्न करने के लिए किया जा रहा है[20] कैदियों के लिए पैरोल का मूल्यांकन और भविष्य के अपराध के लिए "हॉट स्पॉट" की भविष्यवाणी करने के लिए।[21][22][23] इन अंकों के परिणामस्वरूप स्वत: प्रभाव हो सकता है या न्याय प्रणाली के भीतर अधिकारियों द्वारा किए गए निर्णयों को सूचित करने के लिए उपयोग किया जा सकता है।[19] कनाडा में 2014 से एडीएम का उपयोग आव्रजन अधिकारियों द्वारा संचालित कुछ गतिविधियों को स्वचालित करने और कुछ आप्रवासी और आगंतुक अनुप्रयोगों के मूल्यांकन का समर्थन करने के लिए किया गया है।[24]

अर्थशास्त्र

ऑटोमेटेड ट्रेडिंग सिस्टम ऑर्डर खरीदने और बेचने के लिए कंप्यूटर प्रोग्राम का उपयोग करते हैं और स्वचालित रूप से मार्केट सेंटर या एक्सचेंजों को ऑर्डर सबमिट करते हैं। कंप्यूटर प्रोग्राम स्वचालित रूप से ट्रेडिंग रणनीतियों का उपयोग करके नियमों के पूर्वनिर्धारित सेट के आधार पर आदेश उत्पन्न कर सकते हैं जो तकनीकी विश्लेषण, उन्नत सांख्यिकीय और गणितीय संगणना, या अन्य इलेक्ट्रॉनिक स्रोतों से इनपुट पर आधारित हैं।

व्यवसाय

सतत लेखापरीक्षा

निरंतर ऑडिटिंग ऑडिटिंग प्रक्रियाओं को स्वचालित करने के लिए उन्नत विश्लेषणात्मक उपकरणों का उपयोग करती है। इसका उपयोग निजी क्षेत्र में व्यावसायिक उद्यमों द्वारा और सार्वजनिक क्षेत्र में सरकारी संगठनों और नगर पालिकाओं द्वारा किया जा सकता है।[25] जैसा कि आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग का विकास जारी है, लेखाकार और लेखा परीक्षक तेजी से परिष्कृत एल्गोरिदम का उपयोग कर सकते हैं जो निर्णय लेते हैं जैसे कि यह निर्धारित करना कि क्या असंगत है, क्या कर्मियों को सूचित करना है, और कर्मियों को सौंपे गए कार्यों को कैसे प्राथमिकता देना है।

मीडिया और मनोरंजन

डिजिटल मीडिया, मनोरंजन प्लेटफॉर्म और सूचना सेवाएं जनसांख्यिकीय जानकारी, पिछले चयनों, सहयोगी फ़िल्टरिंग या सामग्री-आधारित फ़िल्टरिंग के आधार पर स्वचालित अनुशंसा प्रणाली के माध्यम से दर्शकों को तेजी से सामग्री प्रदान करती हैं।[26] इसमें संगीत और वीडियो प्लेटफॉर्म, प्रकाशन, स्वास्थ्य सूचना, उत्पाद डेटाबेस और सर्च इंजन सम्मिलित हैं। कई सिफ़ारिशकर्ता प्रणालियाँ अनुशंसाओं को स्वीकार करने में उपयोगकर्ताओं को कुछ एजेंसी भी प्रदान करती हैं और सिस्टम उपयोगकर्ता के कार्यों के आधार पर डेटा-संचालित एल्गोरिथम फीडबैक लूप सम्मिलित करती हैं।[5]

2020 में OpenAI और Google जैसी कंपनियों द्वारा बड़े पैमाने पर मशीन लर्निंग लैंग्वेज मॉडल और इमेज क्रिएशन प्रोग्राम विकसित किए जा रहे हैं, जिनकी पहुंच प्रतिबंधित है, हालांकि विज्ञापन, कॉपी राइटिंग, स्टॉक इमेजरी और ग्राफिक डिज़ाइन जैसे क्षेत्रों में उनके व्यापक प्रसार की संभावना है। पत्रकारिता और कानून जैसे अन्य क्षेत्रों के रूप में।[8]

विज्ञापन

ऑनलाइन विज्ञापन कई डिजिटल मीडिया प्लेटफार्मों, वेबसाइटों और खोज इंजनों के साथ घनिष्ठ रूप से जुड़ा हुआ है और इसमें अक्सर विविध स्वरूपों में प्रदर्शन विज्ञापनों की स्वचालित डिलीवरी सम्मिलित होती है। 'प्रोग्रामेटिक' ऑनलाइन विज्ञापन में प्रत्यक्ष मानव निर्णय लेने के बजाय सॉफ्टवेयर के माध्यम से वेबसाइटों और प्लेटफार्मों पर डिजिटल विज्ञापन की बिक्री और वितरण को स्वचालित करना सम्मिलित है।[26] इसे कभी-कभी जलप्रपात मॉडल के रूप में जाना जाता है जिसमें विभिन्न प्रणालियों और खिलाड़ियों के चरणों का एक क्रम सम्मिलित होता है: प्रकाशक और डेटा प्रबंधन प्लेटफ़ॉर्म, उपयोगकर्ता डेटा, विज्ञापन सर्वर और उनके वितरण डेटा, इन्वेंट्री प्रबंधन प्रणाली, विज्ञापन व्यापारी और विज्ञापन एक्सचेंज।[26] इस प्रणाली के साथ विभिन्न मुद्दे हैं जिनमें विज्ञापनदाताओं के लिए पारदर्शिता की कमी, असत्यापित मेट्रिक्स, विज्ञापन स्थानों पर नियंत्रण की कमी, ऑडियंस ट्रैकिंग और गोपनीयता संबंधी चिंताएँ सम्मिलित हैं।[26] विज्ञापनों को नापसंद करने वाले इंटरनेट उपयोगकर्ताओं ने विज्ञापन अवरोधक तकनीकों जैसे काउंटर उपाय अपनाए हैं जो उपयोगकर्ताओं को वेबसाइटों और कुछ इंटरनेट अनुप्रयोगों से अवांछित विज्ञापन को स्वचालित रूप से फ़िल्टर करने की स्वीकृति देते हैं। 2017 में, 24% ऑस्ट्रेलियाई इंटरनेट उपयोगकर्ताओं के पास विज्ञापन अवरोधक थे।[27]

स्वास्थ्य

डीप लर्निंग एआई इमेज मॉडल कंप्यूटर एडेड निदान हैं। एक्स-रे की समीक्षा करने और आंखों की स्थिति मैक्यूलर डिजनरेशन का पता लगाने के लिए उपयोग किया जाता है।

सामाजिक सेवाएं

सरकारें 2000 के दशक की शुरुआत से अधिक कुशल प्रशासन और सामाजिक सेवाएं प्रदान करने के लिए डिजिटल तकनीकों को लागू कर रही हैं, जिन्हें अक्सर ई-सरकार कहा जाता है। दुनिया भर में कई सरकारें अब प्रोफाइलिंग और लक्षित नीतियों और सेवाओं के लिए स्वचालित, एल्गोरिथम सिस्टम का उपयोग कर रही हैं, जिसमें जोखिमों के आधार पर एल्गोरिथम पुलिसिंग, एयरपोर्ट स्क्रीनिंग जैसे लोगों की निगरानी सॉर्टिंग, बाल संरक्षण में जोखिम प्रोफाइल के आधार पर सेवाएं प्रदान करना, रोजगार सेवाएं प्रदान करना और शासन करना सम्मिलित है। बेरोजगार।[28] सामाजिक सेवाओं में एडीएम का एक महत्वपूर्ण अनुप्रयोग भविष्य कहनेवाला विश्लेषण के उपयोग से संबंधित है - उदाहरण के लिए बाल संरक्षण में दुर्व्यवहार/उपेक्षा से बच्चों के लिए जोखिम की भविष्यवाणी, पुलिस और आपराधिक न्याय में अपराध या अपराध की भविष्यवाणी, कल्याण की भविष्यवाणी/ अनुपालन प्रणालियों में कर धोखाधड़ी , रोजगार सेवाओं में दीर्घकालिक बेरोजगारी की भविष्यवाणी। ऐतिहासिक रूप से ये प्रणालियाँ मानक सांख्यिकीय विश्लेषणों पर आधारित थीं, हालाँकि 2000 के दशक की शुरुआत से मशीन लर्निंग तेजी से विकसित और तैनात की गई है। सामाजिक सेवाओं में एडीएम के उपयोग के साथ प्रमुख मुद्दों में पूर्वाग्रह, निष्पक्षता, उत्तरदायित्व और व्याख्यात्मकता सम्मिलित है जो निर्णय के कारणों के आसपास पारदर्शिता को संदर्भित करता है और जिस आधार पर एक मशीन ने निर्णय लिया है, उसकी व्याख्या करने की क्षमता।[28] उदाहरण के लिए, ऑस्ट्रेलिया की संघीय सामाजिक सुरक्षा वितरण एजेंसी, सेंटरलिंक ने ऋण का पता लगाने और एकत्र करने के लिए एक स्वचालित प्रक्रिया विकसित और कार्यान्वित की, जिसके कारण गलत तरीके से ऋण वसूली के कई मामले सामने आए, जिसे रोबोडेट योजना के रूप में जाना जाने लगा।[29]

परिवहन और गतिशीलता

कनेक्टेड और ऑटोमेटेड मोबिलिटी (सीएएम) में स्वायत्त वाहन जैसे कि सेल्फ ड्राइविंग कार और परिवहन के अन्य रूप सम्मिलित हैं जो वाहन के मानव नियंत्रण के विभिन्न पहलुओं को बदलने के लिए स्वचालित निर्णय लेने वाली प्रणाली का उपयोग करते हैं। [31] यह स्तर 0 (पूर्ण मानव ड्राइविंग) से लेकर स्तर 5 (पूर्णतः स्वायत्त) तक हो सकता है।[2] स्तर 5 पर मशीन डेटा मॉडल और भू-स्थानिक मानचित्रण और रीयल-टाइम सेंसर और पर्यावरण के प्रसंस्करण के आधार पर वाहन को नियंत्रित करने के निर्णय लेने में सक्षम है। 2021 में 1 से 3 के स्तर वाली कारें पहले से ही बाजार में उपलब्ध हैं। 2016 में जर्मन सरकार ने 'स्वचालित और कनेक्टेड ड्राइविंग पर नैतिकता आयोग' की स्थापना की, जिसने कनेक्टेड और स्वचालित वाहनों (CAV) को विकसित करने की सिफारिश की, यदि सिस्टम मानव की तुलना में कम दुर्घटनाओं का कारण बनता है। ड्राइवर (जोखिम का सकारात्मक संतुलन)। इसने स्वचालित और कनेक्टेड ड्राइविंग के अनुकूलन के लिए 20 नैतिक नियम भी प्रदान किए।[30] 2020 में सीएएम पर यूरोपीय आयोग की रणनीति ने सिफारिश की कि उन्हें सड़क दुर्घटनाओं को कम करने और उत्सर्जन को कम करने के लिए यूरोप में अपनाया जाना चाहिए, हालांकि स्व-ड्राइविंग कार भी दुर्घटनाओं के मामले में दायित्व और नैतिक निर्णय लेने के मामले में कई नीति, सुरक्षा और कानूनी मुद्दों को उठाती हैं। , साथ ही गोपनीयता के मुद्दे भी यदि एवी को व्यापक रूप से अपनाया जाना है तो स्वायत्त वाहनों में विश्वास के मुद्दे और उनकी सुरक्षा के बारे में समुदाय की चिंता प्रमुख कारक हैं।[31]

निगरानी

सेंसर, कैमरा, ऑनलाइन लेन-देन और सोशल मीडिया के माध्यम से स्वचालित डिजिटल डेटा संग्रह ने सरकार और वाणिज्यिक क्षेत्रों में निगरानी प्रथाओं और संस्थानों के दायरे, पैमाने और लक्ष्यों का काफी विस्तार किया है।[32] परिणामस्वरूप संदिग्धों की लक्षित निगरानी से पूरी आबादी की निगरानी करने की क्षमता में एक बड़ा बदलाव आया है।[33] स्वचालित डेटा संग्रह के परिणामस्वरूप अब निगरानी के स्तर को निगरानी पूंजीवाद या निगरानी अर्थव्यवस्था के रूप में वर्णित किया गया है, जिस तरह से डिजिटल मीडिया में बड़े पैमाने पर ट्रैकिंग और हर बातचीत पर डेटा का संचय सम्मिलित है।

नैतिक और कानूनी मुद्दे

स्वचालित निर्णय लेने वाली प्रणालियों के कई सामाजिक, नैतिक और कानूनी निहितार्थ हैं। उठाई गई चिंताओं में पारदर्शिता की कमी और फैसलों की प्रतिस्पर्धात्मकता, गोपनीयता और निगरानी पर घुसपैठ, डेटा और एल्गोरिथम पूर्वाग्रह के कारण प्रणालीगत पूर्वाग्रह और असमानता को बढ़ाना, बौद्धिक संपदा अधिकार, मीडिया प्लेटफॉर्म के माध्यम से गलत सूचना का प्रसार, प्रशासनिक भेदभाव, जोखिम और जिम्मेदारी, बेरोजगारी और सम्मिलित हैं। कई अन्य।[34][35] जैसा कि एडीएम अधिक सर्वव्यापी हो जाता है, सूचना समाजों में सुशासन सुनिश्चित करने के लिए नैतिक चुनौतियों का समाधान करने की अधिक आवश्यकता है।[36]

एडीएम सिस्टम अक्सर मशीन लर्निंग और एल्गोरिदम पर आधारित होते हैं जिन्हें आसानी से देखा या विश्लेषण नहीं किया जा सकता है, जिससे चिंता होती है कि वे 'ब्लैक बॉक्स' सिस्टम हैं जो पारदर्शी या जवाबदेह नहीं हैं।[2]

कनाडा में सिटीजन लैब की एक रिपोर्ट विभिन्न क्षेत्रों में एडीएम के अनुप्रयोग के एक महत्वपूर्ण मानवाधिकार विश्लेषण के लिए तर्क देती है ताकि यह सुनिश्चित किया जा सके कि स्वचालित निर्णय लेने का उपयोग अधिकारों के उल्लंघन में न हो, जिसमें समानता के अधिकार और गैर-भेदभाव की स्वतंत्रता सम्मिलित है। आंदोलन, अभिव्यक्ति, धर्म, और संघ गोपनीयता अधिकार और व्यक्ति के जीवन, स्वतंत्रता और सुरक्षा के अधिकार।[24]

एडीएम को विधायी प्रतिक्रियाओं में सम्मिलित हैं:

  • यूरोपीय संघ सामान्य डेटा संरक्षण विनियमन (यूरोपीय संघ), 2016 में पेश किया गया, यूरोपीय संघ (ईयू) में डेटा संरक्षण और गोपनीयता पर यूरोपीय संघ के कानून में एक विनियमन है। अनुच्छेद 22(1) डेटा विषयों के निर्णय के अधीन नहीं होने के अधिकार को स्थापित करता है, जिसके कानूनी या अन्य महत्वपूर्ण प्रभाव होते हैं, जो पूरी तरह से स्वचालित व्यक्तिगत निर्णय लेने पर आधारित होते हैं।[37][38] जीडीपीआर में स्पष्टीकरण के अधिकार पर कुछ नियम भी सम्मिलित हैं, हालांकि इनका सटीक दायरा और प्रकृति वर्तमान में यूरोपीय संघ के न्यायालय द्वारा समीक्षा के अधीन है। [41] इन प्रावधानों को पहली बार GDPR में पेश नहीं किया गया था, लेकिन 1995 में डेटा प्रोटेक्शन डायरेक्टिव और 1978 के फ्रांसीसी कानून, लोई इंफॉर्मेटिक एट लिबर्टेस [fr] के बाद से पूरे यूरोप में एक समान रूप में सम्मिलित हैं।[39] इसी तरह युगांडा, मोरक्को और अमेरिकी राज्य वर्जीनिया सहित दुनिया भर के कई अन्य न्यायालयों के डेटा संरक्षण निर्देश में अलग-अलग संलग्न अधिकारों और दायित्वों के साथ दायरे और शब्दों के प्रावधान सम्मिलित हैं।[40]</nowiki></ref>
  • फ्रांसीसी लोई पोर यूने रेपुब्लिक न्यूमेरिक के तहत 'एल्गोरिदमिक ट्रीटमेंट' बनाने वाले सार्वजनिक क्षेत्र के स्वचालित निर्णयों की व्याख्या के अधिकार <रेफरी नाम = एडवर्ड्स 46–54 />

पूर्वाग्रह

एडीएम निम्न से उत्पन्न एल्गोरिथम बायस को सम्मिलित कर सकता है:

  • डेटा स्रोत, जहां डेटा इनपुट उनके संग्रह या चयन में पक्षपाती हैं[35]
  • एल्गोरिद्म का तकनीकी डिज़ाइन, उदाहरण के लिए जहां यह अनुमान लगाया गया है कि कोई व्यक्ति कैसे व्यवहार करेगा[41]
  • आकस्मिक पूर्वाग्रह, जहां अप्रत्याशित परिस्थितियों में एडीएम का आवेदन एक पक्षपाती परिणाम बनाता है[41]

स्पष्टीकरण

पक्षपाती या गलत डेटा या एल्गोरिदम के प्रश्न और चिंताएं कि कुछ एडीएम ब्लैक बॉक्स प्रौद्योगिकियां हैं, मानव जांच या पूछताछ के लिए बंद हैं, ने व्याख्यात्मकता के मुद्दे या स्वचालित निर्णयों और एआई के स्पष्टीकरण के अधिकार के रूप में संदर्भित किया है। इसे एक्सप्लेनेबल एआई (एक्सएआई) या इंटरप्रेटेबल एआई के रूप में भी जाना जाता है, जिसमें समाधान के परिणामों का विश्लेषण किया जा सकता है और मनुष्यों द्वारा समझा जा सकता है। XAI एल्गोरिदम को तीन सिद्धांतों - पारदर्शिता, व्याख्यात्मकता और व्याख्यात्मकता का पालन करने के लिए माना जाता है।

सूचना विषमता

स्वचालित निर्णय लेने से उन व्यक्तियों के बीच सूचना विषमता बढ़ सकती है, जिनका डेटा सिस्टम में फीड होता है और उस डेटा से जानकारी प्राप्त करने में सक्षम प्लेटफ़ॉर्म और निर्णय लेने वाली प्रणालियाँ। दूसरी ओर यह देखा गया है कि वित्तीय व्यापार में दो कृत्रिम बुद्धिमान एजेंटों के बीच सूचना विषमता दो मानव एजेंटों या मानव और मशीन एजेंटों के बीच की तुलना में बहुत कम हो सकती है।[42]

अनुसंधान क्षेत्र

कई शैक्षणिक विषयों और क्षेत्रों में व्यापार, कंप्यूटर विज्ञान, मानव कंप्यूटर इंटरैक्शन (एचसीआई), कानून, लोक प्रशासन, और मीडिया और संचार सहित एडीएम के विकास, अनुप्रयोग और निहितार्थ पर तेजी से ध्यान दिया जा रहा है। खोज प्रणालियों और प्लेटफार्मों के माध्यम से मीडिया सामग्री और एल्गोरिथम संचालित समाचार, वीडियो और अन्य सामग्री का स्वचालन मीडिया अध्ययनों में अकादमिक अनुसंधान का एक प्रमुख केंद्र है।[26]

निष्पक्षता, जवाबदेही और पारदर्शिता पर ACM सम्मेलन (ACM FAccT) की स्थापना 2018 में सामाजिक-तकनीकी प्रणालियों के संदर्भ में पारदर्शिता और व्याख्यात्मकता का अध्ययन करने के लिए की गई थी, जिनमें से कई में एडीएम और AI सम्मिलित हैं।

एडीएम की जांच करने वाले प्रमुख अनुसंधान केंद्रों में सम्मिलित हैं:

यह भी देखें

संदर्भ

  1. Marabelli, Marco; Newell, Sue; Handunge, Valerie (2021). "The lifecycle of algorithmic decision-making systems: Organizational choices and ethical challenges". Journal of Strategic Information Systems. 30 (1): 1-15. Retrieved November 1, 2022.
  2. 2.0 2.1 2.2 2.3 2.4 Larus, James; Hankin, Chris; Carson, Siri Granum; Christen, Markus; Crafa, Silvia; Grau, Oliver; Kirchner, Claude; Knowles, Bran; McGettrick, Andrew; Tamburri, Damian Andrew; Werthner, Hannes (2018). When Computers Decide: European Recommendations on Machine-Learned Automated Decision Making. New York: Association for Computing Machinery. doi:10.1145/3185595.
  3. Mökander, Jakob; Morley, Jessica; Taddeo, Mariarosaria; Floridi, Luciano (2021-07-06). "Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations". Science and Engineering Ethics (in English). 27 (4): 44. arXiv:2110.10980. doi:10.1007/s11948-021-00319-4. ISSN 1471-5546. PMC 8260507. PMID 34231029.
  4. UK Information Commissioner's Office (2021-09-24). यूके जनरल डेटा प्रोटेक्शन रेगुलेशन (यूके जीडीपीआर) के लिए गाइड (Report) (in English). Information Commissioner's Office UK. Archived from the original on 2018-12-21. Retrieved 2021-10-05.
  5. 5.0 5.1 Araujo, Theo; Helberger, Natali; Kruikemeier, Sanne; de Vreese, Claes H. (2020-09-01). "In AI we trust? Perceptions about automated decision-making by artificial intelligence" (PDF). AI & Society (in English). 35 (3): 611–623. doi:10.1007/s00146-019-00931-w. hdl:11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5. ISSN 1435-5655. S2CID 209523258.
  6. 6.0 6.1 Algorithm Watch (2020). Automating Society 2019. Algorithm Watch (Report) (in English). Retrieved 2022-02-28.
  7. Seah, Jarrel C Y; Tang, Cyril H M; Buchlak, Quinlan D; Holt, Xavier G; Wardman, Jeffrey B; Aimoldin, Anuar; Esmaili, Nazanin; Ahmad, Hassan; Pham, Hung; Lambert, John F; Hachey, Ben (August 2021). "Effect of a comprehensive deep-learning model on the accuracy of chest x-ray interpretation by radiologists: a retrospective, multireader multicase study". The Lancet Digital Health. 3 (8): e496–e506. doi:10.1016/s2589-7500(21)00106-0. ISSN 2589-7500. PMID 34219054. S2CID 235735320.
  8. 8.0 8.1 Snoswell, Aaron J.; Hunter, Dan (13 April 2022). "Robots are creating images and telling jokes. 5 things to know about foundation models and the next generation of AI" (in English). The Conversation. Retrieved 2022-04-21.
  9. Taddeo, Mariarosaria; Floridi, Luciano (2018-08-24). "एआई अच्छे के लिए एक ताकत कैसे हो सकता है". Science (in English). 361 (6404): 751–752. Bibcode:2018Sci...361..751T. doi:10.1126/science.aat5991. ISSN 0036-8075. PMID 30139858. S2CID 52075037.
  10. Wachsmuth, Henning; Naderi, Nona; Hou, Yufang; Bilu, Yonatan; Prabhakaran, Vinodkumar; Thijm, Tim; Hirst, Graema; Stein, Benno (2017). "प्राकृतिक भाषा में कम्प्यूटेशनल तर्क गुणवत्ता मूल्यांकन" (PDF). Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics. pp. 176–187.
  11. Wachsmuth, Henning; Naderi, Nona; Habernal, Ivan; Hou, Yufang; Hirst, Graeme; Gurevych, Iryna; Stein, Benno (2017). "Argumentation quality assessment: Theory vs. practice" (PDF). Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. pp. 250–255.
  12. Gretz, Shai; Friedman, Roni; Cohen-Karlik, Edo; Toledo, Assaf; Lahav, Dan; Aharonov, Ranit; Slonim, Noam (2020). "A large-scale dataset for argument quality ranking: Construction and analysis". Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 34. pp. 7805–7813.
  13. Green, Nancy (2013). "छात्र तर्कों के स्वचालित विश्लेषण की ओर". International Conference on Artificial Intelligence in Education. Springer. pp. 591–594.
  14. Persing, Isaac; Ng, Vincent (2015). "छात्र निबंधों में मॉडलिंग तर्क शक्ति" (PDF). Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. pp. 543–552.
  15. Brilman, Maarten; Scherer, Stefan (2015). "सफल वाद-विवाद करने वालों का एक मल्टीमॉडल प्रेडिक्टिव मॉडल या मैंने कैसे वोटों को प्रभावित करना सीखा". Proceedings of the 23rd ACM international conference on Multimedia. pp. 149–158.
  16. Potash, Peter; Rumshisky, Anna (2017). "Towards debate automation: a recurrent model for predicting debate winners" (PDF). Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. pp. 2465–2475.
  17. Santos, Pedro; Gurevych, Iryna (2018). "राजनीतिक बहसों में दर्शकों की छाप की बहुविध भविष्यवाणी". Proceedings of the 20th International Conference on Multimodal Interaction. pp. 1–6.
  18. Wang, Lu; Beauchamp, Nick; Shugars, Sarah; Qin, Kechen (2017). "Winning on the merits: The joint effects of content and style on debate outcomes". Transactions of the Association for Computational Linguistics. MIT Press. 5: 219–232. doi:10.1162/tacl_a_00057. S2CID 27803846.
  19. 19.0 19.1 Chohlas-Wood, Alex (2020). आपराधिक न्याय में जोखिम मूल्यांकन उपकरणों को समझना. Brookings Institution.
  20. Angwin, Julia; Larson, Jeff; Mattu, Surya (23 May 2016). "मशीन पूर्वाग्रह". ProPublica (in English). Archived from the original on 2021-10-04. Retrieved 2021-10-04.
  21. Nissan, Ephraim (2017-08-01). "डिजिटल तकनीक और आर्टिफिशियल इंटेलिजेंस का लॉयरिंग, जजिंग, पुलिसिंग और कानून प्रवर्तन पर वर्तमान और दूरदर्शितापूर्ण प्रभाव". AI & Society (in English). 32 (3): 441–464. doi:10.1007/s00146-015-0596-5. ISSN 1435-5655. S2CID 21115049.
  22. Dressel, Julia; Farid, Hany (2018). "वैराग्यवाद की भविष्यवाणी करने की सटीकता, निष्पक्षता और सीमाएं". Science Advances. 4 (1): eaao5580. Bibcode:2018SciA....4.5580D. doi:10.1126/sciadv.aao5580. PMC 5777393. PMID 29376122.
  23. Ferguson, Andrew Guthrie (2017). The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement. New York: NYU Press. ISBN 9781479869978.
  24. 24.0 24.1 Molnar, Petra; Gill, Lex (2018). Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada's Immigration and Refugee System (in Canadian English). Citizen Lab and International Human Rights Program (Faculty of Law, University of Toronto).
  25. Ezzamouri, Naoual; Hulstijn, Joris (2018). "नगर पालिकाओं में सतत निगरानी और लेखा परीक्षा". Proceedings of the 19th Annual International Conference on Digital Government Research: Governance in the Data Age. pp. 1–10.
  26. 26.0 26.1 26.2 26.3 26.4 Thomas, Julian (2018). "Programming, filtering, adblocking: advertising and media automation". Media International Australia (in English). 166 (1): 34–43. doi:10.1177/1329878X17738787. ISSN 1329-878X. S2CID 149139944. Q110607881.
  27. Newman, N; Fletcher, R; Kalogeropoulos, A (2017). रॉयटर्स संस्थान डिजिटल समाचार रिपोर्ट (Report) (in British English). Reuters Institute for the Study of Journalism. Archived from the original on 2013-08-17. Retrieved 2022-01-19.
  28. 28.0 28.1 Henman, Paul (2019-01-02). "Of algorithms, Apps and advice: digital social policy and service delivery". Journal of Asian Public Policy (in English). 12 (1): 71–89. doi:10.1080/17516234.2018.1495885. ISSN 1751-6234. S2CID 158229201.
  29. Henman, Paul (2017). "The Computer Says 'Debt': Towards A Critical Sociology Of Algorithms And Algorithmic Governance". Data for Policy 2017: Government by Algorithm? Conference, London. doi:10.5281/ZENODO.884116.
  30. Federal Ministry of Transport and Digital Infrastructures. ऑटोमेटेड और कनेक्टेड ड्राइविंग पर एथिक्स कमीशन की पूरी रिपोर्ट. www.bmvi.de (Report). German Government. Archived from the original on 2017-09-04. Retrieved 2021-11-23.
  31. Raats, Kaspar; Fors, Vaike; Pink, Sarah (2020-09-01). "Trusting autonomous vehicles: An interdisciplinary approach". Transportation Research Interdisciplinary Perspectives (in English). 7: 100201. doi:10.1016/j.trip.2020.100201. ISSN 2590-1982. S2CID 225261480.
  32. Andrejevic, Mark (2021). "Automated surveillance". डिजिटल मीडिया और संचार की रूटलेज हैंडबुक. Leah A. Lievrouw, Brian Loader. Abingdon, Oxon: Taylor and Francis. ISBN 978-1-315-61655-1. OCLC 1198978596.
  33. Pasquale, Frank (2016). Black box society: the secret algorithms that control money and information. Cambridge, Massachusetts: Harvard University Press. ISBN 978-0-674-97084-7. OCLC 946975299.
  34. Eubanks, Virginia (2018). Automating inequality: how high-tech tools profile, police, and punish the poor (First ed.). New York, NY. ISBN 978-1-250-07431-7. OCLC 1013516195.{{cite book}}: CS1 maint: location missing publisher (link)
  35. 35.0 35.1 No label or title -- debug: Q48816548, Wikidata Q48816548
  36. Cath, Corinne (2018-11-28). "Governing artificial intelligence: ethical, legal and technical opportunities and challenges". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 376 (2133): 20180080. Bibcode:2018RSPTA.37680080C. doi:10.1098/rsta.2018.0080. PMC 6191666. PMID 30322996.
  37. "EUR-Lex - 32016R0679 - EN - EUR-Lex". eur-lex.europa.eu (in English). Retrieved 2021-09-13.
  38. Brkan, Maja (2017-06-12). "सामान्य डेटा संरक्षण विनियमन के तहत एआई-समर्थित निर्णय लेना". Proceedings of the 16th Edition of the International Conference on Articial Intelligence and Law. ICAIL '17. London, United Kingdom: Association for Computing Machinery: 3–8. doi:10.1145/3086512.3086513. ISBN 978-1-4503-4891-1. S2CID 23933541.
  39. Court of Justice of the European Union. "Request for a preliminary ruling from the Verwaltungsgericht Wien (Austria) lodged on 16 March 2022 – CK (Case C-203/22)".
  40. loi informatique et libertés [fr].<ref>= एडवर्ड्स 46-54 >{{Cite journal |last1=Edwards |first1=Lilian |last2=Veale |first2=Michael |date=May 2018 |title=एल्गोरिथम को गुलाम बनाना: "स्पष्टीकरण के अधिकार" से "बेहतर निर्णय के अधिकार" तक?|url=https://ieeexplore.ieee.org/document/8395080 |journal=IEEE Security & Privacy |volume=16 |issue=3 |pages=46–54 |doi=10.1109/MSP.2018.2701152 |s2cid=4049746 |issn=1540-7993}। रेफरी>Binns, Reuben; Veale, Michael (2021-12-20). "क्या यह आपका अंतिम निर्णय है? मल्टी-स्टेज प्रोफाइलिंग, चयनात्मक प्रभाव और GDPR का अनुच्छेद 22". International Data Privacy Law (in English). 11 (4): 320. doi:10.1093/idpl/ipab020. ISSN 2044-3994.<nowiki>
  41. 41.0 41.1 Friedman, Batya; Nissenbaum, Helen (July 1996). "कंप्यूटर सिस्टम में पक्षपात". ACM Transactions on Information Systems (in English). 14 (3): 330–347. doi:10.1145/230538.230561. ISSN 1046-8188. S2CID 207195759.
  42. Marwala, Tshilidzi (2017). Artificial intelligence and economic theory: Skynet in the market. Evan Hurwitz. Cham. ISBN 978-3-319-66104-9. OCLC 1004620876.{{cite book}}: CS1 maint: location missing publisher (link)