स्वचालित निर्णय-निर्धारण: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Decision-making process conducted with varying degrees of human oversight}} स्वचालित निर्णय लेने (ADM) में अल...")
 
No edit summary
Line 1: Line 1:
{{Short description|Decision-making process conducted with varying degrees of human oversight}}
{{Short description|Decision-making process conducted with varying degrees of human oversight}}
स्वचालित निर्णय लेने (ADM) में अलग-अलग डिग्री के साथ [[ कलन विधि ]], व्यवसाय, स्वास्थ्य, शिक्षा, कानून, रोजगार, परिवहन, मीडिया और मनोरंजन द्वारा सरकार सहित कई संदर्भों में निर्णय लेने के लिए डेटा, मशीनों और एल्गोरिदम का उपयोग शामिल है। मानव निरीक्षण या हस्तक्षेप की। ADM में डेटाबेस, टेक्स्ट, सोशल मीडिया, सेंसर, इमेज या स्पीच जैसे कई स्रोतों से बड़े पैमाने पर डेटा शामिल होता है, जिसे कंप्यूटर सॉफ्टवेयर, एल्गोरिदम, [[ यंत्र अधिगम ]], [[ प्राकृतिक भाषा प्रसंस्करण ]], [[ कृत्रिम होशियारी ]], संवर्धित सहित विभिन्न तकनीकों का उपयोग करके संसाधित किया जाता है। खुफिया और [[रोबोटिक]]्स। कई संदर्भों में स्वचालित निर्णय लेने वाली प्रणालियों (ADMS) का बढ़ता उपयोग मानव समाज के लिए तकनीकी, कानूनी, नैतिक, सामाजिक, शैक्षिक, आर्थिक और स्वास्थ्य परिणामों पर विचार करने के लिए कई लाभ और चुनौतियां प्रस्तुत करता है।<ref>{{cite journal |last1=Marabelli |first1=Marco |last2=Newell |first2=Sue |last3=Handunge |first3=Valerie |title=The lifecycle of algorithmic decision-making systems: Organizational choices and ethical challenges |journal=Journal of Strategic Information Systems |date=2021 |volume=30 |issue=1 |page=1-15 |url=https://www.researchgate.net/publication/353377939_The_lifecycle_of_algorithmic_decision-making_systems_Organizational_choices_and_ethical_challenges |access-date=November 1, 2022}}</ref><ref name=":1">{{Cite book |last1=Larus|first1=James|last2=Hankin|first2=Chris|last3=Carson|first3=Siri Granum|last4=Christen|first4=Markus|last5=Crafa|first5=Silvia|last6=Grau|first6=Oliver|last7=Kirchner|first7=Claude|last8=Knowles|first8=Bran|last9=McGettrick|first9=Andrew|last10=Tamburri|first10=Damian Andrew|last11=Werthner|first11=Hannes|year=2018|title=When Computers Decide: European Recommendations on Machine-Learned Automated Decision Making|url=https://dl.acm.org/doi/book/10.1145/3185595 |location=New York |publisher=Association for Computing Machinery|doi=10.1145/3185595}}</ref><ref>{{Cite journal|last1=Mökander|first1=Jakob|last2=Morley|first2=Jessica|last3=Taddeo|first3=Mariarosaria|last4=Floridi|first4=Luciano|date=2021-07-06|title=Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations|journal=Science and Engineering Ethics|language=en|volume=27|issue=4|pages=44|doi=10.1007/s11948-021-00319-4|issn=1471-5546|pmc=8260507|pmid=34231029|arxiv=2110.10980}}</ref>
'''स्वचालित निर्णय लेना'''(एडीएम) में डेटा, मशीनों और एल्गोरिदम का उपयोग सम्मिलित है, जिसमें सार्वजनिक प्रशासन, व्यवसाय, स्वास्थ्य, शिक्षा, कानून, रोजगार, परिवहन, मीडिया और मनोरंजन सहित कई संदर्भों में निर्णय लेने के लिए मानव की अलग-अलग डिग्री होती है। निरीक्षण या हस्तक्षेप। एडीएम में डेटाबेस, टेक्स्ट, सोशल मीडिया, सेंसर, इमेज या स्पीच जैसे कई स्रोतों से बड़े पैमाने पर डेटा सम्मिलित होता है, जिसे कंप्यूटर सॉफ्टवेयर, एल्गोरिदम, मशीन लर्निंग, [[ प्राकृतिक भाषा प्रसंस्करण |प्राकृतिक भाषा प्रसंस्करण]] , [[ कृत्रिम होशियारी |कृत्रिम होशियारी]], संवर्धित सहित विभिन्न तकनीकों का उपयोग करके संसाधित किया जाता है। खुफिया और रोबोटिक्स। कई संदर्भों में स्वचालित निर्णय लेने वाली प्रणालियों (एडीएमएस) का बढ़ता उपयोग मानव समाज के लिए तकनीकी, कानूनी, नैतिक, सामाजिक, शैक्षिक, आर्थिक और स्वास्थ्य परिणामों पर विचार करने के लिए कई लाभ और चुनौतियां प्रस्तुत करता है।<ref>{{cite journal |last1=Marabelli |first1=Marco |last2=Newell |first2=Sue |last3=Handunge |first3=Valerie |title=The lifecycle of algorithmic decision-making systems: Organizational choices and ethical challenges |journal=Journal of Strategic Information Systems |date=2021 |volume=30 |issue=1 |page=1-15 |url=https://www.researchgate.net/publication/353377939_The_lifecycle_of_algorithmic_decision-making_systems_Organizational_choices_and_ethical_challenges |access-date=November 1, 2022}}</ref><ref name=":1">{{Cite book |last1=Larus|first1=James|last2=Hankin|first2=Chris|last3=Carson|first3=Siri Granum|last4=Christen|first4=Markus|last5=Crafa|first5=Silvia|last6=Grau|first6=Oliver|last7=Kirchner|first7=Claude|last8=Knowles|first8=Bran|last9=McGettrick|first9=Andrew|last10=Tamburri|first10=Damian Andrew|last11=Werthner|first11=Hannes|year=2018|title=When Computers Decide: European Recommendations on Machine-Learned Automated Decision Making|url=https://dl.acm.org/doi/book/10.1145/3185595 |location=New York |publisher=Association for Computing Machinery|doi=10.1145/3185595}}</ref><ref>{{Cite journal|last1=Mökander|first1=Jakob|last2=Morley|first2=Jessica|last3=Taddeo|first3=Mariarosaria|last4=Floridi|first4=Luciano|date=2021-07-06|title=Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations|journal=Science and Engineering Ethics|language=en|volume=27|issue=4|pages=44|doi=10.1007/s11948-021-00319-4|issn=1471-5546|pmc=8260507|pmid=34231029|arxiv=2110.10980}}</ref>
 
 
== सिंहावलोकन ==
== सिंहावलोकन ==
शामिल स्वचालन के स्तर के आधार पर ADM की विभिन्न परिभाषाएँ हैं। कुछ परिभाषाओं से पता चलता है कि ADM में मानव इनपुट के बिना विशुद्ध रूप से तकनीकी साधनों के माध्यम से लिए गए निर्णय शामिल हैं,<ref>{{Cite report|last=UK Information Commissioner's Office|date=2021-09-24|title=यूके जनरल डेटा प्रोटेक्शन रेगुलेशन (यूके जीडीपीआर) के लिए गाइड|url=https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/|url-status=live|access-date=2021-10-05|website=|publisher=Information Commissioner's Office UK|language=en|archive-url=https://web.archive.org/web/20181221081725/https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/ |archive-date=2018-12-21 }}</ref> जैसे कि ईयू का [[सामान्य डेटा संरक्षण विनियम]] (अनुच्छेद 22)। हालाँकि, ADM प्रौद्योगिकियाँ और अनुप्रयोग [[निर्णय समर्थन प्रणाली]] से लेकर कई रूप ले सकते हैं। निर्णय-समर्थन प्रणालियाँ जो मानव निर्णय लेने वालों के लिए कार्रवाई करने के लिए सिफारिशें करती हैं, जिन्हें कभी-कभी संवर्धित बुद्धिमत्ता के रूप में जाना जाता है।<ref>{{Cite journal|date=2019-02-01|title=स्वास्थ्य देखभाल में संवर्धित बुद्धिमत्ता पर नीति बनाना|url=https://journalofethics.ama-assn.org/article/making-policy-augmented-intelligence-health-care/2019-02|journal=AMA Journal of Ethics|language=en|volume=21|issue=2|pages=E188–191|doi=10.1001/amajethics.2019.188|pmid=30794129|issn=2376-6980|last1=Crigger|first1=E.|last2=Khoury|first2=C.|s2cid=73490120}}</ref> या 'साझा निर्णय लेना',<ref name=":1" />पूरी तरह से स्वचालित निर्णय लेने की प्रक्रिया जो व्यक्तियों या संगठनों की ओर से मानवीय भागीदारी के बिना निर्णय लेती है।<ref name=":3" />स्वचालित निर्णय लेने वाली प्रणालियों में उपयोग किए जाने वाले मॉडल कृत्रिम बुद्धि और गहरे [[कृत्रिम तंत्रिका नेटवर्क]] (डीएनएन) के माध्यम से चेकलिस्ट और निर्णय पेड़ के रूप में सरल हो सकते हैं।
सम्मिलित स्वचालन के स्तर के आधार पर एडीएम की विभिन्न परिभाषाएँ हैं। कुछ परिभाषाओं से पता चलता है कि एडीएम में मानव इनपुट के बिना विशुद्ध रूप से तकनीकी साधनों के माध्यम से किए गए निर्णय सम्मिलित हैं<ref>{{Cite report|last=UK Information Commissioner's Office|date=2021-09-24|title=यूके जनरल डेटा प्रोटेक्शन रेगुलेशन (यूके जीडीपीआर) के लिए गाइड|url=https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/|url-status=live|access-date=2021-10-05|website=|publisher=Information Commissioner's Office UK|language=en|archive-url=https://web.archive.org/web/20181221081725/https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/ |archive-date=2018-12-21 }}</ref> जैसे कि यूरोपीय संघ के सामान्य डेटा संरक्षण विनियमन (अनुच्छेद 22)। हालांकि, एडीएम प्रौद्योगिकियां और अनुप्रयोग [[निर्णय समर्थन प्रणाली]] से लेकर कई रूप ले सकते हैं जो मानव निर्णय-निर्माताओं को कार्रवाई करने के लिए सिफारिशें करते हैं, जिन्हें कभी-कभी संवर्धित बुद्धिमत्ता [5] या 'साझा निर्णय लेने' के रूप में जाना जाता है, पूरी तरह से स्वचालित निर्णय लेने की प्रक्रिया जो मानव भागीदारी के बिना व्यक्तियों या संगठनों की ओर से निर्णय लेती है।<ref name=":3">{{Cite journal|last1=Araujo|first1=Theo|last2=Helberger|first2=Natali|last3=Kruikemeier|first3=Sanne|last4=de Vreese|first4=Claes H.|date=2020-09-01|title=In AI we trust? Perceptions about automated decision-making by artificial intelligence|journal=AI & Society|language=en|volume=35|issue=3|pages=611–623|doi=10.1007/s00146-019-00931-w|hdl=11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5|s2cid=209523258|issn=1435-5655|url=https://pure.uva.nl/ws/files/50211045/Araujo2020_Article_InAIWeTrustPerceptionsAboutAut.pdf }}</ref> स्वचालित निर्णय लेने वाली प्रणालियों में उपयोग किए जाने वाले मॉडल कृत्रिम बुद्धि और [[कृत्रिम तंत्रिका नेटवर्क]] (डीएनएन) के माध्यम से चेकलिस्ट और निर्णय पेड़ के रूप में सरल हो सकते हैं।


1950 के दशक के बाद से कंप्यूटर जटिल, अस्पष्ट और अत्यधिक कुशल कार्यों जैसे छवि और भाषण मान्यता, गेमप्ले, वैज्ञानिक और चिकित्सा विश्लेषण और कई डेटा स्रोतों में अनुमान लगाने की क्षमता रखने के लिए बुनियादी प्रसंस्करण करने में सक्षम होने से चले गए हैं। एडीएम अब समाज के सभी क्षेत्रों और मनोरंजन से लेकर परिवहन तक कई विविध डोमेन में तेजी से तैनात किया जा रहा है।
1950 के दशक के बाद से कंप्यूटर जटिल, अस्पष्ट और अत्यधिक कुशल कार्यों जैसे छवि और भाषण मान्यता, गेमप्ले, वैज्ञानिक और चिकित्सा विश्लेषण और कई डेटा स्रोतों में अनुमान लगाने की क्षमता रखने के लिए बुनियादी प्रसंस्करण करने में सक्षम होने से चले गए हैं। एडीएम अब समाज के सभी क्षेत्रों और मनोरंजन से लेकर परिवहन तक कई विविध डोमेन में तेजी से तैनात किया जा रहा है।


एक ADM प्रणाली (ADMS) में कई निर्णय बिंदु, डेटा सेट और प्रौद्योगिकियाँ (ADMT) शामिल हो सकती हैं और एक बड़ी प्रशासनिक या तकनीकी प्रणाली जैसे आपराधिक न्याय प्रणाली या व्यावसायिक प्रक्रिया के भीतर बैठ सकती हैं।
एक एडीएम प्रणाली (एडीएमएस) में कई निर्णय बिंदु, डेटा सेट और प्रौद्योगिकियाँ (एडीएमटी) सम्मिलित हो सकती हैं और एक बड़ी प्रशासनिक या तकनीकी प्रणाली जैसे आपराधिक न्याय प्रणाली या व्यावसायिक प्रक्रिया के भीतर बैठ सकती हैं।


== डेटा ==
== डेटा ==
स्वचालित निर्णय लेने में एक इनपुट के रूप में डेटा का उपयोग शामिल होता है, या तो एक प्रक्रिया, मॉडल या एल्गोरिथम के भीतर विश्लेषण किया जाता है, या नए मॉडल सीखने और उत्पन्न करने के लिए।<ref name=":8">{{Cite report |url=https://algorithmwatch.org/en/automating-society-2019/ |title=Automating Society 2019 |last=Algorithm Watch |date=2020 |language=en |access-date=2022-02-28 |website=Algorithm Watch}}</ref> ADM प्रणालियाँ सिस्टम के लक्ष्यों और संदर्भों के आधार पर डेटा प्रकारों और स्रोतों की एक विस्तृत श्रृंखला का उपयोग और कनेक्ट कर सकती हैं, उदाहरण के लिए सेल्फ-ड्राइविंग कारों और रोबोटिक्स के लिए सेंसर डेटा, सुरक्षा प्रणालियों के लिए पहचान डेटा, सार्वजनिक प्रशासन के लिए जनसांख्यिकीय और वित्तीय डेटा, स्वास्थ्य में चिकित्सा रिकॉर्ड, कानून में आपराधिक रिकॉर्ड। इसमें कभी-कभी बड़ी मात्रा में डेटा और कंप्यूटिंग शक्ति शामिल हो सकती है।
स्वचालित निर्णय लेने में एक इनपुट के रूप में डेटा का उपयोग सम्मिलित होता है, या तो एक प्रक्रिया, मॉडल या एल्गोरिथम के भीतर विश्लेषण किया जाता है, या सीखने और नए मॉडल बनाने के लिए।<ref name=":8">{{Cite report |url=https://algorithmwatch.org/en/automating-society-2019/ |title=Automating Society 2019 |last=Algorithm Watch |date=2020 |language=en |access-date=2022-02-28 |website=Algorithm Watch}}</ref> एडीएम प्रणालियाँ सिस्टम के लक्ष्यों और संदर्भों के आधार पर डेटा प्रकारों और स्रोतों की एक विस्तृत श्रृंखला का उपयोग और कनेक्ट कर सकती हैं, उदाहरण के लिए सेल्फ-ड्राइविंग कारों और रोबोटिक्स के लिए सेंसर डेटा, सुरक्षा प्रणालियों के लिए पहचान डेटा, सार्वजनिक प्रशासन के लिए जनसांख्यिकीय और वित्तीय डेटा, स्वास्थ्य में चिकित्सा रिकॉर्ड, कानून में आपराधिक रिकॉर्ड। इसमें कभी-कभी बड़ी मात्रा में डेटा और कंप्यूटिंग शक्ति सम्मिलित हो सकती है।


=== डेटा गुणवत्ता ===
=== डेटा गुणवत्ता ===
ADM सिस्टम में उपलब्ध और उपयोग किए जाने योग्य डेटा की गुणवत्ता परिणामों के लिए मौलिक है और कई कारणों से अक्सर अत्यधिक समस्याग्रस्त होती है। डेटासेट अक्सर अत्यधिक परिवर्तनशील होते हैं, बड़े पैमाने पर डेटा को निगमों या सरकारों द्वारा नियंत्रित किया जा सकता है, गोपनीयता या सुरक्षा कारणों से प्रतिबंधित, अपूर्ण, पक्षपाती, समय या कवरेज के मामले में सीमित, विभिन्न तरीकों से शर्तों को मापने और वर्णन करने और कई अन्य मुद्दे।
एडीएम सिस्टम में उपलब्ध और उपयोग किए जाने योग्य डेटा की गुणवत्ता परिणामों के लिए मौलिक है और कई कारणों से अक्सर अत्यधिक समस्याग्रस्त होती है। डेटासेट अक्सर अत्यधिक परिवर्तनशील होते हैं, बड़े पैमाने पर डेटा को निगमों या सरकारों द्वारा नियंत्रित किया जा सकता है, गोपनीयता या सुरक्षा कारणों से प्रतिबंधित, अधूरा, पक्षपाती, समय या कवरेज के मामले में सीमित, विभिन्न तरीकों से शर्तों को मापने और वर्णन करने और कई अन्य मुद्दे।
 
मशीनों को डेटा से सीखने के लिए, अक्सर बड़े कॉर्पस की आवश्यकता होती है जिसे प्राप्त करना या गणना करना मुश्किल हो सकता है, हालांकि जहां उपलब्ध हो, वहां महत्वपूर्ण सफलताएं प्रदान की हैं, उदाहरण के लिए छाती के एक्स-रे के निदान में।<ref>{{Cite journal|last1=Seah|first1=Jarrel C Y|last2=Tang|first2=Cyril H M|last3=Buchlak|first3=Quinlan D|last4=Holt|first4=Xavier G|last5=Wardman|first5=Jeffrey B|last6=Aimoldin|first6=Anuar|last7=Esmaili|first7=Nazanin|last8=Ahmad|first8=Hassan|last9=Pham|first9=Hung|last10=Lambert|first10=John F|last11=Hachey|first11=Ben|date=August 2021|title=Effect of a comprehensive deep-learning model on the accuracy of chest x-ray interpretation by radiologists: a retrospective, multireader multicase study|journal=The Lancet Digital Health|volume=3|issue=8|pages=e496–e506|doi=10.1016/s2589-7500(21)00106-0|pmid=34219054|s2cid=235735320|issn=2589-7500}}</ref>
 


डेटा से सीखने के लिए मशीनों के लिए, अक्सर बड़े कॉर्पस की आवश्यकता होती है जिसे प्राप्त करना या गणना करना जटिल हो सकता है, हालांकि जहां उपलब्ध है वहां महत्वपूर्ण सफलताएं प्रदान की हैं, उदाहरण के लिए छाती के एक्स-रे के निदान में।।<ref>{{Cite journal|last1=Seah|first1=Jarrel C Y|last2=Tang|first2=Cyril H M|last3=Buchlak|first3=Quinlan D|last4=Holt|first4=Xavier G|last5=Wardman|first5=Jeffrey B|last6=Aimoldin|first6=Anuar|last7=Esmaili|first7=Nazanin|last8=Ahmad|first8=Hassan|last9=Pham|first9=Hung|last10=Lambert|first10=John F|last11=Hachey|first11=Ben|date=August 2021|title=Effect of a comprehensive deep-learning model on the accuracy of chest x-ray interpretation by radiologists: a retrospective, multireader multicase study|journal=The Lancet Digital Health|volume=3|issue=8|pages=e496–e506|doi=10.1016/s2589-7500(21)00106-0|pmid=34219054|s2cid=235735320|issn=2589-7500}}</ref>
== एडीएम टेक्नोलॉजीज ==
== एडीएम टेक्नोलॉजीज ==
स्वचालित निर्णय लेने वाली प्रौद्योगिकियाँ (ADMT) सॉफ्टवेयर-कोडित डिजिटल उपकरण हैं जो स्वचालित निर्णय लेने वाली प्रणालियों के कार्य में योगदान करते हुए, आउटपुट डेटा में इनपुट डेटा के अनुवाद को स्वचालित करते हैं।<ref name=":8" />एडीएम अनुप्रयोगों और प्रणालियों में उपयोग की जाने वाली तकनीकों की एक विस्तृत श्रृंखला है।
स्वचालित निर्णय लेने वाली प्रौद्योगिकियां (एडीएमटी) सॉफ्टवेयर-कोडित डिजिटल उपकरण हैं जो स्वचालित निर्णय लेने वाली प्रणालियों के कार्य में योगदान करते हुए इनपुट डेटा को आउटपुट डेटा में अनुवाद को स्वचालित करती हैं।<ref name=":8" /> एडीएम अनुप्रयोगों और प्रणालियों में उपयोग की जाने वाली तकनीकों की एक विस्तृत श्रृंखला है।


ADMTs में बुनियादी कम्प्यूटेशनल ऑपरेशन शामिल हैं
एडीएमटीs में बुनियादी कम्प्यूटेशनल ऑपरेशन सम्मिलित हैं


* खोज (1-2-1, 1-2-कई, डेटा मिलान/मर्ज शामिल है)
* खोज (1-2-1, 1-2-कई, डेटा मिलान/मर्ज सम्मिलित है)
* मिलान (दो अलग-अलग चीजें)
* मिलान (दो अलग-अलग चीजें)
* गणितीय गणना (सूत्र)
* गणितीय गणना (सूत्र)


मूल्यांकन और समूहीकरण के लिए ADMTs:
मूल्यांकन और समूहीकरण के लिए एडीएमटीs:


* [[उपयोगकर्ता रूपरेखा]]
* [[उपयोगकर्ता रूपरेखा]]
Line 35: Line 31:
* [[वर्गीकरण]]
* [[वर्गीकरण]]
* [[फ़ीचर लर्निंग]]
* [[फ़ीचर लर्निंग]]
* भविष्य कहनेवाला विश्लेषण (पूर्वानुमान शामिल है)
* भविष्य कहनेवाला विश्लेषण (पूर्वानुमान सम्मिलित है)


अंतरिक्ष और प्रवाह से संबंधित ADMTs:
अंतरिक्ष और प्रवाह से संबंधित एडीएमटीs:


* सोशल नेटवर्क विश्लेषण (लिंक भविष्यवाणी शामिल है)
* सोशल नेटवर्क विश्लेषण (लिंक भविष्यवाणी सम्मिलित है)
* मैपिंग
* मैपिंग
* [[मार्ग]]
* [[मार्ग]]


ADMTs जटिल डेटा स्वरूपों के प्रसंस्करण के लिए
एडीएमटीs जटिल डेटा स्वरूपों के प्रसंस्करण के लिए


* [[डिजिटल इमेज प्रोसेसिंग]]
* [[डिजिटल इमेज प्रोसेसिंग]]
* ऑडियो प्रोसेसिंग
* ऑडियो प्रोसेसिंग
* नेचुरल लैंग्वेज प्रोसेसिंग | नेचुरल लैंग्वेज प्रोसेसिंग (NLP)
* नेचुरल लैंग्वेज प्रोसेसिंग | नेचुरल लैंग्वेज प्रोसेसिंग (एनएलपी)


अन्य ए.डी.एम.टी
अन्य ए.डी.एम.टी
Line 57: Line 53:


=== मशीन लर्निंग ===
=== मशीन लर्निंग ===
{{Main|Machine learning}}
{{Main|मशीन लर्निंग}}


मशीन लर्निंग (एमएल) में अनुभव से सीखने और समस्याओं को हल करने के लिए बड़े डेटा सेट और उदाहरणों के संपर्क के माध्यम से कंप्यूटर प्रोग्राम का प्रशिक्षण शामिल है।<ref name=":1" />मशीन लर्निंग का उपयोग डेटा उत्पन्न करने और उसका विश्लेषण करने के साथ-साथ एल्गोरिथम गणना करने के लिए किया जा सकता है और छवि और वाक् पहचान, अनुवाद, पाठ, डेटा और सिमुलेशन पर लागू किया गया है। जबकि मशीन लर्निंग कुछ समय के लिए आसपास रहा है, यह गहरे तंत्रिका नेटवर्क (DNNs) के प्रशिक्षण में हाल की सफलताओं के कारण तेजी से शक्तिशाली होता जा रहा है, और GPU कोप्रोसेसर और क्लाउड कंप्यूटिंग के साथ डेटा भंडारण क्षमता और कम्प्यूटेशनल शक्ति में नाटकीय वृद्धि हुई है।<ref name=":1" />
मशीन लर्निंग (एमएल) में अनुभव से सीखने और समस्याओं को हल करने के लिए बड़े डेटा सेट और उदाहरणों के माध्यम से कंप्यूटर प्रोग्राम का प्रशिक्षण सम्मिलित है।<ref name=":1" /> मशीन लर्निंग का उपयोग डेटा उत्पन्न करने और उसका विश्लेषण करने के साथ-साथ एल्गोरिथम गणना करने के लिए किया जा सकता है और छवि और वाक् पहचान, अनुवाद, पाठ, डेटा और सिमुलेशन पर लागू किया गया है। जबकि मशीन लर्निंग कुछ समय के लिए आसपास रहा है, यह गहरे तंत्रिका नेटवर्क (डीएनएन) के प्रशिक्षण में हाल की सफलताओं के कारण तेजी से शक्तिशाली होता जा रहा है, और जीपीयू कोप्रोसेसरों और क्लाउड कंप्यूटिंग के साथ डेटा भंडारण क्षमता और कम्प्यूटेशनल शक्ति में नाटकीय वृद्धि हुई है।<ref name=":1" />


फाउंडेशन मॉडल पर आधारित मशीन लर्निंग सिस्टम गहरे तंत्रिका नेटवर्क पर चलते हैं और बड़ी मात्रा में सामान्य डेटा जैसे पाठ और छवियों पर एकल विशाल प्रणाली को प्रशिक्षित करने के लिए पैटर्न मिलान का उपयोग करते हैं। शुरुआती मॉडल प्रत्येक नई समस्या के लिए खरोंच से शुरू करने की प्रवृत्ति रखते थे, हालांकि 2020 की शुरुआत से कई नई समस्याओं के अनुकूल होने में सक्षम हैं।<ref name=":9">{{Cite web |last1=Snoswell |first1=Aaron J. |last2=Hunter |first2=Dan |date=13 April 2022 |title=Robots are creating images and telling jokes. 5 things to know about foundation models and the next generation of AI |url=http://theconversation.com/robots-are-creating-images-and-telling-jokes-5-things-to-know-about-foundation-models-and-the-next-generation-of-ai-181150 |access-date=2022-04-21 |website= |publisher=The Conversation |language=en}}</ref> इन तकनीकों के उदाहरणों में OpenAI|Open AI का [[DALL-E]] (एक छवि निर्माण कार्यक्रम) और उनके विभिन्न जनरेटिव पूर्व-प्रशिक्षित ट्रांसफार्मर भाषा मॉडल और Google का PaLM भाषा मॉडल कार्यक्रम शामिल हैं।
फाउंडेशन मॉडल पर आधारित मशीन लर्निंग सिस्टम गहरे तंत्रिका नेटवर्क पर चलते हैं और बड़ी मात्रा में सामान्य डेटा जैसे पाठ और छवियों पर एकल विशाल प्रणाली को प्रशिक्षित करने के लिए पैटर्न मिलान का उपयोग करते हैं। शुरुआती मॉडल में प्रत्येक नई समस्या के लिए खरोंच से शुरू करने की प्रवृत्ति थी, हालांकि 2020 की शुरुआत से कई नई समस्याओं के अनुकूल होने में सक्षम हैं।<ref name=":9">{{Cite web |last1=Snoswell |first1=Aaron J. |last2=Hunter |first2=Dan |date=13 April 2022 |title=Robots are creating images and telling jokes. 5 things to know about foundation models and the next generation of AI |url=http://theconversation.com/robots-are-creating-images-and-telling-jokes-5-things-to-know-about-foundation-models-and-the-next-generation-of-ai-181150 |access-date=2022-04-21 |website= |publisher=The Conversation |language=en}}</ref> इन तकनीकों के उदाहरणों में Open AI का DALL-E (एक छवि निर्माण कार्यक्रम) और उनके विभिन्न GPT भाषा मॉडल और Google का PaLM भाषा मॉडल कार्यक्रम सम्मिलित हैं।


== अनुप्रयोग ==
== अनुप्रयोग ==
ADM का उपयोग सार्वजनिक और निजी दोनों क्षेत्रों के संगठनों द्वारा मानव निर्णय लेने को बदलने या बढ़ाने के लिए कई कारणों से किया जा रहा है, जिसमें निरंतरता बढ़ाने, दक्षता में सुधार करने, लागत कम करने और जटिल समस्याओं के नए समाधानों को सक्षम करने में मदद करना शामिल है।<ref>{{Cite journal|last1=Taddeo|first1=Mariarosaria|last2=Floridi|first2=Luciano|date=2018-08-24|title=एआई अच्छे के लिए एक ताकत कैसे हो सकता है|journal=Science|language=en|volume=361|issue=6404|pages=751–752|doi=10.1126/science.aat5991|pmid=30139858|bibcode=2018Sci...361..751T|s2cid=52075037|issn=0036-8075|doi-access=free}}</ref>
एडीएम का उपयोग सार्वजनिक और निजी दोनों क्षेत्रों के संगठनों द्वारा मानव निर्णय लेने को बदलने या बढ़ाने के लिए कई कारणों से किया जा रहा है, जिसमें निरंतरता बढ़ाने, दक्षता में सुधार करने, लागत कम करने और जटिल समस्याओं के नए समाधानों को सक्षम करने में मदद करना सम्मिलित है।<ref>{{Cite journal|last1=Taddeo|first1=Mariarosaria|last2=Floridi|first2=Luciano|date=2018-08-24|title=एआई अच्छे के लिए एक ताकत कैसे हो सकता है|journal=Science|language=en|volume=361|issue=6404|pages=751–752|doi=10.1126/science.aat5991|pmid=30139858|bibcode=2018Sci...361..751T|s2cid=52075037|issn=0036-8075|doi-access=free}}</ref>
 
 
=== बहस ===
=== बहस ===
तर्क गुणवत्ता का आकलन करने के लिए प्रौद्योगिकी के उपयोग में अनुसंधान और विकास चल रहा है,<ref>{{cite conference |title=प्राकृतिक भाषा में कम्प्यूटेशनल तर्क गुणवत्ता मूल्यांकन|last1=Wachsmuth |first1=Henning |last2=Naderi |first2=Nona |last3=Hou |first3=Yufang |last4=Bilu |first4=Yonatan |last5=Prabhakaran |first5=Vinodkumar |last6=Thijm |first6=Tim |last7=Hirst |first7=Graema |last8=Stein |first8=Benno |date=2017 |book-title=Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics |pages=176–187|url=https://aclanthology.org/E17-1017.pdf}}</ref><ref>{{cite conference |title=Argumentation quality assessment: Theory vs. practice |last1=Wachsmuth |first1=Henning |last2=Naderi |first2=Nona |last3=Habernal |first3=Ivan |last4=Hou |first4=Yufang |last5=Hirst |first5=Graeme |last6=Gurevych |first6=Iryna |last7=Stein |first7=Benno |date=2017 |book-title=Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics |pages=250–255|url=https://aclanthology.org/P17-2039.pdf}}</ref><ref>{{cite conference |title=A large-scale dataset for argument quality ranking: Construction and analysis |last1=Gretz |first1=Shai |last2=Friedman |first2=Roni |last3=Cohen-Karlik |first3=Edo |last4=Toledo |first4=Assaf |last5=Lahav |first5=Dan |last6=Aharonov |first6=Ranit |last7=Slonim |first7=Noam |date=2020 |book-title=Proceedings of the AAAI Conference on Artificial Intelligence |volume=34 |number=5 |pages=7805–7813|url=https://ojs.aaai.org/index.php/AAAI/article/view/6285/6141}}</ref> तर्कपूर्ण निबंधों का आकलन करें<ref>{{cite conference |title=छात्र तर्कों के स्वचालित विश्लेषण की ओर|last1=Green |first1=Nancy |date=2013 |publisher=Springer |book-title=International Conference on Artificial Intelligence in Education |pages=591–594|url=https://link.springer.com/chapter/10.1007/978-3-642-39112-5_66}}</ref><ref>{{cite conference |title=छात्र निबंधों में मॉडलिंग तर्क शक्ति|last1=Persing |first1=Isaac |last2=Ng |first2=Vincent |date=2015 |book-title=Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing |pages=543–552|url=https://aclanthology.org/P15-1053.pdf}}</ref> और न्यायाधीश बहस।<ref>{{cite conference |title=सफल वाद-विवाद करने वालों का एक मल्टीमॉडल प्रेडिक्टिव मॉडल या मैंने कैसे वोटों को प्रभावित करना सीखा|last1=Brilman |first1=Maarten |last2=Scherer |first2=Stefan |date=2015 |book-title=Proceedings of the 23rd ACM international conference on Multimedia |pages=149–158|url=https://dl.acm.org/doi/pdf/10.1145/2733373.2806245}}</ref><ref>{{cite conference |title=Towards debate automation: a recurrent model for predicting debate winners |last1=Potash |first1=Peter |last2=Rumshisky |first2=Anna |date=2017 |book-title=Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing |pages=2465–2475|url=https://aclanthology.org/D17-1261.pdf}}</ref><ref>{{cite conference |title=राजनीतिक बहसों में दर्शकों की छाप की बहुविध भविष्यवाणी|last1=Santos |first1=Pedro |last2=Gurevych |first2=Iryna |date=2018 |book-title=Proceedings of the 20th International Conference on Multimodal Interaction |pages=1–6|url=https://dl.acm.org/doi/abs/10.1145/3281151.3281157}}</ref><ref>{{cite journal |title=Winning on the merits: The joint effects of content and style on debate outcomes |last1=Wang |first1=Lu |last2=Beauchamp |first2=Nick |last3=Shugars |first3=Sarah |last4=Qin |first4=Kechen |journal=Transactions of the Association for Computational Linguistics |volume=5 |date=2017 |pages=219–232 |publisher=MIT Press|doi=10.1162/tacl_a_00057 |s2cid=27803846 }}</ref> इन तर्क प्रौद्योगिकी के संभावित अनुप्रयोग शिक्षा और समाज तक फैले हुए हैं। इस संबंध में जिन परिदृश्यों पर विचार किया जाना है, उनमें तर्क सिद्धांत का मूल्यांकन और मूल्यांकन शामिल है#बातचीत तर्कशास्त्र, तर्कवाद सिद्धांत#गणितीय तर्कशास्त्र, तर्कशास्त्र सिद्धांत#वैज्ञानिक तर्कशास्त्र, तर्क सिद्धांत#व्याख्यात्मक तर्कशास्त्र, तर्कशास्त्र सिद्धांत#कानूनी तर्कशास्त्र, और तर्क सिद्धांत# राजनीतिक तर्क तर्क और बहस।
तर्क की गुणवत्ता का आकलन करने के लिए प्रौद्योगिकी के उपयोग में अनुसंधान और विकास चल रहा है,<ref>{{cite conference |title=प्राकृतिक भाषा में कम्प्यूटेशनल तर्क गुणवत्ता मूल्यांकन|last1=Wachsmuth |first1=Henning |last2=Naderi |first2=Nona |last3=Hou |first3=Yufang |last4=Bilu |first4=Yonatan |last5=Prabhakaran |first5=Vinodkumar |last6=Thijm |first6=Tim |last7=Hirst |first7=Graema |last8=Stein |first8=Benno |date=2017 |book-title=Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics |pages=176–187|url=https://aclanthology.org/E17-1017.pdf}}</ref><ref>{{cite conference |title=Argumentation quality assessment: Theory vs. practice |last1=Wachsmuth |first1=Henning |last2=Naderi |first2=Nona |last3=Habernal |first3=Ivan |last4=Hou |first4=Yufang |last5=Hirst |first5=Graeme |last6=Gurevych |first6=Iryna |last7=Stein |first7=Benno |date=2017 |book-title=Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics |pages=250–255|url=https://aclanthology.org/P17-2039.pdf}}</ref><ref>{{cite conference |title=A large-scale dataset for argument quality ranking: Construction and analysis |last1=Gretz |first1=Shai |last2=Friedman |first2=Roni |last3=Cohen-Karlik |first3=Edo |last4=Toledo |first4=Assaf |last5=Lahav |first5=Dan |last6=Aharonov |first6=Ranit |last7=Slonim |first7=Noam |date=2020 |book-title=Proceedings of the AAAI Conference on Artificial Intelligence |volume=34 |number=5 |pages=7805–7813|url=https://ojs.aaai.org/index.php/AAAI/article/view/6285/6141}}</ref> तर्कपूर्ण निबंधों का आकलन<ref>{{cite conference |title=छात्र तर्कों के स्वचालित विश्लेषण की ओर|last1=Green |first1=Nancy |date=2013 |publisher=Springer |book-title=International Conference on Artificial Intelligence in Education |pages=591–594|url=https://link.springer.com/chapter/10.1007/978-3-642-39112-5_66}}</ref><ref>{{cite conference |title=छात्र निबंधों में मॉडलिंग तर्क शक्ति|last1=Persing |first1=Isaac |last2=Ng |first2=Vincent |date=2015 |book-title=Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing |pages=543–552|url=https://aclanthology.org/P15-1053.pdf}}</ref> और निर्णायक बहसें।<ref>{{cite conference |title=सफल वाद-विवाद करने वालों का एक मल्टीमॉडल प्रेडिक्टिव मॉडल या मैंने कैसे वोटों को प्रभावित करना सीखा|last1=Brilman |first1=Maarten |last2=Scherer |first2=Stefan |date=2015 |book-title=Proceedings of the 23rd ACM international conference on Multimedia |pages=149–158|url=https://dl.acm.org/doi/pdf/10.1145/2733373.2806245}}</ref><ref>{{cite conference |title=Towards debate automation: a recurrent model for predicting debate winners |last1=Potash |first1=Peter |last2=Rumshisky |first2=Anna |date=2017 |book-title=Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing |pages=2465–2475|url=https://aclanthology.org/D17-1261.pdf}}</ref><ref>{{cite conference |title=राजनीतिक बहसों में दर्शकों की छाप की बहुविध भविष्यवाणी|last1=Santos |first1=Pedro |last2=Gurevych |first2=Iryna |date=2018 |book-title=Proceedings of the 20th International Conference on Multimodal Interaction |pages=1–6|url=https://dl.acm.org/doi/abs/10.1145/3281151.3281157}}</ref><ref>{{cite journal |title=Winning on the merits: The joint effects of content and style on debate outcomes |last1=Wang |first1=Lu |last2=Beauchamp |first2=Nick |last3=Shugars |first3=Sarah |last4=Qin |first4=Kechen |journal=Transactions of the Association for Computational Linguistics |volume=5 |date=2017 |pages=219–232 |publisher=MIT Press|doi=10.1162/tacl_a_00057 |s2cid=27803846 }}</ref> इन तर्क तकनीकों के संभावित अनुप्रयोग शिक्षा और समाज तक फैले हुए हैं। इस संबंध में जिन परिदृश्यों पर विचार किया जाना है, उनमें संवादी, गणितीय, वैज्ञानिक, व्याख्यात्मक, कानूनी और राजनीतिक तर्क-वितर्क और वाद-विवाद का मूल्यांकन और मूल्यांकन सम्मिलित है।


=== कानून ===
=== कानून ===
दुनिया भर में [[राष्ट्रीय कानूनी प्रणालियों की सूची]] में, कई संदर्भों में न्यायाधीशों, सिविल सेवकों और पुलिस अधिकारियों के मानवीय निर्णय को पूरक या बदलने के लिए एल्गोरिथम उपकरण जैसे [[जोखिम मूल्यांकन उपकरण]] (RAI) का उपयोग किया जा रहा है।<ref name=":2">{{Cite book|last=Chohlas-Wood|first=Alex|url=https://www.brookings.edu/research/understanding-risk-assessment-instruments-in-criminal-justice/|title=आपराधिक न्याय में जोखिम मूल्यांकन उपकरणों को समझना|publisher=Brookings Institution|year=2020}}</ref> संयुक्त राज्य अमेरिका में RAI का उपयोग पूर्व-परीक्षण निरोध और सजा के निर्णयों में पुनरावृत्ति के जोखिम की भविष्यवाणी करने के लिए स्कोर उत्पन्न करने के लिए किया जा रहा है,<ref>{{Cite web|last1=Angwin|first1=Julia|author-link=Julia Angwin|last2=Larson|first2=Jeff|last3=Mattu|first3=Surya|date=23 May 2016|title=मशीन पूर्वाग्रह|url=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing?token=kEFLF-0TKt0pC8fA7TbUZGFrm2mn5Ihm|url-status=live|access-date=2021-10-04|website=ProPublica|language=en|archive-url=https://web.archive.org/web/20211004235752/https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing?token=kEFLF-0TKt0pC8fA7TbUZGFrm2mn5Ihm |archive-date=2021-10-04 }}</ref> कैदियों के लिए पैरोल का मूल्यांकन करना और भविष्य के अपराध के लिए हॉट स्पॉट की भविष्यवाणी करना।<ref>{{Cite journal|last=Nissan|first=Ephraim|date=2017-08-01|title=डिजिटल तकनीक और आर्टिफिशियल इंटेलिजेंस का लॉयरिंग, जजिंग, पुलिसिंग और कानून प्रवर्तन पर वर्तमान और दूरदर्शितापूर्ण प्रभाव|journal=AI & Society|language=en|volume=32|issue=3|pages=441–464|doi=10.1007/s00146-015-0596-5|s2cid=21115049|issn=1435-5655}}</ref><ref>{{Cite journal|last1=Dressel|first1=Julia|last2=Farid|first2=Hany|title=वैराग्यवाद की भविष्यवाणी करने की सटीकता, निष्पक्षता और सीमाएं|journal=Science Advances|year=2018|volume=4|issue=1|pages=eaao5580|doi=10.1126/sciadv.aao5580|pmc=5777393|pmid=29376122|bibcode=2018SciA....4.5580D}}</ref><ref>{{Cite book|last=Ferguson|first=Andrew Guthrie|title=The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement|publisher=NYU Press|year=2017|isbn=9781479869978|location=New York}}</ref> इन अंकों के परिणामस्वरूप स्वत: प्रभाव हो सकता है या न्याय प्रणाली के भीतर अधिकारियों द्वारा किए गए निर्णयों को सूचित करने के लिए उपयोग किया जा सकता है।<ref name=":2" />कनाडा में ADM का उपयोग 2014 से आव्रजन अधिकारियों द्वारा संचालित कुछ गतिविधियों को स्वचालित करने और कुछ आप्रवासी और आगंतुक अनुप्रयोगों के मूल्यांकन का समर्थन करने के लिए किया गया है।<ref name=":0">{{Cite book |last1=Molnar|first1=Petra|last2=Gill|first2=Lex|date=2018|title=Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada's Immigration and Refugee System|url=https://tspace.library.utoronto.ca/handle/1807/94802 |language=en-ca|publisher=Citizen Lab and International Human Rights Program (Faculty of Law, University of Toronto)}}</ref>
दुनिया भर की [[राष्ट्रीय कानूनी प्रणालियों की सूची]] में, कई संदर्भों में न्यायाधीशों, सिविल सेवकों और पुलिस अधिकारियों के मानवीय निर्णय को पूरक या बदलने के लिए एल्गोरिथम उपकरण जैसे जोखिम मूल्यांकन उपकरण (RAI) का उपयोग किया जा रहा है।<ref name=":2">{{Cite book|last=Chohlas-Wood|first=Alex|url=https://www.brookings.edu/research/understanding-risk-assessment-instruments-in-criminal-justice/|title=आपराधिक न्याय में जोखिम मूल्यांकन उपकरणों को समझना|publisher=Brookings Institution|year=2020}}</ref> संयुक्त राज्य अमेरिका में RAI का उपयोग पूर्व-परीक्षण निरोध और सजा के फैसले में पुनरावृत्ति के जोखिम की भविष्यवाणी करने के लिए स्कोर उत्पन्न करने के लिए किया जा रहा है<ref>{{Cite web|last1=Angwin|first1=Julia|author-link=Julia Angwin|last2=Larson|first2=Jeff|last3=Mattu|first3=Surya|date=23 May 2016|title=मशीन पूर्वाग्रह|url=https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing?token=kEFLF-0TKt0pC8fA7TbUZGFrm2mn5Ihm|url-status=live|access-date=2021-10-04|website=ProPublica|language=en|archive-url=https://web.archive.org/web/20211004235752/https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing?token=kEFLF-0TKt0pC8fA7TbUZGFrm2mn5Ihm |archive-date=2021-10-04 }}</ref> कैदियों के लिए पैरोल का मूल्यांकन और भविष्य के अपराध के लिए "हॉट स्पॉट" की भविष्यवाणी करने के लिए।<ref>{{Cite journal|last=Nissan|first=Ephraim|date=2017-08-01|title=डिजिटल तकनीक और आर्टिफिशियल इंटेलिजेंस का लॉयरिंग, जजिंग, पुलिसिंग और कानून प्रवर्तन पर वर्तमान और दूरदर्शितापूर्ण प्रभाव|journal=AI & Society|language=en|volume=32|issue=3|pages=441–464|doi=10.1007/s00146-015-0596-5|s2cid=21115049|issn=1435-5655}}</ref><ref>{{Cite journal|last1=Dressel|first1=Julia|last2=Farid|first2=Hany|title=वैराग्यवाद की भविष्यवाणी करने की सटीकता, निष्पक्षता और सीमाएं|journal=Science Advances|year=2018|volume=4|issue=1|pages=eaao5580|doi=10.1126/sciadv.aao5580|pmc=5777393|pmid=29376122|bibcode=2018SciA....4.5580D}}</ref><ref>{{Cite book|last=Ferguson|first=Andrew Guthrie|title=The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement|publisher=NYU Press|year=2017|isbn=9781479869978|location=New York}}</ref> इन अंकों के परिणामस्वरूप स्वत: प्रभाव हो सकता है या न्याय प्रणाली के भीतर अधिकारियों द्वारा किए गए निर्णयों को सूचित करने के लिए उपयोग किया जा सकता है।<ref name=":2" /> कनाडा में 2014 से एडीएम का उपयोग आव्रजन अधिकारियों द्वारा संचालित कुछ गतिविधियों को स्वचालित करने और कुछ आप्रवासी और आगंतुक अनुप्रयोगों के मूल्यांकन का समर्थन करने के लिए किया गया है।<ref name=":0">{{Cite book |last1=Molnar|first1=Petra|last2=Gill|first2=Lex|date=2018|title=Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada's Immigration and Refugee System|url=https://tspace.library.utoronto.ca/handle/1807/94802 |language=en-ca|publisher=Citizen Lab and International Human Rights Program (Faculty of Law, University of Toronto)}}</ref>
 
 
=== अर्थशास्त्र ===
=== अर्थशास्त्र ===
स्वचालित ट्रेडिंग सिस्टम ऑर्डर खरीदने और बेचने के लिए कंप्यूटर प्रोग्राम का उपयोग करते हैं और स्वचालित रूप से [[ [[शेयर बाजार]] ]] या स्टॉक एक्सचेंज को ऑर्डर सबमिट करते हैं। कंप्यूटर प्रोग्राम स्वचालित रूप से ट्रेडिंग रणनीतियों का उपयोग करके नियमों के पूर्वनिर्धारित सेट के आधार पर आदेश उत्पन्न कर सकते हैं जो तकनीकी विश्लेषण, उन्नत सांख्यिकीय और गणितीय संगणना, या अन्य इलेक्ट्रॉनिक स्रोतों से इनपुट पर आधारित हैं।
ऑटोमेटेड ट्रेडिंग सिस्टम ऑर्डर खरीदने और बेचने के लिए कंप्यूटर प्रोग्राम का उपयोग करते हैं और स्वचालित रूप से मार्केट सेंटर या एक्सचेंजों को ऑर्डर सबमिट करते हैं। कंप्यूटर प्रोग्राम स्वचालित रूप से ट्रेडिंग रणनीतियों का उपयोग करके नियमों के पूर्वनिर्धारित सेट के आधार पर आदेश उत्पन्न कर सकते हैं जो तकनीकी विश्लेषण, उन्नत सांख्यिकीय और गणितीय संगणना, या अन्य इलेक्ट्रॉनिक स्रोतों से इनपुट पर आधारित हैं।


=== व्यवसाय ===
=== व्यवसाय ===


==== सतत लेखापरीक्षा ====
==== सतत लेखापरीक्षा ====
निरंतर [[ अंकेक्षण ]]िंग ऑडिट प्रक्रियाओं को स्वचालित करने के लिए उन्नत विश्लेषणात्मक उपकरणों का उपयोग करती है। इसका उपयोग निजी क्षेत्र में व्यावसायिक उद्यमों द्वारा और सार्वजनिक क्षेत्र में सरकारी संगठनों और नगर पालिकाओं द्वारा किया जा सकता है।<ref>{{cite conference |title=नगर पालिकाओं में सतत निगरानी और लेखा परीक्षा|last1=Ezzamouri |first1=Naoual |last2=Hulstijn |first2=Joris |date=2018 |book-title=Proceedings of the 19th Annual International Conference on Digital Government Research: Governance in the Data Age |pages=1-10|url=https://dl.acm.org/doi/pdf/10.1145/3209281.3209301}}</ref> जैसा कि आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग का विकास जारी है, लेखाकार और लेखा परीक्षक तेजी से परिष्कृत एल्गोरिदम का उपयोग कर सकते हैं जो निर्णय लेते हैं जैसे कि यह निर्धारित करना कि क्या असंगत है, क्या कर्मियों को सूचित करना है, और कर्मियों को सौंपे गए कार्यों को कैसे प्राथमिकता देना है।
निरंतर ऑडिटिंग ऑडिटिंग प्रक्रियाओं को स्वचालित करने के लिए उन्नत विश्लेषणात्मक उपकरणों का उपयोग करती है। इसका उपयोग निजी क्षेत्र में व्यावसायिक उद्यमों द्वारा और सार्वजनिक क्षेत्र में सरकारी संगठनों और नगर पालिकाओं द्वारा किया जा सकता है।<ref>{{cite conference |title=नगर पालिकाओं में सतत निगरानी और लेखा परीक्षा|last1=Ezzamouri |first1=Naoual |last2=Hulstijn |first2=Joris |date=2018 |book-title=Proceedings of the 19th Annual International Conference on Digital Government Research: Governance in the Data Age |pages=1-10|url=https://dl.acm.org/doi/pdf/10.1145/3209281.3209301}}</ref> जैसा कि आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग का विकास जारी है, लेखाकार और लेखा परीक्षक तेजी से परिष्कृत एल्गोरिदम का उपयोग कर सकते हैं जो निर्णय लेते हैं जैसे कि यह निर्धारित करना कि क्या असंगत है, क्या कर्मियों को सूचित करना है, और कर्मियों को सौंपे गए कार्यों को कैसे प्राथमिकता देना है।


=== मीडिया और मनोरंजन ===
=== मीडिया और मनोरंजन ===
डिजिटल मीडिया, मनोरंजन प्लेटफॉर्म और सूचना सेवाएं जनसांख्यिकीय जानकारी, पिछले चयन, सहयोगी फ़िल्टरिंग या सामग्री-आधारित फ़िल्टरिंग के आधार पर स्वचालित अनुशंसा प्रणाली के माध्यम से दर्शकों को तेजी से सामग्री प्रदान करती हैं।<ref name=":6">{{Cite journal|last=Thomas|first=Julian|date=2018|title=Programming, filtering, adblocking: advertising and media automation|url=http://journals.sagepub.com/doi/10.1177/1329878X17738787|journal=Media International Australia|language=en|volume=166|issue=1|pages=34–43|doi=10.1177/1329878X17738787|s2cid=149139944 |issn=1329-878X|id=Q110607881}}</ref> इसमें संगीत और वीडियो प्लेटफॉर्म, प्रकाशन, स्वास्थ्य सूचना, उत्पाद डेटाबेस और सर्च इंजन शामिल हैं। कई सिफ़ारिशकर्ता प्रणालियाँ अनुशंसाओं को स्वीकार करने में उपयोगकर्ताओं को कुछ एजेंसी भी प्रदान करती हैं और सिस्टम उपयोगकर्ता के कार्यों के आधार पर डेटा-संचालित एल्गोरिथम फीडबैक लूप शामिल करती हैं।<ref name=":3">{{Cite journal|last1=Araujo|first1=Theo|last2=Helberger|first2=Natali|last3=Kruikemeier|first3=Sanne|last4=de Vreese|first4=Claes H.|date=2020-09-01|title=In AI we trust? Perceptions about automated decision-making by artificial intelligence|journal=AI & Society|language=en|volume=35|issue=3|pages=611–623|doi=10.1007/s00146-019-00931-w|hdl=11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5|s2cid=209523258|issn=1435-5655|url=https://pure.uva.nl/ws/files/50211045/Araujo2020_Article_InAIWeTrustPerceptionsAboutAut.pdf }}</ref>
डिजिटल मीडिया, मनोरंजन प्लेटफॉर्म और सूचना सेवाएं जनसांख्यिकीय जानकारी, पिछले चयनों, सहयोगी फ़िल्टरिंग या सामग्री-आधारित फ़िल्टरिंग के आधार पर स्वचालित अनुशंसा प्रणाली के माध्यम से दर्शकों को तेजी से सामग्री प्रदान करती हैं।<ref name=":6">{{Cite journal|last=Thomas|first=Julian|date=2018|title=Programming, filtering, adblocking: advertising and media automation|url=http://journals.sagepub.com/doi/10.1177/1329878X17738787|journal=Media International Australia|language=en|volume=166|issue=1|pages=34–43|doi=10.1177/1329878X17738787|s2cid=149139944 |issn=1329-878X|id=Q110607881}}</ref> इसमें संगीत और वीडियो प्लेटफॉर्म, प्रकाशन, स्वास्थ्य सूचना, उत्पाद डेटाबेस और सर्च इंजन सम्मिलित हैं। कई सिफ़ारिशकर्ता प्रणालियाँ अनुशंसाओं को स्वीकार करने में उपयोगकर्ताओं को कुछ एजेंसी भी प्रदान करती हैं और सिस्टम उपयोगकर्ता के कार्यों के आधार पर डेटा-संचालित एल्गोरिथम फीडबैक लूप सम्मिलित करती हैं।<ref name=":3" />
 
2020 में OpenAI और Google जैसी कंपनियों द्वारा बड़े पैमाने पर मशीन लर्निंग लैंग्वेज मॉडल और इमेज क्रिएशन प्रोग्राम विकसित किए जा रहे हैं, जिनकी पहुंच प्रतिबंधित है, हालांकि विज्ञापन, कॉपी राइटिंग, स्टॉक इमेजरी और ग्राफिक डिज़ाइन जैसे क्षेत्रों में उनके व्यापक प्रसार की संभावना है। पत्रकारिता और कानून जैसे अन्य क्षेत्रों के रूप में।<ref name=":9" />
2020 में OpenAI और Google जैसी कंपनियों द्वारा बड़े पैमाने पर मशीन लर्निंग लैंग्वेज मॉडल और इमेज क्रिएशन प्रोग्राम विकसित किए जा रहे हैं, जिनकी पहुंच प्रतिबंधित है, हालांकि विज्ञापन, कॉपी राइटिंग, स्टॉक इमेजरी और ग्राफिक डिज़ाइन जैसे क्षेत्रों में उनके व्यापक प्रसार की संभावना है। पत्रकारिता और कानून जैसे अन्य क्षेत्रों के रूप में।<ref name=":9" />
=== विज्ञापन ===
=== विज्ञापन ===
ऑनलाइन विज्ञापन कई डिजिटल मीडिया प्लेटफार्मों, वेबसाइटों और खोज इंजनों के साथ घनिष्ठ रूप से जुड़ा हुआ है और इसमें अक्सर विविध स्वरूपों में प्रदर्शन विज्ञापनों की स्वचालित डिलीवरी शामिल होती है। 'प्रोग्रामेटिक' ऑनलाइन विज्ञापन में प्रत्यक्ष मानव निर्णय लेने के बजाय सॉफ्टवेयर के माध्यम से वेबसाइटों और प्लेटफार्मों पर डिजिटल विज्ञापन की बिक्री और वितरण को स्वचालित करना शामिल है।<ref name=":6" />इसे कभी-कभी जलप्रपात मॉडल के रूप में जाना जाता है जिसमें विभिन्न प्रणालियों और खिलाड़ियों के चरणों का एक क्रम शामिल होता है: प्रकाशक और डेटा प्रबंधन प्लेटफ़ॉर्म, उपयोगकर्ता डेटा, विज्ञापन सर्वर और उनके वितरण डेटा, इन्वेंट्री प्रबंधन प्रणाली, विज्ञापन व्यापारी और विज्ञापन एक्सचेंज।<ref name=":6" />इस प्रणाली के साथ विभिन्न मुद्दे हैं जिनमें विज्ञापनदाताओं के लिए पारदर्शिता की कमी, अविश्वसनीय मेट्रिक्स, विज्ञापन स्थानों पर नियंत्रण की कमी, ऑडियंस ट्रैकिंग और गोपनीयता संबंधी चिंताएँ शामिल हैं।<ref name=":6" />विज्ञापनों को नापसंद करने वाले इंटरनेट उपयोगकर्ताओं ने विज्ञापन अवरोधक तकनीकों जैसे काउंटर उपाय अपनाए हैं जो उपयोगकर्ताओं को वेबसाइटों और कुछ इंटरनेट अनुप्रयोगों से अवांछित विज्ञापन को स्वचालित रूप से फ़िल्टर करने की अनुमति देते हैं। 2017 में, 24% ऑस्ट्रेलियाई इंटरनेट उपयोगकर्ताओं के पास विज्ञापन अवरोधक थे।<ref>{{Cite report|last1=Newman|first1=N|last2=Fletcher|first2=R|last3=Kalogeropoulos|first3=A|date=2017|title=रॉयटर्स संस्थान डिजिटल समाचार रिपोर्ट|url=https://www.digitalnewsreport.org/./survey/|url-status=live|access-date=2022-01-19|publisher=Reuters Institute for the Study of Journalism|language=en-GB|archive-url=https://web.archive.org/web/20130817034629/http://www.digitalnewsreport.org/survey/ |archive-date=2013-08-17 }}</ref>
ऑनलाइन विज्ञापन कई डिजिटल मीडिया प्लेटफार्मों, वेबसाइटों और खोज इंजनों के साथ घनिष्ठ रूप से जुड़ा हुआ है और इसमें अक्सर विविध स्वरूपों में प्रदर्शन विज्ञापनों की स्वचालित डिलीवरी सम्मिलित होती है। 'प्रोग्रामेटिक' ऑनलाइन विज्ञापन में प्रत्यक्ष मानव निर्णय लेने के बजाय सॉफ्टवेयर के माध्यम से वेबसाइटों और प्लेटफार्मों पर डिजिटल विज्ञापन की बिक्री और वितरण को स्वचालित करना सम्मिलित है।<ref name=":6" /> इसे कभी-कभी जलप्रपात मॉडल के रूप में जाना जाता है जिसमें विभिन्न प्रणालियों और खिलाड़ियों के चरणों का एक क्रम सम्मिलित होता है: प्रकाशक और डेटा प्रबंधन प्लेटफ़ॉर्म, उपयोगकर्ता डेटा, विज्ञापन सर्वर और उनके वितरण डेटा, इन्वेंट्री प्रबंधन प्रणाली, विज्ञापन व्यापारी और विज्ञापन एक्सचेंज।<ref name=":6" /> इस प्रणाली के साथ विभिन्न मुद्दे हैं जिनमें विज्ञापनदाताओं के लिए पारदर्शिता की कमी, असत्यापित मेट्रिक्स, विज्ञापन स्थानों पर नियंत्रण की कमी, ऑडियंस ट्रैकिंग और गोपनीयता संबंधी चिंताएँ सम्मिलित हैं।<ref name=":6" /> विज्ञापनों को नापसंद करने वाले इंटरनेट उपयोगकर्ताओं ने विज्ञापन अवरोधक तकनीकों जैसे काउंटर उपाय अपनाए हैं जो उपयोगकर्ताओं को वेबसाइटों और कुछ इंटरनेट अनुप्रयोगों से अवांछित विज्ञापन को स्वचालित रूप से फ़िल्टर करने की स्वीकृति देते हैं। 2017 में, 24% ऑस्ट्रेलियाई इंटरनेट उपयोगकर्ताओं के पास विज्ञापन अवरोधक थे।<ref>{{Cite report|last1=Newman|first1=N|last2=Fletcher|first2=R|last3=Kalogeropoulos|first3=A|date=2017|title=रॉयटर्स संस्थान डिजिटल समाचार रिपोर्ट|url=https://www.digitalnewsreport.org/./survey/|url-status=live|access-date=2022-01-19|publisher=Reuters Institute for the Study of Journalism|language=en-GB|archive-url=https://web.archive.org/web/20130817034629/http://www.digitalnewsreport.org/survey/ |archive-date=2013-08-17 }}</ref>
 
 
=== स्वास्थ्य ===
=== स्वास्थ्य ===
डीप लर्निंग एआई इमेज मॉडल [[ कंप्यूटर एडेड निदान ]] हैं। एक्स-रे की समीक्षा करने और आंखों की स्थिति मैक्यूलर डिजनरेशन का पता लगाने के लिए उपयोग किया जाता है।
डीप लर्निंग एआई इमेज मॉडल [[ कंप्यूटर एडेड निदान |कंप्यूटर एडेड निदान]] हैं। एक्स-रे की समीक्षा करने और आंखों की स्थिति मैक्यूलर डिजनरेशन का पता लगाने के लिए उपयोग किया जाता है।


=== [[सामाजिक सेवाएं]] ===
=== [[सामाजिक सेवाएं]] ===
सरकारें 2000 के दशक की शुरुआत से अधिक कुशल प्रशासन और सामाजिक सेवाएं प्रदान करने के लिए डिजिटल तकनीकों को लागू कर रही हैं, जिन्हें अक्सर [[ई-सरकार]] कहा जाता है। दुनिया भर में कई सरकारें अब प्रोफाइलिंग और लक्षित नीतियों और सेवाओं के लिए स्वचालित, एल्गोरिथम सिस्टम का उपयोग कर रही हैं, जिसमें जोखिमों के आधार पर एल्गोरिथम पुलिसिंग, एयरपोर्ट स्क्रीनिंग जैसे लोगों की निगरानी सॉर्टिंग, बाल संरक्षण में जोखिम प्रोफाइल के आधार पर सेवाएं प्रदान करना, रोजगार सेवाएं प्रदान करना और शासन करना शामिल है। बेरोज़गार।<ref name=":7">{{Cite journal |last=Henman |first=Paul |date=2019-01-02 |title=Of algorithms, Apps and advice: digital social policy and service delivery |url=https://www.tandfonline.com/doi/full/10.1080/17516234.2018.1495885 |journal=Journal of Asian Public Policy |language=en |volume=12 |issue=1 |pages=71–89 |doi=10.1080/17516234.2018.1495885 |s2cid=158229201 |issn=1751-6234}}</ref> सामाजिक सेवाओं में ADM का एक महत्वपूर्ण अनुप्रयोग भविष्य कहनेवाला विश्लेषण के उपयोग से संबंधित है - उदाहरण के लिए [[बाल संरक्षण]] में दुर्व्यवहार/उपेक्षा से बच्चों के लिए जोखिम की भविष्यवाणी, पुलिस और आपराधिक न्याय में अपराध या अपराध की भविष्यवाणी, कल्याण की भविष्यवाणी/ अनुपालन प्रणालियों में कर धोखाधड़ी , रोजगार सेवाओं में दीर्घकालिक बेरोजगारी की भविष्यवाणी। ऐतिहासिक रूप से ये प्रणालियाँ मानक सांख्यिकीय विश्लेषणों पर आधारित थीं, हालाँकि 2000 के दशक की शुरुआत से मशीन लर्निंग तेजी से विकसित और तैनात की गई है। सामाजिक सेवाओं में एडीएम के उपयोग के साथ प्रमुख मुद्दों में पूर्वाग्रह, निष्पक्षता, उत्तरदायित्व और [[व्याख्यात्मक कृत्रिम बुद्धि]] शामिल है जो किसी निर्णय के कारणों के आसपास पारदर्शिता को संदर्भित करता है और जिस आधार पर एक मशीन ने निर्णय लिया है, उसकी व्याख्या करने की क्षमता।<ref name=":7" />उदाहरण के लिए, ऑस्ट्रेलिया की संघीय सामाजिक सुरक्षा वितरण एजेंसी, Centrelink, ने ऋण का पता लगाने और एकत्र करने के लिए एक स्वचालित प्रक्रिया विकसित और कार्यान्वित की, जिसके कारण गलत तरीके से ऋण वसूली के कई मामले सामने आए, जिसे रोबोडेब्ट योजना योजना के रूप में जाना जाने लगा।<ref>{{Cite journal |last=Henman |first=Paul |date=2017 |title=The Computer Says 'Debt': Towards A Critical Sociology Of Algorithms And Algorithmic Governance |url=https://zenodo.org/record/884116 |journal=Data for Policy 2017: Government by Algorithm? Conference, London |doi=10.5281/ZENODO.884116}}</ref>
सरकारें 2000 के दशक की शुरुआत से अधिक कुशल प्रशासन और सामाजिक सेवाएं प्रदान करने के लिए डिजिटल तकनीकों को लागू कर रही हैं, जिन्हें अक्सर ई-सरकार कहा जाता है। दुनिया भर में कई सरकारें अब प्रोफाइलिंग और लक्षित नीतियों और सेवाओं के लिए स्वचालित, एल्गोरिथम सिस्टम का उपयोग कर रही हैं, जिसमें जोखिमों के आधार पर एल्गोरिथम पुलिसिंग, एयरपोर्ट स्क्रीनिंग जैसे लोगों की निगरानी सॉर्टिंग, बाल संरक्षण में जोखिम प्रोफाइल के आधार पर सेवाएं प्रदान करना, रोजगार सेवाएं प्रदान करना और शासन करना सम्मिलित है। बेरोजगार।<ref name=":7">{{Cite journal |last=Henman |first=Paul |date=2019-01-02 |title=Of algorithms, Apps and advice: digital social policy and service delivery |url=https://www.tandfonline.com/doi/full/10.1080/17516234.2018.1495885 |journal=Journal of Asian Public Policy |language=en |volume=12 |issue=1 |pages=71–89 |doi=10.1080/17516234.2018.1495885 |s2cid=158229201 |issn=1751-6234}}</ref> सामाजिक सेवाओं में एडीएम का एक महत्वपूर्ण अनुप्रयोग भविष्य कहनेवाला विश्लेषण के उपयोग से संबंधित है - उदाहरण के लिए बाल संरक्षण में दुर्व्यवहार/उपेक्षा से बच्चों के लिए जोखिम की भविष्यवाणी, पुलिस और आपराधिक न्याय में अपराध या अपराध की भविष्यवाणी, कल्याण की भविष्यवाणी/ अनुपालन प्रणालियों में कर धोखाधड़ी , रोजगार सेवाओं में दीर्घकालिक बेरोजगारी की भविष्यवाणी। ऐतिहासिक रूप से ये प्रणालियाँ मानक सांख्यिकीय विश्लेषणों पर आधारित थीं, हालाँकि 2000 के दशक की शुरुआत से मशीन लर्निंग तेजी से विकसित और तैनात की गई है। सामाजिक सेवाओं में एडीएम के उपयोग के साथ प्रमुख मुद्दों में पूर्वाग्रह, निष्पक्षता, उत्तरदायित्व और व्याख्यात्मकता सम्मिलित है जो निर्णय के कारणों के आसपास पारदर्शिता को संदर्भित करता है और जिस आधार पर एक मशीन ने निर्णय लिया है, उसकी व्याख्या करने की क्षमता।<ref name=":7" /> उदाहरण के लिए, ऑस्ट्रेलिया की संघीय सामाजिक सुरक्षा वितरण एजेंसी, सेंटरलिंक ने ऋण का पता लगाने और एकत्र करने के लिए एक स्वचालित प्रक्रिया विकसित और कार्यान्वित की, जिसके कारण गलत तरीके से ऋण वसूली के कई मामले सामने आए, जिसे रोबोडेट योजना के रूप में जाना जाने लगा।<ref>{{Cite journal |last=Henman |first=Paul |date=2017 |title=The Computer Says 'Debt': Towards A Critical Sociology Of Algorithms And Algorithmic Governance |url=https://zenodo.org/record/884116 |journal=Data for Policy 2017: Government by Algorithm? Conference, London |doi=10.5281/ZENODO.884116}}</ref>
 
 
=== परिवहन और गतिशीलता ===
=== परिवहन और गतिशीलता ===
कनेक्टेड और स्वचालित गतिशीलता (सीएएम) में [[वाहन स्वचालन]] शामिल है जैसे स्वयं [[सेल्फ ड्राइविंग कार]] और परिवहन के अन्य रूप जो वाहन के मानव नियंत्रण के विभिन्न पहलुओं को बदलने के लिए स्वचालित निर्णय लेने वाली प्रणालियों का उपयोग करते हैं।<ref name="EU Directorate-General for Research and Innovation 2020">{{Cite book|last=EU Directorate-General for Research and Innovation|url=https://data.europa.eu/doi/10.2777/035239|title=Ethics of connected and automated vehicles: recommendations on road safety, privacy, fairness, explainability and responsibility|date=2020|publisher=Publications Office of the European Union|isbn=978-92-76-17867-5|location=LU|doi=10.2777/035239}}</ref> यह स्तर 0 (पूर्ण मानव ड्राइविंग) से लेकर स्तर 5 (पूरी तरह से स्वायत्त) तक हो सकता है।<ref name=":1" />स्तर 5 पर मशीन डेटा मॉडल और भू-स्थानिक मानचित्रण और रीयल-टाइम सेंसर और पर्यावरण के प्रसंस्करण के आधार पर वाहन को नियंत्रित करने के निर्णय लेने में सक्षम है। 2021 में 1 से 3 के स्तर वाली कारें पहले से ही बाजार में उपलब्ध हैं। 2016 में जर्मन सरकार ने 'स्वचालित और कनेक्टेड ड्राइविंग पर नैतिकता आयोग' की स्थापना की, जिसने कनेक्टेड और स्वचालित वाहनों (CAV) को विकसित करने की सिफारिश की, यदि सिस्टम मानव की तुलना में कम दुर्घटनाओं का कारण बनता है। ड्राइवर (जोखिम का सकारात्मक संतुलन)। इसने स्वचालित और कनेक्टेड ड्राइविंग के अनुकूलन के लिए 20 नैतिक नियम भी प्रदान किए।<ref>{{Cite report |last=Federal Ministry of Transport and Digital Infrastructures|title=ऑटोमेटेड और कनेक्टेड ड्राइविंग पर एथिक्स कमीशन की पूरी रिपोर्ट|url=https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission.html?nn=187598|url-status=live|access-date=2021-11-23|website=www.bmvi.de|publisher=German Government|archive-url=https://web.archive.org/web/20170904223320/http://www.bmvi.de:80/SharedDocs/EN/publications/report-ethics-commission.html?nn=187598 |archive-date=2017-09-04 }}</ref> 2020 में सीएएम पर यूरोपीय आयोग की रणनीति ने सिफारिश की कि उन्हें सड़क दुर्घटनाओं को कम करने और उत्सर्जन को कम करने के लिए यूरोप में अपनाया जाना चाहिए, हालांकि स्व-ड्राइविंग कार भी दुर्घटनाओं के मामले में दायित्व और नैतिक निर्णय लेने के मामले में कई नीति, सुरक्षा और कानूनी मुद्दों को उठाती हैं। , साथ ही गोपनीयता के मुद्दे।<ref name="EU Directorate-General for Research and Innovation 2020"/>यदि एवी को व्यापक रूप से अपनाया जाना है तो स्वायत्त वाहनों में विश्वास के मुद्दे और उनकी सुरक्षा के बारे में सामुदायिक चिंताएं प्रमुख कारक हैं।<ref name=":5">{{Cite journal|last1=Raats|first1=Kaspar|last2=Fors|first2=Vaike|last3=Pink|first3=Sarah|date=2020-09-01|title=Trusting autonomous vehicles: An interdisciplinary approach|url=https://www.sciencedirect.com/science/article/pii/S2590198220301123|journal=Transportation Research Interdisciplinary Perspectives|language=en|volume=7|pages=100201|doi=10.1016/j.trip.2020.100201|s2cid=225261480 |issn=2590-1982}}</ref>
कनेक्टेड और ऑटोमेटेड मोबिलिटी (सीएएम) में स्वायत्त वाहन जैसे कि [[सेल्फ ड्राइविंग कार]] और परिवहन के अन्य रूप सम्मिलित हैं जो वाहन के मानव नियंत्रण के विभिन्न पहलुओं को बदलने के लिए स्वचालित निर्णय लेने वाली प्रणाली का उपयोग करते हैं। [31] यह स्तर 0 (पूर्ण मानव ड्राइविंग) से लेकर स्तर 5 (पूर्णतः स्वायत्त) तक हो सकता है।<ref name=":1" /> स्तर 5 पर मशीन डेटा मॉडल और भू-स्थानिक मानचित्रण और रीयल-टाइम सेंसर और पर्यावरण के प्रसंस्करण के आधार पर वाहन को नियंत्रित करने के निर्णय लेने में सक्षम है। 2021 में 1 से 3 के स्तर वाली कारें पहले से ही बाजार में उपलब्ध हैं। 2016 में जर्मन सरकार ने 'स्वचालित और कनेक्टेड ड्राइविंग पर नैतिकता आयोग' की स्थापना की, जिसने कनेक्टेड और स्वचालित वाहनों (CAV) को विकसित करने की सिफारिश की, यदि सिस्टम मानव की तुलना में कम दुर्घटनाओं का कारण बनता है। ड्राइवर (जोखिम का सकारात्मक संतुलन)। इसने स्वचालित और कनेक्टेड ड्राइविंग के अनुकूलन के लिए 20 नैतिक नियम भी प्रदान किए।<ref>{{Cite report |last=Federal Ministry of Transport and Digital Infrastructures|title=ऑटोमेटेड और कनेक्टेड ड्राइविंग पर एथिक्स कमीशन की पूरी रिपोर्ट|url=https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission.html?nn=187598|url-status=live|access-date=2021-11-23|website=www.bmvi.de|publisher=German Government|archive-url=https://web.archive.org/web/20170904223320/http://www.bmvi.de:80/SharedDocs/EN/publications/report-ethics-commission.html?nn=187598 |archive-date=2017-09-04 }}</ref> 2020 में सीएएम पर यूरोपीय आयोग की रणनीति ने सिफारिश की कि उन्हें सड़क दुर्घटनाओं को कम करने और उत्सर्जन को कम करने के लिए यूरोप में अपनाया जाना चाहिए, हालांकि स्व-ड्राइविंग कार भी दुर्घटनाओं के मामले में दायित्व और नैतिक निर्णय लेने के मामले में कई नीति, सुरक्षा और कानूनी मुद्दों को उठाती हैं। , साथ ही गोपनीयता के मुद्दे भी यदि एवी को व्यापक रूप से अपनाया जाना है तो स्वायत्त वाहनों में विश्वास के मुद्दे और उनकी सुरक्षा के बारे में समुदाय की चिंता प्रमुख कारक हैं।<ref name=":5">{{Cite journal|last1=Raats|first1=Kaspar|last2=Fors|first2=Vaike|last3=Pink|first3=Sarah|date=2020-09-01|title=Trusting autonomous vehicles: An interdisciplinary approach|url=https://www.sciencedirect.com/science/article/pii/S2590198220301123|journal=Transportation Research Interdisciplinary Perspectives|language=en|volume=7|pages=100201|doi=10.1016/j.trip.2020.100201|s2cid=225261480 |issn=2590-1982}}</ref>
 
 
=== [[निगरानी]] ===
=== [[निगरानी]] ===
सेंसर, कैमरा, ऑनलाइन लेन-देन और सोशल मीडिया के माध्यम से स्वचालित डिजिटल डेटा संग्रह ने सरकार और वाणिज्यिक क्षेत्रों में निगरानी प्रथाओं और संस्थानों के दायरे, पैमाने और लक्ष्यों का काफी विस्तार किया है।<ref>{{Cite book|last=Andrejevic|first=Mark|title=डिजिटल मीडिया और संचार की रूटलेज हैंडबुक|date=2021|publisher=Taylor and Francis|others=Leah A. Lievrouw, Brian Loader|isbn=978-1-315-61655-1|location=Abingdon, Oxon|chapter=Automated surveillance|oclc=1198978596}}</ref> परिणामस्वरूप संदिग्धों की लक्षित निगरानी से पूरी आबादी की निगरानी करने की क्षमता में एक बड़ा बदलाव आया है।<ref>{{Cite book|last=Pasquale|first=Frank|title=Black box society: the secret algorithms that control money and information|date=2016|publisher=Harvard University Press|isbn=978-0-674-97084-7|edition=|location=Cambridge, Massachusetts|oclc=946975299}}</ref> स्वचालित डेटा संग्रह के परिणामस्वरूप अब निगरानी के स्तर को [[निगरानी पूंजीवाद]] या निगरानी अर्थव्यवस्था के रूप में वर्णित किया गया है, जिस तरह से डिजिटल मीडिया में बड़े पैमाने पर ट्रैकिंग और हर बातचीत पर डेटा का संचय शामिल है।
सेंसर, कैमरा, ऑनलाइन लेन-देन और सोशल मीडिया के माध्यम से स्वचालित डिजिटल डेटा संग्रह ने सरकार और वाणिज्यिक क्षेत्रों में निगरानी प्रथाओं और संस्थानों के दायरे, पैमाने और लक्ष्यों का काफी विस्तार किया है।<ref>{{Cite book|last=Andrejevic|first=Mark|title=डिजिटल मीडिया और संचार की रूटलेज हैंडबुक|date=2021|publisher=Taylor and Francis|others=Leah A. Lievrouw, Brian Loader|isbn=978-1-315-61655-1|location=Abingdon, Oxon|chapter=Automated surveillance|oclc=1198978596}}</ref> परिणामस्वरूप संदिग्धों की लक्षित निगरानी से पूरी आबादी की निगरानी करने की क्षमता में एक बड़ा बदलाव आया है।<ref>{{Cite book|last=Pasquale|first=Frank|title=Black box society: the secret algorithms that control money and information|date=2016|publisher=Harvard University Press|isbn=978-0-674-97084-7|edition=|location=Cambridge, Massachusetts|oclc=946975299}}</ref> स्वचालित डेटा संग्रह के परिणामस्वरूप अब निगरानी के स्तर को [[निगरानी पूंजीवाद]] या निगरानी अर्थव्यवस्था के रूप में वर्णित किया गया है, जिस तरह से डिजिटल मीडिया में बड़े पैमाने पर ट्रैकिंग और हर बातचीत पर डेटा का संचय सम्मिलित है।


== नैतिक और कानूनी मुद्दे ==
== नैतिक और कानूनी मुद्दे ==
स्वचालित निर्णय लेने वाली प्रणालियों के कई सामाजिक, नैतिक और कानूनी निहितार्थ हैं। उठाई गई चिंताओं में पारदर्शिता की कमी और फैसलों की प्रतिस्पर्धात्मकता, गोपनीयता और निगरानी पर घुसपैठ, डेटा और [[एल्गोरिथम पूर्वाग्रह]] के कारण प्रणालीगत पूर्वाग्रह और असमानता को बढ़ाना, बौद्धिक संपदा अधिकार, मीडिया प्लेटफॉर्म के माध्यम से गलत सूचना का प्रसार, प्रशासनिक भेदभाव, जोखिम और जिम्मेदारी, बेरोजगारी और शामिल हैं। कई दूसरे।<ref>{{Cite book|last=Eubanks|first=Virginia|title=Automating inequality: how high-tech tools profile, police, and punish the poor|date=2018|isbn=978-1-250-07431-7|edition=First|location=New York, NY|oclc=1013516195}}</ref><ref name="Noble-2018">{{Cite Q|Q48816548}}</ref> जैसे-जैसे ADM अधिक सर्वव्यापी होता जाता है, सूचना समाजों में सुशासन सुनिश्चित करने के लिए नैतिक चुनौतियों का समाधान करने की अधिक आवश्यकता होती है।<ref>{{Cite journal|last=Cath|first=Corinne|date=2018-11-28|title=Governing artificial intelligence: ethical, legal and technical opportunities and challenges|journal=Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences|volume=376|issue=2133|pages=20180080|doi=10.1098/rsta.2018.0080|pmc=6191666|pmid=30322996|bibcode=2018RSPTA.37680080C}}</ref>
स्वचालित निर्णय लेने वाली प्रणालियों के कई सामाजिक, नैतिक और कानूनी निहितार्थ हैं। उठाई गई चिंताओं में पारदर्शिता की कमी और फैसलों की प्रतिस्पर्धात्मकता, गोपनीयता और निगरानी पर घुसपैठ, डेटा और [[एल्गोरिथम पूर्वाग्रह]] के कारण प्रणालीगत पूर्वाग्रह और असमानता को बढ़ाना, बौद्धिक संपदा अधिकार, मीडिया प्लेटफॉर्म के माध्यम से गलत सूचना का प्रसार, प्रशासनिक भेदभाव, जोखिम और जिम्मेदारी, बेरोजगारी और सम्मिलित हैं। कई अन्य।<ref>{{Cite book|last=Eubanks|first=Virginia|title=Automating inequality: how high-tech tools profile, police, and punish the poor|date=2018|isbn=978-1-250-07431-7|edition=First|location=New York, NY|oclc=1013516195}}</ref><ref name="Noble-2018">{{Cite Q|Q48816548}}</ref> जैसा कि एडीएम अधिक सर्वव्यापी हो जाता है, सूचना समाजों में सुशासन सुनिश्चित करने के लिए नैतिक चुनौतियों का समाधान करने की अधिक आवश्यकता है।<ref>{{Cite journal|last=Cath|first=Corinne|date=2018-11-28|title=Governing artificial intelligence: ethical, legal and technical opportunities and challenges|journal=Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences|volume=376|issue=2133|pages=20180080|doi=10.1098/rsta.2018.0080|pmc=6191666|pmid=30322996|bibcode=2018RSPTA.37680080C}}</ref>
ADM सिस्टम अक्सर मशीन लर्निंग और एल्गोरिदम पर आधारित होते हैं जिन्हें आसानी से देखा या विश्लेषण नहीं किया जा सकता है, जिससे चिंता होती है कि वे 'ब्लैक बॉक्स' सिस्टम हैं जो पारदर्शी या जवाबदेह नहीं हैं।<ref name=":1" />


कनाडा में [[सिटीजन लैब]] की एक रिपोर्ट विभिन्न क्षेत्रों में ADM के अनुप्रयोग के एक महत्वपूर्ण मानवाधिकार विश्लेषण के लिए तर्क देती है ताकि यह सुनिश्चित किया जा सके कि स्वचालित निर्णय लेने का उपयोग अधिकारों के उल्लंघन में न हो, जिसमें समानता और गैर-भेदभाव के अधिकार शामिल हैं; आंदोलन, अभिव्यक्ति, धर्म और संघ की स्वतंत्रता; गोपनीयता के अधिकार और व्यक्ति के जीवन, स्वतंत्रता और सुरक्षा के अधिकार।<ref name=":0" />
एडीएम सिस्टम अक्सर मशीन लर्निंग और एल्गोरिदम पर आधारित होते हैं जिन्हें आसानी से देखा या विश्लेषण नहीं किया जा सकता है, जिससे चिंता होती है कि वे 'ब्लैक बॉक्स' सिस्टम हैं जो पारदर्शी या जवाबदेह नहीं हैं।<ref name=":1" />


एडीएम को विधायी प्रतिक्रियाओं में शामिल हैं:
कनाडा में सिटीजन लैब की एक रिपोर्ट विभिन्न क्षेत्रों में एडीएम के अनुप्रयोग के एक महत्वपूर्ण मानवाधिकार विश्लेषण के लिए तर्क देती है ताकि यह सुनिश्चित किया जा सके कि स्वचालित निर्णय लेने का उपयोग अधिकारों के उल्लंघन में न हो, जिसमें समानता के अधिकार और गैर-भेदभाव की स्वतंत्रता सम्मिलित है। आंदोलन, अभिव्यक्ति, धर्म, और संघ गोपनीयता अधिकार और व्यक्ति के जीवन, स्वतंत्रता और सुरक्षा के अधिकार।<ref name=":0" />


* सामान्य डेटा संरक्षण विनियमन | यूरोपीय सामान्य डेटा संरक्षण विनियमन (जीडीपीआर), 2016 में पेश किया गया, [[यूरोपीय संघ]] (ईयू) में डेटा संरक्षण और गोपनीयता पर यूरोपीय संघ के कानून में एक [[विनियमन (यूरोपीय संघ)]] है। अनुच्छेद 22(1) डेटा विषयों के निर्णयों के अधीन नहीं होने के अधिकार को सुनिश्चित करता है, जिनके कानूनी या अन्य महत्वपूर्ण प्रभाव होते हैं, जो पूरी तरह से स्वत: व्यक्तिगत निर्णय लेने पर आधारित होते हैं।<ref>{{Cite web|title=EUR-Lex - 32016R0679 - EN - EUR-Lex|url=https://eur-lex.europa.eu/eli/reg/2016/679/oj|access-date=2021-09-13|website=eur-lex.europa.eu|language=en}}</ref><ref>{{Cite journal|last=Brkan|first=Maja|date=2017-06-12|title=सामान्य डेटा संरक्षण विनियमन के तहत एआई-समर्थित निर्णय लेना|journal=Proceedings of the 16th Edition of the International Conference on Articial Intelligence and Law|series=ICAIL '17|location=London, United Kingdom|publisher=Association for Computing Machinery|pages=3–8|doi=10.1145/3086512.3086513|isbn=978-1-4503-4891-1|s2cid=23933541}}</ref> जीडीपीआर में स्पष्टीकरण के अधिकार पर कुछ नियम भी शामिल हैं, हालांकि इनका सटीक दायरा और प्रकृति वर्तमान में यूरोपीय संघ के न्यायालय द्वारा समीक्षा के अधीन है।<ref>{{Cite web |last=Court of Justice of the European Union |title=Request for a preliminary ruling from the Verwaltungsgericht Wien (Austria) lodged on 16 March 2022 – CK (Case C-203/22) |url=https://curia.europa.eu/juris/document/document.jsf;jsessionid=D5AAF1438A2EF2166055E0308FADD999?text=&docid=260303&pageIndex=0&doclang=EN&mode=lst&dir=&occ=first&part=1&cid=6699684}}</ref> इन प्रावधानों को पहली बार GDPR में पेश नहीं किया गया था, लेकिन 1995 में [[डेटा संरक्षण निर्देश]] और 1978 के फ्रांसीसी कानून के बाद से पूरे यूरोप में एक समान रूप में मौजूद हैं। {{Interlanguage link|loi informatique et libertés|fr}}.<रेफरी नाम= एडवर्ड्स 46-54 >{{Cite journal |last1=Edwards |first1=Lilian |last2=Veale |first2=Michael |date=May 2018 |title=एल्गोरिथम को गुलाम बनाना: "स्पष्टीकरण के अधिकार" से "बेहतर निर्णय के अधिकार" तक?|url=https://ieeexplore.ieee.org/document/8395080 |journal=IEEE Security & Privacy |volume=16 |issue=3 |pages=46–54 |doi=10.1109/MSP.2018.2701152 |s2cid=4049746 |issn=1540-7993}। रेफरी>{{Cite journal |last1=Binns |first1=Reuben |last2=Veale |first2=Michael |date=2021-12-20 |title=क्या यह आपका अंतिम निर्णय है? मल्टी-स्टेज प्रोफाइलिंग, चयनात्मक प्रभाव और GDPR का अनुच्छेद 22|url=https://academic.oup.com/idpl/article/11/4/319/6403925 |journal=International Data Privacy Law |language=en |volume=11 |issue=4 |page=320 |doi=10.1093/idpl/ipab020 |issn=2044-3994}}</ref>
एडीएम को विधायी प्रतिक्रियाओं में सम्मिलित हैं:
* एक डिजिटल गणराज्य के लिए फ्रांसीसी कानून के तहत 'एल्गोरिदमिक उपचार' बनाने वाले सार्वजनिक क्षेत्र के स्वचालित निर्णयों की व्याख्या के अधिकार। <रेफरी नाम = एडवर्ड्स 46–54 />
 
* [[यूरोपीय संघ]] सामान्य डेटा संरक्षण [[विनियमन (यूरोपीय संघ)]], 2016 में पेश किया गया, यूरोपीय संघ (ईयू) में डेटा संरक्षण और गोपनीयता पर यूरोपीय संघ के कानून में एक विनियमन है। अनुच्छेद 22(1) डेटा विषयों के निर्णय के अधीन नहीं होने के अधिकार को स्थापित करता है, जिसके कानूनी या अन्य महत्वपूर्ण प्रभाव होते हैं, जो पूरी तरह से स्वचालित व्यक्तिगत निर्णय लेने पर आधारित होते हैं।<ref>{{Cite web|title=EUR-Lex - 32016R0679 - EN - EUR-Lex|url=https://eur-lex.europa.eu/eli/reg/2016/679/oj|access-date=2021-09-13|website=eur-lex.europa.eu|language=en}}</ref><ref>{{Cite journal|last=Brkan|first=Maja|date=2017-06-12|title=सामान्य डेटा संरक्षण विनियमन के तहत एआई-समर्थित निर्णय लेना|journal=Proceedings of the 16th Edition of the International Conference on Articial Intelligence and Law|series=ICAIL '17|location=London, United Kingdom|publisher=Association for Computing Machinery|pages=3–8|doi=10.1145/3086512.3086513|isbn=978-1-4503-4891-1|s2cid=23933541}}</ref> जीडीपीआर में स्पष्टीकरण के अधिकार पर कुछ नियम भी सम्मिलित हैं, हालांकि इनका सटीक दायरा और प्रकृति वर्तमान में यूरोपीय संघ के न्यायालय द्वारा समीक्षा के अधीन है। [41] इन प्रावधानों को पहली बार GDPR में पेश नहीं किया गया था, लेकिन 1995 में डेटा प्रोटेक्शन डायरेक्टिव और 1978 के फ्रांसीसी कानून, लोई इंफॉर्मेटिक एट लिबर्टेस [fr] के बाद से पूरे यूरोप में एक समान रूप में सम्मिलित हैं।<ref>{{Cite web |last=Court of Justice of the European Union |title=Request for a preliminary ruling from the Verwaltungsgericht Wien (Austria) lodged on 16 March 2022 – CK (Case C-203/22) |url=https://curia.europa.eu/juris/document/document.jsf;jsessionid=D5AAF1438A2EF2166055E0308FADD999?text=&docid=260303&pageIndex=0&doclang=EN&mode=lst&dir=&occ=first&part=1&cid=6699684}}</ref> इसी तरह युगांडा, मोरक्को और अमेरिकी राज्य वर्जीनिया सहित दुनिया भर के कई अन्य न्यायालयों के [[डेटा संरक्षण निर्देश]] में अलग-अलग संलग्न अधिकारों और दायित्वों के साथ दायरे और शब्दों के प्रावधान सम्मिलित हैं।<ref>{{Interlanguage link|loi informatique et libertés|fr}}.<nowiki><ref>= एडवर्ड्स 46-54 >{{Cite journal |last1=Edwards |first1=Lilian |last2=Veale |first2=Michael |date=May 2018 |title=एल्गोरिथम को गुलाम बनाना: "स्पष्टीकरण के अधिकार" से "बेहतर निर्णय के अधिकार" तक?|url=</nowiki>https://ieeexplore.ieee.org/document/8395080 |journal=IEEE Security & Privacy |volume=16 |issue=3 |pages=46–54 |doi=10.1109/MSP.2018.2701152 |s2cid=4049746 |issn=1540-7993}। रेफरी>{{Cite journal |last1=Binns |first1=Reuben |last2=Veale |first2=Michael |date=2021-12-20 |title=क्या यह आपका अंतिम निर्णय है? मल्टी-स्टेज प्रोफाइलिंग, चयनात्मक प्रभाव और GDPR का अनुच्छेद 22|url=https://academic.oup.com/idpl/article/11/4/319/6403925 |journal=International Data Privacy Law |language=en |volume=11 |issue=4 |page=320 |doi=10.1093/idpl/ipab020 |issn=2044-3994}}<nowiki></ref></nowiki></ref>
* फ्रांसीसी लोई पोर यूने रेपुब्लिक न्यूमेरिक के तहत 'एल्गोरिदमिक ट्रीटमेंट' बनाने वाले सार्वजनिक क्षेत्र के स्वचालित निर्णयों की व्याख्या के अधिकार <रेफरी नाम = एडवर्ड्स 46–54 />


=== पूर्वाग्रह ===
=== पूर्वाग्रह ===
ADM निम्न से उत्पन्न एल्गोरिथम बायस को शामिल कर सकता है:
एडीएम निम्न से उत्पन्न एल्गोरिथम बायस को सम्मिलित कर सकता है:
* डेटा स्रोत, जहां डेटा इनपुट उनके संग्रह या चयन में पक्षपाती हैं<ref name="Noble-2018" />* एल्गोरिद्म का तकनीकी डिज़ाइन, उदाहरण के लिए जहां यह अनुमान लगाया गया है कि कोई व्यक्ति कैसे व्यवहार करेगा<ref name=":4">{{Cite journal|last1=Friedman|first1=Batya|last2=Nissenbaum|first2=Helen|date=July 1996|title=कंप्यूटर सिस्टम में पक्षपात|url=https://dl.acm.org/doi/10.1145/230538.230561|journal=ACM Transactions on Information Systems|language=en|volume=14|issue=3|pages=330–347|doi=10.1145/230538.230561|s2cid=207195759 |issn=1046-8188}}</ref>
* डेटा स्रोत, जहां डेटा इनपुट उनके संग्रह या चयन में पक्षपाती हैं<ref name="Noble-2018" />
* आकस्मिक पूर्वाग्रह, जहां अप्रत्याशित परिस्थितियों में एडीएम का आवेदन एक पक्षपाती परिणाम बनाता है<ref name=":4" />
*एल्गोरिद्म का तकनीकी डिज़ाइन, उदाहरण के लिए जहां यह अनुमान लगाया गया है कि कोई व्यक्ति कैसे व्यवहार करेगा<ref name=":4">{{Cite journal|last1=Friedman|first1=Batya|last2=Nissenbaum|first2=Helen|date=July 1996|title=कंप्यूटर सिस्टम में पक्षपात|url=https://dl.acm.org/doi/10.1145/230538.230561|journal=ACM Transactions on Information Systems|language=en|volume=14|issue=3|pages=330–347|doi=10.1145/230538.230561|s2cid=207195759 |issn=1046-8188}}</ref>
 
* आकस्मिक पूर्वाग्रह, जहां अप्रत्याशित परिस्थितियों में एडीएम का आवेदन एक पक्षपाती परिणाम बनाता है<ref name=":4" /><br />
 
=== स्पष्टीकरण ===
=== स्पष्टीकरण ===
पक्षपातपूर्ण या गलत डेटा या एल्गोरिदम के प्रश्न और चिंताएं कि कुछ एडीएम ब्लैक बॉक्स तकनीकें हैं, मानव जांच या पूछताछ के लिए बंद हैं, ने व्याख्यात्मकता के मुद्दे या स्वचालित निर्णयों और एआई के स्पष्टीकरण के अधिकार के रूप में संदर्भित किया है। इसे एक्सप्लेनेबल आर्टिफिशियल इंटेलिजेंस (XAI) या इंटरप्रेटेबल AI के रूप में भी जाना जाता है, जिसमें समाधान के परिणामों का विश्लेषण किया जा सकता है और मनुष्यों द्वारा समझा जा सकता है। XAI एल्गोरिदम को तीन सिद्धांतों - पारदर्शिता, व्याख्यात्मकता और व्याख्यात्मकता का पालन करने के लिए माना जाता है।
पक्षपाती या गलत डेटा या एल्गोरिदम के प्रश्न और चिंताएं कि कुछ एडीएम ब्लैक बॉक्स प्रौद्योगिकियां हैं, मानव जांच या पूछताछ के लिए बंद हैं, ने व्याख्यात्मकता के मुद्दे या स्वचालित निर्णयों और एआई के स्पष्टीकरण के अधिकार के रूप में संदर्भित किया है। इसे एक्सप्लेनेबल एआई (एक्सएआई) या इंटरप्रेटेबल एआई के रूप में भी जाना जाता है, जिसमें समाधान के परिणामों का विश्लेषण किया जा सकता है और मनुष्यों द्वारा समझा जा सकता है। XAI एल्गोरिदम को तीन सिद्धांतों - पारदर्शिता, व्याख्यात्मकता और व्याख्यात्मकता का पालन करने के लिए माना जाता है।


=== सूचना विषमता ===
=== सूचना विषमता ===
स्वचालित निर्णय लेने से उन व्यक्तियों के बीच सूचना विषमता बढ़ सकती है, जिनका डेटा सिस्टम में फीड होता है और उस डेटा से जानकारी प्राप्त करने में सक्षम प्लेटफ़ॉर्म और निर्णय लेने वाली प्रणालियाँ। दूसरी ओर यह देखा गया है कि वित्तीय व्यापार में दो कृत्रिम बुद्धिमान एजेंटों के बीच सूचना विषमता दो मानव एजेंटों या मानव और मशीन एजेंटों के बीच की तुलना में बहुत कम हो सकती है।<ref>{{Cite book|last=Marwala|first=Tshilidzi|title=Artificial intelligence and economic theory: Skynet in the market|date=2017|others=Evan Hurwitz|isbn=978-3-319-66104-9|location=Cham|oclc=1004620876}}</ref>
स्वचालित निर्णय लेने से उन व्यक्तियों के बीच सूचना विषमता बढ़ सकती है, जिनका डेटा सिस्टम में फीड होता है और उस डेटा से जानकारी प्राप्त करने में सक्षम प्लेटफ़ॉर्म और निर्णय लेने वाली प्रणालियाँ। दूसरी ओर यह देखा गया है कि वित्तीय व्यापार में दो कृत्रिम बुद्धिमान एजेंटों के बीच सूचना विषमता दो मानव एजेंटों या मानव और मशीन एजेंटों के बीच की तुलना में बहुत कम हो सकती है।<ref>{{Cite book|last=Marwala|first=Tshilidzi|title=Artificial intelligence and economic theory: Skynet in the market|date=2017|others=Evan Hurwitz|isbn=978-3-319-66104-9|location=Cham|oclc=1004620876}}</ref>
== अनुसंधान क्षेत्र ==
== अनुसंधान क्षेत्र ==
कई शैक्षणिक विषयों और क्षेत्रों में व्यापार, कंप्यूटर विज्ञान, मानव-कंप्यूटर इंटरैक्शन (एचसीआई), कानून, लोक प्रशासन, और मीडिया और संचार सहित एडीएम के विकास, अनुप्रयोग और निहितार्थों पर तेजी से ध्यान दिया जा रहा है। खोज प्रणालियों और प्लेटफार्मों के माध्यम से मीडिया सामग्री और एल्गोरिथम संचालित समाचार, वीडियो और अन्य सामग्री का स्वचालन मीडिया अध्ययनों में अकादमिक शोध का एक प्रमुख केंद्र है।<ref name=":6" />
कई शैक्षणिक विषयों और क्षेत्रों में व्यापार, कंप्यूटर विज्ञान, मानव कंप्यूटर इंटरैक्शन (एचसीआई), कानून, लोक प्रशासन, और मीडिया और संचार सहित एडीएम के विकास, अनुप्रयोग और निहितार्थ पर तेजी से ध्यान दिया जा रहा है। खोज प्रणालियों और प्लेटफार्मों के माध्यम से मीडिया सामग्री और एल्गोरिथम संचालित समाचार, वीडियो और अन्य सामग्री का स्वचालन मीडिया अध्ययनों में अकादमिक अनुसंधान का एक प्रमुख केंद्र है।<ref name=":6" />


निष्पक्षता, जवाबदेही और पारदर्शिता पर ACM सम्मेलन|निष्पक्षता, जवाबदेही और पारदर्शिता पर ACM सम्मेलन (ACM FAccT) की स्थापना 2018 में सामाजिक-तकनीकी प्रणालियों के संदर्भ में पारदर्शिता और व्याख्यात्मकता का अध्ययन करने के लिए की गई थी, जिनमें से कई में ADM और AI शामिल हैं।
निष्पक्षता, जवाबदेही और पारदर्शिता पर ACM सम्मेलन (ACM FAccT) की स्थापना 2018 में सामाजिक-तकनीकी प्रणालियों के संदर्भ में पारदर्शिता और व्याख्यात्मकता का अध्ययन करने के लिए की गई थी, जिनमें से कई में एडीएम और AI सम्मिलित हैं।


ADM की जांच करने वाले प्रमुख अनुसंधान केंद्रों में शामिल हैं:
एडीएम की जांच करने वाले प्रमुख अनुसंधान केंद्रों में सम्मिलित हैं:
* एल्गोरिथम वॉच, जर्मनी
* एल्गोरिथम वॉच, जर्मनी
*[[स्वचालित निर्णय लेने और समाज के लिए एआरसी सेंटर ऑफ एक्सीलेंस]], ऑस्ट्रेलिया
*[[स्वचालित निर्णय लेने और समाज के लिए एआरसी सेंटर ऑफ एक्सीलेंस]], ऑस्ट्रेलिया

Revision as of 21:04, 14 June 2023

स्वचालित निर्णय लेना(एडीएम) में डेटा, मशीनों और एल्गोरिदम का उपयोग सम्मिलित है, जिसमें सार्वजनिक प्रशासन, व्यवसाय, स्वास्थ्य, शिक्षा, कानून, रोजगार, परिवहन, मीडिया और मनोरंजन सहित कई संदर्भों में निर्णय लेने के लिए मानव की अलग-अलग डिग्री होती है। निरीक्षण या हस्तक्षेप। एडीएम में डेटाबेस, टेक्स्ट, सोशल मीडिया, सेंसर, इमेज या स्पीच जैसे कई स्रोतों से बड़े पैमाने पर डेटा सम्मिलित होता है, जिसे कंप्यूटर सॉफ्टवेयर, एल्गोरिदम, मशीन लर्निंग, प्राकृतिक भाषा प्रसंस्करण , कृत्रिम होशियारी, संवर्धित सहित विभिन्न तकनीकों का उपयोग करके संसाधित किया जाता है। खुफिया और रोबोटिक्स। कई संदर्भों में स्वचालित निर्णय लेने वाली प्रणालियों (एडीएमएस) का बढ़ता उपयोग मानव समाज के लिए तकनीकी, कानूनी, नैतिक, सामाजिक, शैक्षिक, आर्थिक और स्वास्थ्य परिणामों पर विचार करने के लिए कई लाभ और चुनौतियां प्रस्तुत करता है।[1][2][3]

सिंहावलोकन

सम्मिलित स्वचालन के स्तर के आधार पर एडीएम की विभिन्न परिभाषाएँ हैं। कुछ परिभाषाओं से पता चलता है कि एडीएम में मानव इनपुट के बिना विशुद्ध रूप से तकनीकी साधनों के माध्यम से किए गए निर्णय सम्मिलित हैं[4] जैसे कि यूरोपीय संघ के सामान्य डेटा संरक्षण विनियमन (अनुच्छेद 22)। हालांकि, एडीएम प्रौद्योगिकियां और अनुप्रयोग निर्णय समर्थन प्रणाली से लेकर कई रूप ले सकते हैं जो मानव निर्णय-निर्माताओं को कार्रवाई करने के लिए सिफारिशें करते हैं, जिन्हें कभी-कभी संवर्धित बुद्धिमत्ता [5] या 'साझा निर्णय लेने' के रूप में जाना जाता है, पूरी तरह से स्वचालित निर्णय लेने की प्रक्रिया जो मानव भागीदारी के बिना व्यक्तियों या संगठनों की ओर से निर्णय लेती है।[5] स्वचालित निर्णय लेने वाली प्रणालियों में उपयोग किए जाने वाले मॉडल कृत्रिम बुद्धि और कृत्रिम तंत्रिका नेटवर्क (डीएनएन) के माध्यम से चेकलिस्ट और निर्णय पेड़ के रूप में सरल हो सकते हैं।

1950 के दशक के बाद से कंप्यूटर जटिल, अस्पष्ट और अत्यधिक कुशल कार्यों जैसे छवि और भाषण मान्यता, गेमप्ले, वैज्ञानिक और चिकित्सा विश्लेषण और कई डेटा स्रोतों में अनुमान लगाने की क्षमता रखने के लिए बुनियादी प्रसंस्करण करने में सक्षम होने से चले गए हैं। एडीएम अब समाज के सभी क्षेत्रों और मनोरंजन से लेकर परिवहन तक कई विविध डोमेन में तेजी से तैनात किया जा रहा है।

एक एडीएम प्रणाली (एडीएमएस) में कई निर्णय बिंदु, डेटा सेट और प्रौद्योगिकियाँ (एडीएमटी) सम्मिलित हो सकती हैं और एक बड़ी प्रशासनिक या तकनीकी प्रणाली जैसे आपराधिक न्याय प्रणाली या व्यावसायिक प्रक्रिया के भीतर बैठ सकती हैं।

डेटा

स्वचालित निर्णय लेने में एक इनपुट के रूप में डेटा का उपयोग सम्मिलित होता है, या तो एक प्रक्रिया, मॉडल या एल्गोरिथम के भीतर विश्लेषण किया जाता है, या सीखने और नए मॉडल बनाने के लिए।[6] एडीएम प्रणालियाँ सिस्टम के लक्ष्यों और संदर्भों के आधार पर डेटा प्रकारों और स्रोतों की एक विस्तृत श्रृंखला का उपयोग और कनेक्ट कर सकती हैं, उदाहरण के लिए सेल्फ-ड्राइविंग कारों और रोबोटिक्स के लिए सेंसर डेटा, सुरक्षा प्रणालियों के लिए पहचान डेटा, सार्वजनिक प्रशासन के लिए जनसांख्यिकीय और वित्तीय डेटा, स्वास्थ्य में चिकित्सा रिकॉर्ड, कानून में आपराधिक रिकॉर्ड। इसमें कभी-कभी बड़ी मात्रा में डेटा और कंप्यूटिंग शक्ति सम्मिलित हो सकती है।

डेटा गुणवत्ता

एडीएम सिस्टम में उपलब्ध और उपयोग किए जाने योग्य डेटा की गुणवत्ता परिणामों के लिए मौलिक है और कई कारणों से अक्सर अत्यधिक समस्याग्रस्त होती है। डेटासेट अक्सर अत्यधिक परिवर्तनशील होते हैं, बड़े पैमाने पर डेटा को निगमों या सरकारों द्वारा नियंत्रित किया जा सकता है, गोपनीयता या सुरक्षा कारणों से प्रतिबंधित, अधूरा, पक्षपाती, समय या कवरेज के मामले में सीमित, विभिन्न तरीकों से शर्तों को मापने और वर्णन करने और कई अन्य मुद्दे।

डेटा से सीखने के लिए मशीनों के लिए, अक्सर बड़े कॉर्पस की आवश्यकता होती है जिसे प्राप्त करना या गणना करना जटिल हो सकता है, हालांकि जहां उपलब्ध है वहां महत्वपूर्ण सफलताएं प्रदान की हैं, उदाहरण के लिए छाती के एक्स-रे के निदान में।।[7]

एडीएम टेक्नोलॉजीज

स्वचालित निर्णय लेने वाली प्रौद्योगिकियां (एडीएमटी) सॉफ्टवेयर-कोडित डिजिटल उपकरण हैं जो स्वचालित निर्णय लेने वाली प्रणालियों के कार्य में योगदान करते हुए इनपुट डेटा को आउटपुट डेटा में अनुवाद को स्वचालित करती हैं।[6] एडीएम अनुप्रयोगों और प्रणालियों में उपयोग की जाने वाली तकनीकों की एक विस्तृत श्रृंखला है।

एडीएमटीs में बुनियादी कम्प्यूटेशनल ऑपरेशन सम्मिलित हैं

  • खोज (1-2-1, 1-2-कई, डेटा मिलान/मर्ज सम्मिलित है)
  • मिलान (दो अलग-अलग चीजें)
  • गणितीय गणना (सूत्र)

मूल्यांकन और समूहीकरण के लिए एडीएमटीs:

अंतरिक्ष और प्रवाह से संबंधित एडीएमटीs:

  • सोशल नेटवर्क विश्लेषण (लिंक भविष्यवाणी सम्मिलित है)
  • मैपिंग
  • मार्ग

एडीएमटीs जटिल डेटा स्वरूपों के प्रसंस्करण के लिए

अन्य ए.डी.एम.टी

मशीन लर्निंग

मशीन लर्निंग (एमएल) में अनुभव से सीखने और समस्याओं को हल करने के लिए बड़े डेटा सेट और उदाहरणों के माध्यम से कंप्यूटर प्रोग्राम का प्रशिक्षण सम्मिलित है।[2] मशीन लर्निंग का उपयोग डेटा उत्पन्न करने और उसका विश्लेषण करने के साथ-साथ एल्गोरिथम गणना करने के लिए किया जा सकता है और छवि और वाक् पहचान, अनुवाद, पाठ, डेटा और सिमुलेशन पर लागू किया गया है। जबकि मशीन लर्निंग कुछ समय के लिए आसपास रहा है, यह गहरे तंत्रिका नेटवर्क (डीएनएन) के प्रशिक्षण में हाल की सफलताओं के कारण तेजी से शक्तिशाली होता जा रहा है, और जीपीयू कोप्रोसेसरों और क्लाउड कंप्यूटिंग के साथ डेटा भंडारण क्षमता और कम्प्यूटेशनल शक्ति में नाटकीय वृद्धि हुई है।[2]

फाउंडेशन मॉडल पर आधारित मशीन लर्निंग सिस्टम गहरे तंत्रिका नेटवर्क पर चलते हैं और बड़ी मात्रा में सामान्य डेटा जैसे पाठ और छवियों पर एकल विशाल प्रणाली को प्रशिक्षित करने के लिए पैटर्न मिलान का उपयोग करते हैं। शुरुआती मॉडल में प्रत्येक नई समस्या के लिए खरोंच से शुरू करने की प्रवृत्ति थी, हालांकि 2020 की शुरुआत से कई नई समस्याओं के अनुकूल होने में सक्षम हैं।[8] इन तकनीकों के उदाहरणों में Open AI का DALL-E (एक छवि निर्माण कार्यक्रम) और उनके विभिन्न GPT भाषा मॉडल और Google का PaLM भाषा मॉडल कार्यक्रम सम्मिलित हैं।

अनुप्रयोग

एडीएम का उपयोग सार्वजनिक और निजी दोनों क्षेत्रों के संगठनों द्वारा मानव निर्णय लेने को बदलने या बढ़ाने के लिए कई कारणों से किया जा रहा है, जिसमें निरंतरता बढ़ाने, दक्षता में सुधार करने, लागत कम करने और जटिल समस्याओं के नए समाधानों को सक्षम करने में मदद करना सम्मिलित है।[9]

बहस

तर्क की गुणवत्ता का आकलन करने के लिए प्रौद्योगिकी के उपयोग में अनुसंधान और विकास चल रहा है,[10][11][12] तर्कपूर्ण निबंधों का आकलन[13][14] और निर्णायक बहसें।[15][16][17][18] इन तर्क तकनीकों के संभावित अनुप्रयोग शिक्षा और समाज तक फैले हुए हैं। इस संबंध में जिन परिदृश्यों पर विचार किया जाना है, उनमें संवादी, गणितीय, वैज्ञानिक, व्याख्यात्मक, कानूनी और राजनीतिक तर्क-वितर्क और वाद-विवाद का मूल्यांकन और मूल्यांकन सम्मिलित है।

कानून

दुनिया भर की राष्ट्रीय कानूनी प्रणालियों की सूची में, कई संदर्भों में न्यायाधीशों, सिविल सेवकों और पुलिस अधिकारियों के मानवीय निर्णय को पूरक या बदलने के लिए एल्गोरिथम उपकरण जैसे जोखिम मूल्यांकन उपकरण (RAI) का उपयोग किया जा रहा है।[19] संयुक्त राज्य अमेरिका में RAI का उपयोग पूर्व-परीक्षण निरोध और सजा के फैसले में पुनरावृत्ति के जोखिम की भविष्यवाणी करने के लिए स्कोर उत्पन्न करने के लिए किया जा रहा है[20] कैदियों के लिए पैरोल का मूल्यांकन और भविष्य के अपराध के लिए "हॉट स्पॉट" की भविष्यवाणी करने के लिए।[21][22][23] इन अंकों के परिणामस्वरूप स्वत: प्रभाव हो सकता है या न्याय प्रणाली के भीतर अधिकारियों द्वारा किए गए निर्णयों को सूचित करने के लिए उपयोग किया जा सकता है।[19] कनाडा में 2014 से एडीएम का उपयोग आव्रजन अधिकारियों द्वारा संचालित कुछ गतिविधियों को स्वचालित करने और कुछ आप्रवासी और आगंतुक अनुप्रयोगों के मूल्यांकन का समर्थन करने के लिए किया गया है।[24]

अर्थशास्त्र

ऑटोमेटेड ट्रेडिंग सिस्टम ऑर्डर खरीदने और बेचने के लिए कंप्यूटर प्रोग्राम का उपयोग करते हैं और स्वचालित रूप से मार्केट सेंटर या एक्सचेंजों को ऑर्डर सबमिट करते हैं। कंप्यूटर प्रोग्राम स्वचालित रूप से ट्रेडिंग रणनीतियों का उपयोग करके नियमों के पूर्वनिर्धारित सेट के आधार पर आदेश उत्पन्न कर सकते हैं जो तकनीकी विश्लेषण, उन्नत सांख्यिकीय और गणितीय संगणना, या अन्य इलेक्ट्रॉनिक स्रोतों से इनपुट पर आधारित हैं।

व्यवसाय

सतत लेखापरीक्षा

निरंतर ऑडिटिंग ऑडिटिंग प्रक्रियाओं को स्वचालित करने के लिए उन्नत विश्लेषणात्मक उपकरणों का उपयोग करती है। इसका उपयोग निजी क्षेत्र में व्यावसायिक उद्यमों द्वारा और सार्वजनिक क्षेत्र में सरकारी संगठनों और नगर पालिकाओं द्वारा किया जा सकता है।[25] जैसा कि आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग का विकास जारी है, लेखाकार और लेखा परीक्षक तेजी से परिष्कृत एल्गोरिदम का उपयोग कर सकते हैं जो निर्णय लेते हैं जैसे कि यह निर्धारित करना कि क्या असंगत है, क्या कर्मियों को सूचित करना है, और कर्मियों को सौंपे गए कार्यों को कैसे प्राथमिकता देना है।

मीडिया और मनोरंजन

डिजिटल मीडिया, मनोरंजन प्लेटफॉर्म और सूचना सेवाएं जनसांख्यिकीय जानकारी, पिछले चयनों, सहयोगी फ़िल्टरिंग या सामग्री-आधारित फ़िल्टरिंग के आधार पर स्वचालित अनुशंसा प्रणाली के माध्यम से दर्शकों को तेजी से सामग्री प्रदान करती हैं।[26] इसमें संगीत और वीडियो प्लेटफॉर्म, प्रकाशन, स्वास्थ्य सूचना, उत्पाद डेटाबेस और सर्च इंजन सम्मिलित हैं। कई सिफ़ारिशकर्ता प्रणालियाँ अनुशंसाओं को स्वीकार करने में उपयोगकर्ताओं को कुछ एजेंसी भी प्रदान करती हैं और सिस्टम उपयोगकर्ता के कार्यों के आधार पर डेटा-संचालित एल्गोरिथम फीडबैक लूप सम्मिलित करती हैं।[5]

2020 में OpenAI और Google जैसी कंपनियों द्वारा बड़े पैमाने पर मशीन लर्निंग लैंग्वेज मॉडल और इमेज क्रिएशन प्रोग्राम विकसित किए जा रहे हैं, जिनकी पहुंच प्रतिबंधित है, हालांकि विज्ञापन, कॉपी राइटिंग, स्टॉक इमेजरी और ग्राफिक डिज़ाइन जैसे क्षेत्रों में उनके व्यापक प्रसार की संभावना है। पत्रकारिता और कानून जैसे अन्य क्षेत्रों के रूप में।[8]

विज्ञापन

ऑनलाइन विज्ञापन कई डिजिटल मीडिया प्लेटफार्मों, वेबसाइटों और खोज इंजनों के साथ घनिष्ठ रूप से जुड़ा हुआ है और इसमें अक्सर विविध स्वरूपों में प्रदर्शन विज्ञापनों की स्वचालित डिलीवरी सम्मिलित होती है। 'प्रोग्रामेटिक' ऑनलाइन विज्ञापन में प्रत्यक्ष मानव निर्णय लेने के बजाय सॉफ्टवेयर के माध्यम से वेबसाइटों और प्लेटफार्मों पर डिजिटल विज्ञापन की बिक्री और वितरण को स्वचालित करना सम्मिलित है।[26] इसे कभी-कभी जलप्रपात मॉडल के रूप में जाना जाता है जिसमें विभिन्न प्रणालियों और खिलाड़ियों के चरणों का एक क्रम सम्मिलित होता है: प्रकाशक और डेटा प्रबंधन प्लेटफ़ॉर्म, उपयोगकर्ता डेटा, विज्ञापन सर्वर और उनके वितरण डेटा, इन्वेंट्री प्रबंधन प्रणाली, विज्ञापन व्यापारी और विज्ञापन एक्सचेंज।[26] इस प्रणाली के साथ विभिन्न मुद्दे हैं जिनमें विज्ञापनदाताओं के लिए पारदर्शिता की कमी, असत्यापित मेट्रिक्स, विज्ञापन स्थानों पर नियंत्रण की कमी, ऑडियंस ट्रैकिंग और गोपनीयता संबंधी चिंताएँ सम्मिलित हैं।[26] विज्ञापनों को नापसंद करने वाले इंटरनेट उपयोगकर्ताओं ने विज्ञापन अवरोधक तकनीकों जैसे काउंटर उपाय अपनाए हैं जो उपयोगकर्ताओं को वेबसाइटों और कुछ इंटरनेट अनुप्रयोगों से अवांछित विज्ञापन को स्वचालित रूप से फ़िल्टर करने की स्वीकृति देते हैं। 2017 में, 24% ऑस्ट्रेलियाई इंटरनेट उपयोगकर्ताओं के पास विज्ञापन अवरोधक थे।[27]

स्वास्थ्य

डीप लर्निंग एआई इमेज मॉडल कंप्यूटर एडेड निदान हैं। एक्स-रे की समीक्षा करने और आंखों की स्थिति मैक्यूलर डिजनरेशन का पता लगाने के लिए उपयोग किया जाता है।

सामाजिक सेवाएं

सरकारें 2000 के दशक की शुरुआत से अधिक कुशल प्रशासन और सामाजिक सेवाएं प्रदान करने के लिए डिजिटल तकनीकों को लागू कर रही हैं, जिन्हें अक्सर ई-सरकार कहा जाता है। दुनिया भर में कई सरकारें अब प्रोफाइलिंग और लक्षित नीतियों और सेवाओं के लिए स्वचालित, एल्गोरिथम सिस्टम का उपयोग कर रही हैं, जिसमें जोखिमों के आधार पर एल्गोरिथम पुलिसिंग, एयरपोर्ट स्क्रीनिंग जैसे लोगों की निगरानी सॉर्टिंग, बाल संरक्षण में जोखिम प्रोफाइल के आधार पर सेवाएं प्रदान करना, रोजगार सेवाएं प्रदान करना और शासन करना सम्मिलित है। बेरोजगार।[28] सामाजिक सेवाओं में एडीएम का एक महत्वपूर्ण अनुप्रयोग भविष्य कहनेवाला विश्लेषण के उपयोग से संबंधित है - उदाहरण के लिए बाल संरक्षण में दुर्व्यवहार/उपेक्षा से बच्चों के लिए जोखिम की भविष्यवाणी, पुलिस और आपराधिक न्याय में अपराध या अपराध की भविष्यवाणी, कल्याण की भविष्यवाणी/ अनुपालन प्रणालियों में कर धोखाधड़ी , रोजगार सेवाओं में दीर्घकालिक बेरोजगारी की भविष्यवाणी। ऐतिहासिक रूप से ये प्रणालियाँ मानक सांख्यिकीय विश्लेषणों पर आधारित थीं, हालाँकि 2000 के दशक की शुरुआत से मशीन लर्निंग तेजी से विकसित और तैनात की गई है। सामाजिक सेवाओं में एडीएम के उपयोग के साथ प्रमुख मुद्दों में पूर्वाग्रह, निष्पक्षता, उत्तरदायित्व और व्याख्यात्मकता सम्मिलित है जो निर्णय के कारणों के आसपास पारदर्शिता को संदर्भित करता है और जिस आधार पर एक मशीन ने निर्णय लिया है, उसकी व्याख्या करने की क्षमता।[28] उदाहरण के लिए, ऑस्ट्रेलिया की संघीय सामाजिक सुरक्षा वितरण एजेंसी, सेंटरलिंक ने ऋण का पता लगाने और एकत्र करने के लिए एक स्वचालित प्रक्रिया विकसित और कार्यान्वित की, जिसके कारण गलत तरीके से ऋण वसूली के कई मामले सामने आए, जिसे रोबोडेट योजना के रूप में जाना जाने लगा।[29]

परिवहन और गतिशीलता

कनेक्टेड और ऑटोमेटेड मोबिलिटी (सीएएम) में स्वायत्त वाहन जैसे कि सेल्फ ड्राइविंग कार और परिवहन के अन्य रूप सम्मिलित हैं जो वाहन के मानव नियंत्रण के विभिन्न पहलुओं को बदलने के लिए स्वचालित निर्णय लेने वाली प्रणाली का उपयोग करते हैं। [31] यह स्तर 0 (पूर्ण मानव ड्राइविंग) से लेकर स्तर 5 (पूर्णतः स्वायत्त) तक हो सकता है।[2] स्तर 5 पर मशीन डेटा मॉडल और भू-स्थानिक मानचित्रण और रीयल-टाइम सेंसर और पर्यावरण के प्रसंस्करण के आधार पर वाहन को नियंत्रित करने के निर्णय लेने में सक्षम है। 2021 में 1 से 3 के स्तर वाली कारें पहले से ही बाजार में उपलब्ध हैं। 2016 में जर्मन सरकार ने 'स्वचालित और कनेक्टेड ड्राइविंग पर नैतिकता आयोग' की स्थापना की, जिसने कनेक्टेड और स्वचालित वाहनों (CAV) को विकसित करने की सिफारिश की, यदि सिस्टम मानव की तुलना में कम दुर्घटनाओं का कारण बनता है। ड्राइवर (जोखिम का सकारात्मक संतुलन)। इसने स्वचालित और कनेक्टेड ड्राइविंग के अनुकूलन के लिए 20 नैतिक नियम भी प्रदान किए।[30] 2020 में सीएएम पर यूरोपीय आयोग की रणनीति ने सिफारिश की कि उन्हें सड़क दुर्घटनाओं को कम करने और उत्सर्जन को कम करने के लिए यूरोप में अपनाया जाना चाहिए, हालांकि स्व-ड्राइविंग कार भी दुर्घटनाओं के मामले में दायित्व और नैतिक निर्णय लेने के मामले में कई नीति, सुरक्षा और कानूनी मुद्दों को उठाती हैं। , साथ ही गोपनीयता के मुद्दे भी यदि एवी को व्यापक रूप से अपनाया जाना है तो स्वायत्त वाहनों में विश्वास के मुद्दे और उनकी सुरक्षा के बारे में समुदाय की चिंता प्रमुख कारक हैं।[31]

निगरानी

सेंसर, कैमरा, ऑनलाइन लेन-देन और सोशल मीडिया के माध्यम से स्वचालित डिजिटल डेटा संग्रह ने सरकार और वाणिज्यिक क्षेत्रों में निगरानी प्रथाओं और संस्थानों के दायरे, पैमाने और लक्ष्यों का काफी विस्तार किया है।[32] परिणामस्वरूप संदिग्धों की लक्षित निगरानी से पूरी आबादी की निगरानी करने की क्षमता में एक बड़ा बदलाव आया है।[33] स्वचालित डेटा संग्रह के परिणामस्वरूप अब निगरानी के स्तर को निगरानी पूंजीवाद या निगरानी अर्थव्यवस्था के रूप में वर्णित किया गया है, जिस तरह से डिजिटल मीडिया में बड़े पैमाने पर ट्रैकिंग और हर बातचीत पर डेटा का संचय सम्मिलित है।

नैतिक और कानूनी मुद्दे

स्वचालित निर्णय लेने वाली प्रणालियों के कई सामाजिक, नैतिक और कानूनी निहितार्थ हैं। उठाई गई चिंताओं में पारदर्शिता की कमी और फैसलों की प्रतिस्पर्धात्मकता, गोपनीयता और निगरानी पर घुसपैठ, डेटा और एल्गोरिथम पूर्वाग्रह के कारण प्रणालीगत पूर्वाग्रह और असमानता को बढ़ाना, बौद्धिक संपदा अधिकार, मीडिया प्लेटफॉर्म के माध्यम से गलत सूचना का प्रसार, प्रशासनिक भेदभाव, जोखिम और जिम्मेदारी, बेरोजगारी और सम्मिलित हैं। कई अन्य।[34][35] जैसा कि एडीएम अधिक सर्वव्यापी हो जाता है, सूचना समाजों में सुशासन सुनिश्चित करने के लिए नैतिक चुनौतियों का समाधान करने की अधिक आवश्यकता है।[36]

एडीएम सिस्टम अक्सर मशीन लर्निंग और एल्गोरिदम पर आधारित होते हैं जिन्हें आसानी से देखा या विश्लेषण नहीं किया जा सकता है, जिससे चिंता होती है कि वे 'ब्लैक बॉक्स' सिस्टम हैं जो पारदर्शी या जवाबदेह नहीं हैं।[2]

कनाडा में सिटीजन लैब की एक रिपोर्ट विभिन्न क्षेत्रों में एडीएम के अनुप्रयोग के एक महत्वपूर्ण मानवाधिकार विश्लेषण के लिए तर्क देती है ताकि यह सुनिश्चित किया जा सके कि स्वचालित निर्णय लेने का उपयोग अधिकारों के उल्लंघन में न हो, जिसमें समानता के अधिकार और गैर-भेदभाव की स्वतंत्रता सम्मिलित है। आंदोलन, अभिव्यक्ति, धर्म, और संघ गोपनीयता अधिकार और व्यक्ति के जीवन, स्वतंत्रता और सुरक्षा के अधिकार।[24]

एडीएम को विधायी प्रतिक्रियाओं में सम्मिलित हैं:

  • यूरोपीय संघ सामान्य डेटा संरक्षण विनियमन (यूरोपीय संघ), 2016 में पेश किया गया, यूरोपीय संघ (ईयू) में डेटा संरक्षण और गोपनीयता पर यूरोपीय संघ के कानून में एक विनियमन है। अनुच्छेद 22(1) डेटा विषयों के निर्णय के अधीन नहीं होने के अधिकार को स्थापित करता है, जिसके कानूनी या अन्य महत्वपूर्ण प्रभाव होते हैं, जो पूरी तरह से स्वचालित व्यक्तिगत निर्णय लेने पर आधारित होते हैं।[37][38] जीडीपीआर में स्पष्टीकरण के अधिकार पर कुछ नियम भी सम्मिलित हैं, हालांकि इनका सटीक दायरा और प्रकृति वर्तमान में यूरोपीय संघ के न्यायालय द्वारा समीक्षा के अधीन है। [41] इन प्रावधानों को पहली बार GDPR में पेश नहीं किया गया था, लेकिन 1995 में डेटा प्रोटेक्शन डायरेक्टिव और 1978 के फ्रांसीसी कानून, लोई इंफॉर्मेटिक एट लिबर्टेस [fr] के बाद से पूरे यूरोप में एक समान रूप में सम्मिलित हैं।[39] इसी तरह युगांडा, मोरक्को और अमेरिकी राज्य वर्जीनिया सहित दुनिया भर के कई अन्य न्यायालयों के डेटा संरक्षण निर्देश में अलग-अलग संलग्न अधिकारों और दायित्वों के साथ दायरे और शब्दों के प्रावधान सम्मिलित हैं।[40]</nowiki></ref>
  • फ्रांसीसी लोई पोर यूने रेपुब्लिक न्यूमेरिक के तहत 'एल्गोरिदमिक ट्रीटमेंट' बनाने वाले सार्वजनिक क्षेत्र के स्वचालित निर्णयों की व्याख्या के अधिकार <रेफरी नाम = एडवर्ड्स 46–54 />

पूर्वाग्रह

एडीएम निम्न से उत्पन्न एल्गोरिथम बायस को सम्मिलित कर सकता है:

  • डेटा स्रोत, जहां डेटा इनपुट उनके संग्रह या चयन में पक्षपाती हैं[35]
  • एल्गोरिद्म का तकनीकी डिज़ाइन, उदाहरण के लिए जहां यह अनुमान लगाया गया है कि कोई व्यक्ति कैसे व्यवहार करेगा[41]
  • आकस्मिक पूर्वाग्रह, जहां अप्रत्याशित परिस्थितियों में एडीएम का आवेदन एक पक्षपाती परिणाम बनाता है[41]

स्पष्टीकरण

पक्षपाती या गलत डेटा या एल्गोरिदम के प्रश्न और चिंताएं कि कुछ एडीएम ब्लैक बॉक्स प्रौद्योगिकियां हैं, मानव जांच या पूछताछ के लिए बंद हैं, ने व्याख्यात्मकता के मुद्दे या स्वचालित निर्णयों और एआई के स्पष्टीकरण के अधिकार के रूप में संदर्भित किया है। इसे एक्सप्लेनेबल एआई (एक्सएआई) या इंटरप्रेटेबल एआई के रूप में भी जाना जाता है, जिसमें समाधान के परिणामों का विश्लेषण किया जा सकता है और मनुष्यों द्वारा समझा जा सकता है। XAI एल्गोरिदम को तीन सिद्धांतों - पारदर्शिता, व्याख्यात्मकता और व्याख्यात्मकता का पालन करने के लिए माना जाता है।

सूचना विषमता

स्वचालित निर्णय लेने से उन व्यक्तियों के बीच सूचना विषमता बढ़ सकती है, जिनका डेटा सिस्टम में फीड होता है और उस डेटा से जानकारी प्राप्त करने में सक्षम प्लेटफ़ॉर्म और निर्णय लेने वाली प्रणालियाँ। दूसरी ओर यह देखा गया है कि वित्तीय व्यापार में दो कृत्रिम बुद्धिमान एजेंटों के बीच सूचना विषमता दो मानव एजेंटों या मानव और मशीन एजेंटों के बीच की तुलना में बहुत कम हो सकती है।[42]

अनुसंधान क्षेत्र

कई शैक्षणिक विषयों और क्षेत्रों में व्यापार, कंप्यूटर विज्ञान, मानव कंप्यूटर इंटरैक्शन (एचसीआई), कानून, लोक प्रशासन, और मीडिया और संचार सहित एडीएम के विकास, अनुप्रयोग और निहितार्थ पर तेजी से ध्यान दिया जा रहा है। खोज प्रणालियों और प्लेटफार्मों के माध्यम से मीडिया सामग्री और एल्गोरिथम संचालित समाचार, वीडियो और अन्य सामग्री का स्वचालन मीडिया अध्ययनों में अकादमिक अनुसंधान का एक प्रमुख केंद्र है।[26]

निष्पक्षता, जवाबदेही और पारदर्शिता पर ACM सम्मेलन (ACM FAccT) की स्थापना 2018 में सामाजिक-तकनीकी प्रणालियों के संदर्भ में पारदर्शिता और व्याख्यात्मकता का अध्ययन करने के लिए की गई थी, जिनमें से कई में एडीएम और AI सम्मिलित हैं।

एडीएम की जांच करने वाले प्रमुख अनुसंधान केंद्रों में सम्मिलित हैं:

यह भी देखें

संदर्भ

  1. Marabelli, Marco; Newell, Sue; Handunge, Valerie (2021). "The lifecycle of algorithmic decision-making systems: Organizational choices and ethical challenges". Journal of Strategic Information Systems. 30 (1): 1-15. Retrieved November 1, 2022.
  2. 2.0 2.1 2.2 2.3 2.4 Larus, James; Hankin, Chris; Carson, Siri Granum; Christen, Markus; Crafa, Silvia; Grau, Oliver; Kirchner, Claude; Knowles, Bran; McGettrick, Andrew; Tamburri, Damian Andrew; Werthner, Hannes (2018). When Computers Decide: European Recommendations on Machine-Learned Automated Decision Making. New York: Association for Computing Machinery. doi:10.1145/3185595.
  3. Mökander, Jakob; Morley, Jessica; Taddeo, Mariarosaria; Floridi, Luciano (2021-07-06). "Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations". Science and Engineering Ethics (in English). 27 (4): 44. arXiv:2110.10980. doi:10.1007/s11948-021-00319-4. ISSN 1471-5546. PMC 8260507. PMID 34231029.
  4. UK Information Commissioner's Office (2021-09-24). यूके जनरल डेटा प्रोटेक्शन रेगुलेशन (यूके जीडीपीआर) के लिए गाइड (Report) (in English). Information Commissioner's Office UK. Archived from the original on 2018-12-21. Retrieved 2021-10-05.
  5. 5.0 5.1 Araujo, Theo; Helberger, Natali; Kruikemeier, Sanne; de Vreese, Claes H. (2020-09-01). "In AI we trust? Perceptions about automated decision-making by artificial intelligence" (PDF). AI & Society (in English). 35 (3): 611–623. doi:10.1007/s00146-019-00931-w. hdl:11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5. ISSN 1435-5655. S2CID 209523258.
  6. 6.0 6.1 Algorithm Watch (2020). Automating Society 2019. Algorithm Watch (Report) (in English). Retrieved 2022-02-28.
  7. Seah, Jarrel C Y; Tang, Cyril H M; Buchlak, Quinlan D; Holt, Xavier G; Wardman, Jeffrey B; Aimoldin, Anuar; Esmaili, Nazanin; Ahmad, Hassan; Pham, Hung; Lambert, John F; Hachey, Ben (August 2021). "Effect of a comprehensive deep-learning model on the accuracy of chest x-ray interpretation by radiologists: a retrospective, multireader multicase study". The Lancet Digital Health. 3 (8): e496–e506. doi:10.1016/s2589-7500(21)00106-0. ISSN 2589-7500. PMID 34219054. S2CID 235735320.
  8. 8.0 8.1 Snoswell, Aaron J.; Hunter, Dan (13 April 2022). "Robots are creating images and telling jokes. 5 things to know about foundation models and the next generation of AI" (in English). The Conversation. Retrieved 2022-04-21.
  9. Taddeo, Mariarosaria; Floridi, Luciano (2018-08-24). "एआई अच्छे के लिए एक ताकत कैसे हो सकता है". Science (in English). 361 (6404): 751–752. Bibcode:2018Sci...361..751T. doi:10.1126/science.aat5991. ISSN 0036-8075. PMID 30139858. S2CID 52075037.
  10. Wachsmuth, Henning; Naderi, Nona; Hou, Yufang; Bilu, Yonatan; Prabhakaran, Vinodkumar; Thijm, Tim; Hirst, Graema; Stein, Benno (2017). "प्राकृतिक भाषा में कम्प्यूटेशनल तर्क गुणवत्ता मूल्यांकन" (PDF). Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics. pp. 176–187.
  11. Wachsmuth, Henning; Naderi, Nona; Habernal, Ivan; Hou, Yufang; Hirst, Graeme; Gurevych, Iryna; Stein, Benno (2017). "Argumentation quality assessment: Theory vs. practice" (PDF). Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. pp. 250–255.
  12. Gretz, Shai; Friedman, Roni; Cohen-Karlik, Edo; Toledo, Assaf; Lahav, Dan; Aharonov, Ranit; Slonim, Noam (2020). "A large-scale dataset for argument quality ranking: Construction and analysis". Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 34. pp. 7805–7813.
  13. Green, Nancy (2013). "छात्र तर्कों के स्वचालित विश्लेषण की ओर". International Conference on Artificial Intelligence in Education. Springer. pp. 591–594.
  14. Persing, Isaac; Ng, Vincent (2015). "छात्र निबंधों में मॉडलिंग तर्क शक्ति" (PDF). Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. pp. 543–552.
  15. Brilman, Maarten; Scherer, Stefan (2015). "सफल वाद-विवाद करने वालों का एक मल्टीमॉडल प्रेडिक्टिव मॉडल या मैंने कैसे वोटों को प्रभावित करना सीखा". Proceedings of the 23rd ACM international conference on Multimedia. pp. 149–158.
  16. Potash, Peter; Rumshisky, Anna (2017). "Towards debate automation: a recurrent model for predicting debate winners" (PDF). Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. pp. 2465–2475.
  17. Santos, Pedro; Gurevych, Iryna (2018). "राजनीतिक बहसों में दर्शकों की छाप की बहुविध भविष्यवाणी". Proceedings of the 20th International Conference on Multimodal Interaction. pp. 1–6.
  18. Wang, Lu; Beauchamp, Nick; Shugars, Sarah; Qin, Kechen (2017). "Winning on the merits: The joint effects of content and style on debate outcomes". Transactions of the Association for Computational Linguistics. MIT Press. 5: 219–232. doi:10.1162/tacl_a_00057. S2CID 27803846.
  19. 19.0 19.1 Chohlas-Wood, Alex (2020). आपराधिक न्याय में जोखिम मूल्यांकन उपकरणों को समझना. Brookings Institution.
  20. Angwin, Julia; Larson, Jeff; Mattu, Surya (23 May 2016). "मशीन पूर्वाग्रह". ProPublica (in English). Archived from the original on 2021-10-04. Retrieved 2021-10-04.
  21. Nissan, Ephraim (2017-08-01). "डिजिटल तकनीक और आर्टिफिशियल इंटेलिजेंस का लॉयरिंग, जजिंग, पुलिसिंग और कानून प्रवर्तन पर वर्तमान और दूरदर्शितापूर्ण प्रभाव". AI & Society (in English). 32 (3): 441–464. doi:10.1007/s00146-015-0596-5. ISSN 1435-5655. S2CID 21115049.
  22. Dressel, Julia; Farid, Hany (2018). "वैराग्यवाद की भविष्यवाणी करने की सटीकता, निष्पक्षता और सीमाएं". Science Advances. 4 (1): eaao5580. Bibcode:2018SciA....4.5580D. doi:10.1126/sciadv.aao5580. PMC 5777393. PMID 29376122.
  23. Ferguson, Andrew Guthrie (2017). The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement. New York: NYU Press. ISBN 9781479869978.
  24. 24.0 24.1 Molnar, Petra; Gill, Lex (2018). Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada's Immigration and Refugee System (in Canadian English). Citizen Lab and International Human Rights Program (Faculty of Law, University of Toronto).
  25. Ezzamouri, Naoual; Hulstijn, Joris (2018). "नगर पालिकाओं में सतत निगरानी और लेखा परीक्षा". Proceedings of the 19th Annual International Conference on Digital Government Research: Governance in the Data Age. pp. 1–10.
  26. 26.0 26.1 26.2 26.3 26.4 Thomas, Julian (2018). "Programming, filtering, adblocking: advertising and media automation". Media International Australia (in English). 166 (1): 34–43. doi:10.1177/1329878X17738787. ISSN 1329-878X. S2CID 149139944. Q110607881.
  27. Newman, N; Fletcher, R; Kalogeropoulos, A (2017). रॉयटर्स संस्थान डिजिटल समाचार रिपोर्ट (Report) (in British English). Reuters Institute for the Study of Journalism. Archived from the original on 2013-08-17. Retrieved 2022-01-19.
  28. 28.0 28.1 Henman, Paul (2019-01-02). "Of algorithms, Apps and advice: digital social policy and service delivery". Journal of Asian Public Policy (in English). 12 (1): 71–89. doi:10.1080/17516234.2018.1495885. ISSN 1751-6234. S2CID 158229201.
  29. Henman, Paul (2017). "The Computer Says 'Debt': Towards A Critical Sociology Of Algorithms And Algorithmic Governance". Data for Policy 2017: Government by Algorithm? Conference, London. doi:10.5281/ZENODO.884116.
  30. Federal Ministry of Transport and Digital Infrastructures. ऑटोमेटेड और कनेक्टेड ड्राइविंग पर एथिक्स कमीशन की पूरी रिपोर्ट. www.bmvi.de (Report). German Government. Archived from the original on 2017-09-04. Retrieved 2021-11-23.
  31. Raats, Kaspar; Fors, Vaike; Pink, Sarah (2020-09-01). "Trusting autonomous vehicles: An interdisciplinary approach". Transportation Research Interdisciplinary Perspectives (in English). 7: 100201. doi:10.1016/j.trip.2020.100201. ISSN 2590-1982. S2CID 225261480.
  32. Andrejevic, Mark (2021). "Automated surveillance". डिजिटल मीडिया और संचार की रूटलेज हैंडबुक. Leah A. Lievrouw, Brian Loader. Abingdon, Oxon: Taylor and Francis. ISBN 978-1-315-61655-1. OCLC 1198978596.
  33. Pasquale, Frank (2016). Black box society: the secret algorithms that control money and information. Cambridge, Massachusetts: Harvard University Press. ISBN 978-0-674-97084-7. OCLC 946975299.
  34. Eubanks, Virginia (2018). Automating inequality: how high-tech tools profile, police, and punish the poor (First ed.). New York, NY. ISBN 978-1-250-07431-7. OCLC 1013516195.{{cite book}}: CS1 maint: location missing publisher (link)
  35. 35.0 35.1 No label or title -- debug: Q48816548, Wikidata Q48816548
  36. Cath, Corinne (2018-11-28). "Governing artificial intelligence: ethical, legal and technical opportunities and challenges". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 376 (2133): 20180080. Bibcode:2018RSPTA.37680080C. doi:10.1098/rsta.2018.0080. PMC 6191666. PMID 30322996.
  37. "EUR-Lex - 32016R0679 - EN - EUR-Lex". eur-lex.europa.eu (in English). Retrieved 2021-09-13.
  38. Brkan, Maja (2017-06-12). "सामान्य डेटा संरक्षण विनियमन के तहत एआई-समर्थित निर्णय लेना". Proceedings of the 16th Edition of the International Conference on Articial Intelligence and Law. ICAIL '17. London, United Kingdom: Association for Computing Machinery: 3–8. doi:10.1145/3086512.3086513. ISBN 978-1-4503-4891-1. S2CID 23933541.
  39. Court of Justice of the European Union. "Request for a preliminary ruling from the Verwaltungsgericht Wien (Austria) lodged on 16 March 2022 – CK (Case C-203/22)".
  40. loi informatique et libertés [fr].<ref>= एडवर्ड्स 46-54 >{{Cite journal |last1=Edwards |first1=Lilian |last2=Veale |first2=Michael |date=May 2018 |title=एल्गोरिथम को गुलाम बनाना: "स्पष्टीकरण के अधिकार" से "बेहतर निर्णय के अधिकार" तक?|url=https://ieeexplore.ieee.org/document/8395080 |journal=IEEE Security & Privacy |volume=16 |issue=3 |pages=46–54 |doi=10.1109/MSP.2018.2701152 |s2cid=4049746 |issn=1540-7993}। रेफरी>Binns, Reuben; Veale, Michael (2021-12-20). "क्या यह आपका अंतिम निर्णय है? मल्टी-स्टेज प्रोफाइलिंग, चयनात्मक प्रभाव और GDPR का अनुच्छेद 22". International Data Privacy Law (in English). 11 (4): 320. doi:10.1093/idpl/ipab020. ISSN 2044-3994.<nowiki>
  41. 41.0 41.1 Friedman, Batya; Nissenbaum, Helen (July 1996). "कंप्यूटर सिस्टम में पक्षपात". ACM Transactions on Information Systems (in English). 14 (3): 330–347. doi:10.1145/230538.230561. ISSN 1046-8188. S2CID 207195759.
  42. Marwala, Tshilidzi (2017). Artificial intelligence and economic theory: Skynet in the market. Evan Hurwitz. Cham. ISBN 978-3-319-66104-9. OCLC 1004620876.{{cite book}}: CS1 maint: location missing publisher (link)