एआयला बायसेस असू शकतात?

लेखक: Laura McKinney
निर्मितीची तारीख: 5 एप्रिल 2021
अद्यतन तारीख: 26 जून 2024
Anonim
MGA KA सॉलिड फ्रेंडशिप कम्युनिटी को गुरुवार की शुभकामनाएं!
व्हिडिओ: MGA KA सॉलिड फ्रेंडशिप कम्युनिटी को गुरुवार की शुभकामनाएं!

सामग्री


टेकवे:

अलिकडच्या वर्षांत, एआय वाढत्या प्रमाणात स्वीकारले गेले आहे आणि सौंदर्याचे मूल्यांकन करण्यापासून ते पुनरुत्पादनाच्या जोखमीचे मूल्यांकन करण्यासाठी सर्वकाही लागू केले आहे. असे करताना, त्याने ब several्याच उदाहरणांमध्ये पक्षपातीपणा आणि भेदभावाला समर्थन देणारी मानके देखील पाळली आहेत.

तंत्रज्ञानाच्या प्रगतीत माहिती आणि संधीमध्ये प्रवेश निश्चितपणे लोकशाहीकरण करण्याची क्षमता आहे. तथापि, जेव्हा काही प्रकरणांमध्ये याचा वापर आपल्या समाजात काही लोक इतरांपेक्षा समान असतात अशी समज वाढविते.

हे आम्ही खालील सात घटनांमधून पाहिले आहे ज्यात कृत्रिम बुद्धिमत्ता (एआय) मुद्दाम काही विशिष्ट श्रेणी वगळण्यासाठी वापरली जाते किंवा ज्यात हे सहजपणे मानवी प्रोग्रामरद्वारे विवेकी प्रभावाने अंतर्भूत केलेल्या पूर्वाग्रह प्रतिबिंबित करते.

एआय ब्यूटी बायस

सौंदर्य हे पाहणा of्याच्या डोळ्यात असू शकते, परंतु जेव्हा ते व्यक्तिनिष्ठ दृश्य एआय प्रोग्राम करू शकते तेव्हा आपल्याला प्रोग्राममध्ये पूर्वाग्रह आला असेल. २०१hel मध्ये ब्यूटी.वाई पासून सौंदर्य स्पर्धेत राहेल थॉमस यांनी अशाच एका भागाची माहिती दिली. निकालांमध्ये असे दिसून आले की फिकट रंगांना गडद रंगांपेक्षा जास्त आकर्षक मानले गेले.


पुढच्या वर्षी, “फेसअॅप, जे छायाचित्रांचे फिल्टर तयार करण्यासाठी न्यूरल नेटवर्क वापरतो, एक‘ हॉटनेस फिल्टर ’तयार केला ज्याने लोकांची त्वचा फिकट केली आणि त्यांना अधिक युरोपियन वैशिष्ट्ये दिली.”

भाषांमध्ये लिंग बायस

थॉमस यांनी अनुवादाचे दस्तऐवजीकरण केलेले उदाहरण देखील नमूद केले जे करिअरच्या रूढ अपेक्षांवर अवलंबून आहेत. प्रारंभिक बिंदू दोन वाक्ये आहेत: "ती एक डॉक्टर आहे. ती एक नर्स आहेत."

नंतर आपण त्यास तुर्कीमध्ये आणि इंग्रजीमध्ये परत भाषांतरित केले तर आपणास टेलिफोनच्या गेममधून अपेक्षित प्रकारचे निकाल मिळेल.

आपण ज्या गोष्टीची सुरुवात केली त्याऐवजी आपल्याला 1950 ची अपेक्षा मिळेल, "ती एक डॉक्टर आहे. ती एक नर्स आहे." ती स्पष्टीकरण देते की तुर्की भाषेतील लिंग-तटस्थ एकवचन सर्वनामांमुळेच अपेक्षांवर आणि रूढीवादी पक्षपातीवर आधारित लिंग नियुक्त केले जाईल. (एआय मधील महिला वाचा: लैंगिकता आणि तंत्रज्ञानासह तंत्रज्ञानाची मजबुतीकरण.)

वांशिक आणि लिंगभेद करणारी पूर्वग्रह प्रतिमा आणि भाषेत फिल्टर केल्याने ते चिथावणी देतात, परंतु एआयमुळे उद्भवलेल्या सक्रिय भेदभावासारखी ती समान गोष्ट नाही, परंतु तसेही झाले आहे.


त्याचा पुरावा हा त्याच्या गृहनिर्माण श्रेणी अंतर्गत असलेल्या जाहिरातींसाठी ठेवलेल्या मर्यादांचा स्क्रीनशॉट होता ज्याने आफ्रिकन अमेरिकन, एशियन अमेरिकन किंवा हिस्पॅनिक सारख्या श्रेणी वगळता प्रेक्षकांना संकुचित करण्याचा पर्याय स्वीकारला. जाहिरात येथे पाहिली जाऊ शकते.

प्रोपब्लिका यांनी म्हटल्याप्रमाणे, अशा जाहिरातींचा भेदभावपूर्ण परिणाम 1968 च्या फेअर हाऊसिंग Actक्ट आणि 1964 च्या नागरी हक्क कायद्यांतर्गत बेकायदेशीर आहे. या प्रकरणात फक्त बचाव हा होता की तो स्वतःच रहिवासी नव्हता, कारण ती होती. ' मालमत्ता किंवा विक्रीसाठी किंवा भाड्याने देण्यासाठी घर.

तथापि, वांशिक पक्षपातीपणाचे लक्ष्य करणारी इतरही उदाहरणे आहेत आणि यामुळे विविध घटकांना सामाजिक नेटवर्कच्या विरोधात नागरी दावे आणण्यास प्रवृत्त केले आहे. वायर्डने दिलेल्या वृत्तानुसार, मार्च 2019 मध्ये अल्पसंख्यांकांविरूद्ध भेदभाव सक्षम केल्याचा आरोप लावणा five्या पाच कायदेशीर खटल्यांचा तोडगा निघाल्यामुळे अखेर त्याची जाहिरात-लक्ष्यीकरण तंत्र समायोजित करण्याचा संकल्प केला.

सेटलमेंटवरील आपल्या अहवालात, एसीएलयूने अशा लक्ष्यित जाहिराती किती कपटी असू शकतात याकडे लक्ष वेधले आहे, कारण अल्पसंख्याक आणि स्त्रियांनासुद्धा माहिती नाही की गोरे पुरुषांशी सामायिक केलेल्या नोकरीच्या संधींमध्ये समान प्रवेश दिला जात नाही.

नोकरी, अपार्टमेंट्स आणि कर्ज शोधण्यासाठी जास्तीत जास्त लोक इंटरनेटकडे वळत असताना, जाहिरातींमधील लक्ष्य लक्ष्यित करणे समाजातील विद्यमान वंशीय आणि लैंगिक पक्षपातीची प्रतिकृती बनवेल आणि त्यास त्रास देईल असा खरा धोका आहे. कल्पना करा की जर एखादा नियोक्ता केवळ पुरुषांना अभियांत्रिकी नोकरीसाठी जाहिराती दर्शविण्यास निवडत असेल - तर पुरुष म्हणून ओळखल्या गेलेल्या वापरकर्त्यांना केवळ त्या जाहिराती कधीच दिसणार नाहीत तर त्यांनी काय गमावले हे देखील त्यांना कळणार नाही.

तरीही, आम्ही ऑनलाइन पाहत नसलेल्या जाहिराती ओळखण्याचे क्वचितच एक मार्ग आहे. हा भेदभाव वगळलेल्या वापरकर्त्यासाठी अदृश्य आहे हे थांबविणे अधिक कठीण करते.

२. नोकरीत लिंग आणि वय भेदभाव

कायदेशीर प्रकरणांमध्ये घरातील बेकायदेशीर भेदभाव होता ज्यास लक्ष्यित केले जाऊ शकते. सेटलमेंटसंबंधीच्या आपल्या अहवालात, प्रोपब्लिका म्हणाले की त्यांनी या व्यासपीठाची चाचणी केली आहे आणि आफ्रिकन अमेरिकन आणि यहूदी यासारख्या वगळलेल्या गटांवरील “गृहनिर्माण संबंधित जाहिराती खरेदी करण्यात यश मिळविले आहे, आणि यापूर्वी कंपन्यांद्वारे वयाच्या आणि लिंगानुसार वापरकर्त्यांना वगळता नोकरीच्या जाहिराती सापडल्या आहेत. ती घरातील नावे आहेत. ”

एसीएलयूच्या बर्‍याच नोकरी जाहिराती आढळल्या ज्या एका विशिष्ट वयाच्या कंसातील पुरुषांकडे स्पष्टपणे लक्ष्य केल्या गेल्या आहेत कारण वापरकर्त्यांना ती विशिष्ट जाहिरात का दर्शविली गेली या उत्तरावर क्लिक करतांना ते दुसर्‍या वायर्ड लेखात वैशिष्ट्यीकृत आहेत. एसीएलयूने समान रोजगार संधी आयोगाकडे सामाजिक नेटवर्क आणि ज्या कंपन्यांनी जाहिराती आणि त्या कामगार आणि नागरी हक्क कायद्याच्या दोन्ही उल्लंघनांचे उल्लंघन केले आहे अशा कारणास्तव जाहिराती आणल्या.

40 वर्षांपेक्षा जास्त लोकांना नोकरीवर ठेवण्याचा भेदभाव फेडरल एज डिस्क्रिमिनेशन इन एम्प्लॉयमेंट अ‍ॅक्ट (एडीईए) चे उल्लंघन करते. परंतु प्लॅटफॉर्मद्वारे सक्षम केलेल्या गोष्टींपैकी केवळ त्या वयाखालील लोकांना नोकरीच्या जाहिरातींचे लक्ष्यित करणे.

प्रो-रिपब्लिकाने केले की त्याच्या कोणत्या अहवालांचा केंद्रबिंदू आहे की कोणत्या नोकरीच्या जाहिराती वयानुसार वगळण्याच्या या बेकायदेशीर प्रकारासाठी कोणत्या रोजगार जाहिरातींचे भांडवल करतात. “घरगुती नावे” मध्ये व्हेरिझन, यूपीएस, उबर, टार्गेट, स्टेटफार्म, वायव्य म्युच्युअल, मायक्रोसॉफ्ट, जे स्ट्रीट, हसबस्पॉट, आयकेईए, फंड फॉर द पब्लिक इंटरेस्ट, गोल्डमन सच, ओपनवर्क्स आणि स्वतःच इतर काही समाविष्ट आहेत.

चेहर्यावरील ओळख अयशस्वी

“चेहरा ओळखणे अचूक आहे, जर आपण एक पांढरा मुलगा असाल तर” फेब्रुवारी २०१ in मध्ये प्रकाशित झालेल्या न्यूयॉर्क टाइम्सच्या लेखाच्या मथळ्याची घोषणा केली. यात त्वचेचा टोन आणि सदोष ओळख यांच्यात एक वेगळा संबंध असल्याचे आढळलेल्या निकालांचे नमूद केले:

“काळ्या त्वचेवर अधिक त्रुटी उद्भवू शकतात - काळ्या रंगाच्या त्वचेच्या स्त्रियांसाठी जवळजवळ 35% प्रतिमांपर्यंत, नवीन अभ्यासानुसार तंत्रज्ञान वेगवेगळ्या वंश आणि लिंग यांच्यावर कसे कार्य करते हे मोजून नवीन मैदान मोडते.”

या निष्कर्षांचे श्रेय एमआयटी मीडिया लॅबचे संशोधक आणि अल्गोरिथमिक जस्टिस लीग (एजेएल) चे संस्थापक जॉय बुआलमविनी यांना दिले जाते. तिचे संशोधनाचे क्षेत्र म्हणजे एआयला अधोरेखित करणारे पूर्वाग्रह आहे, जेव्हा मॉडेलसाठी पांढरे नर मापदंड न बसणा faces्या चेह recogn्यांना ओळखण्याची वेळ येते तेव्हा असे परिणाम होतात.

बुलमविनी यांनी २०१ T च्या टीईडी चर्चेत चेहर्‍यांच्या ओळखीसाठी वांशिक आणि लिंगभेद समस्या दर्शविली, ज्यात तिने एमआयटी लॅबच्या जेंडर शेड्स प्रोजेक्टवरील व्हिडिओमध्ये तिच्या सुरुवातीच्या 2018 चा संदर्भ दिला:

<

व्हिडिओच्या वर्णनात असे लिहिलेले आहे की एआय बायसची तपासणी न करता सोडल्यास, "ऑटोमेशनचे युग अपंग होईल आणि जर फेस्टरवर सोडले तर असमानता आणखी तीव्र करेल." मशीन "तटस्थतेच्या चुकीच्या धारणा अंतर्गत नागरी हक्क चळवळ आणि महिला चळवळीने केलेले नफा गमावण्यापेक्षा जोखीम काही कमी नाही."

व्हिडिओ वर्णनातून इतरांनी इशारा केला आहे की आम्ही एआय मधील महिलांमध्ये पाहिले आहेः टेक विथ सेक्सिझम आणि स्टिरिओटाइप्सला मजबूत करणे: "स्वयंचलित प्रणाली मूळतः तटस्थ नसतात. ते प्राधान्यक्रम, प्राधान्ये आणि पूर्वग्रह प्रतिबिंबित करतात reflect कोड कृत्रिम बुद्धिमत्ता मोल्ड करण्याची ताकद असणार्‍या लोकांकडे टक लावून पाहणे. "

25 जानेवारी, 2019 रोजी बुलमन्विनी यांनी एक मध्यम पोस्ट प्रकाशित केले जे तिच्या स्वतःच्या संशोधनावर आधारित आहे आणि अतिरिक्त संशोधकांनी असे लिहिले आहे की एआयच्या त्रुटींमध्ये Amazonमेझॉनच्या ओळखीतील त्रुटींमध्ये कसा परिणाम होतो आणि कंपनीने पोलिस विभागांना एआय सर्व्हिसची विक्री थांबवावी अशी मागणी केली.

जरी प्रकाश मादक पुरुषांना ओळखण्यासाठी 100% अचूकपणा आणि गडद पुरुषांसाठी 98.7% अचूकतेचा अभिमान बाळगू शकतो, परंतु जेव्हा स्त्रियांकडे येते तेव्हा ती अचूकता फिकट मादीसाठी 92.9% पर्यंत खाली आली. त्याहूनही अधिक तेजस्वी काळ्या स्त्रियांसाठी फक्त 68.6% अचूकतेपर्यंत घसरण झाली.

पण Amazonमेझॉनने धीर धरण्यास नकार दिला. व्हेंचर बीटच्या लेखात ए.डब्ल्यूएस मधील डीप लर्निंगचे जनरल मॅनेजर आणि ए.आय. मॅट वुड यांचे एक विधान उद्धृत केले आहे, ज्यात त्यांनी आग्रह धरला की एआय प्रत्यक्षात कसा वापरला जातो हे संशोधकांचे निष्कर्ष प्रतिबिंबित करत नाहीत:

“चेहरा विश्लेषण आणि चेहर्यावरील ओळख मूलभूत तंत्रज्ञानाच्या बाबतीत आणि त्यांना प्रशिक्षण देण्यासाठी वापरल्या जाणार्‍या डेटाच्या बाबतीत पूर्णपणे भिन्न आहे. चेहर्यावरील विश्लेषणाची अचूकता मोजण्यासाठी चेहर्याचा विश्लेषण वापरण्याचा प्रयत्न करण्याचा सल्ला दिला जातो, कारण त्या हेतूसाठी तो तयार केलेला अल्गोरिदम नाही. ”

परंतु अल्गोरिदम अत्यंत समस्याप्रधान असल्याचे आढळलेल्या केवळ प्रमुख संशोधन केंद्रांशी संबद्ध असलेलेच नाही. गिझमोडोच्या अहवालानुसार एसीएलयूने स्वतःची चाचणी a 12.33 च्या सर्वात वाजवी किंमतीवर घेतली. हे आढळले की रिकग्निशनने गुन्हेगारांच्या फोटोंसह कॉंग्रेसच्या 28 सदस्यांशी जुळवून घेतले.

"जेव्हा उत्तर कॅलिफोर्नियाच्या एसीएलयूने कॉंग्रेसच्या सर्व 5 535 सदस्यांचे 25,000 सार्वजनिकपणे उपलब्ध मगशॉट फोटो विरुद्ध जुळणारे फोटो ओळखण्याचे काम रेकॉग्निशनला दिले तेव्हा चुकीची ओळख पटली."

कारण 28 पैकी 11 जण रंगाचे लोक होते, यामुळे त्यांच्यासाठी महत्त्वपूर्ण 39% त्रुटी दर प्रतिबिंबित झाला. याउलट एरर रेट संपूर्णपणे अधिक स्वीकार्य 5% होते. कॉंग्रेसच्या ब्लॅक कॉकसच्या सहा सदस्यांनी, जे मुगशॉट्सशी जोडलेल्या त्या रिकॉग्निशनमध्ये होते, त्यांनी Amazonमेझॉनच्या मुख्य कार्यकारी अधिकारी यांना खुल्या पत्रात आपली चिंता व्यक्त केली.

रिकडिव्हिझम बायस

रंगाच्या लोकांविरूद्ध एआयमध्ये एम्बेड केलेला पूर्वाग्रह अधिक गंभीर समस्या बनतो जेव्हा त्याचा अर्थ केवळ ओळखण्यात त्रुटी नसणेच असते. २०१ 2016 मध्ये प्रो-रिपब्लिकाच्या दुसर्‍या अन्वेषणात ते सापडले होते. अशा पक्षपातीपणाचे परिणाम वैयक्तिक स्वातंत्र्यापेक्षा काही कमी नाहीत आणि ज्याच्या त्वचेचा रंग अल्गोरिदम द्वारे अनुकूल आहे अशा व्यक्तीकडून वास्तविक जोखीमकडे दुर्लक्ष केले जाते.

या लेखात दोन समांतर प्रकरणांचा उल्लेख केला आहे ज्यात एक पांढरा गुन्हेगार आणि एक काळा प्रकरण आहे. कोणत्या कायद्यात पुन्हा कायदा मोडण्याची शक्यता आहे हे सांगण्यासाठी अल्गोरिदमचा वापर केला गेला. काळ्यास उच्च धोका आणि पांढर्‍याला कमी जोखमीने रेटिंग दिले गेले.

भविष्यवाणीत ती पूर्णपणे चुकीची झाली आणि मुक्त झालेल्या पांढ white्या माणसाला पुन्हा तुरूंगात टाकले गेले. हे अत्यंत समस्याप्रधान आहे कारण न्यायालयीन पॅरोलच्या निर्णयाबद्दलच्या स्कोअरिंगवर अवलंबून असतात आणि याचा अर्थ असा आहे की कार्यक्रमात वर्णित जातीय पूर्वाग्रह म्हणजे कायद्यानुसार असमान वागणूक.

२०१P आणि २०१ in मध्ये ब्रॉव्हार्ड काउंटी, २०१ in आणि २०१ in मध्ये अटक केलेल्या 7,००० पेक्षा जास्त लोकांच्या जोखमीच्या स्कोअरची तुलना पुढील दोन वर्षांत त्यांच्यावर नवीन गुन्हेगारी आरोप लावण्यात आलेल्या प्रोपर्पाने अल्गोरिदमला स्वत: च्या चाचणीत लावले.

त्यांना आढळले की हिंसक स्वरूपाच्या गुन्ह्यांची पुनरावृत्ती करण्याच्या केवळ 20% भाकित भविष्यवाण्या ख came्या अर्थाने सत्य ठरल्या आणि अधिक किरकोळ गुन्हेगारी केवळ 61% अशा लोकांकरिता घडते ज्याचा धोका दर्शविणारा असतो.

खरी समस्या ही केवळ अचूकतेचा अभाव नसून त्यात समाविष्ट असलेल्या वांशिक पूर्वाग्रह आहे:

  • हे सूत्र विशेषत: काळ्या प्रतिवादींना भविष्यातील गुन्हेगार म्हणून चुकीचे ध्वजांकित करेल, अशा प्रकारे पांढरे प्रतिवादी म्हणून दुप्पट दराने अशा प्रकारे त्यांना लेबल लावा.
  • काळ्या प्रतिवादींपेक्षा जास्त वेळा पांढरा प्रतिवादी कमी जोखीम म्हणून चुकीचे ठरविले गेले.

वास्तविक, हे काळ्या लोकांसाठी 45% आणि पांढ white्या लोकांसाठी 24% च्या एरर रेटमध्ये भाषांतरित झाले. ती स्पष्ट आकडेवारी असूनही थॉमस यांनी नोंदवले की विस्कॉन्सिन सुप्रीम कोर्टाने अद्यापही या अल्गोरिदमचा वापर कायम ठेवला आहे. तिने रिकिडिव्हिझम अल्गोरिदमशी संबंधित इतर समस्यांचा तपशील देखील दिला आहे.