من می دانم که برخی از الگوریتم های مغرضانه—چون من ایجاد یک

هوش مصنوعی و یادگیری ماشین در حال تبدیل شدن به رایج در تحقیقات و زندگی روزمره نگرانی در مورد این که چگونه این الگوریتم ها کار می کنند و پیش بینی های آنها را. برای مثال هنگامی که اپل منتشر شد کارت های اعتباری خود را در طول تابستان وجود دارد ادعا می کند که زنان داده شد اعتباری پایین تر از حد در غیر این صورت یکسان بودند. در پاسخ دیابت الیزابت وارن هشدار داد که زنان “ممکن است تبعیض ناشناخته الگوریتم.”

در آن صورت بیانیه به نظر می رسد در تضاد با راه الگوریتم کار می کنند. الگوریتم های منطقی توابع ریاضی و فرآیندهای پس چگونه می تواند آنها تبعیض علیه یک فرد یا جمعیتی خاصی?

ایجاد یک الگوریتم است که تبعیض و یا نشان می دهد تعصب نیست به عنوان سخت به عنوان آن ممکن است به نظر می رسد اما. به عنوان سال اول دانشکده مشاور من از من خواست برای ایجاد یک ماشین-آموزش الگوریتم برای تجزیه و تحلیل یک بررسی ارسال می شود به ایالات متحده فیزیک مدرسان در مورد آموزش برنامه نویسی کامپیوتر در دوره های خود را. در حالی که برنامه نویسی مهارت ضروری برای فیزیکدانان بسیاری از کارشناسی فیزیک برنامه های ارائه نمی دهد, برنامه نویسی, دوره های ترک فردی مربیان به تصمیم می گیرید که آیا برای آموزش برنامه نویسی.

این کار به نظر می رسید به اندازه کافی ساده است. من می خواهم شروع با یک الگوریتم ها در پایتون scikit-learn کتابخانه برای ایجاد الگوریتم من برای پیش بینی اینکه آیا یک نظرسنجی که مخاطب تا به حال تجربه آموزش برنامه نویسی. من می خواهم عرضه فیزیک مربی پاسخ به بررسی و اجرای الگوریتم. من الگوریتم و سپس به من بگویید که آیا مدرسان تدریس برنامه نویسی و که سوال در نظرسنجی بودند بیشترین مفید در ساخت است که پیش بینی.

هنگامی که من که من متوجه یک مشکل است. من الگوریتم نگه داشته و پیدا کردن که تنها نوشته پاسخ به سوالات (و هیچ یک از سوالات چند گزینه ای) متفاوت دو گروه از مدرسان. زمانی که من در تجزیه و تحلیل این سوالات با استفاده از روش های مختلف پیدا نکردم هر گونه تفاوت بین مدرسان که آموخت و نکرد آموزش برنامه نویسی! آن را روشن است که من تا به حال شده است با استفاده از اشتباه الگوریتم تمام وقت است.

به عنوان مثال من ممکن است احمقانه به نظر می رسد. بنابراین اگر من اشتباه انتخاب الگوریتم به پیش بینی که مدرسان آموزش برنامه نویسی? اما اگر من تا به حال عوض شده است برای ایجاد یک مدل برای پیش بینی است که بیماران باید دریافت اضافی مراقبت ؟ سپس با استفاده از اشتباه الگوریتم می تواند یک مشکل مهم است.

در عین حال این نیست فرضی به عنوان یک مطالعه اخیر در علم نشان داد. در این مطالعه محققان به بررسی یک الگوریتم ایجاد شده برای پیدا کردن بیماران که ممکن است به خوبی متناسب در “معرض خطر مراقبت مدیریت” برنامه. برای سفید و سیاه بیماران الگوریتم های شناسایی شده به عنوان داشتن برابر خطر سیاه بيمار مریض تر از سفید بیمار است. حتی اگر سیاه و سفید بیمار بود و مریض تر از سفید بیمار با الگوریتم دیدم دو نفر داشتن با هم برابر نیاز دارد.

فقط به عنوان در پژوهش مراقبت های بهداشتی شرکت استفاده کرده بودند اشتباه الگوریتم. طراحان این الگوریتم ایجاد آن برای پیش بینی هزینه های مراقبت های بهداشتی به جای شدت بیماری است. به عنوان یک نتیجه از سفید بيماران دسترسی بهتر به مراقبت و از این رو صرف بیشتر در مورد مراقبت های بهداشتی الگوریتم اختصاص سفید بيمار کمتر بیمار همان سطح خطر بیشتر بیماری سیاه بیماران. محققان ادعا می کنند که شبیه الگوریتم های اعمال شده به حدود 200 میلیون آمریکایی هر سال که می داند که چگونه بسیاری از زندگی ممکن است از دست داده اند به آنچه نویسندگان این مطالعه به نام “تعصب نژادی در یک الگوریتم”?

چه پس از آن می تواند ما را به مبارزه با این تعصب? من یاد گرفتم که من استفاده نادرست الگوریتم چون من تجسم داده من دیدم که الگوریتم من را پیش بینی نمی شد تراز وسط قرار دارد با آنچه من در داده ها یا پژوهش های قبلی گفتم و نمی تواند حذف اختلاف صرف نظر از اینکه چگونه من تغییر الگوریتم. به همین ترتیب برای مبارزه با هر گونه تعصب سیاست ایده ها نیاز به تمرکز بر روی الگوریتم ها و داده ها.

به مسائل با الگوریتم ما می تواند فشار برای الگوریتم’ شفافیت که در آن هر کس می تواند ببینید که چگونه یک الگوریتم کار می کند و کمک به بهبود. با توجه به این که تجاری ترین الگوریتم های یادگیری ماشین در نظر گرفته اطلاعات اختصاصی شرکت ها ممکن است مایل به اشتراک گذاشتن الگوریتم خود را.

عملی تر مسیر ممکن است گاهی اوقات تست الگوریتم های بالقوه تعصب و تبعیض است. شرکت های خود را می تواند انجام این تست به عنوان مجلس نمایندگان’ الگوریتم پاسخگویی به قانون نیاز دارد و یا این تست می تواند انجام شود توسط یک نهاد مستقل غیر انتفاعی مجوز رسمی از هیئت مدیره از جمله پیشنهاد انجمن برای هوش مصنوعی تنظیم (عادلانه).

به مطمئن شوید که آزمایش عادلانه اطلاعات خود نیاز به عادلانه باشد. برای مثال جرم-پیش بینی الگوریتم های تجزیه و تحلیل تاریخی داده های جرم و جنایت که در آن مردم از نژادها و گروه های اقلیت های قومی هستند در مقایسه با نسبت جمعیتی و از این رو الگوریتم ممکن است مغرضانه پیش بینی حتی اگر الگوریتم ساخته شده است به درستی. بنابراین ما نیاز به اطمینان حاصل شود که نماینده مجموعه داده های در دسترس برای تست.

گرفتن این تغییرات رخ می دهد نمی خواهد آمد به راحتی. به عنوان یادگیری ماشین و هوش مصنوعی بیشتر ضروری برای زندگی ما, ما باید اطمینان حاصل شود ما قوانین و مقررات حفظ سرعت. یادگیری ماشین است که در حال حاضر انقلابی کل صنایع و ما تنها در آغاز انقلاب. ما به عنوان شهروندان نیاز به نگه داشتن الگوریتم توسعه دهندگان و کاربران پاسخگو به اطمینان حاصل شود که مزایای استفاده از یادگیری ماشین در حال عادلانه توزیع شده است. با در نظر گرفتن اقدامات احتیاطی مناسب اطمینان حاصل می کنیم که الگوریتمی تعصب یک اشکال است و نه یک ویژگی از آینده الگوریتم.

tinyurlis.gdv.gdv.htclck.ruulvis.netshrtco.de