یک الگوریتم است که کمک های مالی آزادی یا آن طول می کشد دور

فیلادلفیا — Darnell دروازه نشسته در یک جدول طولانی در مرکز شهر فیلادلفیا ساختمان اداری است. او عینک یک تی شرت سیاه و سفید با “کالیفرنیا” در زرد روشن نامه در قفسه سینه. او تا به حال هرگز به دولت اما او امیدوار است به دیدار خانواده وجود دارد پس از اتمام مشروط.

زمانی که آقای گیتس از زندان آزاد شد در سال 2018 — او خدمت کرده بود زمان برای در حال اجرا یک ماشین به یک خانه در سال 2013 و بعد از آن برای خشونت و تهدید سابق خود شریک داخلی — او نیاز به بازدید از یک مشروط دفتر یک بار در هفته پس از او تلقی شده است “خطر بالا است.”

به نام او بازدیدکننده داشته است خود را “دم” و “دسته سه تایی.” در نهایت دسته سه تایی کشیده شد به هر دو هفته. بعد از آن یک ماه است. آقای گیتس نبود گفت چرا. او شکایت کرده است که گفتگو با او را مشروط افسران سرد و غیرشخصی. آنها به ندرت زمان او را درک کنند توانبخشی.

او درک نمی کنند که یک الگوریتم به حال با برچسب او را در معرض خطر تا زمانی که به او گفته شد در مورد آن در مصاحبه با نیویورک تایمز.

“منظورت چیست؟” آقای گیتس از 30 خواست. “منظور شما به من بگویید من در برخورد با این همه به دلیل یک کامپیوتر؟”

در فیلادلفیا یک الگوریتم ایجاد شده توسط یک استاد در دانشگاه پنسیلوانیا کمک کرده دیکته تجربه probationers برای حداقل پنج سال.

این الگوریتم یکی از بسیاری از تصمیم گیری در مورد زندگی مردم در ایالات متحده و اروپا است. مقامات محلی با استفاده از به اصطلاح اخباری الگوریتم به مجموعه گشت های پلیس, زندان, جملات و مشروط شدن قوانین. در هلند یک الگوریتم پرچم رفاه تقلب خطرات. یک شهر بریتانیا نرخ آن نوجوانان هستند به احتمال زیاد برای تبدیل شدن به مجرمان است.

تقریبا هر دولتی در امریکا تبدیل شده به این نوع جدیدی از حکومت الگوریتم با توجه به Electronic Privacy Information Center, یک سازمان غیر انتفاعی اختصاص داده شده به حقوق دیجیتال. الگوریتم دیده بان, دیده بان در برلین, شناسایی برنامه های مشابه در حداقل 16 کشور اروپایی است.

به عنوان تمرین به مکان های جدید و قطعات جدید از دولت و سازمان ملل متحد محققان مدنی و حقوق وکلا و اتحادیه های کارگری و سازمان دهندگان جامعه شده است هل دادن به عقب.

آنها خشمگین رو به رشد وابستگی به سیستم های خودکار هستند که مصرف انسان و شفافیت خارج از این روند است. آن است که اغلب روشن نیست که چگونه سیستم های در حال ساخت تصمیم گیری کنند. این است که جنسیت یک عامل ؟ سن? کد پستی? آن را سخت به می گویند از آنجا که بسیاری از دولتها و کشورها باید چند قوانین نیاز است که الگوریتم سازان خود را فاش فرمول.

آنها همچنین نگران هستند که تعصبات — مربوط به نژاد و جغرافیا — از افرادی که با ایجاد الگوریتم های در حال پخته شده را به این سیستم به عنوان ProPublica گزارش کرده است. در سن خوزه, کالیفرنیا که در آن یک الگوریتم استفاده می شود در طول تفهیم اتهام جلسات یک سازمان به نام دره سیلیکون د-اشکال مصاحبه با خانواده هر یک متهم طول می کشد این اطلاعات شخصی برای هر جلسه و سهام آن با مدافعان به عنوان یک نوع متعادل به الگوریتم.

دو جامعه, سازمان, رسانه ها بسیج پروژه در فیلادلفیا و MediaJustice در اوکلند کالیفرنیا به تازگی وارد یک پایگاه داده ملی از الگوریتم های پیش بینی. و جامعه عدالت, بورس, یک سازمان ملی است که پشتیبانی از سازمان دهندگان جامعه است توزیع 50 صفحه راهنمای که توصیه سازمان در مورد چگونه به مقابله با استفاده از الگوریتم های.

الگوریتم قرار است به منظور کاهش بار بر روی understaffed سازمان کاهش هزینه های دولت و — آل — حذف بشر تعصب. مخالفان می گویند دولت نمی نشان داده علاقه زیادی به یادگیری آنچه در آن به معنی به انسان از تصمیم گیری. اخیر گزارش سازمان ملل متحد هشدار داده است که دولت ها را به خطر انداخته “سکندری مانند انسان زنده به دیجیتال-رفاه ناکجاآباد.”

در سال گذشته آیداهو تصویب یک قانون مشخص است که روش ها و داده های مورد استفاده در وثیقه الگوریتم باید در دسترس عموم تا عموم مردم می تواند درک چگونه کار می کنند. در هلند یک منطقه حکم دادگاه روز شنبه در این کشور رفاه-تقلب, نرم افزار, نقض حقوق بشر اروپا قانون یکی از اولین احکام علیه دولت استفاده از الگوریتم های پیش بینی.

“من است که در آن تعامل انسان?” آقای گیتس پرسید: نشستن در کنار وکیل خود در شهرستان از فیلادلفیا مدافع عمومی ، “چگونه می توانم به شما برنده شدن در مقابل یک کامپیوتر است که ساخته شده است به شما را متوقف کنید ؟ چگونه می توانم شما را متوقف چیزی که predetermines سرنوشت خود را?”

اعتبار…Bastiaan Slabbers/Sipa و ایالات متحده آمریکا از طریق آسوشیتد پرس

در اخیر روز شنبه, تاد Stephens شنبه در دادگاه های غذایی در سراسر خیابان از شهروندان در بانک پارک, صفحه اصلی, از فیلادلفیا فیلیز. او در توضیح آخرین تلاش برای بازسازی دولت صدور حکم شیوه های با یک پیش بینی الگوریتم.

پیش بینی الگوریتم در ابتدایی ترین کار با استفاده از داده های تاریخی برای محاسبه احتمال حوادث آینده شبیه به چگونه یک کتاب ورزشی تعیین شانس برای یک بازی و یا نظرسنجی پیش بینی به نتیجه انتخابات.

این فناوری بر اساس روش های آماری استفاده شده برای دهه اغلب برای تعیین خطر است. آنها شده اند سوپر لطف افزایش مقرون به صرفه قدرت محاسباتی و داده های موجود است.

بخش خصوصی با استفاده از این ابزار در همه زمان ها برای پیش بینی احتمال زیاد مردم به طور پیش فرض بر روی وام مریض می شود و یا در یک ماشین خراب و یا اینکه آنها را به کلیک بر روی تبلیغ اینترنت. دولت که به نگه داشتن مقادیر زیادی از اطلاعات در مورد مکان های عمومی شده اند مشتاق به شیر بالقوه خود را.

یک عضو جمهوری خواه از پنسیلوانیا در مجلس نمایندگان آقای استفنز بخشی از یک کمیسیون دولت در حال کار برای اتخاذ فن آوری است. مانند بسیاری از ایالت پنسیلوانیا موظف است که یک الگوریتم توسعه یافته برای کمک به تصمیم دادگاه این حکم پس از کسی است که به اعدام محکوم شده.

این ایده آقای استفنز گفت: برای پیش بینی احتمال زیاد مردم به ارتکاب جرم دیگری با جمع آوری اطلاعات در مورد آنها و مقایسه آن با آمار توصیف شناخته شده باشند. که ممکن است شامل سن و جنس و گذشته و حال اعتقادات.

این کمیسیون پیشنهاد کرده بود یک طرح است که باید با تکیه بر اطلاعات ارائه شده توسط شهرستان مشروط ادارات. اما اتحادیه آزادی های مدنی آمریکا و گروه های جامعه اعتراض این طرح در جلسات عمومی پاییز گذشته. آنها نگران این امر گسترش قدرت پیش بینی الگوریتم های مورد استفاده به صورت مشروط از جمله یکی که برچسب آقای گیتس.

“ما راه می رفت به یک لانه زنبور من حتی نمی دانند وجود” آقای استفنز گفت.

در پاسخ به این اعتراض کمیسیون امور خارجه توصیه می شود بسیار ساده تر راه اندازی مبتنی بر نرم افزار در حال حاضر مورد استفاده توسط دادگاه های ایالتی. اما حتی این الگوریتم دشوار است برای یک layperson به درک. خواسته به توضیح آن آقای استفنز پیشنهاد صحبت با یکی دیگر از کمیسر.

Nyssa تیلور عدالت کیفری سیاست های مشاور با فیلادلفیا A. C. L. U. بود در میان معترضان. او نگران است که الگوریتم را تشدید کند به جای کاهش تعصب نژادی. حتی اگر دولت های به اشتراک گذاری چگونه از سیستم خود می رسند تصمیم گیری — که اتفاق می افتد در فیلادلفیا در برخی موارد — ریاضی است که گاهی اوقات بیش از حد پیچیده برای بسیاری از افراد به بسته بندی کردن سر خود را در اطراف.

الگوریتم های مختلف در آغوش فیلادلفیا سیستم عدالت کیفری طراحی شده بودند توسط ریچارد Berk یک استاد جرم شناسی و آمار در پن. این الگوریتم ها استفاده نمی کردن کد پستی و یا دیگر مکان داده است که می تواند یک پروکسی برای مسابقه, او گفت:. و هر چند او اذعان کرد که یک layperson نمی تواند به راحتی درک الگوریتم تصمیم گیری او گفت: انسان در قیامت همین مشکل رو داره.

“همه ماشین-الگوریتم های یادگیری هستند جعبه سیاه اما مغز انسان نیز یک جعبه سیاه” دکتر Berk گفت. “اگر یک قاضی تصمیم می گیرد که آنها در حال رفتن به شما را برای 20 سال است که یک جعبه سیاه است.”

علامت Houldin سابق مدافع که او نیز در میان معترضان گفت که او نگران بود که الگوریتم بودند ناعادلانه اتصال برچسب به افراد به آنها منتقل شده از طریق سیستم عدالت کیفری.

در استشهاد همراه با یک طرح دعوی در دادگاه به تازگی ثبت شده توسط دفتر مدافع سابق فیلادلفیا افسر عفو مشروط گفت: مشروط شدن بخش پیش بینی الگوریتم نیز تحت تاثیر تفهیم اتهام جلسات. برای سال, او گفت: اگر کسی دستگیر شد و متهم با جرم و جنایت در حالی که در مشروط شدن — و حال تلقی شده است “در معرض خطر” توسط الگوریتم — به مشروط شدن در اتاق به طور خودکار دستور در زندان به آزادی فرد است.

یک سخنگوی فیلادلفیا شهرستان را تکذیب کرد که سیستم عمل در این راه. “هر حکم ادامه توقیف صادر شده است مورد بررسی با نظارت ستاد” مشروط وزارت, او گفت:, “و متوجه است که مناسب ارسال به مقام قضایی.”

آقای Houldin استدلال کرد که استفاده از آزادی مشروط الگوریتم در این وضعیت انکار می کند با توجه روند. “اگر شما در حال بازداشت برای یک جرم برائت از بین رفته است,” او گفت:.

دکتر Berk که در طراحی مشروط الگوریتم گفت که طراحی شده برای استفاده در این راه.

“یکی از چیزهایی که من را واقعا روشن در مورد این الگوریتم — و دیگران — این است که آنها دست طراحی شده و به یک تصمیم خاص,” او گفت:. “اگر شما آنها را به حرکت به یکی دیگر از تصمیم ضمانت صدق نمی کنه.”

سال گذشته در روتردام یک شایعه در گردش در دو عمدتا کم درآمد و مهاجر محله ادعا کرد که دولت در شهرستان آغاز شده بود با استفاده از تجربی الگوریتم برای گرفتن شهروندان که ارتکاب رفاه و تقلب مالیاتی.

محمد سعیدی در مورد آن آموخته از یک پیام WhatsApp است که او در ابتدا فکر کردم یک شوخی بود. محمد Bouchkhachakhe برای اولین بار شنیده ام از مادرش که گفته شده بود توسط یک دوست. Driss Tabghi کردم کلمه از یک محلی رسمی اتحادیه.

شایعه تبدیل به حقیقت است.

هلندی برنامه سیستم خطر نشانه اسکن داده های مختلف از مقامات دولت به پرچم افرادی که ممکن است این ادعا کمک بیکاری زمانی که آنها در حال کار و یا یارانه مسکن برای زندگی به تنهایی زمانی که آنها زندگی می کنند با چندین نفر دیگر.

این سازمان اجرا می شود که برنامه وزارت کار و امور اجتماعی و اشتغال گفت: این اطلاعات می تواند شامل درآمد و بدهی آموزش و پرورش, ملک, اجاره, ماشین, مالکیت, آدرس خانه و مزایای رفاهی را برای فرزندان مسکن و مراقبت های بهداشتی.

الگوریتم تولید “خطر گزارش” در افراد است که باید مورد سوال توسط محققان. در روتردام که در آن سیستم شد اخیرا استفاده می شود 1,263 خطر گزارش های تولید شده در دو محله.

“شما با قرار دادن من در یک سیستم است که من حتی نمی دانند وجود داشته است” گفت: آقای Bouchkhachakhe که با این نسخهها کار برای یک شرکت لجستیک.

این برنامه شده است در پردهی پنهان کاری. حتی کسانی که زمین در این لیست نیست اطلاع داد. آنها نمی گفت که چگونه الگوریتم ساخت آن تصمیم گیری و یا اینکه راه برای تجدید نظر شود. در سال 2019 شهرستان جلسه شورای اجتماعی وزارت ناگهان به پایان رسید که اعضای این دولت شهر نمی امضای توافقنامه nondisclosure قبل از دریافت یک جلسه توجیهی در مورد چگونه سیستم کار می کند.

چنین افشا خواهد “تداخل با توانایی به طور موثر بررسی” وزارت گفت: در پاسخ به سوالات.

در یک گزارش در ماه اکتبر گزارشگر ویژه سازمان ملل در فقر شدید و حقوق بشر با انتقاد از سیستم هلندی برای ایجاد یک “digital دولت رفاه” تبدیل می شود که بسیار مهم تصمیم گیری در مورد زندگی مردم بیش از ماشین آلات.

“تمام محله ها تلقی مشکوک و موضوع به ویژه موشکافی است که معادل دیجیتال از تقلب بازرسان ضربه زدن بر روی هر درب در یک منطقه خاص می باشد”. “چنین موشکافی اعمال می شود به کسانی که زندگی در بهتر کردن مناطق است.”

برنامه های مشابه وجود دارد در جاهای دیگر. در کارولینای شمالی آی بی ام نرم افزار استفاده شده است برای شناسایی پزشکی تقلب. در لندن شوراهای محلی آزمایش نرم افزار برای شناسایی کسانی که ممکن است به اشتباه ادعا مسکن بهره مند شوند. سیستم های در حال استفاده به پرچم کودکانی که ممکن است در معرض خطر سوء استفاده.

در روتردام اپوزیسیون ساخته شده بعد از کلمه مورد تکنیک های گسترش. حریم خصوصی گروه های حقوق مدنی, حقوق وکلا و ملی بزرگترین اتحادیه کارگری بسیج شهروندان برای مبارزه با این تلاش است.

“آنها نمی خواهد به شما بگویم اگر شما در ثبت نام گفت:” Tijmen Wisman استادیار حریم خصوصی قانون اجرا می شود که یک هلندی حریم خصوصی ، او به سازماندهی یک جلسه برای حدود 75 ساکنان در این محله را تحت تاثیر قرار بسیاری از در نظر گرفتن ویدئو در گوشی های هوشمند خود را برای به اشتراک گذاشتن با همسایگان.

دادگاه منطقه که طرفه با مخالفان دستور فوری توقف به خطر الگوریتم را با استفاده از. در نزدیک تماشا موردی است که دیده می شود به عنوان تنظیم یک سابقه در اروپا در مورد دولت استفاده از پیش بینی الگوریتم دادگاه گفت که برنامه رفاه فاقد حریم خصوصی پادمان و که دولت کافی و شفاف در مورد چگونه آن کار می کرد. این تصمیم می تواند به دادگاه تجدید نظر.

“حق امنیت اجتماعی است که ساخته شده مشروط بر افشای خودتان را به دولت نظارت گفت:” کریستین van Veen یک وکیل است که یک مشاور ویژه در فن آوری های جدید و حقوق بشر به سازمان ملل متحد.

در زمینه برخورد با سال کاهش بودجه الگوریتم ارائه یک راه برای کمک به را تشکیل می دهند برای کاهش خدمات اجتماعی. تکنولوژی مقامات می گویند کمک می کند تا آنها را به انجام بیشتر با کمتر و شناسایی افرادی که ممکن است در غیر این صورت لغزش از طریق ترک.

یک بار در هفته در بریستول, انگلستان یک تیم جمع آوری در یک اتاق کنفرانس به بررسی آخرین نتایج از یک الگوریتم به منظور شناسایی بیشتر در معرض خطر جوانان در شهرستان و بررسی caseloads. نمایندگانی از پلیس و خدمات کودکان و عضو این تیم است که در طراحی این نرم افزار به طور معمول حضور در اسکن لیستی از نام.

با جوانان خشونت و جرم و جنایت در حال افزایش است و با بسیاری از برنامه های جوانان و مراکز اجتماعی که در آن افراد جوان جمع شده بسته دولت های محلی تبدیل به نرم افزار برای کمک به شناسایی کودکان بیشترین نیاز. مقامات می گویند این کار را فراهم می کند شواهد این فن آوری کار می کنند اگر همراه با یک انسان را لمس کنید.

در سال گذشته بریستول معرفی یک برنامه است که باعث ایجاد خطر نمره بر اساس داده های کشیده شده از گزارش پلیس مزایای اجتماعی و دولتی دیگر سوابق. سیستم برگه جنایت اطلاعات مسکن اطلاعات و هر گونه شناخته شده لینک کلیک کنید برای دیگران با خطر بالا نمرات و اگر جوانان را از پدر و مادر درگیر در یک حادثه داخلی. مدارس خوراک در سوابق حضور و غیاب.

“شما می توانید کاملا یک تصویر کامل گفت:” تام Fowler, 29, داده دانشمند است که کمک به ایجاد این جوانان به ثمر رساند سیستم برای بریستول دولت است.

نمرات نوسان بسته به اینکه چگونه به تازگی از جوانان را به حال یک حادثه مانند یک مدرسه تعلیق. هدف در جلسات هفتگی برای شناسایی کودکان در معرض خطر در حال استخدام به جرم و جنایت.

شواهدی وجود دارد که الگوریتم شناسایی حق مردم این شهرستان است که هنوز هم بدانند چگونه برای ترجمه داده های به عمل است. در سال گذشته یک نوجوان که در یکی از بالاترین خطر نمرات چاقو کسی را به مرگ. در یک بررسی از کشتن مقامات شهرستان به این نتیجه رسیدند که آنها تا به حال گرفته شده مراحل درست. آقای فاولر گفت: یک فرد نمی تواند دستگیر و به سادگی به دلیل الگوریتم.

“او تا به حال یک مددکار اجتماعی و یک مربیگری گفت:” آقای فاولر که در حال حاضر با این نسخهها کار برای داده ها-تجزیه و تحلیل شرکت. “او واقعا یک تصمیم بد.

“شما نمی توانید کنترل کنید که. داده ها تنها می توانید تا کنون. اما این تقریبا بدترین چیزی که می تواند اتفاق می افتد. که باعث می شود شما کمی از روح جستجو که آیا شما همه چیز شما می توانید.”

ده ها تن از دولت های محلی در سراسر انگلیس در حال تبدیل به الگوریتم راهنمای تصمیم گیری خود را با توجه به یک سال 2018 بررسی حریم خصوصی سکس برادر بزرگ تماشا کنید. گاردین گزارش داد که یک سوم شوراهای محلی با استفاده از الگوریتم در برخی از ظرفیت برنامه های دولت است.

در بریستول دولت باز شده است با مردم در مورد برنامه ارسال برخی از اطلاعات آنلاین و برگزاری رویدادهای اجتماعی. مخالفان می گویند آن را هنوز هم نمی به طور کامل شفاف است. افراد جوان و پدر و مادر خود را نمی دانم اگر آنها در لیست و یا با توجه به یک راه برای مسابقه گنجاندن آنها.

شارلین ریچاردسون و دزموند قهوه ای, دو شهرستان و کارگران مسئول سازماندهی مداخلات و کمک های اولیه برای افراد جوان پرچم توسط نرم افزار.

“ما با قرار دادن تصویر هم کمی بیشتر گفت:” خانم ریچاردسون بود که استخدام برای برنامه پس از اجرا جوانان مراکز در منطقه برای دو دهه بوده است. “ما می دانیم که کامپیوتر نیست همیشه حق آن را دریافت.”

خانم ریچاردسون و آقای قهوه ای به کار آمد با نگرانی که سیستم خواهد ناعادلانه هدف سیاه پسران. در حال حاضر آنها اعتماد به نفس است که این دستگاه کمک می کند تا شناسایی کودکانی که نیاز به کمک.

“این است” گزارش اقلیت,'” آقای براون گفت: با اشاره به سال 2002 Steven Spielberg دانلود فیلم. “ما نه فقط در نظر گرفتن کلمه از کامپیوتر است.”

این جفت ارز گفت: آنها معمولا تمرکز در کودکان با کمترین خطر نمرات تنظیم صفحه اصلی بازدید و صحبت با مدارس خود و پیدا کردن مربیان از جامعه است.

“این در مورد دیدن آنها را به عنوان قربانیان به عنوان خوب,” او گفت:.

دکتر ادم بی کله پن استاد که در طراحی الگوریتم مورد استفاده توسط فیلادلفیا مشروط شدن بخش گفت: بحث خواهد محو به عنوان الگوریتم تبدیل شد و بیشتر به طور گسترده ای استفاده می شود.

او در مقایسه با الگوریتم های به خلبان خودکار سیستم در هواپیماهای مسافربری تجاری. “خلبان خودکار توسط الگوریتم,” او گفت:. “ما آموخته اند که خلبان خودکار است که قابل اعتماد و قابل اعتماد تر از یک فرد انسان خلبان. همان است که اتفاق می افتد در اینجا.”

اما افرادی مانند آقای گیتس که در آینده در تعادل آویزان را در برخی از قانع کننده باشد.

نشسته در فیلادلفیا مدافع عمومی دفتر آقای گیتس گفت او آسان فرد به خواندن با اشاره به خالکوبی روی بازوی خود را که قرار بود به مانند استخوان در زیر پوست است. او می فهمد ماشین آلات. از سن جوان او لذت می برد از بین بردن کامپیوتر و گوشی های هوشمند قبل از قرار دادن آنها را به عقب با هم.

اما آقای گیتس که ما با آنها ملاقات از طریق دفتر مدافع بر این باور است که یک فرد می تواند به عنوان خوانده شده او را بهتر از یک ماشین.

“آیا یک کامپیوتر می دانم که من ممکن است مجبور به رفتن به یک دکتر قرار ملاقات در روز جمعه در ساعت 2 صبح؟”

بازدید از مشروط شدن در اتاق به طوری که اغلب می تواند به جلوگیری از او را از گرفتن بقیه عمر خود را در مسیر. “چگونه است رفتن به درک من آن را به عنوان دیکته همه چیز را که من باید انجام دهید؟” آقای گیتس پرسید.

چند هفته پس از مصاحبه با بار او اجازه داده شد برای یک سفر کوتاه به پورتوریکو پس از یک درخواست شخصی به یک قاضی. او همیشه احساس راحت در مقابل قاضی است. تجربه به او نشان داد اهمیت یک انسان را لمس کنید.

“من نمی تواند توضیح دهد که وضعیت من به یک کامپیوتر” آقای گیتس گفت. “اما من می توانم بنشینم اینجا و ارتباط برقرار کردن با شما و شما می توانید ببینید من عبارات و آنچه که من از طریق رفتن.”

Cade متز گزارش از فیلادلفیا و آدم Satariano از روتردام, هلند و بریستول, انگلستان.

tinyurlis.gdv.gdv.htclck.ruulvis.netshrtco.de

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>