هوش مصنوعی سیستم های ادعا به عنوان خوانده شده ‘ احساسات مطرح تبعیض خطرات



هوش مصنوعی (AI) سیستم هایی که شرکت ها ادعا می کنند می تواند به “خواندن” عبارات صورت است که بر اساس منسوخ علم و خطرات غیر قابل اعتماد بودن و تبعیض آمیز یکی از کارشناسان برجسته جهان در روانشناسی احساسات هشدار داده است.

لیزا فلدمن برت استاد روانشناسی در دانشگاه گفت که چنین فن آوری به نظر می رسد به بی اعتنایی به بدن در حال رشد از شواهد تضعیف این تصور که پایه چهرۀ جهانی هستند در سراسر فرهنگ ها. به عنوان یک نتیجه از چنین فن آوری – که برخی از آنها در حال حاضر در حال مستقر در تنظیمات در دنیای واقعی اجرا خطر غیر قابل اعتماد و یا تبعیض آمیز او گفت:.

“من نمی دانم که چگونه شرکت ها می توانند همچنان به توجیه آنچه آنها انجام می دهند هنگامی که آن را واقعا روشن چه شواهد است,” او گفت:. “برخی از شرکت ها که فقط در ادامه به ادعای چیزهایی است که احتمالا نمی تواند درست باشد.”

او هشدار می آید که چنین سیستم هایی در حال نورد برای تعداد فزاینده ای از برنامه های کاربردی. در ماه اکتبر Unilever ادعا کرد که آن را ذخیره کرده بود تا 100000 ساعت از انسان های استخدامی زمان در سال گذشته با استقرار این نرم افزار به تجزیه و تحلیل مصاحبه های ویدئویی.

هوش مصنوعی سیستم توسعه یافته توسط شرکت HireVue اسکن نامزدهای حالات چهره و زبان بدن و کلمه انتخاب و ارجاعات متقابل آنها را با صفات که در نظر گرفته می شود در ارتباط با شغل موفقیت است.

آمازون ادعا می کند خود را تشخیص چهره سیستم Rekognition می تواند شناسایی هفت پایه احساسات – شادی و غم و اندوه و خشم و تعجب و انزجار آرامش و سردرگمی است. اتحادیه اروپا گزارش شده است trialling نرم افزار است که ظاهرا می تواند به تشخیص فریب از طریق یک تجزیه و تحلیل از میکرو عبارات در تلاش برای تقویت امنیت مرزی.

“بر اساس علمی منتشر شده شواهد قضاوت ما این است که [این فن آوری] نباید نورد و استفاده می شود تا نتیجه گیری در مورد زندگی مردم گفت:” فلدمن بارت.

صحبت های پیش از بحث در انجمن آمریکایی برای پیشرفت علم را در نشست سالانه در سیاتل فلدمن بارت گفت: ایده, جهانی, صورت, برای, شادی, غم و اندوه و ترس و خشم و تعجب و انزجار به دست آورده بودند کشش در دهه 1960 پس از یک روانشناس آمریکایی پل اکمن انجام تحقیقات در پاپوآ گینه نو نشان می دهد که اعضای یک قبیله جدا شده به مشابه پاسخ به آمریکایی ها وقتی پرسیده شد که برای مطابقت با عکس های از مردم نمایش حالات چهره با حالات مختلف از جمله “بابی سگ مرده است”.

اما شواهد نشان داده است که فراتر از اساسی این کلیشه وجود دارد که طیف عظیمی در چگونه مردم ابراز احساسات هر دو در سراسر و در فرهنگ.

در فرهنگ غربی به عنوان مثال مردم شده اند و برای اخم کردن تنها حدود 30 درصد از زمان زمانی که آنها عصبانی هستید او گفت: بدین معنی که حرکت چهره خود را در راه های دیگر حدود 70 درصد از زمان.

“وجود دارد کم و قابلیت اطمینان” فلدمن برت گفت. “و مردم اغلب اخم کردن زمانی که آنها عصبانی نیست. این چیزی است که ما می خواهم تماس بگیرید کم ويژگی. مردم اخم کردن زمانی که آنها در حال تمرکز واقعا سخت است زمانی که شما به یک شوخی بد, زمانی که آنها گاز است.”

بیان که قرار است به صورت جهانی برای ترس قرار کلیشه ای برای تهدید و یا خشم در مالزی, او گفت:. نیز وجود دارد که تغییرات گسترده ای در فرهنگ از نظر مردم چگونه ابراز احساسات در حالی که زمینه مانند زبان بدن و که یک فرد صحبت کردن بسیار مهم است.

“هوش مصنوعی تا حد زیادی آموزش دیده در این فرض است که هر کس در بیان احساسات در راه همان,” او گفت:. “وجود دارد بسیار قدرتمند فن آوری استفاده می شود به پاسخ بسیار ساده انگارانه سوالات.”

tinyurlis.gdv.gdv.htu.nuclck.ruulvis.netshrtco.detny.im