هوش مصنوعی آمازون به دلیل تعصب جنسیتی در استخدام افراد خاموش شد

کرونوس – دو سال پیش مایکروسافت یک نرم‌افزار هوش مصنوعی به نام Tay ساخت و اجازه داد برای خودش در شبکه‌های اجتماعی بچرد.

وقتی این ربات با ابعاد افتخارآمیز انسانیت مواجه شد به سرعت به نژادپرستی و نازیسم روی آورد و به جهان اعلام کرد: «هیتلر راست می‌گفت» و «حالم از فمینیست‌ها به هم می‌خورد؛ باید آن‌ها را در جهنم سوزاند تا بمیرند.» مسئولین به سرعت ربات را خاموش کردند.

البته این فقط یک نمونه‌ی حاد بود. اما زنان در سراسر جهان می‌دانند که سکسیسم می‌تواند بسیار مبتذل‌تر از این باشد. و با این که هوش مصنوعی موجب ایجاد انقلاب در رویارویی ما با مسائلی همچون تغییرات اقلیمی و آموزش شده، به نظر می‌رسد در بعضی جاها در اعماق تاریخ گیر کرده است.

فروشگاه آنلاین آمازون از سال ۲۰۱۴ اقدام به استفاده از یک برنامه‌ی تجربی هوش مصنوعی برای استخدام کارمندان جدید کرده بود. یک منبع آگاه به رویترز گفت: «همه می‌خواستند این جام طلا [قدرت جادویی] را به‌دست آورند. آن‌ها از این برنامه می‌خواستند ۱۰۰ رزومه‌ی کاری را دریافت کرده و ۵ تایشان را برای استخدام دستچین کند تا ما آنان را استخدام کنیم.»

این برنامه که توسط ده‌ها مهندس نوشته شده بود به شکلی طراحی شده بود که بتواند بهترین کاندیداها را پیدا کرده و به آنان رتبه‌ای بین یک تا پنج ستاره بدهد – درست مانند رتبه‌بندی محصولات آمازون. برای این کار، گروه ۵۰۰ مدل کامپیوتری طراحی کرده و به آن‌ها یاد داد تا ۵۰۰۰۰ عبارت را از رزومه‌ی کارجویان قبلی شرکت استخراج کنند.

این پروژه در مواردی موفق بود؛ مثلاً این که یاد گرفت قابلیت‌های مشترک داوطلبین را حذف کند. اما گروه خیلی زود متوجه یک مشکل شد: برنامه به خودش روش‌هایی بسیار سؤال‌برانگیز در روند استخدام را یاد داده بود. برنامه داوطلبین مرد را به داوطلبین زن اولویت می‌داد.

پروژه‌ی هوش مصنوعی آمازون نیز درست مثل Tay قربانی آموزش‌هایی شد که به آن داده شده بود. به این برنامه یاد داده شده بود که الگوهای مشخصی را از میان رزومه‌های ده سال اخیر استخراج کند، اما بیشتر این رزومه‌ها متعلق به مردان بود. در نتیجه، برنامه شروع کرد به ارجح دانستن رزومه‌هایی که شامل واژه‌هایی می‌شدند که بیشتر توسط مردان استفاده می‌شد. از آن بدتر این که شروع کرد به دادن امتیاز منفی به رزومه‌هایی که در آن‌ها عبارت «برای زنان» به کار رفته بود. لذا برای مثال رزومه‌ای که در آن نوشته شده بود «انجمن برنامه‌نویسی زنان کالج» می‌توانست احتمال استخدام شدن شخص به عنوان برنامه‌نویس را به خطر بیندازد.

تعصب جنسیتی هوش مصنوعی و همچنین مشکلاتی که در برنامه‌نویسی آن وجود داشت و موجب می‌شد کارمندان بی‌صلاحیت استخدام شوند در نهایت باعث شد دیگر از این برنامه استفاده نشود.

آمازون به رویترز گفت هوش مصنوعی «هرگز برای ارزیابی داوطلبین استفاده نشد» و اکنون از برنامه‌ای بسیار ضعیف‌تر برای مواردی همچون حذف رزومه‌های تکراری استفاده می‌کند. یکی از منابع اعلام کرده است اکنون یک برنامه‌ی هوش مصنوعی دیگر برای استخدام به کار گرفته می‌شود که یکی از اهدافش افزایش تنوع و دگرسانی است.

یادگیری ماشینی همین حالا هم زندگی حرفه‌ای ما را تحت تأثیر قرار داده است. اما متخصصین فناوری و همچنین گروه‌های مدافع آزادی‌های مدنی معتقدند برای جلوگیری از اتفاقی که برای آمازون افتاد هنوز به تحقیقات و کار بیشتری نیاز است.

یکی از معاونین لینکدین به رویترز گفت: «من قطعاً به هیچ برنامه‌ی هوش مصنوعی برای اتخاذ تصمیم در مورد استخدام افراد اطمینان ندارم. این فناوری هنوز آماده‌ی چنین چیزی نیست.»

درباره هیأت تحریریه

این مقاله توسط هیأت تحریریه نوشته ویا ویرایش شده است. عضویت در هیأت تحریریه با توجه به «شرایط همکاری با کرونوس» برای عموم آزاد است.

آیا می‌دانستید؟

نظریه ریسمان به زبان ساده

یکی از این اسرار حل‌نشده در فیزیک عدم همخوانی نظریه نسبیت عام با مکانیک کوانتوم …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *