خانه » مقالات » نظریۀ سوگیری الگوریتمی جنسیت‌محور؛ دو رویکرد عمده
نظریۀ سوگیری الگوریتمی جنسیت‌محور؛ دو رویکرد عمده
یکشنبه, ۲ بهمن ۱۴۰۳
زمان تقریبی مطالعه ۲۶ دقیقه
اخلاق هوش مصنوعی به‌عنوان رسالت اصلی خود به ابعاد اجتماعی و هنجاریِ هوش مصنوعی می‌پردازد. در این میان، سوگیری الگوریتمی ناظر بر خطاهای عمدی یا ناخواسته در طراحی برنامه‌های کاربردی است که می‌تواند تبعات منفی گسترده‌ای در پی داشته باشد. عمدۀ این تبعات شامل بی‌عدالتی و شکاف اجتماعی است که بر محور طبقه، جنسیت، نژاد، دین، سن و مؤلفه‌های دیگر استوار است. در این مطلب، به‌‌اختصار سوگیری الگوریتمی از نوع جنسیت‌محور را مرور می‌کنیم و آن‌گاه، دو رویکرد عمده به این مفهوم را مقایسه می‌کنیم.

مقدمه

سوگیری الگوریتمی[۱] یکی از موضوعات مهم در اخلاق فضای مجازی است. در سوگیری الگوریتمی، خطای سیستمی و تکرارپذیر در برنامه‌نویسی رایانه‌ای منجر به بروز نتایج غیرواقعی و درنتیجه، بی‌عدالتی در بازنمایی طیف‌ها و گروه‌های مختلف می‌شود. با توجه به افزایش کاربرد هوش مصنوعی در زندگی روزمره، سوگیری الگوریتمی به‌خصوص زمانی‌که پای تصمیمات مهم در میان باشد می‌تواند منجر به عواقب ناخواسته‌ در گسترش شکاف‌های موجود و ایجاد اَشکال جدید شکاف شود. چنین شرایطی می‌تواند حاصل از خطا در مراحل مختلف طراحیِ برنامه‌های هوش مصنوعی مثل جمع‌آوری و بارگذاری داده، برنامه‌نویسی، و سلطه ذهن‌واره‌های اجتماعی باشد. بارزترین نمونه‌های نارضایتی ناشی از سوگیری الگوریتمی را باید در فرایندهای جذب نیرو، تشخیص چهره و تولیدات چندرسانه‌ای جست.[۲]

از اقسام رایج سوگیری الگوریتمی، سوگیری جنسیت‌محور[۳] است. این نوع سوگیری منجر به تشدید شکاف جنسیتی (به معنای بی‌عدالتی براساس جنسیت افراد) می‌شود. در سوگیری جنسیت‌محور، طراحی برنامه‌های کاربردی به‌صورتی است که عملاً برای زنان بی‌استفاده است یا نتایج نامطلوبی برای آنان در پی دارد. علت این امر، بی‌توجهی در لحاظ کردن فاکتورهای زنانه مانند پسندها و ترجیحات زنان، صدا، متوسط جثه، شکل و سایز اسکلت و صورت، و مشابه این در هنگام طراحی این برنامه‌هاست. از سوی دیگر، برخی صفات ثانویۀ زنانه همچون فرمان‌پذیری به‌صورتی در طراحی این برنامه‌ها لحاظ می‌شوند که بازتولیدکنندۀ ذهن‌واره‌های نامطلوبی همچون فرودستی این قشر در مشاغل و موقعیت‌های اجتماعی است.[۴] در این مطلب، به دو رویکرد عمده در شکاف‌های ناشی از سوگیری الگوریتمی در ارتباط با زنان، کودکان و اقلیت‌ها می‌پردازیم.

سوگیری سودگرایانه در برنامه‌های کاربردی شناخت عواطف

کیت کرافورد[۵] استاد دانشگاه یو‌سی‌ال‌ای[۶] و پژوهشگر هوش مصنوعی است. او معتقد است که هوش مصنوعی علاوه‌بر فناوری، از ابعاد اجتماعی نیز برخوردار است. به عقیدۀ او، سیستم‌های هوش مصنوعی نه ماشین‌هایی خنثی و بی‌طرف، بلکه برنامه‌های اشباع‌شده از ذهن‌واره‌ها و برساخت‌های سیاسی، اجتماعی و فرهنگی هستند. کرافورد با تمرکز بر سوگیری الگوریتمی هوش مصنوعی، به سراغ برنامه‌های تشخیصِ عواطف رفته و لطمات این فناوری برای گروه‌های آسیب‌پذیر مثل کودکان را برملا می‌کند. او برای مواجهه با بی‌عدالتیِ ناشی از این فناوری تأکید می‌کند که علاوه‌بر کیفیت و فرایند جمع‌آوریِ داده یا دقت الگوریتمی، بسترهای فرهنگی و اجتماعی که هوش مصنوعی در آن رشد می‌کند نیز نیازمند اصلاح ساختاری است. بنابراین، کرافورد طرفدارِ ایجادِ کدهای اخلاقی برای تنظیم رفتار هوش مصنوعی و رفع سوگیری‌های ناشی از آن است.

کرافورد در سال ۲۰۲۱ و در بحبوحۀ همه‌گیری کرونا با انتشار مقاله‌ای در نشریۀ Nature[۷]، به‌سراغ ابعاد بیولوژیک برنامه‌های تشخیص عواطف رفت و ادعای آنها درباره تشخیصِ حالات چهره را زیر سؤال برد. در این دوره، برنامه‌های کاربردی مثل 4 Little Trees با ادعای شناسایی حالات و عواطف کودکان در حین مطالعۀ برخط و حتی ادعای پیش‌بینی نمرات آن‌ها، وارد بازار شدند. در آن زمان پیش‌بینی می‌شد که سود بازار این محصولات تا سال ۲۰۲۶ به ۳۷ میلیارد دلار برسد. کرافورد با استناد به یافته‌های افرادی چون روزالیند پیکارد[۸]، هم‌بنیانگذار استارت‌آپ هوش مصنوعی Affectiva در ام‌آی‌تی، و نیز مطالبۀ مردمی «انستیتو آدا لاولیس[۹]» در لندن، بر جنبه‌های اخلاقی هوش مصنوعی تأکید کرد و ضرورت ایجاد یک سازمان حقوقی مستقل برای نظارت بر فناوری زیستی را یادآور شد. 

او برنامه‌های تشخیص چهره را «اقداماتی جمجمه‌شناسانه[۱۰]» خواند که با طرح یک‌سری مفروضات غلط، ادعا می‌کنند بین درونیات فرد و حالات چهرۀ او ارتباط مستقیم وجود دارد. به‌عبارتی، از نظر او همان مقررات دولتی که برای تنظیم ارتباط بین فناوری و بدن وجود دارند، برای نظارت بر ارتباط فناوری و ذهن نیز ضروری است. او با ارجاع به پرونده‌های حقوقی و کلینیکی، فاش کرد که برنامه‌های هوش مصنوعی با ادعای خوانش و تفسیر عواطف و احساسات از روی چهره، گروه‌های مختلف ازجمله کودکان را در معرض آسیب‌ قرار می‌دهند. 

کرافورد تبارِ برنامه‌های تشخیص عواطف را فناوری دروغ‌سنج[۱۱] دهۀ ۱۹۲۰ می‌داند که برای ده‌ها سال اف‌بی‌آی و ارتش آمریکا را در شناسایی مجرمین به اشتباه انداخت. این فناوری بالاخره در پایان دهۀ ۱۹۹۰ با حکم دیوان عالی این کشور ناکارآمد تشخیص داده شد و کنار گذاشته شد. کرافورد در اثر دیگری که «اطلس هوش مصنوعی[۱۲]» نام دارد، فاش می‌کند که مبنای فناوری‌های تشخیص چهره و عواطف، نظریۀ پال اکمان[۱۳] در دهۀ ۱۹۶۰ است. اکمان ادعا می‌کرد که برخی حالات و عواطف چهره در جهان مشترک و در تمامی نژادها یکسان است. این ایده توسط مارگارت مید[۱۴] (مردم‌شناس) نقد شد چراکه به‌وضوح تفاوت‌های فرهنگی و نژادی را در حالات و چهرۀ افراد نادیده می‌گیرد. شاخص‌های شش‌گانۀ اکمان بعد از واقعۀ ۱۱ سپتامبر برای تشخیص حالت ترس و اضطراب مسافران هواپیماها به‌منظور شناسایی «تروریست‌ها» به «دفتر امنیت حمل‌ونقل آمریکا[۱۵]» فروخته شد.  این در حالی است که تا این لحظه شواهدی دال بر صحت این شاخص‌ها یافت نشده است. کرافورد چنین توصیه کرده است:

 

زمان آن رسیده است که درمقابل کاربردهای اثبات‌نشدۀ این برنامه‌ها در تمامی حوزه‌ها اعم از آموزش، سلامت، استخدام، و دادگاه‌ها، مقرراتی وضع شود. این کار در کمترین حالت حیثیت علم را برمی‌گرداند و روش‌ تشخیص درونیات از روی چهره و ظاهر را بی‌اعتبار می‌کند.

 

«هوش مصنوعی! من زن نیستم؟»: سوگیری الگوریتمی جنسیت‌محورِ نژادپرستانه

ممکن است به نظر برسد که تنها چارچوب ذهنی برای درک تلاقی زنان با فضای مجازی، نظریۀ فمنیستی است. «فمنیسم سایبر» به برخی ابعاد حیات مجازی زنان مانند امنیت مجازی، قلدری سایبر، توسعۀ کسب‌وکارهای منعطف، ارتقای بازنمایی، افزایش کنشگری و نظیر این پرداخته است. اما در پاسخ به فمنیسم سایبر جریان‌های فکری مختلف دیگری به مطالعۀ تلاقی زن و فضای مجازی پرداخته‌اند که یکی از جدیدترینِ آن‌ها نظریۀ سوگیری الگوریتمیِ جنسیت‌محور است. 

اولین «کنوانسون حقوق زنان[۱۶]» در سال ۱۸۴۸ در نیویورک برگزار شد و فعالیت سازمانی فمنیسم عملاً از این زمان متولد شد. سه‌ سال بعد یعنی در ۱۸۵۱، زمانی که دومین «کنوانسیون زنان[۱۷]» در اوهایو برگزار می‌شد، یک زن سیاه‌پوست و بردۀ سابق، معروف به سجورنر تروث[۱۸]، با حضور در این نشست سخنرانی تاریخی خود با نام «من زن نیستم؟[۱۹]» را ایراد کرد. این سخنرانی به‌دلیل اهمیت موضوع و گیرایی آن به بیانیه‌ای تاریخی در محکومیت برده‌داری و نقدِ نژادپرستیِ فمنیسم تبدیل شد.  

جوی بولاموینی[۲۰] که لقب «شاعر کدنویس» را به خود داده، دانش‌آموختۀ سیاه‌پوستِ دانشگاه ام‌آی‌تی[۲۱] است که همچون کرافورد به مضامین اجتماعیِ هوش مصنوعی می‌پردازد. او بنیان‌گذار «لیگ عدالت الگوریتمی[۲۲]» است و تدتاکِ او دربارۀ سوگیری الگوریتمی بیش از یک میلیون بازدیدکننده داشته است. او در فروم جهانی اقتصاد[۲۳]، سازمان ملل و اتحادیۀ اروپا به ارائۀ دیدگاه‌های خود دربارۀ سوگیری الگوریتمی و راهکارهای کنترل آسیب‌های هوش مصنوعی پرداخته و مطالبی در مجلۀ تایمز و روزنامۀ نیویورک تایمز منتشر کرده است. 

بولاموینی استعارۀ «هوش مصنوعی! من زن نیستم؟» را زمانی به‌ کار برد که متوجه تبعیض دولایه علیه زنان رنگین‌پوست در هوش مصنوعی شد. به عبارتی، او دریافت که هوش مصنوعی علاوه‌برآنکه نسبت به زنان سوگیری دارد، در یک مرحلۀ مجزّا نیز نسبت به افراد رنگین‌پوست دچار سوگیری است. او در ۲۵سالگی یک برنامۀ رایانه‌ای تهیه و نصب کرد تا حرکات سر و صورت خود را روی تنیس‌باز محبوبش «سرنا ویلیامز» پیاده کند. اما متوجه شد که برنامه، حرکات سر و چهرۀ او را شناسایی نمی‌کند مگر اینکه ماسک سفیدی روی چهره‌اش قرار دهد. 

بولاموینی در رسالۀ دکتری خود با عنوان «سایه‌های جنسیت: ارزیابی متقاطع رخ‌نمود و جمعیت‌شناختی داده‌های چهره و دسته‌بندی‌های جنسیت[۲۴]» بعد از تحلیل داده‌های جمعیت‌شناختی (با تأکید بر متغیرهای جنسیت و نژاد) در شاخص تشخیص چهرۀ دولت آمریکا موسوم به IJB-A و شاخص رده‌بندی جنسیت موسوم به Adience، آن‌ها را ناکافی و ناکارآمد ارزیابی کرد. سپس، شاخص‌های جایگزین که قادر به تهیۀ تصاویر چهرۀ گویاتر به‌منظور رفع این سوگیری باشد را موسوم به  Pilot Parliaments Benchmark (PPB) طراحی و عرضه کرد. درنهایت، براساس این شاخص‌ها، سیستم تشخیص چهرۀ شرکت‌های آی‌بی‌ام، مایکروسافت، و Face++ که مبتنی‌بر داده‌های دو پایگاه قبلی هستند را در زمینه‌های جنسیت، رنگ پوست و تقاطع هردو بررسی کرد.

طبق یافته‌های او، تنها ۲۴.۶درصد از داده‌های چهره‌شناسی IJB-A متعلق به زنان و ۴.۴درصد متعلق به زنان رنگین‌پوست است، درحالی‌که ۵۹.۴درصد از این داده‌ها مربوط‌ به مردان دارای پوست روشن است. از سویی، Adience اگرچه نرخ بیشتری (۵۲درصد) از بانک داده‌های مربوط به چهره‌های زنان دارد، اما اینجا هم داده‌های زنان رنگین‌پوست تنها ۱۳.۷۶درصد است. بنابراین، شکاف جنسیتی در بازنمایی داده‌های مربوط به زنان در این دو پایگاه، به‌ترتیب ۹ و ۲۰ درصد و شکاف جنسیتی-نژادی به‌ترتیب ۱۰ تا ۲۱ درصد است. لذا مردان سفیدپوست بیشترین بازنمایی و زنان رنگین‌پوست کمترین بازنمایی را در داده‌های این دو پایگاه به‌ خود اختصاص می‌دهند. بولاموینی با جمع‌آوری داده‌های ۴۰ کشور مختلف، اشاره می‌کند:

زنان رنگین‌پوست ۳۲ بار بیشتر از مردان سفیدپوست در معرض خطای تشخیص چهره قرار دارند. برای رفع این شکاف، علاوه‌بر افزایش داده‌های مربوط به زنان، داده‌های مربوط به زنان رنگین‌پوست باید به‌طور ویژه افزایش یابد. به بیان دیگر، برای افزایش دقت الگوهای رایانه‌ای تشخیص چهره می‌باید حداقل چهار دسته داده‌ جمع‌آوری کنیم: زنان رنگین‌پوست، زنان سفیدپوست، مردان رنگین‌پوست، مردان سفیدپوست.

 

بولاموینی در مطالعات بعدی خود به خطای هوش مصنوعی در شناسایی چهرۀ زنان دیگری مانند اوپرا وینفری و میشل اوباما نیز پرداخت. او  نشان داد که طراحی برنامه‌های شناسایی چهره به‌طور سوگیرانه‌آی براساس چهرۀ مردان سفیدپوست انجام می‌شود و به این‌ ترتیب، بی‌طرفی نژادی و جنسیتیِ هوش مصنوعی را زیر سؤال برد. از نظر او، در نبود قوانین و مقررات تنظیمی، سوگیری نژادی و جنسیتی هوش مصنوعی در مواردی مثل تجویز درمانی، شناسایی و دستگیری مجرم، استخدام و مانند این‌ها می‌تواند عواقب خطرناک و بعضاً مرگباری در پی داشته باشد.

 

نتیجه‌گیری

پژوهشگران سوگیری الگوریتمی در حوزۀ جنسیت با اشاره به مصادیق آسیب‌های ناشی از بی‌نظارتیِ این حوزه ازجمله برنامه‌های تشخیص چهره، و با تأکید بر پیامدهای آن در حوزه‌های سلامت، آموزش، اشتغال و حقوق جزا، بر ضرورت تنظیم مقررات شرکت‌های سازندۀ این برنامه‌ها تأکید می‌کنند. متغیرهای جمعیتی متعددی ازجمله نژاد، قومیت، جنسیت، سن و مذهب در طراحی و کدنویسی این برنامه‌ها مؤثر هستند که شاید شناسایی کامل همۀ آن‌ها غیرممکن باشد. اما مسلّماً گروه‌های آسیب‌پذیر ازجمله کودکان و اقلیت‌های دینی و نژادی می‌توانند به‌طورخاص درمقابل خطاهای الگوریتمی بی‌دفاع باشند. اشکال در بازنمایی اقلیت‌های مختلف ازجمله زنان و رنگین‌پوستان در رشته‌ها و مشاغل صنعت هوش مصنوعی یکی از دلایل اصلیِ بروز سوگیری الگوریتمی است. به همین دلیل، مطالعۀ این برنامه‌ها بستر جدیدی برای طرح نقدهای اجتماعی ایجاد کرده است که با توسعۀ فضای مجازی ابعاد تازه‌ای می‌یابند و رسیدگی به آن‌ها می‌تواند نیازمند تعریف پروتکل‌های محلی، ملی و بین‌المللی باشد.  

 

سایر مقالات