همانطور که امروزه بانکها برای اخذ تصمیمهای مربوط به اعتبارسنجی از ابزار هوش مصنوعی استفاده میکنند، باید مسائلی که درمورد سیستم وامدهی فعلی برخی از آنها وجود دارد را بپذیرند و درمورد آن تجدید نظرهایی داشته باشند: از گذشته تاکنون، در سیستم وامدهی نشانههایی از سوگیریهایی که بعضی از ویژگیهای افراد را در انتخابهای خود تأثیر میدادهاند دیده شده است. وقتی نهادهای مالی تصمیم میگیرند که چه کسی و با چه شرایطی اعتبار را دریافت کند، این سوگیریها به وضوح خودشان را نشان میدهند. در چنین شرایطی، اگر این تصمیمات را به جای انسانها به دست یک الگوریتم بسپاریم، به احتمال زیاد مشکل حل میشود. از آنجایی که ماشینها احساساتی ندارند، میتوانند در تصمیماتشان کاملاً بیطرفانه قضاوت کنند. شاید اینگونه باشد؟!
ما هم در ابتدا همین تصور را داشتیم اما متاسفانه، آنچه که در فرضیه درست به نظر میآمد در عمل شدنی نبود. وامدهندهها اغلب متوجه میشوند که موتورهای مبتنی بر هوش مصنوعی خیلی از سوگیریهای انسان را تکرار میکنند زیرا دادههایی که به خورد آنها میدهیم، بر اساس تصمیمگیریهای مغرضانه انسان در گذشته بودهاند و نتیجه دهها سال نابرابری در بازار وامدهی و مسکن هستند. اگر به این موضوع رسیدگی نشود، این سوگیریها تا همیشه در تصمیمات مالی باقی میمانند و روز به روز اختلاف طبقاتی افراد در جهان را افزایش میدهند.
مسئله سوگیری نوعی مشکل بومی به حساب میآید که هم بر استارتاپهای خدمات مالی و هم بر شرکتهای باسابقه این صنعت، به یک اندازه تأثیر میگذارد. مطالعات تحولآفرینی که در سال 2018 در دانشگاه کالیفرنیا انجام شد، نشان داد با اینکه الگوریتمهای فینتک (در مقایسه با وامدهندگان انسانی) به طور متوسط 40 درصد کارمزد کمتری از وامگیرندگان اقلیت میگیرند، هنوز از وامگیرندگانی که عضو طبقات بالاتر هستند بهره بیشتری دریافت میکنند. اخیراً سنگاپور، بریتانیا و برخی از کشورهای اروپایی دستورالعملهایی را صادر کردهاند که از شرکتها میخواهد هنگام استفاده از هوش مصنوعی (از جمله در فرایند وامدهی) عدالت و برابری را افزایش دهند. در ایالات متحده آمریکا، خیلی از جنبههای عدالت در وامدهی به صورت قانون در آمدهاند اما بانکها هنوز نمیدانند برای اینکه عدالت رعایت شود، سیستم باید چه معیارهایی را اولویت دهد، چه معیارهایی را کماهمیت بشمارد و چگونه این کار را انجام دهد.
حال، نهادهای مالی چطور میتوانند بدون تکرار تبعیضهای گذشته از هوش مصنوعی استفاده کنند و درعوض، اقتصادی را رواج دهند که شمول مالی بیشتری داشته باشد؟ در صورتی که آشنایی با شرکتهای خدمات مالی داشته باشید، متوجه خواهید شد که برای رسیدن به این هدف باید سیستمهایی بسازیم که به جای الگوبرداری از دادههای گذشته، بیشتر بر تساوی تمرکز داشته باشد. یعنی به جای اینکه آنها را صرفاً بر مبنای وامها و رهنهای قبلی آموزش دهیم، به آنها یاد دهیم که چطور باید وام را به صورت مساوی بین افراد جهان توزیع کنند.
مشکل اینجاست که انسانها اغلب نمیتوانند بیعدالتی که در مجموعه دادههای گسترده وجود دارد را پیدا کنند و بدون غربالگری، آنها را برای آنالیز به خورد سیستمهای یادگیری ماشین میدهند. به همین خاطر، وامدهندهها برای شناسایی، پیشبینی و حذف این سوگیریها (که ندانسته به الگوریتمها راه پیدا کردهاند)، به فناوری هوش مصنوعی روی آوردهاند.
کاری که باید انجام بدهیم این است:
قبل از آنکه مدلی ساخته شود، این سوگیریها را از دادههای خود حذف کنیم.
یکی از راههای تجربی برای از بین بردن سوگیریهای موجود در تصمیمات اعتباری، این است که قبل از ساخت مدل، عوامل تبعیض را از بین دادهها حذف کنیم. این کار چندان ساده نیست و به اصلاحیههای خیلی زیادی احتیاج دارد. اینکه فقط برخی متغیرها را حذف کنیم کافی نیست، چراکه تاثیرات سوگیریهای پیشین آنقدر وسیعاند که کل فرایند وامدهی را در بر میگیرند. برای مثال، نمونه وامهایی که به زنان اختصاص داده شده معمولاً کوچکتر از وامهای مردان هستند. در گذشته و در برخی از بانکهای کشورهای مختلف، حتی اگر زنی درآمد و امتیاز اعتباری یکسانی با یک مرد داشت، نهادهای مالی تعداد وامهای کمتری به او میدادند و علاوه بر تعداد، مبلغ این وامها نیز نسبت به مردان کمتر بود. همچنین، به درخواستهای وام زنان توجه کمتری میشد. همه این مسائل باعث میشوند هوش مصنوعی استنباط غلطی از دادهها داشته باشد و حتی اگر مؤلفه جنسیت را حذف کنیم، همچنان به سوگیری خود ادامه دهد. اگر سعی کنیم این سوگیریها را به صورت دستی از بین ببریم، خطای قابل پیشبینی دیگر در دادهها به وجود آوریم و امکان تکرار یا تشدید خطاهای قبلی وجود دارد.
برای جلوگیری از این اتفاق، بانکها میتوانند با کمک هوش مصنوعی این دادهها را اصلاح کنند. هوش مصنوعی الگوهای تبعیضگرایانهای که نسبت به زنان (در دادههای خام) وجود داشته را بادقت اصلاح میکند. تغییر این دادهها، به مرور زمان شانس دریافت وام زنان را افزایش میدهد، اشتباهات پیشین را جبران میکند و عدالت را افزایش میدهد. برای مثال، یکی از بانکهای وامدهنده با استفاده از هوش مصنوعی متوجه شد که در گذشته، زنان برای اینکه به اندازه مردی وام دریافت کنند باید به طور متوسط 30 درصد از او درآمد بیشتری میداشتند. این بانک سعی کرد با استفاده از هوش مصنوعی دادههای پیشین را برابرسازی کند. پس در سوابق داده، تعداد وامهای این زنان را با وامهای مردانی که پروفایل ریسک یکسانی داشتند برابر کرد. به این ترتیب، یک مدل تصمیمگیری مبتنی بر هوش مصنوعی توسعه داد و آن را تست کرد. درنتیجه، نحوه تصمیمگیری درباره وامدهی منصفانهتر صورت گرفت و الگوریتم توانست همانطور که بانک میخواهد، در آینده وامها را عادلانهتر تقسیم کند.
برای مدلهای تبعیضگر، اهداف بهتری را انتخاب کنیم.
وقتی دادههای پیشین اصلاح میشوند، اغلب بانکها باید لایه دفاعی دیگری را نیز برای جلوگیری از سوگیری اضافه کنند و تا تاثیرات این سوگیریها به هیچ وجه وارد سیستمشان نشود. برای دستیابی به این هدف، آنها الگوریتیمی را «تنظیم میکنند» که هم با دادههای پیشین متناسب باشد و هم در معیارهای مختلف عدالت امتیاز خوبی دریافت کند. برای این کار پارامتر دیگری را به سیستم اضافه میکنند که اگر نسبت به برخی طبقات مغرضانه عمل کرد مدل را جریمه کند.
برای مثال، بانکی با استفاده از هوش مصنوعی متوجه شد که متقاضیان خیلی جوان یا خیلی پیر نسبت به وامها دسترسی یکسانی ندارند. برای اینکه این تصمیمات منصفانهتر اتخاذ شوند، این بانک مدلی را طراحی کرد که بر اساس آن، الگوریتم باید «امتیاز بیعدالتی» را به حداقل میرساند. امتیار بیعدالتی بر این اساس مشخص میشود که سیستم در تأیید وام افرادی که پروفایل ریسک برابر و گروه سنی متفاوتی دارند، چقدر منصفانه عمل کرده است (حتی ممکن است معیارهای دیگر تبعیض ، از جمله جنسبت را نیز در این امتیاز نقش بدهد؛ مثلاً زنان مسن). با استفاده از این رویکرد، مدل نهایی AI محور توانست اختلاف رفتاری موجود با گروههای مختلف را تا 20 درصد کاهش دهد.
یک سیستم رقیب مبتنی بر هوش مصنوعی معرفی کنیم.
حتی بعد از اصلاح دادهها و تنظیم مدل، ممکن است مدل به ظاهر بیطرفی داشته باشیم که همچنان با طبقات مختلف رفتار نابرابری دارد. به همین خاطر، بعضی از نهادهای مالی یک مرحله جلوتر میروند و یک مدل هوش مصنوعی «رقیب» میسازند. اگر این مدل رقیب تشخیص دهد که مدل اول متقاضیان را براساس معیارهایی اشتباه قضاوت میکند، بانک مدل اصلی را اصلاح میکند.
برای مثال، مدلهای رقیب میتوانند کد پستی اقلیتهای قومیتی را از طریق خروجی مدل اعتباری پیشنهادی بررسی کنند. این به این خاطر است که معمولاً وقتی افراد درامد کمتری داشته باشند، در مناطق بخصوصی سکونت میکنند و کدهای پستیشان مشابه است. درواقع، برخی از مدلهای رقیب نشان دادهاند که حتی اگر معیاری به نام نژاد یا قومیت در فرم متقاضیان نباشد، مدل اصلی هوش مصنوعی برای افرادی که کدپستی اقلیتهای قومی را دارند محدودیتهایی تعیین میکنند.
در گذشته، برای حل این مسائل به صورت دستی پارامترهای مدل اصلی را تغییر میدادند اما اکنون میتوانیم برای بازسازماندهی مدل، از روش خودکار هوش مصنوعی استفاده کنیم. به این ترتیب، تأثیر متغیرهایی که موجب برابری میشوند را بیشتر میکنیم و تأثیر متغیرهایی که باعث تبعیض میشوند را کاهش میدهیم. تا جایی که مدل رقیب دیگر نتواند با استفاده از کدپستی (به عنوان نماینده مؤلفه قومیت) تبعیضی را مشاهده کنند. در نتیجه این رویکرد، مدلی که همچنان برای کدپستیهای افراد تبعیض قائل میشد توانست نرخ تأیید وام برای برخی از قومیتها را تا ۷۰ درصد افزایش دهد.
برای اطمینان از این موضوع، نهادهای مالی باید فرایند وامدهی خود را با درایت انجام دهند و برای تأیید یا رد متقاضیان میزان توانایی و تمایل افراد در پرداخت بدهی را مبنا قرار دهند. اگر افراد پروفایل ریسک یکسانی داشتند، بانکها نباید با آنها رفتار متفاوتی داشته باشند، فرقی نمیکند که این تصمیمگیری توسط مغز انسان صورت میگیرد یا شبکههای عصبی مصنوعی ماشین. کاهش سوگیری تنها یک هدف اجتماعی به حساب نمیآید، بلکه باعث سودآوری بیشر کسبوکار نیز میشود. بانکهایی که در کاهش سوگیریها پیشقدم شوند، علاوه بر اینکه وظیفه اخلاقی خود را انجام دادهاند، مشمول مزیت رقابتی بیشتری نیز خواهند بود.
الگوریتمها نمیتوانند به ما بگویند باید از کدام تعریف عدالت استفاده کنیم یا به کدام گروهها ارجحیت بدهیم. اگر آنها را به حال خود رها کنیم نه تنها در حذف سوگیریها به ما کمکی نمیکنند، بلکه آن را مستحکمتر میکنند.
به همین خاطر، نباید بگذاریم هوش مصنوعی بدون نظارت انسان به کار خود ادامه بدهد. اگر از سوگیریهایی که در دادهها پنهان شدهاند خبر داشته باشیم و اهداف مالی و اجتماعی را بدانیم، میتوانیم مدلهایی را توسعه دهیم که عادلانه قضاوت میکنند.
تجربه ثابت کرده که وقتی برای تصمیمات وام از سیستمهای یادگیری ماشین استفاده میکنیم و سپس این سیستمها را با استفاده از روشهای فوق اصلاح و بررسی میکنیم، نسبت به تصمیمگیریهای انسانی نتایج منصفانهتری میگیریم. این سیستمها با هر تصمیمی که میگیرند دنیا را یک قدم به عدالت نزدیکتر میکنند.