خانه » مقالات » آیا هوش مصنوعی می‌تواند وام‌های بانکی را منصفانه‌تر کند؟
آیا هوش مصنوعی می‌تواند وام‌های بانکی را منصفانه‌تر کند؟
یکشنبه, ۲ آبان ۱۳۹۹
زمان تقریبی مطالعه ۲۱ دقیقه
از گذشته تاکنون، در سیستم وام‌دهی نشانه‌هایی از سوگیری‌هایی که بعضی از ویژگی‌های افراد را در انتخاب‌های خود تأثیر می‌داده‌اند دیده شده است. وقتی نهادهای مالی تصمیم می‌گیرند که چه کسی و با چه شرایطی اعتبار را دریافت کند، این سوگیری‌ها به وضوح خودشان را نشان می‌دهند. در چنین شرایطی، اگر این تصمیمات را به جای انسان‌ها به دست یک الگوریتم بسپاریم، به احتمال زیاد مشکل حل می‌شود.

همانطور که امروزه بانک‌ها برای اخذ تصمیم‌های مربوط به اعتبارسنجی از ابزار هوش مصنوعی استفاده می‌کنند، باید مسائلی که درمورد سیستم وام‌دهی‌ فعلی برخی از آن‌ها وجود دارد را بپذیرند و درمورد آن تجدید نظرهایی داشته باشند: از گذشته تاکنون، در سیستم وام‌دهی نشانه‌هایی از سوگیری‌هایی که بعضی از ویژگی‌های افراد را در انتخاب‌های خود تأثیر می‌داده‌اند دیده شده است. وقتی نهادهای مالی تصمیم می‌گیرند که چه کسی و با چه شرایطی اعتبار را دریافت کند، این سوگیری‌ها به وضوح خودشان را نشان می‌دهند. در چنین شرایطی، اگر این تصمیمات را به جای انسان‌ها به دست یک الگوریتم بسپاریم، به احتمال زیاد مشکل حل می‌شود. از آنجایی که ماشین‌ها احساساتی ندارند، می‌توانند در تصمیماتشان کاملاً بی‌طرفانه قضاوت کنند. شاید اینگونه باشد؟!

ما هم در ابتدا همین تصور را داشتیم اما متاسفانه، آنچه که در فرضیه درست به نظر می‌آمد در عمل شدنی نبود. وام‌دهنده‌ها اغلب متوجه می‌شوند که موتورهای مبتنی بر هوش مصنوعی خیلی از سوگیری‌های انسان را تکرار می‌کنند زیرا داده‌هایی که به خورد آن‌ها می‌دهیم، بر اساس تصمیم‌گیری‌های مغرضانه انسان در گذشته بوده‌اند و نتیجه ده‌ها سال نابرابری در بازار وام‌دهی و مسکن هستند. اگر به این موضوع رسیدگی نشود، این سوگیری‌ها تا همیشه در تصمیمات مالی باقی می‌مانند و روز به روز اختلاف طبقاتی افراد در جهان را افزایش می‌دهند.

مسئله سوگیری نوعی مشکل بومی به حساب می‌آید که هم بر استارتاپ‌های خدمات مالی و هم بر شرکت‌های باسابقه این صنعت، به یک اندازه تأثیر می‌گذارد. مطالعات تحول‌آفرینی که در سال 2018 در دانشگاه کالیفرنیا انجام شد، نشان داد با اینکه الگوریتم‌های فین‌تک (در مقایسه با وام‌دهندگان انسانی) به طور متوسط 40 درصد کارمزد کمتری از وام‌گیرندگان اقلیت می‌گیرند، هنوز از وام‌گیرندگانی که عضو طبقات بالاتر هستند بهره بیشتری دریافت می‌کنند. اخیراً سنگاپور، بریتانیا و برخی از کشورهای اروپایی دستورالعمل‌هایی را صادر کرده‌اند که از شرکت‌ها می‌خواهد هنگام استفاده از هوش مصنوعی (از جمله در فرایند وام‌دهی) عدالت و برابری را افزایش دهند. در ایالات متحده آمریکا، خیلی از جنبه‌های عدالت در وام‌دهی به صورت قانون در آمده‌اند اما بانک‌ها هنوز نمی‌دانند برای اینکه عدالت رعایت شود، سیستم باید چه معیارهایی را اولویت دهد، چه معیارهایی را کم‌اهمیت بشمارد و چگونه این کار را انجام دهد.

حال، نهادهای مالی چطور می‌توانند بدون تکرار تبعیض‌های گذشته از هوش مصنوعی استفاده کنند و درعوض، اقتصادی را رواج دهند که شمول مالی بیشتری داشته باشد؟ در صورتی که آشنایی با شرکت‌های خدمات مالی داشته باشید، متوجه خواهید شد که برای رسیدن به این هدف باید سیستم‌هایی بسازیم که به جای الگوبرداری از داده‌های گذشته، بیشتر بر تساوی تمرکز داشته باشد. یعنی به جای اینکه آن‌ها را صرفاً بر مبنای وام‌ها و رهن‌های قبلی آموزش دهیم، به آن‌ها یاد دهیم که چطور باید وام را به صورت مساوی بین افراد جهان توزیع کنند.

مشکل اینجاست که انسان‌ها اغلب نمی‌توانند بی‌عدالتی که در مجموعه داده‌های گسترده وجود دارد را پیدا کنند و بدون غربالگری، آن‌ها را برای آنالیز به خورد سیستم‌های یادگیری ماشین می‌دهند. به همین خاطر، وام‌دهنده‌ها برای شناسایی، پیش‌بینی و حذف این سوگیری‌ها (که ندانسته به الگوریتم‌ها راه پیدا کرده‌اند)، به فناوری هوش مصنوعی روی آورده‌اند.

کاری که باید انجام بدهیم این است:

قبل از آنکه مدلی ساخته شود، این سوگیری‌ها را از داده‌های خود حذف کنیم.

یکی از راه‌های تجربی برای از بین بردن سوگیری‌های موجود در تصمیمات اعتباری، این است که قبل از ساخت مدل، عوامل تبعیض را از بین داده‌ها حذف کنیم. این کار چندان ساده نیست و به اصلاحیه‌های خیلی زیادی احتیاج دارد. اینکه فقط برخی متغیرها را حذف کنیم کافی نیست، چراکه تاثیرات سوگیری‌های پیشین آنقدر وسیع‌اند که کل فرایند وام‌دهی را در بر می‌گیرند. برای مثال، نمونه وام‌هایی که به زنان اختصاص داده شده معمولاً کوچک‌تر از وام‌های مردان هستند. در گذشته و در برخی از بانک‌های کشورهای مختلف، حتی اگر زنی درآمد و امتیاز اعتباری یکسانی با یک مرد داشت، نهادهای مالی تعداد وام‌های کمتری به او می‌دادند و علاوه بر تعداد، مبلغ این وام‌ها نیز نسبت به مردان کمتر بود. همچنین، به درخواست‌های وام زنان توجه کمتری می‌شد. همه این مسائل باعث می‌شوند هوش مصنوعی استنباط غلطی از داده‌ها داشته باشد و حتی اگر مؤلفه جنسیت را حذف کنیم، همچنان به سوگیری خود ادامه دهد. اگر سعی کنیم این سوگیری‌ها را به صورت دستی از بین ببریم، خطای قابل پیش‌بینی دیگر در داده‌ها به وجود آوریم و امکان تکرار یا تشدید خطاهای قبلی وجود دارد.

برای جلوگیری از این اتفاق، بانک‌ها می‌توانند با کمک هوش مصنوعی این داده‌ها را اصلاح کنند. هوش مصنوعی الگوهای تبعیض‌گرایانه‌ای که نسبت به زنان (در داده‌های خام) وجود داشته را بادقت اصلاح می‌کند. تغییر این داده‌ها، به مرور زمان شانس دریافت وام زنان را افزایش می‌دهد، اشتباهات پیشین را جبران می‌کند و عدالت را افزایش می‌دهد. برای مثال، یکی از بانک‌های وام‌دهنده با استفاده از هوش مصنوعی متوجه شد که در گذشته، زنان برای اینکه به اندازه مردی وام دریافت کنند باید به طور متوسط 30 درصد از او درآمد بیشتری می‌داشتند. این بانک سعی کرد با استفاده از هوش مصنوعی داده‌های پیشین را برابرسازی کند. پس در سوابق داده، تعداد وام‌های این زنان را با وام‌های مردانی که پروفایل ریسک یکسانی داشتند برابر کرد. به این ترتیب، یک مدل تصمیم‌گیری مبتنی بر هوش مصنوعی توسعه داد و آن را تست کرد. درنتیجه، نحوه تصمیم‌گیری درباره وام‌دهی منصفانه‌تر صورت گرفت و الگوریتم توانست همانطور که بانک می‌خواهد، در آینده وام‌ها را عادلانه‌تر تقسیم کند.

برای مدل‌های تبعیضگر، اهداف بهتری را انتخاب کنیم.

وقتی داده‌های پیشین اصلاح می‌شوند، اغلب بانک‌ها باید لایه دفاعی دیگری را نیز برای جلوگیری از سوگیری اضافه کنند و تا تاثیرات این سوگیری‌ها به هیچ وجه وارد سیستمشان نشود. برای دستیابی به این هدف، آن‌ها الگوریتیمی را «تنظیم می‌کنند» که هم با داده‌های پیشین متناسب باشد و هم در معیارهای مختلف عدالت امتیاز خوبی دریافت کند. برای این کار پارامتر دیگری را به سیستم اضافه می‌کنند که اگر نسبت به برخی طبقات مغرضانه عمل کرد مدل را جریمه کند.

برای مثال، بانکی با استفاده از هوش مصنوعی متوجه شد که متقاضیان خیلی جوان یا خیلی پیر نسبت به وام‌ها دسترسی یکسانی ندارند. برای اینکه این تصمیمات منصفانه‌تر اتخاذ شوند، این بانک مدلی را طراحی کرد که بر اساس آن، الگوریتم باید «امتیاز بی‌عدالتی» را به حداقل می‌رساند. امتیار بی‌عدالتی بر این اساس مشخص می‌شود که سیستم در تأیید وام افرادی که پروفایل ریسک برابر و گروه سنی متفاوتی دارند، چقدر منصفانه عمل کرده است (حتی ممکن است معیارهای دیگر تبعیض ، از جمله جنسبت را نیز در این امتیاز نقش بدهد؛ مثلاً زنان مسن). با استفاده از این رویکرد، مدل نهایی AI محور توانست اختلاف رفتاری موجود با گروه‌های مختلف را تا 20 درصد کاهش دهد.

یک سیستم رقیب مبتنی بر هوش مصنوعی معرفی کنیم.

حتی بعد از اصلاح داده‌ها و تنظیم مدل، ممکن است مدل به ظاهر بی‌طرفی داشته باشیم که همچنان با طبقات مختلف رفتار نابرابری دارد. به همین خاطر، بعضی از نهادهای مالی یک مرحله جلوتر می‌روند و یک مدل هوش مصنوعی «رقیب» می‌سازند. اگر این مدل رقیب تشخیص دهد که مدل اول متقاضیان را براساس معیارهایی اشتباه قضاوت می‌کند، بانک مدل اصلی را اصلاح می‌کند.

برای مثال، مدل‌های رقیب می‌توانند کد پستی اقلیت‌های قومیتی را از طریق خروجی مدل اعتباری پیشنهادی بررسی کنند. این به این خاطر است که معمولاً وقتی افراد درامد کمتری داشته باشند، در مناطق بخصوصی سکونت می‌کنند و کدهای پستی‌شان مشابه است. درواقع، برخی از مدل‌های رقیب نشان داده‌اند که حتی اگر معیاری به نام نژاد یا قومیت در فرم متقاضیان نباشد، مدل اصلی هوش مصنوعی برای افرادی که کدپستی اقلیت‌های قومی را دارند محدودیت‌هایی تعیین می‌کنند.

در گذشته، برای حل این مسائل به صورت دستی پارامترهای مدل اصلی را تغییر می‌دادند اما اکنون می‌توانیم برای بازسازماندهی مدل، از روش خودکار هوش مصنوعی استفاده کنیم. به این ترتیب، تأثیر متغیرهایی که موجب برابری می‌شوند را بیشتر می‌کنیم و تأثیر متغیرهایی که باعث تبعیض می‌شوند را کاهش می‌دهیم. تا جایی که مدل رقیب دیگر نتواند با استفاده از کدپستی (به عنوان نماینده مؤلفه قومیت) تبعیضی را مشاهده کنند. در نتیجه این رویکرد، مدلی که همچنان برای کدپستی‌های افراد تبعیض قائل می‌شد توانست نرخ تأیید وام برای برخی از قومیت‌ها را تا ۷۰ درصد افزایش دهد.

برای اطمینان از این موضوع، نهادهای مالی باید فرایند وام‌دهی خود را با درایت انجام دهند و برای تأیید یا رد متقاضیان میزان توانایی و تمایل افراد در پرداخت بدهی را مبنا قرار دهند. اگر افراد پروفایل ریسک یکسانی داشتند، بانک‌ها نباید با آن‌ها رفتار متفاوتی داشته باشند، فرقی نمی‌کند که این تصمیم‌گیری توسط مغز انسان صورت می‌گیرد یا شبکه‌های عصبی مصنوعی ماشین. کاهش سوگیری تنها یک هدف اجتماعی به حساب نمی‌آید، بلکه باعث سودآوری بیشر کسب‌وکار نیز می‌شود. بانک‌هایی که در کاهش سوگیری‌ها پیش‌قدم شوند، علاوه بر اینکه وظیفه اخلاقی خود را انجام داده‌اند، مشمول مزیت رقابتی بیشتری نیز خواهند بود.

الگوریتم‌ها نمی‌توانند به ما بگویند باید از کدام تعریف عدالت استفاده کنیم یا به کدام گروه‌ها ارجحیت بدهیم. اگر آن‌ها را به حال خود رها کنیم نه تنها در حذف سوگیری‌ها به ما کمکی نمی‌کنند، بلکه آن را مستحکم‌تر می‌کنند.

به همین خاطر، نباید بگذاریم هوش مصنوعی بدون نظارت انسان به کار خود ادامه بدهد. اگر از سوگیری‌هایی که در داده‌ها پنهان شده‌اند خبر داشته باشیم و اهداف مالی و اجتماعی را بدانیم، می‌توانیم مدل‌هایی را توسعه دهیم که عادلانه قضاوت می‌کنند.

تجربه ثابت کرده که وقتی برای تصمیمات وام از سیستم‌های یادگیری ماشین استفاده می‌کنیم و سپس این سیستم‌ها را با استفاده از روش‌های فوق اصلاح و بررسی می‌کنیم، نسبت به تصمیم‌گیری‌های انسانی نتایج منصفانه‌تری می‌گیریم. این سیستم‌ها با هر تصمیمی که می‌گیرند دنیا را یک قدم به عدالت نزدیک‌تر می‌کنند.

لینک منبع

سایر مقالات