این مقاله دربردارندۀ بخشی از مباحث مطرحشده در سلسله نشستهای مجمع جهانی اقتصاد (WEF)[۱] در داووس[۲] است.
- هوش مصنوعی (Al) توصیههای روزافزونی به تصمیمگیرندگان انسانی ارائه میدهد.
- بنابراین ما باید اطمینان حاصل کنیم که میتوانیم نهتنها به هوش مصنوعی، بلکه به کل ماهیت ساختاری آن اعتماد کنیم.
- مفهوم «انصاف[۳]» ماهیتی انعطافپذیر داشته و نیاز به رایزنیهای چندجانبه دارد.
انسانها در میان انواع مختلفی از سوگیریها قرار دارند که ازجملۀ آنها میتوان به سوگیری «تأیید[۴]»، «نگهداشتن به هر قیمت (لنگر انداختن)[۵]» و «جنسیت[۶]» اشاره کرد. ممکن است اینگونه سوگیریها مردم را به سمت رفتار غیرمنصفانه سوق دهد. بنابراین ما بهعنوان یک جامعه سعی در کاهش این قبیل سوگیریها داریم.
بهویژه زمانی این امر پراهمیت جلوه میکند که انسانها در معرض تصمیمات پرمخاطرهای قرار گیرند که بر دیگران نیز تأثیرگذار است. بنابراین، ما این مسئله را ازطریق ترکیبی از آموزش، دستورالعملها و مقررات مدیریت میکنیم.
اکنون که هوش مصنوعی توصیههای روزافزونی به تصمیمگیرندگان انسانی ارائه میدهد، مهم و لازم است که مطمئن شویم این فناوری، مغرضانه عمل نمیکند، به ارزش «انصاف» واقف است و آن را رعایت میکند.
درواقع، انصافِ هوش مصنوعی بهعنوان یکی از موضوعات اصلی در آن دسته از ابتکاراتی است که هدفشان سودمندسازی هوش مصنوعی تا حد امکان (در ارتباط با اخلاق هوش مصنوعی) است.
زمان آن فرا رسیده است که دیدگاه جامعتری از «انصاف» را شناسایی کنیم و ارائه دهیم. دیدگاهی که همۀ ابعاد را پوشش دهد و از روابط متقابل آنها بهره ببرد.راجا چاتیلاRaja Chatila
نمونههایی ازایندست فراوان است و شامل «دستورالعملهای اخلاقی برای هوش مصنوعی قابلاعتماد» که توسط گروه کارشناسی سطح عالی کمیسیون اروپا[۷] درمورد هوش مصنوعی ارائه شده، تا تمرکز شورای «آیندۀ جهانی» مجمع جهانی اقتصاد درمورد «Al for Humanity» میشود.
درحالیکه برای چندین سال تمرکز اصلی شرکتها، دولتها، سازمانهای جامعۀ مدنی و پیشگامان حاکمیت جمعی، بر انصاف هوش مصنوعی بوده است، در طول زمان شاهد انبوهی از رویکردهای مختلف بودهایم که هریک از آنها بر یک یا چند جنبه از انصاف متمرکز شدهاند.
اکنون زمان شناسایی و پیشنهاد دیدگاه جامعتری است. طرحی که تمام ابعاد انصاف را پوشش میدهد و از روابط متقابل آنها برای ایجاد مؤثرترین چارچوب، تکنیکها و سیاستها بهره میبرد.
استفاده از ابزارهایی برای بهبود تبیینپذیری مدلهای هوش مصنوعی، شناسایی دلایل پشت تصمیمات آنها را ممکن میسازد، و بنابراین میتواند برای شناسایی سوگیری مفید باشد.فرانچسکا روسی
Francesca Rossi
نکتۀ مهم اینجاست: ازآنجاییکه سیستمهای هوش مصنوعی توسط انسانها ساخته میشوند و آنها دادههای آموزشی و آزمایشی را جمعآوری کرده و تصمیمات مرتبط با توسعه و پیشرفت را اتخاذ میکنند، میتوانند (آگاهانه یا ناآگاهانه) به عنصر «سوگیری» آلوده شوند (توسط سازندگان خود). این امر، بهنوبۀ خود، ممکن است باعث استقرار سیستمهای هوش مصنوعی شود که منعکسکننده و تقویتکنندۀ چنین سوگیریهایی هستند. نتیجۀ حاصل در این سیستمها، منجر به تصمیمگیری یا توصیههایی میشود که بهطور سیستماتیک برای دستههای خاصی از افراد غیرمنصفانه است.
درحال حاضر چندین ابزار فنی وجود دارد که میتواند در این زمینه کمککننده باشد. آنها سوگیری هوش مصنوعی را در انواع مختلفِ داده (متن، صدا، ویدئو، تصاویر و دادههای ساختاریافته) شناسایی کرده و کاهش میدهند. درواقع سوگیری موجود در جامعه را میتوان در سیستمهای هوش مصنوعی تعبیه کرد و تلازم ناپسند بین برخی ویژگیها (مانند تلازم میان جنسیت و دریافت وام) را میتوان ازطریق شناسایی و اجتناب از آنها کاهش داد.
وجود ابزارهایی برای بهبود توضیحپذیری مدلهای هوش مصنوعی، شناسایی دلایل پشت تصمیمهای آنها را ممکن میسازد و بنابراین میتواند در شناسایی سوگیری در دادهها یا مدلهای هوش مصنوعی نیز مفید باشد. بااینحال جنبههای فنی و راهحلهای جلوگیری از سوگیری هوش مصنوعی تنها یک بعد، و احتمالاً سادهترین بعد برای دستیابی به انصاف هوش مصنوعی را تشکیل میدهند.
ورای مسائل فنی
دستیابی به انصاف تنها یک مسئله فنی نیست. در کنار آن، لازم است ساختارهای حاکمیتی از یکسو به شناسایی، اجرا و اتخاذ ابزارهای مناسب برای یافتن و کاهش سوگیری در جمعآوری و پردازش اطلاعات بپردازند و از سوی دیگر چارچوبهایی برای نظارت لازم و مناسب برای هر مورد استفادۀ خاص، تعریف کنند. همچنین نباید فراموش کرد که مفهوم انصاف بهخودیخود مفهومی وابسته به زمینه[۸] است و باید بر اساس سناریوهای کاربردی خاص تعریف شود. تعریف صحیح را تنها میتوان ازطریق همفکری با جمع ذینفعان در این زمینه، شناسایی کرد. در اینگونه کنکاشها کسانی که سیستمهای هوش مصنوعی را ساخته و توسعه میدهند، درخصوص آن با کاربران و جوامع مربوطه بحث میکنند تا به شناسایی مفهومی برای انصاف دست یابند.
»هیچکس مرا آگاه نکرد که متعصبانه رفتار کردهام»
بُعد دیگر انصاف به آموزش مربوط میشود. ازآنجاییکه سوگیریهای انسانی عمدتاً ناآگاهانه است، هر مسیری برای دستیابی به انصاف، الزاماً از آگاهیبخشی (آموزش) شروع میشود. توسعهدهندگان هوش مصنوعی باید از سوگیریهای خود و نحوۀ احتمالی تزریق آن به سیستمهای هوش مصنوعی در فرآیند توسعه آنها، آگاه باشند. اما آموزش توسعهدهندگان کافی نیست، کل محیط اطراف آنها باید مراقب سوگیریهای احتمالی باشند و یاد بگیرند که چگونه آنها را شناسایی کرده و کاهش دهند.
باید فرهنگ انصاف ایجاد شود. در این زمینه مدیران باید بدانند که چگونه تیمهای توسعۀ متنوعی تشکیل دهند و مشوّقهایی برای تشخیص و کاهش سوگیریهای بالقوه در هوش مصنوعی تعریف کنند.
مدیران اجرایی و تصمیمگیرندگان این حوزه، برای درک مسائل سوگیری هوش مصنوعی و تأثیر احتمالی آن بر مشتریان، جوامع تحت تأثیر و شرکت خود به کمک نیاز دارند. چنین آموزشی باید با روشهای مناسب تکمیل شود. چنین روششناسیهایی پس از اتخاذ، باید الزام به اجرا داشته و تسهیل شوند. برای دستیابی به این هدف، شرکتها باید مناسبترین چارچوب حاکمیت داخلی را برای مدلهای تجاری و حوزههای استقرار خود تعریف کنند.
فراتر از خود سیستمها
سیستمهای هوش مصنوعی نهتنها باید بر مبنای انصاف عمل کرده و در تقویت سوگیری انسانی محتاط باشند، بلکه باید مطمئن شوند که منبع نابرابری بین گروهها یا جوامع نیستند. بنابراین تنوع و شمول در درون جوامع، یکی دیگر از ابعاد انصاف هوش مصنوعی است که به تأثیر استفاده از آن در یک بافت اجتماعی خاص اشاره دارد. فناوری باید بهدوراز افزایش نابرابری، دسترسی را بهبود بخشد و همچنین شکاف دیجیتالی را در محورهای مختلف مانند جنسیت، معلولیت، جغرافیا و قومیت کاهش دهد.
انصاف بُعدی جهانی نیز دارد و باید بهطور یکسان در بین مناطق مختلف جهان، البته با در نظر گرفتن ویژگیهای هر منطقه، ترویج شود.
بُعد مهم دیگر انصاف مربوط به چگونگی تعریف قوانین مناسب و مشترکی است که این اطمینان را میدهد که هوش مصنوعی خاصی که گسترشیافته و مورداستفاده قرارگرفته، مبتنی بر انصاف است. تولیدکنندگان باید در تعریف و اجرای اصول داخلی، دستورالعملها، روششناسی و چارچوبهای حاکمیتی، نقش قابلتوجه خود را ایفا کنند تا مطمئن شوند هوش مصنوعی تولیدشده، بیطرف، قوی، قابل توضیح و توجیه، دقیق و شفاف است. بااینحال هیچ دلیلی وجود ندارد که سایر نهادها نتوانند در ایجاد چارچوبهای مناسب برای هوش مصنوعی همفکری کنند. بحث بر سر مباحث پراهمیتی ازجمله دستورالعملها، بهترین شیوهها، استانداردها، ممیزیها، گواهینامهها، مقررات و قوانین است. بههرحال، این امر مستلزم ترکیبی دقیق از این جزئیات است که ازطریق کنکاشهای چندجانبۀ جمعی افراد تعریفشده تا منصفانهبودن فناوری هوش مصنوعی مورداستفاده و تأثیر آن بر جامعه را بهدرستی چارچوببندی کند.
بنابراین وسعت کار در زمینۀ انصاف هوش مصنوعی گسترده و پیچیده است. جمیع ذینفعان در این زمینه باید زمان و منابع خود را برای ایفای دقیق نقش خود در بخش مربوطه از این فضا اختصاص دهند.
اما در رابطه با انگیزۀ اصلی در پرداختن به این مهم، میتوان گفت، اطمینان از اینکه فناوری به ارزشهای انسانی احترام میگذارد، از آنها حمایت کرده و از به خطر افتادن این ارزشها جلوگیری میکند، انگیزههایی است که کاملاً روشن است. بااینحال، انگیزههای دیگری نیز برای سازندگان هوش مصنوعی مطرح است. درواقع، پرداختن به انصاف، هم ضرورتی اقتصادی و هم ضرورتی اجتماعی است. شرکتهایی که از هوش مصنوعی یا سایر فناوریها استفاده میکنند، اما نمیتوان برای حفظ ارزشهای فوقالذکر به آنها اعتماد کرد، در پذیرش گسترده محصولات خود با چالشهایی مواجه خواهند شد.