خانه » مقالات » هوش‌ مصنوعی و معمای اخلاقی
هوش‌ مصنوعی و معمای اخلاقی
پنج‌شنبه, ۶ آذر ۱۳۹۹
زمان تقریبی مطالعه ۱۰ دقیقه
در پی بحران کووید 19، اعتماد ما به هوش مصنوعی سر به فلک کشیده‌است. امروزه بیش از هر زمان دیگری به دنبال فن‌آوری‌های هوش مصنوعی هستیم تا به ما در کاهش فعالیت‌های فیزیکی کمک کند، موج بعدی بیماری را پیش‌بینی کرده، امکانات بهداشتی را ضدعفونی نموده و حتی غذای مشتریان را تحویل دهد. اما آیا می‌توان به این فن‌آوری‌ها اعتماد کرد؟

هوش مصنوعی، قدرت ایجاد تحول مثبت در جامعه و محیط را دارد و برای استفاده از این توانایی، در حد بالقوه خود، سازمان‌ها باید بر روی چالش‌های اخلاقی تمرکز کنند. در آخرین گزارش موسسه تحقیقاتی Capgemini، با عنوان “هوش مصنوعی و معمای اخلاقی: چگونه سازمان‌ها می‌توانند با ایجاد سیستم‌های قوی هوش مصنوعی اخلاقی، اعتماد افراد را جلب کنند؟”، بیش از 800 سازمان و 2900 مصرف‌کننده مورد بررسی قرار گرفته تا تصویری از وضعیت امروزه اخلاق در هوش مصنوعی، به‌دست آید. هدف از این گزارش، بررسی مواردی از قبیل اینکه سازمان‌ها، برای انتقال به سیستم‌های هوش مصنوعی که از نظر طراحی اخلاقی عمل می‌کنند، چه‌کاری می‌توانند انجام دهند، چه بهره‌ای از این موارد می‌برند و در صورت عدم پیروی از آن، با چه عواقبی روبرو خواهند شد، بوده‌است.

این گزارش، نشان داد که سهم مشتریانی که معتقدند سازمان‌ها در خصوص نحوه استفاده از اطلاعات شخصی، کاملاً شفاف هستند، از 76 درصد در سال 2019، به 62 درصد در حال حاضر، رسیده است. این گزارش همچنین نشان می‌دهد که فقط 53 درصد از سازمان‌ها، فردی را به‌عنوان مسئول خلاق در سیستم‌های هوش مصنوعی منصوب کرده‌اند. به‌علاوه، حاکمیت و پاسخگویی در مورد هوش مصنوعی و بکارگیری ابزارها و چارچوب‌های عملی برای این سیستم‌ها، باید توسعه داده شده و بکار روند، اما این موارد برای سازمان هزینه بالایی دارد.

همچنین، گزارش فعلی خاطر نشان می‌کند، امروزه، اگرچه سازمان‌ها از نظر اخلاقی آگاهی بیشتری دارند، اما پیشرفت در اجرای هوش مصنوعی اخلاقی با این مورد در تناقض است. به‌عنوان‌مثال، گام‌های برداشته‌شده در زمینه ایجاد “انصاف”، در سال 2020، مقدار 65 درصد و در 2019 ، 66 درصد بوده‌است که تقریباً مشابه است. در همین مورد، ممیزی، از 46 درصد در سال 2019 به 45 درصد در سال 2020، و شفافیت نیز از 73 درصد به 59 درصد کاهش یافته‌است. علی‌رغم این واقعیت، 58 درصد مشاغل، می‌گویند در خصوص قابلیت‌های هوش مصنوعی و استفاده از آن در بین کارمندان خود آگاهی ایجاد کرده‌اند. همچنین، این گزارش نشان می‌دهد که 70 درصد از مشتریان، می‌خواهند توضیحات روشنی در مورد نتایج بدست آورند و از سازمان‌ها انتظار دارند تعاملات هوش مصنوعی را به‌صورت شفاف و منصفانه ارائه دهند.

گرایش‌های تبعیض آمیز در سیستم‌های هوش مصنوعی و تجارب منفی مشتری در هوش مصنوعی، برای سازمان‌ها هزینه زیادی دارد.

از آنجا‌که سازمان‌های دولتی و خصوصی به‌طور فزاینده‌ای به استفاده از فن‌آوری‌های هوش مصنوعی ادامه می‌دهند، حفظ اعتماد مشتری، با پیشبرد روابط مثبت بین هوش مصنوعی و مصرف‌کنندگان، برای آن‌ها حیاتی است. با این‌حال، گزارش‌ها نشان می‌دهد که مجموعه داده‌های جمع‌آوری‌شده برای مراقبت‌های بهداشتی و بخش دولتی، تحت تعصبات اجتماعی و فرهنگی قرار دارند. این مورد فقط به بخش دولتی محدود نمی‌شود. تحقیقات Capgemini، نشان داد که 65 درصد از مدیران از موضوع جهت‌گیری تبعیض‌آمیز سیستم‌های هوش مصنوعی مطلع هستند. به‌علاوه، نزدیک به 22 درصد از سازمان‌ها، در دو سه سال اخیر، به‌دلیل تصمیماتی که سیستم‌های هوش مصنوعی گرفته‌اند، با واکنش مشتریان روبرو شده‌اند.

براساس این گزارش، موارد بیان‌شده، بیانگر این است که شرایط فعلی ایجاد شده تحت تأثیر کووید 19، و همچنین نیازهای اجتماعی و زیست‌محیطی، پیچیدگی فزاینده مدل‌های هوش مصنوعی و تغییر در رفتار مصرف‌کننده، باعث اختلال در عملکرد مدل‌های هوش مصنوعی فعلی شده‌است. وجود عوامل جدید شامل، اولویت ایمنی، خرید عمده و فقدان داده های آموزشی برای موقعیت های مشابه گذشته، نشان می‌دهد که سازمان‌ها، باید سیستم‌های خود را با توجه به یک وضعیت نرمال جدید، بازطراحی کنند. این امر منجر به ایجاد شفافیت کمتری شده‌است.

این گزارش، 7 اقدام اصلی را در سازمان ها برای ایجاد یک سیستم قوی هوش مصنوعی اخلاقی بیان کرده و هریک از آنها را به‌عنوان زیربنای محکم رهبری، حکمرانی و اقدامات داخلی معرفی می‌کند.

باتوجه به پتانسیل بالای هوش مصنوعی، یک فرصت کاملاً واقعی برای پیگیری فعالانه موارد زیست‌محیطی و رفاه اجتماعی وجود دارد. آنه‌لور ثیولنت[۱]، رهبر گروه پیشنهادات هوش مصنوعی و تجزیه و تحلیل، در شرکت Capgemini، در این رابطه می‌گوید: “هوش مصنوعی یک فن‌آوری تحول آفرین است و قدرت ایجاد تحولات گسترده در همه کسب و کارها، جامعه و محیط را دارد. به‌جای ترس از تأثیرات هوش مصنوعی بر روی انسان و جامعه، کاملاً این امکان وجود دارد که هوش مصنوعی را در راستای مبارزه فعال با تعصب علیه اقلیت‌ها و حتی اصلاح تعصب‌های انسانی موجود در جوامع امروز، هدایت کنیم. این بدان معناست که سازمان‌های دولتی و غیردولتی که دارای توانایی‌های هوش مصنوعی بوده و اطلاعات فراوان دارند، درصورتی‌که هدف کار برای جامعه و محیط‌زیست را دنبال می‌کنند، باید مسئولیت بیشتری را در پرداختن به این مسائل در جهت اصلاح جوامع فعلی و آینده به عهده بگیرند. در همین‌حال، باید به شفافیت و پاسخگویی در قبال عملکرد خود نیز پایبند باشند”.

سایر اطلاعات و نتایج دریافتی از گزارش مربوطه، در فایل اینفوگرافیک ارائه شده موجود است.

منابع
سایر مقالات