مقدمه
هوش مصنوعی فرصتهای بیسابقهای را برای کسبوکارها به ارمغان آورده است، اما مسئولیتهایی باورنکردنی نیز با خود به همراه دارد. تأثیر مستقیم هوش مصنوعی بر زندگی مردم، سؤالات قابلتوجهی را درمورد اخلاق هوش مصنوعی، حاکمیتِ داده، اعتماد، و قانونمندی ایجاد کرده است. تحقیقات Tech vision 2022 نشان داد که تنها 35درصد از مصرفکنندگان جهانی هوش مصنوعی، به نحوۀ اجرای آن بهوسیلۀ سازمانها اعتماد دارند و حدود 77درصد مردم فکر میکنند که سازمانها باید درمورد سوءاستفاده از هوش مصنوعی پاسخگو باشند. ازآنجاکه سازمانها برای کسب مزایای تجاری بیشتر، شروع به افزایش استفاده از هوش مصنوعی کردهاند، باید به مقررات جدید و اقداماتی که باید برای اطمینان از سازگاری سازمانهایشان مدنظر قرار دهند، توجه بیشتری داشته باشند. اینجاست که هوش مصنوعیِ مسئول وارد میشود.
هوش مصنوعیِ مسئول
هوش مصنوعیِ مسئول، یک چارچوب حاکمیتی است که نحوۀ برخورد یک سازمان خاص با چالشهای اخلاقی و قانونی هوش مصنوعی را مستند میکند. رفع ابهام درخصوص این مورد که اگر مشکلی پیش بیاید، مسئولیت آن با چه کسی است، از محرّکهای اصلی شکلگیری هوش مصنوعی مسئول است.
استفاده از کلمۀ «مسئول» بهطور جامع هم اخلاق و هم دموکراسی را در بر میگیرد. اکنون که برنامههای نرمافزاری با ویژگیهای هوش مصنوعی رایجتر شدهاند، بهطور فزایندهای نیاز به وجود استانداردهایی فراتر از استانداردهایی که آیزاک آسیموف در «سه قانون رباتیک» خود ارائه کرده است احساس میشود. این فناوری ممکن است به دلایلی بهصورت تصادفی یا تعمداً مورد سوءاستفاده قرار گیرد و بسیاری از سوءاستفادهها ناشی از سوگیری در انتخاب دادهها برای آموزش برنامۀ هوش مصنوعی است.
مزایای هوش مصنوعی مسئول
با استفاده از هوش مصنوعی مسئول، میتوان اهداف کلیدی را شکل داد و استراتژی حاکمیتی معینی ایجاد کرد. همچنین میتوان به ایجاد سیستمهایی که هوش مصنوعی و کسبوکار افراد را شکوفا میکنند کمک کرد.
Appen: 93درصد بر این باورند که هوش مصنوعیِ مسئول، پایه و اساس همۀ پروژههاست
شرکت Appen یک شرکت دادۀ سهامی عام است که دادههای مورداستفاده برای توسعۀ یادگیری ماشین و محصولات هوش مصنوعی را فراهم کرده یا بهبود میبخشد. این شرکت، در آخرین گزارش سالانۀ وضعیت هوش مصنوعی و یادگیری ماشین خود، این شرکت، Appen یافتههای جالبی را درمورد پیگیری راهحلهای ایمن و اخلاقی ارائه کرده است.
مارک برایان[۱]، مدیرعامل Appen میگوید: «گزارش وضعیت هوش مصنوعی امسال نشان میدهد که 93درصد از پاسخدهندگان معتقدند که هوش مصنوعیِ مسئول، پایه و اساس همۀ پروژههای هوش مصنوعی است. مشکل اینجاست که بسیاری از افراد در تلاش برای ساخت هوش مصنوعی متعالی، با چالشهایی در استفاده از مجموعه دادههای ضعیف مواجه هستند و این مانع بزرگی برای رسیدن به اهداف آنها ایجاد میکند.»
مایکروسافت چارچوب حاکمیت هوش مصنوعی مسئول خود را با کمک کمیتۀ هوش مصنوعی، اخلاقیات و تأثیرات در مهندسی و تحقیقات (AETHER) و گروههای ORA ایجاد کرده است. این دو گروه در داخل مایکروسافت برای گسترش و حفظ ارزشهای هوش مصنوعی مسئول تعریفشدۀ خود، با یکدیگر همکاری میکنند.
51درصد از پاسخدهندگان با این امر موافق هستند که دقت دادهها در استفاده از آنها برای هوش مصنوعی، بسیار مهم است. بااینحال، 42درصد از فناوران، مرحلۀ منبعیابی داده در چرخۀ حیات هوش مصنوعی را بسیار چالشبرانگیز گزارش کردهاند.
Sujatha Sagiraju، مدیر ارشد تولید در شرکت Appen میگوید: «اکثر تلاشهای هوش مصنوعی در چرخۀ عمر هوش مصنوعی، صرف مدیریت دادهها میشود، به این معنا که این تعهدی باورنکردنی برای هوش مصنوعی است و باید تمرکزمان را بر این بگذاریم که بهخوبی آن را مدیریت کنیم، چراکه بسیاری از افراد با آن دستوپنجه نرم میکنند.»
او در ادامه بیان میکند «وجود منبع دادههای با کیفیت بالا برای موفقیت راهحلهای هوش مصنوعی بسیار مهم است و ما نیز شاهد تأکید سازمانها بر اهمیت دقت دادهها هستیم.» تقریباً همۀ 95درصد از پاسخدهندگان موافق هستند که دادههای مصنوعی کلید ایجاد مجموعه دادههای فراگیر است. سازمانها گزارش دادهاند که مدلهایشان باید مرتباً بازآموزی شوند. 90درصد از پاسخدهندگان میگویند نیاز دارند که مدلهای خود را بیش از سه ماه یک بار آموزش دهند.
در نهایت، رهبران کسبوکارها مطمئن نیستند که آیا سازمانشان در مقایسه با دیگر رقبای صنعت خودشان، رویکرد هوش مصنوعی اتخاذ نموده است یا خیر. 49درصد معتقدند که از رقبا جلوترند، درحالیکه 49درصد مطمئن نیستند که از رویکردهای هوش مصنوعی مسئول استفاده میکنند یا خیر.
نمونهۀ شرکتهایی که از هوش مصنوعی مسئول استقبال میکنند
مایکروسافت چارچوب حاکمیت هوش مصنوعی مسئول خود را با کمک کمیتۀ هوش مصنوعی، اخلاقیات و تأثیرات در مهندسی و تحقیقات (AETHER) و گروههای [۲]ORA ایجاد کرده است. این دو گروه در داخل مایکروسافت برای گسترش و حفظ ارزشهای هوش مصنوعی مسئول تعریفشدۀ خود، با یکدیگر همکاری میکنند. ORA بهطور خاص، مسئول تنظیم قوانین هوش مصنوعی مسئول در سطح شرکت ازطریق اجرای امور حاکمیتی و سیاست عمومی است. مایکروسافت تعدادی از دستورالعملها، چکلیستها و الگوهای هوش مصنوعی را پیادهسازی کرده است. برخی از این موارد عبارتاند از:
- دستورالعملهای تعامل انسان و هوش مصنوعی؛
- دستورالعملهای هوش مصنوعی محاورهای؛
- دستورالعملهای طراحی فراگیر؛
- چکلیستهای عدالت هوش مصنوعی؛
- قالبهای برگههای داده (Data Sheet)؛
- راهنمای مهندسی امنیت هوش مصنوعی.
FICO خطمشیهای هوش مصنوعی مسئولانۀ خود را طوری طراحی کرده است تا به کارکنان و مشتریان خود در درک نحوۀ مدلهای یادگیری ماشینی که استفاده کرده است، نحوۀ عملکرد آنها و همچنین محدودیتهای پیشِروی برنامهنویسی کمک کند. FICO وظیفه دارد علاوهبر درنظر گرفتن چرخۀ عمر مدلهای یادگیری ماشین، دائماً کارایی و عادلانه بودن آنها را آزمایش کند.
IBM نیز هیئت اخلاقی خود را در رابطه با مسائل پیرامون هوش مصنوعی تشکیل داده است. این هیئت، یک نهاد مرکزی است که از ایجاد هوش مصنوعی اخلاقی و مسئولانه در سراسر IBM پشتیبانی میکند. برخی از دستورالعملهایی که IBM بر آن متمرکز است عبارتاند از:
- اعتماد و شفافیت هوش مصنوعی؛
- اخلاق روزمره برای هوش مصنوعی؛
- منابع جوامع منبع باز؛
- تحقیق درمورد هوش مصنوعی قابلاعتماد.
نشاندادن اینکه آیا یک مدل الگوریتمی از منظر مسئولیتپذیری خوب عمل میکند یا خیر، میتواند امری دشوار باشد. امروزه سازمانها راههای زیادی برای پیادهسازی هوش مصنوعی مسئول دارند که این امر نشان میدهد به سمت حذف مدلهای هوش مصنوعی جعبهسیاه، تمایل دارند. استراتژی کلی در رابطه با هوش مصنوعی مسئول شامل موارد زیر است:
- اطمینان از اینکه دادهها بهگونهای قابل توضیح هستند که انسان قادر به تفسیر آنها است.
- اطمینان از اینکه فرآیندهای طراحی و تصمیمگیری تا جایی مستند شدهاند که اگر اشتباهی رخ دهد، میتوان با مهندسی معکوس مشخص کرد که چه اتفاقی افتاده است.
- ایجاد فرهنگ کاری متنوع و بحثهای سازنده برای کمک به کاهش تعصب.
- ایجاد دادههای قابلدرک برای انسان با استفاده از ویژگیهای پنهان قابل تفسیر برای انسان.
- ایجاد فرآیند توسعۀ دقیق که در ویژگیهای پنهان هر برنامه، قابلیت مشاهده را ارزشگذاری کند.