خانه » مقالات » مروری بر کتاب «هوش مصنوعیِ مسئولیت‌پذیر»
مروری بر کتاب «هوش مصنوعیِ مسئولیت‌پذیر»
سه شنبه, ۴ آبان ۱۴۰۳
زمان تقریبی مطالعه ۱۳ دقیقه
کتاب «هوش مصنوعیِ مسئولیت‌پذیر: پیاده‌سازی الگوریتم‌های اخلاقی و بی‌طرفانه» علاوه‌بر بررسی مسئلۀ مسئولیت‌پذیری و مفاهیم مرتبط با آن نظیر توضیح‌پذیری، انصاف و بی‌طرفی از منظر اخلاقی، پیاده‌سازی فنی و مهندسی چنین سامانۀ هوش مصنوعی را نیز به‌صورت عملی با نرم‌افزار پایتون ارائه می‌دهد. این کتاب تاکنون بیش از ۱۳ هزار خرید تنها در سایت انتشارات اشپرینگر ثبت کرده است. بیشتر تکنیک‌های پوشش‌داده‌شده در این کتاب جدید است و با ارائۀ کد، به تیم‌های محصول کمک می‌کند تا این تکنیک‌ها را در رابطه با محصولات خود پیاده‌سازی کنند. تمرکز اصلی این کتاب بر منصفانه و قابل‌توضیح بودن محصولات است و هر موضوع را با جزئیات کامل بررسی می‌کند.

دربارۀ نویسندگان

نویسندۀ اول این کتاب، آگاروال[۱]، ساکن انگلیس و تحصیل‌کردۀ هند است. وی از هوش مصنوعی در صنایع مختلف، از تجزیه‌وتحلیل داده‌های مالی تا هتل‌داری و توسعۀ چارچوب هوش مصنوعیِ مسئولیت‌پذیر[۲] در یکی از بزرگترین بانک‌های بریتانیا، استفاده نموده است. او متخصص یادگیری ماشین و هوش مصنوعی و یک وبلاگ‌نویس فعال در حوزۀ هوش مصنوعی اخلاقی است. آگراوال در ابتدا متخصص اقتصاد و کسب‌وکار بود که در دو مرکز علمی هندی با نام‌های مدرسۀ هندی کسب‌وکار[۳] و دانشگاه گاندی[۴] تحصیل کرده و مدرک کارشناسی ارشد گرفته بود. سپس با ورود به حوزۀ داده و تحلیل داده، به حوزۀ هوش مصنوعی کشیده شد و بعد به تحقیق بر روی مباحث اخلاقی مربوط به هوش مصنوعی پرداخت. وی اکنون از متخصصان این حوزه به شمار می‌رود تا جایی که سخنرانی‌های زیادی را در این زمینه ارائه کرده است و برندۀ جایزۀ مایکروسافت در حوزۀ هوش مصنوعی در سال ۲۰۲۰ نیز شده است.

Sray Agarwal

اطلاعات بیشتر در:

https://www.coursera.org/instructor/~103471860

 

نویسندۀ دوم کتاب، میشرا[۵]، هندی‌الاصل و ساکن انگلیس است. وی نیز مانند نویسندۀ اول آگراوال تحصیلات آکادمیک در این حوزه ندارد و تنها لیسانس مهندسی شیمی از مؤسسۀ فناوری هند[۶] اخذ کرده است. او نیز با ورود به حوزۀ اقتصاد و کارآفرینی به حوزه داده و تحلیل داده و بعد به حوزۀ هوش مصنوعی و اخلاق آن کشیده شد و تا جایی پیش رفت که اکنون از رهبران ارشد فناوری است که محصولات تحول‌آفرینی را در حوزۀ هوش منصوعی ارائه کرده است. زمینۀ موردعلاقۀ وی ایجاد الگوریتم‌های مسئول و تنظیم‌کننده‌ها در آیندۀ هوش مصنوعی است. او در سال 2009 به‌عنوان امیدوارترین کارآفرین هند شناخته شد.

Shashin Mishra

اطلاعات بیشتر در:

https://machinelearningweek.eu/speaker/shashin-mishra

مسئولیت‌پذیری در هوش مصنوعی

با ظهور و توسعۀ سامانه‌های اجتماعی-فناورانه[۷]، مسئلۀ مسئولیت‌پذیری و توزیع مسئولیت در این سامانه‌ها به یکی از مهم‌ترین چالش‌ها تبدیل شد. منظور از این مسئله آن است که در خروجی رفتاری اشتباه یک سامانه، مسئول این رفتار کیست؟ پاسخ به این سؤال به سبب وجود عامل‌های[۸] متعدد انسانی و فناورانه در اتخاذ یک تصمیم و یا ایجاد یک عمل (کنش[۹] کار ساده‌ای نیست و نمی‌توان به‌سادگی تعیین کرد که چه عواملی و تا چه حد بابت وضعیت به‌وجودآمده مسئول هستند. این مسئله با ظهور و توسعۀ سامانه‌های هوش مصنوعی بغرنج‌تر شد؛ زیرا ملاحظه شد که برخی سامانه‌های هوش مصنوعی طیف گسترده‌ای از رفتارها را بدون دخالت عامل انسانی انجام می‌دهند و لذا خود به‌عنوان گزینه‌ای برای عاملیت و درنتیجه مسئولیت اخلاقی مطرح می‌شوند. پاسخ به این مسئله صاحب‌نظران زیادی را وادار به نوشتن کتاب‌ها و مقالات متعددی کرده است.

محتوای کتاب

این کتاب به هوش مصنوعی و روشی که با آن می‌توان هوش مصنوعی را به‌صورت مسئولانه ایجاد کرد، می‌پردازد. مخاطب این کتاب همۀ افراد علاقه‌مند به این حوزه هستند. تمام کسانی که برای ساختن یک محصول مبتنی بر هوش مصنوعی تلاش می‌کنند، می‌توانند از کتاب بهره‌مند شوند. در این کتاب بیان شده است که محصولات هوش مصنوعی چطور باید از شیوه‌های هوش مصنوعی اخلاقی و مسئولیت‌پذیر پیروی کنند. مالک محصول باید با درک مفاهیم بیان شده، سؤالات خود درمورد محصول را بپرسد و اطمینان حاصل کند که تیم قادر به پیاده‌سازی هوش مصنوعی مسئول می‌باشد.

جهت جلوگیری از سوگیری نکات آماده‌ای برای مالک محصول، تحلیل‌گر کسب‌وکار و تحلیل‌گر داده وجود دارد.

توانایی توضیح تصمیمات یک محصول هوش مصنوعی برای به‌دست‌آوردن اعتماد مشتری حیاتی است.

 

در فصل اول کتاب، مفاهیم عمومیِ مربوط به اخلاق هوش مصنوعی ازجمله مسئولیت‌پذیری، توضیح‌پذیری[۱۰]، انصاف[۱۱]، و پاسخگویی[۱۲] بیان شده است و مسئولیت‌پذیری خصوصیتی واجد تمامی موارد دیگر دانسته است.

در فصل بعدی، به ویژگی انصاف پرداخته می‌شود. معیارهای مختلف آن بررسی شده و درنهایت پیاده‌سازی آن با پایتون ارائه شده است.

در فصل بعد، سوگیری در داده‌ها مورد بررسی قرار می‌گیرد.

فصل چهارم کتاب به توصیف توضیح‌پذیری پرداخته و مدل و ویژگی‌های موجود در آن را به‌طور دقیق مورد بررسی قرار می‌دهد.

در فصل پنجم به نحوۀ حذف سوگیری[۱۳] از مدل یادگیری ماشین پرداخته شده است.

فصل ششم نیز به حذف سوگیری از خروجی در یادگیری ماشین[۱۴] اشاره دارد.

در فصل هفتم پاسخگویی مورد بررسی قرار گرفته است.

فصل هشتم به نحوۀ برقراری حریم خصوصی در داده و مدل می‌پردازد و روش‌های مختلف موجود برای این کار را بیان می‌کند.

فصل آخر کتاب نیز با عنوان نتیجه‌گیری، مجدداً مفاهیم مربوط به یک سامانۀ هوش مصنوعی مسئولیت‌پذیر را جمع‌بندی کرده و بیان می‌کند که برای رسیدن به یک سیستم مسئول و پایدار نیاز به تنظیم‌گر[۱۵] وجود دارد.

 

منابع بیشتر

  1. A. Matthias, “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata,” Ethics and Information Technology, pp. 175-183, 2004.
  2. K. E. Himma, “Artificial agency, consciousness, and the criteria for moral agency: what properties must an artificial agent have to be a moral agent?,” Ethics and Information Technology, pp. (11) 19-29, 2009.
  3. W. F. Haselager , “Robotics, philosophy and the problems of autonomy,” Pragmatics & Cognition, pp. 515 – 532, 2005.
  4. J. P. Sullins, “When Is a Robot a Moral Agent?,” International Review of Information Ethics, pp. 23-30, 2006.
  5. L. Floridi and J. W. Sanders, “On the Morality of Artificial Agents,” Minds and Machines, pp. 14 (349-379), 2004.
سایر مقالات