دربارۀ نویسندگان
نویسندۀ اول این کتاب، آگاروال[۱]، ساکن انگلیس و تحصیلکردۀ هند است. وی از هوش مصنوعی در صنایع مختلف، از تجزیهوتحلیل دادههای مالی تا هتلداری و توسعۀ چارچوب هوش مصنوعیِ مسئولیتپذیر[۲] در یکی از بزرگترین بانکهای بریتانیا، استفاده نموده است. او متخصص یادگیری ماشین و هوش مصنوعی و یک وبلاگنویس فعال در حوزۀ هوش مصنوعی اخلاقی است. آگراوال در ابتدا متخصص اقتصاد و کسبوکار بود که در دو مرکز علمی هندی با نامهای مدرسۀ هندی کسبوکار[۳] و دانشگاه گاندی[۴] تحصیل کرده و مدرک کارشناسی ارشد گرفته بود. سپس با ورود به حوزۀ داده و تحلیل داده، به حوزۀ هوش مصنوعی کشیده شد و بعد به تحقیق بر روی مباحث اخلاقی مربوط به هوش مصنوعی پرداخت. وی اکنون از متخصصان این حوزه به شمار میرود تا جایی که سخنرانیهای زیادی را در این زمینه ارائه کرده است و برندۀ جایزۀ مایکروسافت در حوزۀ هوش مصنوعی در سال ۲۰۲۰ نیز شده است.
اطلاعات بیشتر در:
https://www.coursera.org/instructor/~103471860
نویسندۀ دوم کتاب، میشرا[۵]، هندیالاصل و ساکن انگلیس است. وی نیز مانند نویسندۀ اول آگراوال تحصیلات آکادمیک در این حوزه ندارد و تنها لیسانس مهندسی شیمی از مؤسسۀ فناوری هند[۶] اخذ کرده است. او نیز با ورود به حوزۀ اقتصاد و کارآفرینی به حوزه داده و تحلیل داده و بعد به حوزۀ هوش مصنوعی و اخلاق آن کشیده شد و تا جایی پیش رفت که اکنون از رهبران ارشد فناوری است که محصولات تحولآفرینی را در حوزۀ هوش منصوعی ارائه کرده است. زمینۀ موردعلاقۀ وی ایجاد الگوریتمهای مسئول و تنظیمکنندهها در آیندۀ هوش مصنوعی است. او در سال 2009 بهعنوان امیدوارترین کارآفرین هند شناخته شد.
اطلاعات بیشتر در:
https://machinelearningweek.eu/speaker/shashin-mishra
مسئولیتپذیری در هوش مصنوعی
با ظهور و توسعۀ سامانههای اجتماعی-فناورانه[۷]، مسئلۀ مسئولیتپذیری و توزیع مسئولیت در این سامانهها به یکی از مهمترین چالشها تبدیل شد. منظور از این مسئله آن است که در خروجی رفتاری اشتباه یک سامانه، مسئول این رفتار کیست؟ پاسخ به این سؤال به سبب وجود عاملهای[۸] متعدد انسانی و فناورانه در اتخاذ یک تصمیم و یا ایجاد یک عمل (کنش[۹])، کار سادهای نیست و نمیتوان بهسادگی تعیین کرد که چه عواملی و تا چه حد بابت وضعیت بهوجودآمده مسئول هستند. این مسئله با ظهور و توسعۀ سامانههای هوش مصنوعی بغرنجتر شد؛ زیرا ملاحظه شد که برخی سامانههای هوش مصنوعی طیف گستردهای از رفتارها را بدون دخالت عامل انسانی انجام میدهند و لذا خود بهعنوان گزینهای برای عاملیت و درنتیجه مسئولیت اخلاقی مطرح میشوند. پاسخ به این مسئله صاحبنظران زیادی را وادار به نوشتن کتابها و مقالات متعددی کرده است.
محتوای کتاب
این کتاب به هوش مصنوعی و روشی که با آن میتوان هوش مصنوعی را بهصورت مسئولانه ایجاد کرد، میپردازد. مخاطب این کتاب همۀ افراد علاقهمند به این حوزه هستند. تمام کسانی که برای ساختن یک محصول مبتنی بر هوش مصنوعی تلاش میکنند، میتوانند از کتاب بهرهمند شوند. در این کتاب بیان شده است که محصولات هوش مصنوعی چطور باید از شیوههای هوش مصنوعی اخلاقی و مسئولیتپذیر پیروی کنند. مالک محصول باید با درک مفاهیم بیان شده، سؤالات خود درمورد محصول را بپرسد و اطمینان حاصل کند که تیم قادر به پیادهسازی هوش مصنوعی مسئول میباشد.
جهت جلوگیری از سوگیری نکات آمادهای برای مالک محصول، تحلیلگر کسبوکار و تحلیلگر داده وجود دارد.
توانایی توضیح تصمیمات یک محصول هوش مصنوعی برای بهدستآوردن اعتماد مشتری حیاتی است.
در فصل اول کتاب، مفاهیم عمومیِ مربوط به اخلاق هوش مصنوعی ازجمله مسئولیتپذیری، توضیحپذیری[۱۰]، انصاف[۱۱]، و پاسخگویی[۱۲] بیان شده است و مسئولیتپذیری خصوصیتی واجد تمامی موارد دیگر دانسته است.
در فصل بعدی، به ویژگی انصاف پرداخته میشود. معیارهای مختلف آن بررسی شده و درنهایت پیادهسازی آن با پایتون ارائه شده است.
در فصل بعد، سوگیری در دادهها مورد بررسی قرار میگیرد.
فصل چهارم کتاب به توصیف توضیحپذیری پرداخته و مدل و ویژگیهای موجود در آن را بهطور دقیق مورد بررسی قرار میدهد.
در فصل پنجم به نحوۀ حذف سوگیری[۱۳] از مدل یادگیری ماشین پرداخته شده است.
فصل ششم نیز به حذف سوگیری از خروجی در یادگیری ماشین[۱۴] اشاره دارد.
در فصل هفتم پاسخگویی مورد بررسی قرار گرفته است.
فصل هشتم به نحوۀ برقراری حریم خصوصی در داده و مدل میپردازد و روشهای مختلف موجود برای این کار را بیان میکند.
فصل آخر کتاب نیز با عنوان نتیجهگیری، مجدداً مفاهیم مربوط به یک سامانۀ هوش مصنوعی مسئولیتپذیر را جمعبندی کرده و بیان میکند که برای رسیدن به یک سیستم مسئول و پایدار نیاز به تنظیمگر[۱۵] وجود دارد.
منابع بیشتر
- A. Matthias, “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata,” Ethics and Information Technology, pp. 175-183, 2004.
- K. E. Himma, “Artificial agency, consciousness, and the criteria for moral agency: what properties must an artificial agent have to be a moral agent?,” Ethics and Information Technology, pp. (11) 19-29, 2009.
- W. F. Haselager , “Robotics, philosophy and the problems of autonomy,” Pragmatics & Cognition, pp. 515 – 532, 2005.
- J. P. Sullins, “When Is a Robot a Moral Agent?,” International Review of Information Ethics, pp. 23-30, 2006.
- L. Floridi and J. W. Sanders, “On the Morality of Artificial Agents,” Minds and Machines, pp. 14 (349-379), 2004.