خانه » مقالات » چرا باید حکمت عملیِ مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟ | بخش اول
چرا باید حکمت عملیِ مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟ | بخش اول
قسمت اول: حکمت عملی
چهار شنبه, ۵ آبان ۱۴۰۱
زمان تقریبی مطالعه ۱۴ دقیقه
حکمت عملی مفهومی فلسفی است که اشاره به استدلال اخلاقی آگاهانه یا حکمت عملی دارد. ادعا می شود که در اغلب انسان های بالغ، این توانایی نقشی اساسی را دراستدلال اخلاقی سطح بالا ایفا می‌کند. اگر بخواهیم هوش مصنوعی توانایی استدلال در برابر مسائل اخلاقی را به گونه‌ای مشابه عملکرد انسان‌های کفایتمند دارا شود، نیازمند ساختن ماشین‌هایی هستیم که در تعاملاتشان با عامل‌های انسانی، از خود فرونسیس یا حکمت عملی نشان می‌دهند. در اینجا می‌خواهیم استدلال کنیم که بالاترین هدف اخلاق هوش مصنوعی همین است، اما برای دستیابی به این هدف نیازمند آنیم که ابتدا مسئله آگاهی مصنوعی را حل کنیم. دستیابی به حکمت عملی مصنوعی ضروری است، زیرا برای افزایش اعتماد کاربران به سیستم‌های هوش مصنوعی و روبات‌ها کفایت اخلاقی این سیستم‌ها لازم است.

حکمت عملی مصنوعی و غیرمصنوعی

از یک سو، آگاهی سادهترین چیزی است که میتوان تجربه کرد، چراکه آگاهی لازمۀ ادراکاتِ کاملاً تجربهشده و غنی برای ما انسانهاست. از دیگر سو، آگاهی پدیدهای است که تبیین آن به‌گونهای که بتوان آن را در یک ماشین شبیهسازی کرد، بسیار دشوار است. بسیاری از تلاشهای صورتگرفته در اخلاق هوش مصنوعی و رباتیک نیازمند این نیستند که ماشینِ ساختهشده دارای آگاهی باشد. به‌طور کلّی، میتوان سه دسته عامل مصنوعی را براساس میزان تواناییهای اخلاقیشان از یکدیگر تفکیک کرد:

  1. عاملهای دارای تأثیر اخلاقی[۱] (EIA)

این دسته از عاملها برای عمل کردن به‌گونهای که عمل میکنند، نیازی به آگاهی ندارند. اما از این جهت جالب‌توجهاند که در کارکردهای خود نوعی خودمختاری نشان میدهند و میتوانند بر عاملهای انسانی تأثیراتی بگذارند که دارای اهمیت اخلاقی است. مثال خودروهای خودران مصداقی از این دسته از عامل‌هاست که ممکن است منجر به کشته‌شدن عابر در اثر تصادف شود درحالی‌که به این عمل خود و عواقبش «آگاهی» ندارد. این سیستم صرفاً براساس برنامهای که برایش نوشته شده و اطلاعاتی که از سنسورهایش دریافت میکند، عمل خود را تنظیم میکند، نه براساس تجربۀ آگاهانۀ خود از این موقعیت و در نتیجه، هیچگونه واکنش احساسی به این حادثه ندارد و پشیمانی برای او معنایی ندارد و کسی نیز او را سرزنش نمیکند.

  1. عاملهای مصنوعی دارای اخلاقیات[۲] (AEA)

در این عاملها ملاحظات اخلاقی به‌نحوی صریح برنامهنویسی شده و در کارکرد آن‌ها بروز دارد و از این جهت، در طراحی آن‌ها یک گام فراتر از دستۀ قبلی پیش رفتهایم. مثالی که برای این دسته میتوان ارائه کرد، خودروهای خودرانی هستند که به‌گونهای طراحی میشوند تا بتوانند محاسبات اخلاقی را در تصمیمگیریهای خود لحاظ کنند؛ مثلاً وقتی در یک موقعیت حتمیِ تصادف قرار میگیرند، در انتخاب میان سرنشینان خود و سرنشینان خودروی دیگر بررسی کنند که کدام حالت مخاطرات کمتری به همراه دارد. با این وجود، این دسته از عاملها نمیتوانند مسئولیت کارهای خود را بپذیرند و مسئولیت عواقب ناخواستۀ احتمالی همچنان با انسانهاست. این عاملها هم نسبت به رفتارهای خود آگاه نیستند، حتی اگر به نظر برسد که برای تصمیمگیری به‌نحوی اخلاقی، به بیرون از خود نگاه میکنند و «گویی» این تصمیم را به‌نحوی آگاهانه میگیرند.

  1. عامل‌های اخلاقی مصنوعی[۳] (AMA)

فقط زمانی که این دسته از ماشینها را داشته باشیم، میتوانیم ادعا کنیم که آگاهی نقش مهمی را ایفا میکند. این عاملها میتوانند از میان رفتارهای مختلف، رفتارهایی را انتخاب کنند که متناسب با موقعیت فعلی است و این نشانگر نوعی استدلال عملی مشابه آن چیزی است که در اکثر عاملهای اخلاقیِ توانمند در استدلال اخلاقی میتوان دید. این به این معناست که این سیستم یک  عامل اخلاقیِ آگاه است و از خود حکمت عملی مصنوعی بروز میدهد که در ادامه توضیح خواهیم داد که مقصود از حکمت عملی مصنوعی چیست. همچنین، به این بحث میپردازیم که درحالی‌که آگاهی لازمۀ تصمیمگیری دو دستۀ اول از عاملها نیست، اما نقش مهمی در توسعۀ عاملهای اخلاقی مصنوعیِ پیچیده ایفا میکند و اتفاقاً این دسته از عاملها هستند که تعاملات سودمندتری با انسانها در موقعیتهای اجتماعی پیچیده برقرار میکنند.

امل مصنوعی دارای اخلاقیات به‌نحوی موفق براساس یک یا دو مکتب فکری (مثلاً اخلاق وظیفه‌گرایانه یا اخلاق سودگرایانه یا چارچوب‌های اخلاقیِ برآمده از سنت‌های دینی یا حتی قوانین سه‌گانۀ آیزاک آسیموف) طراحی شود. چنین عاملی احتمالاً می‌تواند در شرایط مشخصی موفق عمل کند، اما همچنان از حکمت عملی مصنوعی‌ای که مختص عامل مصنوعی اخلاقی است، بی‌بهره است.

«حکمت عملی» مفهومی فلسفی است که ممکن است به گوش افراد خارج از فضای فلسفه آشنا نباشد. اما اگر بخواهیم هوش مصنوعی و رباتها را موجوداتی دارای توانایی استدلال اخلاقی هوشمندانه طراحی کنیم، ناگزیریم با این مفهوم آشنا شویم تا بتوانیم فهم بهتری از اخلاق پیدا کنیم. این مفهوم قدمتی دیرینه دارد و عمدتاً در ادبیات اخلاق فضیلت از آن نام برده میشود که اشاره به مهارتی دارد که ما را قادر میسازد زندگی خوبی را زیست کنیم. اگرچه برای طراحی سیستمهای هوشمند نیازی به تسلط کامل بر اخلاق فضیلت نیست، اما آشنایی با ادبیات این نظریه میتواند منجر به ارتقای طراحی این سیستمها و افزایش قدرت استدلال اخلاقی آن‌ها شود.

فرونسیس به معنای حکمت عملیای است که یک عامل اخلاقیِ آگاه از آن بهره میگیرد تا با مسائل اخلاقیِ دشوار دست و پنجه نرم کند و به‌نحوی هوشمندانه از عهدۀ حل آن‌ها برآید. با توجه به اینکه مسائل اخلاقی همیشه جدیدند و نمیتوان مجموعهای از پاسخهای ازپیش معیّن را برای حل آن‌ها تعیین کرد، مواجهه با موقعیتهایی که نیازمند تصمیمگیری اخلاقی هستند، نیازمند مهارتهایی نظیر خلاقیت و یادگیری در عامل فرونتیک (فردی که دارای حکمت عملی است) هستند. هیچگونه قاعده/روند/الگوریتم عمومیای را نمیتوان تعیین کرد که با کمک آن بتوان میان ارزشها، اصول، هنجارها و رویکردهای مختلف براساس موقعیت فعلی انتخاب کرد و آن‌ها را در این موقعیت به کار برد.

ممکن است عامل مصنوعی دارای اخلاقیات به‌نحوی موفق براساس یک یا دو مکتب فکری (مثلاً اخلاق وظیفهگرایانه یا اخلاق سودگرایانه یا چارچوبهای اخلاقیِ برآمده از سنتهای دینی یا حتی قوانین سهگانۀ آیزاک آسیموف) طراحی شود. چنین عاملی احتمالاً میتواند در شرایط مشخصی موفق عمل کند، اما همچنان از حکمت عملی مصنوعیای که مختص عامل مصنوعی اخلاقی است، بیبهره است. درحالی‌که حکمت عملی میتواند علاوه‌براینکه عقلانیت جهان‌شمول را دربرمیگیرد، ملاحظات مربوط به ابعاد احساسی، بدن‌مندانه، سیاق‌مندانه و رابطهمندانۀ هر موقعیت را نیز در محاسبات اخلاقی خود در نظر بگیرد و براساس همۀ این عوامل تصمیمگیری نهایی را انجام دهد. این ابعاد همان مؤلفههای غیرضروریای هستند که کانت و دیگران معتقد بودند ارتباطی به اخلاق و تصمیمگیریهای اخلاقی ندارند. اما چرا لازم است که خودمان را به دردسرِ طراحی عاملهای مصنوعی اخلاقی بیندازیم و بکوشیم حکمت عملی مصنوعی را در آن‌ها جایدهی کنیم؟ این مسیر بسیار دشوار و طولانی است؛ زیرا برای دستیابی به حکمت عملی باید ابتدا مسائلی همچون آگاهی مصنوعی، احساسات مصنوعی، بدن‌مندی ماشین و… را حل کنیم که ممکن است نتوانیم آنها را در قالبی محاسباتی تبیین کنیم.
ادامه دارد …

بخش دوم مقاله را از اینجا بخوانید.

سایر مقالات