
حکمت عملی مصنوعی و غیرمصنوعی
از یک سو، آگاهی سادهترین چیزی است که میتوان تجربه کرد، چراکه آگاهی لازمۀ ادراکاتِ کاملاً تجربهشده و غنی برای ما انسانهاست. از دیگر سو، آگاهی پدیدهای است که تبیین آن بهگونهای که بتوان آن را در یک ماشین شبیهسازی کرد، بسیار دشوار است. بسیاری از تلاشهای صورتگرفته در اخلاق هوش مصنوعی و رباتیک نیازمند این نیستند که ماشینِ ساختهشده دارای آگاهی باشد. بهطور کلّی، میتوان سه دسته عامل مصنوعی را براساس میزان تواناییهای اخلاقیشان از یکدیگر تفکیک کرد:
- عاملهای دارای تأثیر اخلاقی[۱] (EIA)
این دسته از عاملها برای عمل کردن بهگونهای که عمل میکنند، نیازی به آگاهی ندارند. اما از این جهت جالبتوجهاند که در کارکردهای خود نوعی خودمختاری نشان میدهند و میتوانند بر عاملهای انسانی تأثیراتی بگذارند که دارای اهمیت اخلاقی است. مثال خودروهای خودران مصداقی از این دسته از عاملهاست که ممکن است منجر به کشتهشدن عابر در اثر تصادف شود درحالیکه به این عمل خود و عواقبش «آگاهی» ندارد. این سیستم صرفاً براساس برنامهای که برایش نوشته شده و اطلاعاتی که از سنسورهایش دریافت میکند، عمل خود را تنظیم میکند، نه براساس تجربۀ آگاهانۀ خود از این موقعیت و در نتیجه، هیچگونه واکنش احساسی به این حادثه ندارد و پشیمانی برای او معنایی ندارد و کسی نیز او را سرزنش نمیکند.
- عاملهای مصنوعی دارای اخلاقیات[۲] (AEA)
در این عاملها ملاحظات اخلاقی بهنحوی صریح برنامهنویسی شده و در کارکرد آنها بروز دارد و از این جهت، در طراحی آنها یک گام فراتر از دستۀ قبلی پیش رفتهایم. مثالی که برای این دسته میتوان ارائه کرد، خودروهای خودرانی هستند که بهگونهای طراحی میشوند تا بتوانند محاسبات اخلاقی را در تصمیمگیریهای خود لحاظ کنند؛ مثلاً وقتی در یک موقعیت حتمیِ تصادف قرار میگیرند، در انتخاب میان سرنشینان خود و سرنشینان خودروی دیگر بررسی کنند که کدام حالت مخاطرات کمتری به همراه دارد. با این وجود، این دسته از عاملها نمیتوانند مسئولیت کارهای خود را بپذیرند و مسئولیت عواقب ناخواستۀ احتمالی همچنان با انسانهاست. این عاملها هم نسبت به رفتارهای خود آگاه نیستند، حتی اگر به نظر برسد که برای تصمیمگیری بهنحوی اخلاقی، به بیرون از خود نگاه میکنند و «گویی» این تصمیم را بهنحوی آگاهانه میگیرند.
- عاملهای اخلاقی مصنوعی[۳] (AMA)
فقط زمانی که این دسته از ماشینها را داشته باشیم، میتوانیم ادعا کنیم که آگاهی نقش مهمی را ایفا میکند. این عاملها میتوانند از میان رفتارهای مختلف، رفتارهایی را انتخاب کنند که متناسب با موقعیت فعلی است و این نشانگر نوعی استدلال عملی مشابه آن چیزی است که در اکثر عاملهای اخلاقیِ توانمند در استدلال اخلاقی میتوان دید. این به این معناست که این سیستم یک عامل اخلاقیِ آگاه است و از خود حکمت عملی مصنوعی بروز میدهد که در ادامه توضیح خواهیم داد که مقصود از حکمت عملی مصنوعی چیست. همچنین، به این بحث میپردازیم که درحالیکه آگاهی لازمۀ تصمیمگیری دو دستۀ اول از عاملها نیست، اما نقش مهمی در توسعۀ عاملهای اخلاقی مصنوعیِ پیچیده ایفا میکند و اتفاقاً این دسته از عاملها هستند که تعاملات سودمندتری با انسانها در موقعیتهای اجتماعی پیچیده برقرار میکنند.
امل مصنوعی دارای اخلاقیات بهنحوی موفق براساس یک یا دو مکتب فکری (مثلاً اخلاق وظیفهگرایانه یا اخلاق سودگرایانه یا چارچوبهای اخلاقیِ برآمده از سنتهای دینی یا حتی قوانین سهگانۀ آیزاک آسیموف) طراحی شود. چنین عاملی احتمالاً میتواند در شرایط مشخصی موفق عمل کند، اما همچنان از حکمت عملی مصنوعیای که مختص عامل مصنوعی اخلاقی است، بیبهره است.
«حکمت عملی» مفهومی فلسفی است که ممکن است به گوش افراد خارج از فضای فلسفه آشنا نباشد. اما اگر بخواهیم هوش مصنوعی و رباتها را موجوداتی دارای توانایی استدلال اخلاقی هوشمندانه طراحی کنیم، ناگزیریم با این مفهوم آشنا شویم تا بتوانیم فهم بهتری از اخلاق پیدا کنیم. این مفهوم قدمتی دیرینه دارد و عمدتاً در ادبیات اخلاق فضیلت از آن نام برده میشود که اشاره به مهارتی دارد که ما را قادر میسازد زندگی خوبی را زیست کنیم. اگرچه برای طراحی سیستمهای هوشمند نیازی به تسلط کامل بر اخلاق فضیلت نیست، اما آشنایی با ادبیات این نظریه میتواند منجر به ارتقای طراحی این سیستمها و افزایش قدرت استدلال اخلاقی آنها شود.
فرونسیس به معنای حکمت عملیای است که یک عامل اخلاقیِ آگاه از آن بهره میگیرد تا با مسائل اخلاقیِ دشوار دست و پنجه نرم کند و بهنحوی هوشمندانه از عهدۀ حل آنها برآید. با توجه به اینکه مسائل اخلاقی همیشه جدیدند و نمیتوان مجموعهای از پاسخهای ازپیش معیّن را برای حل آنها تعیین کرد، مواجهه با موقعیتهایی که نیازمند تصمیمگیری اخلاقی هستند، نیازمند مهارتهایی نظیر خلاقیت و یادگیری در عامل فرونتیک (فردی که دارای حکمت عملی است) هستند. هیچگونه قاعده/روند/الگوریتم عمومیای را نمیتوان تعیین کرد که با کمک آن بتوان میان ارزشها، اصول، هنجارها و رویکردهای مختلف براساس موقعیت فعلی انتخاب کرد و آنها را در این موقعیت به کار برد.
ممکن است عامل مصنوعی دارای اخلاقیات بهنحوی موفق براساس یک یا دو مکتب فکری (مثلاً اخلاق وظیفهگرایانه یا اخلاق سودگرایانه یا چارچوبهای اخلاقیِ برآمده از سنتهای دینی یا حتی قوانین سهگانۀ آیزاک آسیموف) طراحی شود. چنین عاملی احتمالاً میتواند در شرایط مشخصی موفق عمل کند، اما همچنان از حکمت عملی مصنوعیای که مختص عامل مصنوعی اخلاقی است، بیبهره است. درحالیکه حکمت عملی میتواند علاوهبراینکه عقلانیت جهانشمول را دربرمیگیرد، ملاحظات مربوط به ابعاد احساسی، بدنمندانه، سیاقمندانه و رابطهمندانۀ هر موقعیت را نیز در محاسبات اخلاقی خود در نظر بگیرد و براساس همۀ این عوامل تصمیمگیری نهایی را انجام دهد. این ابعاد همان مؤلفههای غیرضروریای هستند که کانت و دیگران معتقد بودند ارتباطی به اخلاق و تصمیمگیریهای اخلاقی ندارند. اما چرا لازم است که خودمان را به دردسرِ طراحی عاملهای مصنوعی اخلاقی بیندازیم و بکوشیم حکمت عملی مصنوعی را در آنها جایدهی کنیم؟ این مسیر بسیار دشوار و طولانی است؛ زیرا برای دستیابی به حکمت عملی باید ابتدا مسائلی همچون آگاهی مصنوعی، احساسات مصنوعی، بدنمندی ماشین و… را حل کنیم که ممکن است نتوانیم آنها را در قالبی محاسباتی تبیین کنیم.
ادامه دارد …