مقدمه
در فلسفۀ ذهن، زامبیها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربۀ اول شخص نیستند. از زامبیها برای رد دیدگاه فیزیکالیسم (دیدگاهی که میگوید جهان تنها از مؤلفههای فیزیکی ساخته شده است) استفاده میشود. ما میکوشیم که از ایدۀ آزمایش فکری زامبیها در حوزۀ اخلاق استفاده کنیم و بررسی کنیم که آیا «عاملیت اخلاقی» امری مستقل از توانایی حسی و تجربۀ آگاهانه است یا خیر. در این یادداشت ادعا میکنیم که الگوریتمها نوعی زامبی اخلاقیِ وظیفهمند هستند و با این تعریف، میتوان فهم بهتری از آنها پیدا کرد. دلیل اصلی برای اینکه نمیتوان الگوریتمها را خودمختار و پاسخگو در نظر گرفت نیز همین ناتوانی حسی آنهاست. الگوریتمها و زامبیهای اخلاقی دارای فهم اخلاقی لازم برای پذیرفتن مسئولیت اخلاقی نیستند. برای آنکه به یک موجود، درد وارد کنیم، لازم است او معرفتی تجربی نسبت به درد داشته باشد. اگر الگوریتم نتواند چیزی را حس کند، سخن گفتن از «ارزشها» برای او بیمعنا خواهد بود و درنتیجه نمیتواند کنشهایش را بر مبنای دلایل اخلاقی رقم بزند.
زامبیها در فلسفۀ ذهن موجوداتی تعریف میشوند که ازنظر فیزیکی، مولکول به مولکول شبیه به ما هستند و وظایف و کارکردهای ما را نیز دارند و بهنحوی تمایزناپذیر شبیه ما انسانها عمل میکنند. اما برخلاف انسانها، دارای تجربۀ آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمیکنند. اگر چنین موجوداتی بتوانند وجود داشته باشند، پس آگاهی و تجربیات آگاهانه، امری فراتر از بدنِ فیزیکی خواهد بود. اِعمال آزمایش فکریِ زامبی روی عاملیت اخلاق به ما کمک میکند ارزیابی کنیم که آیا عاملیت اخلاقی امری مستقل از تجربۀ آگاهانه یا توانایی حسی است. در این یادداشت عمدتاً بر توانایی حسی[۱] متمرکز میشویم، چراکه میتوان تجربۀ آگاهانه داشت، بدون اینکه درد یا لذت یا احساسات دیگر حس شود و همچنین، تجربیات حسی در عاملیت اخلاقی نقش مهمی دارند.
در ادبیات حوزۀ اخلاقِ هوش مصنوعی، عمدتاً الگوریتمها دارای درجهای از عاملیت اخلاقی در نظر گرفته میشوند. همچنین، عمدۀ نظریات راجعبه عاملیت اخلاقی بر این باورند که عاملیت، متشکل از سطحی از خودمختاری یا مسئولیتپذیری یا هر دو است. میخواهیم استدلال کنیم که الگوریتمها و زامبیهایِ اخلاقی دارای آن نوعی از خودمختاری نیستند که سازندۀ عاملیت باشد و همچنین به آنها نمیتوان مسئولیت نسبت داد، چراکه دارای توان حسی و درک اخلاقی لازم نیستند.
زامبیهای اخلاقی
زامبیهای اخلاقی مانند ما عمل میکنند، اما مثل ما حس نمیکنند؛ میتوانند به قوانین احترام بگذارند، کارهای خیریه کنند، یا قوانین را پایمال کنند، تحقیر و خیانت کنند و… . تصور کردن زامبیها امری ممکن است و این نشان میدهد که قدرت اثرگذاری اخلاقی در جهان، امری مستقل از توانایی حسی است. اما آیا زامبیها را میتوان عاملهای اخلاقی در نظر گرفت؟ اگر پاسخ منفی باشد، نتیجه این است که توانایی حسی، شرطی لازم برای عاملیت اخلاقی است. الگوریتمها، روباتها و هوش مصنوعی مصادیق عینی زامبیهای اخلاقی در جهان ما هستند. این موجودات میتوانند در برخی از امور، کارکردی مشابه انسانها از خود نشان دهند؛ مثلاً در استخدام افراد، اخراج، تعیین پاداش یا مجازات و… . بنابراین، استفاده از استعارۀ زامبی برای الگوریتمها و هوش مصنوعی میتواند به ما در درک بهتر هر دو طرف کمک کند.
یکی از نقدهایی که ممکن است به این ایده وارد شود این است که ما نمیتوانیم تضمین کنیم که الگوریتمها و ماشینها دارای توان حسی نیستند. درست است! اما ما نمیتوانیم اثبات کنیم که سنگ هم دارای توان حسی نیست و همانطور که پنسایکیست[۲]ها (یا همهجانانگاران) معتقدند، همۀ موجودات دارای درجهای از آگاهی هستند. از دیگر سو، دلیل کافی برای این ادعا نیز نداریم که الگوریتمها و سنگها دارای ذهن یا توان حسی هستند.
زامبیها در فلسفۀ ذهن موجوداتی تعریف میشوند که ازنظر فیزیکی، مولکول به مولکول شبیه به ما هستند و وظایف و کارکردهای ما را نیز دارند و بهنحوی تمایزناپذیر شبیه ما انسانها عمل میکنند. اما برخلاف انسانها، دارای تجربۀ آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمیکنند. اگر چنین موجوداتی بتوانند وجود داشته باشند، پس آگاهی و تجربیات آگاهانه، امری فراتر از بدنِ فیزیکی خواهد بود.
ممکن است این استدلال نیز مطرح شود که اگر الگوریتمها شبیه ما رفتار کنند، ما هم باید شبیه انسانهای دیگر با آنها رفتار کنیم. اما درحال حاضر، الگوریتمها صرفاً برخی از وظایف و کارکردهای ما را انجام میدهند و زامبیهای کاملی نیستند و تواناییهای حسی از خود بروز نمیدهند. ممکن است ماشینها در آینده بدنهایی شبیه ما داشته باشند و بسیار شبیه ما عمل کنند که در آن صورت لازم است احتیاط کنیم. این احتمال نیز وجود دارد که ما تنها موجوداتی با بدنهای بیولوژیک باشیم که دارای توان حسی هستند. یکی از دلایل توان حسی و فکری ما این است که ما وقتی هیجانزده میشویم، ضربان قلبمان بالا میرود، وقتی ناراحتیم فشار خونمان پایین میآید و وقتی میترسیم مو به تنمان سیخ میشود. بنابراین، بار استدلال روی دوش کسی است که از توان حسی الگوریتمها دفاع میکند.
عاملیت اخلاقی و الگوریتمها
در ادبیات رایج، استفاده از عبارت «عامل اخلاقی» برای سیستمهای خودکار، رایج است و در بسیاری موارد صرفاً جنبۀ لفظی دارد. حتی زمانی که میدانیم مصنوعات دارای ذهن نیستند، به آنها اراده و باور نسبت میدهیم. به باور اسپارو، مثلاً اینکه سلاحی بتواند هدف خود را انتخاب کند، آن را تبدیل به سلاحی خودمختار میکند(Sparrow, 2007). اگرچه اسپارو به این سلاحها مسئولیت اخلاقی نسبت نمیدهد، اما لحن کلام او اینگونه القا میکند که گویی این سلاحها عاملیت اخلاقی دارند. و همانطور که نوئل شارکی (Sharkey 2012) توضیح میدهد، وقتی از عباراتی درمورد ماشینها استفاده میکنیم که در شبکۀ مفهومی منسجمی از مفاهیم قرار دارد، دروازهای را میگشاییم برای آنکه بقیۀ مفاهیم همبستهای که صرفاً قابل اطلاق به انسانها هستند را نیز درمورد ماشین مجاز بدانیم.
پرسش از عاملیت اخلاقی ماشینها پرسشی از سر کنجکاوی صرف نیست، بلکه دلالتهای عملی بسیاری در پاسخ آن نهفته است. چراکه اگر عاملیت اخلاقی را نتوان به آنها نسبت داد، مسئولیت اعمال آنها بر عهدۀ انسانها خواهد بود و اگر آنها را عاملهای اخلاقی بدانیم، رفتارهای متفاوتی نسبت به آنها بروز خواهیم داد از جمله؛ شکایت کردن از آنها، زندانی کردن آنها و… .
البته متخصصان مختلف معانی مختلفی برای عاملیت اخلاقی در ذهن دارند. اما یکی از مهمترین دستهبندیها برای عاملیت اخلاقی، دستهبندی جیمز مور (Moor, 2009) است. مور 4 نوع از عاملهای اخلاقی را از یکدیگر تفکیک میکند:
- عاملهای دارای اثر اخلاقی: عاملهایی که کنشهایشان دارای عواقب ناخواسته است. اکثر یا همۀ سیستمهای خودمختار در این دسته جای میگیرند.
- عاملهای اخلاقی ضمنی: عاملهایی که ضمن طراحی آنها اخلاقیات را در نظر داشتهایم.
- عاملهای اخلاقی صریح: عاملهایی که میتوانند از جایگاه اخلاق عمل کنند (نه صرفاً براساس اخلاق). مثلاً میتوانند مسائل اخلاقی را شناسایی کنند و برای آنها پاسخهایی پیدا کنند.
- عاملهای اخلاقی کامل: این دسته قادرند همان کارهای دستۀ سوم را انجام دهند، اما علاوهبر آن، دارای آگاهی، ارادۀ آزاد و قصدمندی نیز هستند.
مدعای اصلی در این یادداشت این است که دستۀ سوم و چهارم مور یکی هستند. به این معنا که عاملی اخلاقی که بتواند مسائل اخلاقی را شناسایی و پاسخدهی کند، ضرورتاً دارای توان حسی است؛ تجربۀ آگاهانه دارد؛ میتواند لذت و رنج و همدلی را تجربه کند و در نتیجه، به دستۀ چهارم تعلق دارد. در مقابل این مدعا، ایدۀ فلوریدی و سَندرز را داریم که معتقدند عاملهای خودمختار مصنوعی نهتنها عاملیت اخلاقی دارند، بلکه دارای نوعی «اخلاقیات بیذهن[۳]» هستند(Floridi & Sanders, 2004).
چنانکه گفتیم، در ادبیات این موضوع، عمدتاً باور بر این است که مسئولیتپذیری اخلاقی یا خودمختاری یا هر دو، اجزای سازندۀ عاملیت اخلاقی هستند. برخی معتقدند که وقتی مسئولیتپذیری باشد، خودمختاری هم ضرورتاً وجود دارد یا بالعکس. اما عدهای دیگر این دو را از یکدیگر مستقل میپندارند. اما آنچه برای ما مهم است این است که با هر بیان قابلپذیرشی از خودمختاری که به اخلاقیات مربوط میشود و با هر تعبیر قابلپذیرشی از مسئولیت اخلاقی، نه زامبیهای اخلاقی و نه الگوریتمها نمیتوانند عاملهای اخلاقی تلقی شوند.
ادامه دارد…