خانه » مقالات » الگوریتم‌ها به‌مثابۀ زامبی‌های اخلاقی | قسمت اول: عاملیت اخلاقی
الگوریتم‌ها به‌مثابۀ زامبی‌های اخلاقی | قسمت اول: عاملیت اخلاقی
سه شنبه, ۴ اسفند ۱۴۰۱
زمان تقریبی مطالعه ۱۹ دقیقه
زامبی‌ها در فلسفه ذهن موجوداتی تعریف می‌شوند که از نظر فیزیکی، مولکول به مولکول شبیه ما هستند و وظایف و کارکردهای ما را نیز دارند و به نحوی تمایزناپذیر شبیه ما انسان‌ها عمل می‌کنند. اما بر خلاف انسان‌ها، دارای تجربه آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمی‌کنند. اگر چنین موجوداتی بتوانند وجود داشته باشند، پس آگاهی و تجربیات آگاهانه، امری فراتر از بدن فیزیکی خواهد بود. اعمال آزمایش فکری زامبی روی عاملیت اخلاق به ما کمک می‌کند ارزیابی کنیم که آیا عاملیت اخلاقی امری مستقل از تجربه آگاهانه یا توانایی حسی است. در این یادداشت عمدتاً بر توانایی حسی متمرکز می‌شویم، چرا که می‌توان تجربه آگاهانه داشت، بدون اینکه درد یا لذت یا احساسات دیگر حس شود و همچنین، تجربیات حسی در عاملیت اخلاقی نقش مهمی دارند.

مقدمه

در فلسفۀ ذهن، زامبیها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربۀ اول شخص نیستند. از زامبیها برای رد دیدگاه فیزیکالیسم (دیدگاهی که میگوید جهان تنها از مؤلفههای فیزیکی ساخته شده است) استفاده میشود. ما میکوشیم که از ایدۀ آزمایش فکری زامبیها در حوزۀ اخلاق استفاده کنیم و بررسی کنیم که آیا «عاملیت اخلاقی» امری مستقل از توانایی حسی و تجربۀ آگاهانه است یا خیر. در این یادداشت ادعا میکنیم که الگوریتمها نوعی زامبی اخلاقیِ وظیفهمند هستند و با این تعریف، میتوان فهم بهتری از آن‌ها پیدا کرد. دلیل اصلی برای اینکه نمیتوان الگوریتمها را خودمختار و پاسخگو در نظر گرفت نیز همین ناتوانی حسی آن‌هاست. الگوریتمها و زامبیهای اخلاقی دارای فهم اخلاقی لازم برای پذیرفتن مسئولیت اخلاقی نیستند. برای آنکه به یک موجود، درد وارد کنیم، لازم است او معرفتی تجربی نسبت به درد داشته باشد. اگر الگوریتم نتواند چیزی را حس کند، سخن گفتن از «ارزشها» برای او بیمعنا خواهد بود و درنتیجه نمی‌‌تواند کنشهایش را بر مبنای دلایل اخلاقی رقم بزند.

زامبیها در فلسفۀ ذهن موجوداتی تعریف میشوند که ازنظر فیزیکی، مولکول به مولکول شبیه به ما هستند و وظایف و کارکردهای ما را نیز دارند و به‌نحوی تمایزناپذیر شبیه ما انسانها عمل میکنند. اما برخلاف انسانها، دارای تجربۀ آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمیکنند. اگر چنین موجوداتی بتوانند وجود داشته باشند، پس آگاهی و تجربیات آگاهانه، امری فراتر از بدنِ فیزیکی خواهد بود. اِعمال آزمایش فکریِ زامبی روی عاملیت اخلاق به ما کمک میکند ارزیابی کنیم که آیا عاملیت اخلاقی امری مستقل از تجربۀ آگاهانه یا توانایی حسی است. در این یادداشت عمدتاً بر توانایی حسی[۱] متمرکز میشویم، چراکه میتوان تجربۀ آگاهانه داشت، بدون اینکه درد یا لذت یا احساسات دیگر حس شود و همچنین، تجربیات حسی در عاملیت اخلاقی نقش مهمی دارند.

در ادبیات حوزۀ اخلاقِ هوش مصنوعی، عمدتاً الگوریتمها دارای درجهای از عاملیت اخلاقی در نظر گرفته میشوند. همچنین، عمدۀ نظریات راجع‌به عاملیت اخلاقی بر این باورند که عاملیت، متشکل از سطحی از خودمختاری یا مسئولیتپذیری یا هر دو است. میخواهیم استدلال کنیم که الگوریتمها و زامبیهایِ اخلاقی دارای آن نوعی از خودمختاری نیستند که سازندۀ عاملیت باشد و همچنین به آن‌ها نمیتوان مسئولیت نسبت داد، چراکه دارای توان حسی و درک اخلاقی لازم نیستند.

زامبیهای اخلاقی

زامبیهای اخلاقی مانند ما عمل میکنند، اما مثل ما حس نمیکنند؛ میتوانند به قوانین احترام بگذارند، کارهای خیریه کنند، یا قوانین را پایمال کنند، تحقیر و خیانت کنند و… . تصور کردن زامبیها امری ممکن است و این نشان میدهد که قدرت اثرگذاری اخلاقی در جهان، امری مستقل از توانایی حسی است. اما آیا زامبیها را میتوان عاملهای اخلاقی در نظر گرفت؟ اگر پاسخ منفی باشد، نتیجه این است که توانایی حسی، شرطی لازم برای عاملیت اخلاقی است. الگوریتمها، روباتها و هوش مصنوعی مصادیق عینی زامبیهای اخلاقی در جهان ما هستند. این موجودات میتوانند در برخی از امور، کارکردی مشابه انسانها از خود نشان دهند؛ مثلاً در استخدام افراد، اخراج، تعیین پاداش یا مجازات و… . بنابراین، استفاده از استعارۀ زامبی برای الگوریتمها و هوش مصنوعی میتواند به ما در درک بهتر هر دو طرف کمک کند.

یکی از نقدهایی که ممکن است به این ایده وارد شود این است که ما نمیتوانیم تضمین کنیم که الگوریتمها و ماشینها دارای توان حسی نیستند. درست است! اما ما نمیتوانیم اثبات کنیم که سنگ هم دارای توان حسی نیست و همان‌طور که پنسایکیست[۲]ها (یا همهجانانگاران) معتقدند، همۀ موجودات دارای درجهای از آگاهی هستند. از دیگر سو، دلیل کافی برای این ادعا نیز نداریم که الگوریتمها و سنگها دارای ذهن یا توان حسی هستند.

زامبیها در فلسفۀ ذهن موجوداتی تعریف میشوند که ازنظر فیزیکی، مولکول به مولکول شبیه به ما هستند و وظایف و کارکردهای ما را نیز دارند و به‌نحوی تمایزناپذیر شبیه ما انسانها عمل میکنند. اما برخلاف انسانها، دارای تجربۀ آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمیکنند. اگر چنین موجوداتی بتوانند وجود داشته باشند، پس آگاهی و تجربیات آگاهانه، امری فراتر از بدنِ فیزیکی خواهد بود.

ممکن است این استدلال نیز مطرح شود که اگر الگوریتمها شبیه ما رفتار کنند، ما هم باید شبیه انسان‌‌های دیگر با آن‌ها رفتار کنیم. اما درحال حاضر، الگوریتمها صرفاً برخی از وظایف و کارکردهای ما را انجام میدهند و زامبیهای کاملی نیستند و تواناییهای حسی از خود بروز نمیدهند. ممکن است ماشینها در آینده بدنهایی شبیه ما داشته باشند و بسیار شبیه ما عمل کنند که در آن صورت لازم است احتیاط کنیم. این احتمال نیز وجود دارد که ما تنها موجوداتی با بدنهای بیولوژیک باشیم که دارای توان حسی هستند. یکی از دلایل توان حسی و فکری ما این است که ما وقتی هیجانزده میشویم، ضربان قلبمان بالا میرود، وقتی ناراحتیم فشار خونمان پایین میآید و وقتی میترسیم مو به تنمان سیخ میشود. بنابراین، بار استدلال روی دوش کسی است که از توان حسی الگوریتمها دفاع میکند.

عاملیت اخلاقی و الگوریتمها

در ادبیات رایج، استفاده از عبارت «عامل اخلاقی» برای سیستمهای خودکار، رایج است و در بسیاری موارد صرفاً جنبۀ لفظی دارد. حتی زمانی که میدانیم مصنوعات دارای ذهن نیستند، به آن‌ها اراده و باور نسبت میدهیم. به باور اسپارو، مثلاً اینکه سلاحی بتواند هدف خود را انتخاب کند، آن را تبدیل به سلاحی خودمختار میکند(Sparrow, 2007). اگرچه اسپارو به این سلاحها مسئولیت اخلاقی نسبت نمیدهد، اما لحن کلام او اینگونه القا میکند که گویی این سلاحها عاملیت اخلاقی دارند. و همان‌طور که نوئل شارکی (Sharkey 2012) توضیح میدهد، وقتی از عباراتی درمورد ماشین‌‌ها استفاده میکنیم که در شبکۀ مفهومی منسجمی از مفاهیم قرار دارد، دروازهای را میگشاییم برای آنکه بقیۀ مفاهیم همبستهای که صرفاً قابل اطلاق به انسانها هستند را نیز درمورد ماشین مجاز بدانیم.

پرسش از عاملیت اخلاقی ماشینها پرسشی از سر کنجکاوی صرف نیست، بلکه دلالتهای عملی بسیاری در پاسخ آن نهفته است. چراکه اگر عاملیت اخلاقی را نتوان به آن‌ها نسبت داد، مسئولیت اعمال آن‌ها بر عهدۀ انسانها خواهد بود و اگر آن‌ها را عاملهای اخلاقی بدانیم، رفتارهای متفاوتی نسبت به آن‌ها بروز خواهیم داد از جمله؛ شکایت کردن از آن‌ها، زندانی کردن آن‌ها و… .

البته متخصصان مختلف معانی مختلفی برای عاملیت اخلاقی در ذهن دارند. اما یکی از مهم‌ترین دستهبندیها برای عاملیت اخلاقی، دستهبندی جیمز مور (Moor, 2009) است. مور 4 نوع از عاملهای اخلاقی را از یکدیگر تفکیک میکند:

  1. عاملهای دارای اثر اخلاقی: عامل‌‌هایی که کنشهایشان دارای عواقب ناخواسته است. اکثر یا همۀ سیستم‌‌های خودمختار در این دسته جای میگیرند.
  2. عاملهای اخلاقی ضمنی: عاملهایی که ضمن طراحی آن‌ها اخلاقیات را در نظر داشتهایم.
  3. عامل‌‌های اخلاقی صریح: عاملهایی که میتوانند از جایگاه اخلاق عمل کنند (نه صرفاً براساس اخلاق). مثلاً میتوانند مسائل اخلاقی را شناسایی کنند و برای آن‌ها پاسخهایی پیدا کنند.
  4. عاملهای اخلاقی کامل: این دسته قادرند همان کارهای دستۀ سوم را انجام دهند، اما علاوه‌بر آن، دارای آگاهی، ارادۀ آزاد و قصدمندی نیز هستند.

مدعای اصلی در این یادداشت این است که دستۀ سوم و چهارم مور یکی هستند. به این معنا که عاملی اخلاقی که بتواند مسائل اخلاقی را شناسایی و پاسخدهی کند، ضرورتاً دارای توان حسی است؛ تجربۀ آگاهانه دارد؛ میتواند لذت و رنج و همدلی را تجربه کند و در نتیجه، به دستۀ چهارم تعلق دارد. در مقابل این مدعا، ایدۀ فلوریدی و سَندرز را داریم که معتقدند عامل‌‌های خودمختار مصنوعی نه‌تنها عاملیت اخلاقی دارند، بلکه دارای نوعی «اخلاقیات بیذهن[۳]» هستند(Floridi & Sanders, 2004).

چنانکه گفتیم، در ادبیات این موضوع، عمدتاً باور بر این است که مسئولیتپذیری اخلاقی یا خودمختاری یا هر دو، اجزای سازندۀ عاملیت اخلاقی هستند. برخی معتقدند که وقتی مسئولیتپذیری باشد، خودمختاری هم ضرورتاً وجود دارد یا بالعکس. اما عدهای دیگر این دو را از یکدیگر مستقل میپندارند. اما آنچه  برای ما مهم است این است که با هر بیان قابل‌پذیرشی از خودمختاری که به اخلاقیات مربوط میشود و با هر تعبیر قابل‌پذیرشی از مسئولیت اخلاقی، نه زامبیهای اخلاقی و نه الگوریتمها نمیتوانند عاملهای اخلاقی تلقی شوند.
ادامه دارد…

سایر مقالات