
نقش حکمت عملی مصنوعی در استدلال اخلاقی اتوماتیکشده
آیا میتوان کارکردی معادل کارکرد حکمت عملی در انسانهای شایسته را در ماشینها برنامهنویسی کرد؟ برای دستیابی به این هدف لازم است ماشینهایی را طراحی کنیم که در تعاملات خود با عاملهای انسانی از خود حکمت عملی بروز میدهند. دستیابی به این هدف مطلقاً کار سادهای نیست، چراکه همۀ عاملهای انسانی هم در استدلال حکیمانه ماهر نیستند و این انتظارِ زیادی از ماشین است که مهارت حکمت عملی را در خود جای دهد. مانع دشوار دیگری که پیشِ روست، دستیابی به آگاهی مصنوعی است؛ چون لازمۀ حکمت عملی، داشتن توانایی تأمل و عمل آگاهانه و درست است. با همۀ اینها، دستیابی به حکمت عملی مصنوعی امری ضروری است، ازاینرو که برای شکلگیری اعتماد میان کاربران هوش مصنوعی و رباتها و میان خود سیستمهای هوشمند، قدرت تصمیمگیری اخلاقی مورد نیاز است. در چنین حالتی است که میتوان آیندهای را تصور کرد که در آن، انسانها با آسودگی خاطر زیست میکنند و نگران عواقب و تأثیرات نامطلوب تصمیمهای سیستمهای خودمختار روی زندگیشان نخواهند بود.
بیانیهای برای حکمت عملی مصنوعی
حوزۀ مطالعات حکمت عملی مصنوعی حوزۀ میانرشتهای نوظهوری است که توجهات را به سوی خود جلب کرده است. در ادامه بهطور خلاصه به مواردی اشاره میکنیم که میتوان از آنها تحت عنوان بیانیهای برای حکمت عملی مصنوعی نام برد:
- حکمت عملی نقشی اساسی در استدلال اخلاقی سطح بالا ایفا میکند و این پرسش، پرسش بسیار مهمی است که آیا میتوان معادل کارکردیاش را در ماشینها برنامهنویسی کرد؟
- حکمت عملی مصنوعی، قابلیتی ضروری برای ساختن عاملهای اخلاقی مصنوعی است؛ هرچند که هنوز نمیدانیم آیا میتوان ماشینهایی با چنین قابلیتی ساخت یا خیر.
- حکمت عملی مصنوعی از تلاشهای انجامشده در سنت کلاسیک اخلاق متأثر است، اما تنها به این منابع محدود نیست. به بیان دیگر، بهدنبال توصیف کامل حکمت عملی بهگونهای که در اخلاق کلاسیک مطرح شده نیست. همچنین، نمیکوشد که فهمی کامل از مفهوم حکمت عملی انسانی در سطح نظری و عصبشناختی پیدا کند. اگرچه از کمکهای مطالعات در این حوزهها بهره میگیرد.
- ادعای این حوزه این نیست که ماشینها میتوانند عاملهای اخلاقی کامل شوند. کمال اخلاقی برای هیچ عامل اخلاقیای ابتدا به ساکن ممکن نیست. حکمت عملی مصنوعی بهدنبال آن است که سیستم محاسباتیای را توضیح دهد که با هدف تعامل اخلاقی با عاملهای انسانی و مصنوعی طراحی میشود و میتواند در موقعیتهای جدید هم راهحلهای خلاقانهای ارائه دهد.
- کوششها برای دستیابی به حکمت عملی مصنوعی به شیوهها و در قالبهای متنوعی درحال انجام است؛ مثلاً روش یادگیری ماشین تکاملی. اما این نگرانی در این حوزه به رسمیت شناخته میشود که ممکن است ماشینها صرفا بتوانند قضاوت اخلاقی را برای مدتی معیّن شبیهسازی کنند و همیشه این خطر وجود دارد که این ماشینها فقط نمود و تمثالی از عاملهای اخلاقی باشند. برای مقابله با این خطر، حوزۀ حکمت عملی مصنوعی معیارهای سختگیرانهای را برای قضاوت دربارۀ استدلال اخلاقی ماشینها تنظیم میکند، هرچند که دستیابی به چنین ماشینهایی در آیندۀ نزدیک ناممکن به نظر میرسد.
دستیابی به حکمت عملی مصنوعی امری ضروری است، ازاینرو که برای شکلگیری اعتماد میان کاربران هوش مصنوعی و رباتها و میان خود سیستمهای هوشمند، قدرت تصمیمگیری اخلاقی مورد نیاز است. در چنین حالتی است که میتوان آیندهای را تصور کرد که در آن، انسانها با آسودگی خاطر زیست میکنند و نگران عواقب و تأثیرات نامطلوب تصمیمهای سیستمهای خودمختار روی زندگیشان نخواهند بود.
نظر جان دیوئی در باب نقش حکمت عملی در تفکر آگاهانه
حکمت عملی مفهومی مهجور و کهن نیست و طی قرنها همواره مورد توجه اندیشمندان بوده است. جان دیوئی یکی از مهمترین افرادی است که در باب این مفهوم تأملاتی داشته و آن را بسط داده است. برخلاف فلاسفۀ باستان که حکمت عملی را تنها به فلاسفۀ بسیار هوشمند نسبت میدادهاند، دیوئی این مفهوم را بهگونهای بازتعریف میکند که نقشی محوری در همۀ انواع استدلال پیدا کند. چراکه وقتی تلاش میکنیم هر علم یا مهارتی را کاربردی کنیم، لاجرم وارد حوزههای اجتماعی میشویم و کنشورزی موفق در این حوزهها مستلزم استفاده از حکمت عملی است. اگر با دیوئی همنظر باشیم، حکمت عملی بخشی از آن چیزی است که از ما موجوداتی شایسته و کفایتمند، آگاه، و باوجدان میسازد.
اعتماد اخلاقی عاملهای هوش مصنوعی و رباتها
یکی از پیچیدهترین موضوعاتی که در حوزۀ اخلاق هوش مصنوعی پیگیری میشود، رابطۀ مبتنی بر اعتماد میان این فناوریها با انسانها و با خودشان است. در اینجا ما موضوع را محدود میکنیم به اعتماد فرونتیک یا اعتماد مبتنی بر حکمت عملی. عاملهای فرونتیک مصنوعی باید بتوانند ما را متقاعد کنند که وقتی درحال تعامل با ما هستند، شخصیت اخلاقی ما را در نظر میگیرند و متناسب با آن تصمیمات اخلاقی خود را اتخاذ میکنند. ما انسانها از یکدیگر میآموزیم که چطور شخصیت اخلاقی خود را پرورش دهیم و ماشینهای اخلاقی نیز برای پیدا کردن درکی از شخصیت اخلاقی ما باید در فرایندهای اجتماعی مهم ما مشارکت داشته باشند. به عبارت دیگر، این ماشینها باید بتوانند در جایگاه آموزگاران اخلاقی نیز در جامعه قرار بگیرند. در چنین تعاملی با ماشینها باید به ما ضمانت داده شود که ماشینهایی که به آنها اعتماد میکنیم، دارای «شخصیت خوبی» هستند و استحقاق اعتماد ما را دارند. در صورتی که حکمت عملی مصنوعی به قدر کافی توسعه نیافته باشد، غیرممکن است که عاملهای اخلاقی مصنوعی داشته باشیم و به همین دلیل، باید کاربردهای هوش مصنوعی و رباتها را محدود کنیم و تنها از ماشینهایی استفاده کنیم که تأثیرات اخلاقی چندان مهمی ندارند.
چگونه میتوانیم بهنحوی اخلاقی به هوش مصنوعی و رباتها اعتماد کنیم؟
مارک کاکلبرگ[۱] (2012)، یکی از برجستهترین فیلسوفان حوزۀ هوش مصنوعی معاصر معتقد است که دو شیوۀ مجزّا را میتوان برای بررسی مقولۀ اعتماد در هوش مصنوعی و رباتیک تصور کرد:
- در شیوۀ اول که آن را شیوۀ «قراردادگرایانه-فردگرایانه[۲]» مینامیم، ما میتوانیم وارد رابطۀ مبتنی بر اعتمادی با ماشین شویم همانگونه که چنین رابطهای را با شرکتها یا هستومندهای حقوقی دیگر، وقتی به محصولات و خدمات آنها اعتماد میکنیم، برقرار میکنیم. چنین روابطی کمابیش محتاطانه هستند، اما قدمتی دیرینه در جوامع ما دارند. لوچیانو فلوریدی[۳] و ماریاروزاریا تادئو[۴] (2011) ازجمله افرادی هستند که کوشیدهاند اختلافات و نکات جزئیای را یادآور شوند که باید در این سیستمها به آنها توجه کرد تا تبدیل به سیستمهای کفایتمندتر و قابلاعتمادتری شوند.
- شیوۀ دومی که کاکلبرگ آن را معرفی میکند، رویکرد «پدیدارشناختی-اجتماعی[۵]» نام دارد. این روابط، مبتنی بر اعتمادی است که انسانها اغلب با انسانهای دیگر برقرار میکنند و پیوندهای اجتماعی در بستر این روابط رشد مییابند و روابط معنادار و عمیقی شکل میگیرد. کاکلبرگ نسبت به شکلگیری چنین روابطی با هوش مصنوعی و رباتها خوشبین نیست و آنها را روابطی مبتنی بر اعتماد مجازی یا شبهاعتماد میداند. سیستمها در چنین روابطی با ما وارد بازیهای اجتماعی میشوند و اعتماد ما را جلب میکنند، اما این روابط مخاطراتی برای ما خواهد داشت. ممکن است ما فریب بخوریم که در رابطهای مبتنی بر اعتماد اخلاقی با هوش مصنوعی و رباتها هستیم، اما درواقع اینطور نیست و در برخی از موقعیتها این میتواند خطراتی به همراه داشته باشد. در یکی از پژوهشهای انجام شده در این زمینه (Grodzinsky, Miller, Wolf: 2011) روشی طراحی شده که ممکن است بتواند این مسئله را کمرنگتر کند. در این روش مفهوم جدیدی از «اعتماد» معرفی میشود که هم شامل اعتماد سنتی و چهرهبهچهره میان انسانهاست و هم دربردارندۀ روابطی است که ازطریق واسطههای الکترونیکی شکل میگیرند و همچنین روابطی که عاملهای مصنوعی در آنها حضور دارند. این مفهوم از اعتماد مفهوم وسیعتری است که رابطۀ انسان-انسان و رابطۀ انسان-هوش مصنوعی را دربرمیگیرد.
اگر بخواهیم با ماشینها وارد رابطۀ مبتنی بر اعتمادِ پدیدارشناختی-اجتماعی شویم، نیازمند طراحی حکمت عملی مصنوعی هستیم. در این صورت، انواع جدیدی از جوامع را تجربه خواهیم کرد. اما اگر به این نتیجه برسیم که دستیابی به آگاهی مصنوعی عملاً ناممکن است، رویای تولد چنین جوامعی نیز عملاً محقق نخواهد شد.