خانه » مقالات » 9 موضوع برتر اخلاقی در هوش مصنوعی
9 موضوع برتر اخلاقی در هوش مصنوعی
شنبه, ۱ اردیبهشت ۱۴۰۰
زمان تقریبی مطالعه ۳۰ دقیقه
هوش مصنوعی زندگی ما را در بیشتر موارد، تحت تأثیر قرار می‌دهد، به عنوان نمونه، می‌توان به بهینه‌سازی لجستیک، تشخیص تقلب، خلق آثار هنری، انجام تحقیقات و ارائه ماشین‌های ترجمه‌، اشاره کرد. سیستمهای ماشینی هوشمند، زندگی ما را به سمت بهتر شدن، تغییر می‌دهند. هرچه این سیستم‌ها، توانایی بیشتری پیدا می‌کنند، دنیای ما نیز کارآمدتر و در نتیجه ثروتمندتر می‌شود.

غول‌های فناوری مانند آلفابت[۱]، آمازون، فیسبوک، آی‌بی‌ام و مایکروسافت -و همچنین افرادی مانند استفان هاوکینگ[۲] و ایلان ماسک[۳]– اعتقاد داشتند که اکنون زمان مناسبی برای صحبت در مورد چشم‌انداز نامحدود هوش مصنوعی است. از بسیاری جهات، این مورد، به همان اندازه که برای فناوری در حال ظهور، مرز جدیدی ارائه می‌دهد، برای اخلاقیات و ارزیابی ریسک نیز مرز جدیدی تعیین خواهد کرد. پس باید دید کدام مسائل و مکالمات، ذهن متخصصان هوش مصنوعی را بیشتر درگیر می‌کند؟

بیکاری: بعد از اتمام مشاغل چه اتفاقی می‌افتد؟

سلسه‌مراتب کار، در اولویت نگرانی‌های مربوط به خودکارسازی[۴] است. همانطور که روش‌های خودکارسازی مشاغل را ابداع کرده‌ایم، می‌توانیم فضایی را برای افراد فراهم کنیم تا نقش‌های پیچیده‌تری را به عهده بگیرند. به عبارتی، از کار فیزیکی که بر جهان قبل از صنعت مسلط بود، به سمت کار مدیریتی و اجرایی که مشخصه جامعه جهانی شده است حرکت کنیم.

به عنوان نمونه، سیستم حمل‌ونقل را در نظر بگیرید. در حال حاضر، این سیستم، تنها در ایالات متحده، میلیونها نفر را استخدام می‌کند. اگر کامیون‌های خودرانی که توسط ایلان ماسک وعده داده شده، در دهه آینده، به طور گسترده در دسترس باشد، چه اتفاقی خواهد بود؟ اما از سوی دیگر، اگر ریسک پایین تصادف را در نظر بگیریم، کامیون‌های خودران، یک انتخاب اخلاقی به نظر می‌رسند. همین سناریو می‌تواند برای کارکنان ادارات و همچنین اکثریت نیروی کار در کشورهای توسعه‌یافته، اتفاق بیفتد.

اینجاست که به این سؤال می‌رسیم که چگونه می‌توانیم در این عصر، وقت خود را صرف کنیم؟ بیشتر مردم هنوز به اینکه وقت خود را برای کسب درآمد کافی، برای تأمین هزینه‌های زندگی خودشان و خانواده‌هایشان صرف کنند، متکی هستند. ما تنها می‌توانیم امیدوار باشیم که این فرصت، به مردم این امکان را بدهد، تا در فعالیت‌های غیرکاری، مانند مراقبت از خانواده‌، تعامل با جوامع و یادگیری شیوه‌های جدید مشارکت در جامعه انسانی، وقت بیشتری صرف کنند.

اگر این انتقال به صورت موفق انجام شود، ممکن است روزی به عقب نگاه کرده و فکر کنیم که وحشیانه است که بشر برای اینکه بتواند زندگی کند، مجبور است بیشتر وقت بیداری خود را برای کار کردن تلف کند.

نابرابری: چگونه ثروت ایجادشده توسط ماشین‌ها را توزیع کنیم؟

سیستم اقتصادی ما، مبتنی بر جبران خسارت برای اقتصاد است، که اغلب با استفاده از دستمزد ساعتی ارزیابی می‌شود. اکثر شرکت‌های مرتبط با محصولات و خدمات، هنوز به کار ساعتی وابسته هستند. اما با استفاده از هوش مصنوعی، یک شرکت می‌تواند به شدت، تکیه بر نیروی کار انسانی را کاهش دهد و این امر، بدین معنی است که درآمد به افراد کمتری خواهد رسید. در نتیجه، افرادی که در شرکت‌های مبتنی بر هوش مصنوعی، مالکیت دارند، همه پول را دریافت خواهند کرد.

ما در حال حاضر، شاهد افزایش شکاف ثروت هستیم، جایی‌که بنیانگذاران شرکت‌های نوپا، بخش عمده ای از ثروت مازاد اقتصادی ایجاد شده را کسب می‌کنند. در سال 2014، در سه شرکت بزرگ در دیترویت[۵] و سه شرکت بزرگ در دره سیلیکون[۶]، کاهش شدید تعداد کارمندان، انجام شد. این در حالی‌ است که تنها در دره سیلیکون، با کاهش 10 برابری کارمندان، درآمدی مشابه قبل به دست آمد.

اگر واقعاً جامعه پساکار[۷] را تصور کنیم ، چگونه باید در این دوران، اقتصادی عادلانه را شکل دهیم؟

بشریت[۸]: ماشین‌ها چگونه بر رفتار و تعاملات ما تأثیر می‌گذارند؟

ربات‌های هوشمند مصنوعی، در مدل‌سازی مکالمه و روابط انسانی روزبه‌روز بهتر می‌شوند. در سال 2015، یک ربات به نام یوجین گوستمن[۹]، برای اولین بار برنده چالش تورینگ[۱۰] شد. در این چالش، ارزیاب‌های انسانی[۱۱]، از ورودی متنی، برای چت با یک موجودیت ناشناس استفاده می‌کردند، سپس این افراد، بایستی حدس می‌زدند که در حال مکالمه با یک انسان بوده‌اند یا با یک ماشین چت کرده‌اند. یوجین گوستمن، بیش از نیمی از افراد رأی‌دهنده را فریب داد، به طوری که آنها فکر کردند که با یک انسان صحبت کرده‌اند.

این نقطه عطف، تنها آغازی برای عصری است که ما به طور دائم با ماشین‌ها، چه در حوزه خدمات مشتری و چه در فروش، به نحوی ارتباط برقرار می‌کنیم، که گویی آنها انسان هستند. در حالی که انسان، در میزان توجه و مهربانی که می‌تواند نسبت به شخص دیگری صرف کند، محدودیت‌ دارد، اما ربات‌های مصنوعی می‌توانند منابع تقریباً نامحدودی را برای برقراری روابط، به‌ کار گیرند.

با اینکه بسیاری از ما از این مسئله آگاه نیستیم، اما در این عصر شاهد این هستیم که چگونه ماشین‌ها می‌توانند باعث تحریک مراکز پاداش[۱۲] در مغز انسان شوند. اگر به عناوین جذب کلیکی[۱۳] و بازی‌های ویدیویی دقت کنید، این عناوین اغلب با آزمایش A/B[۱۴]، بهینه می‌شوند. آزمایش A/B، را می توان یک شکل ابتدایی از بهینه‌سازی الگوریتمی، برای محتوایی که باعث جلب توجه انسان می‌شود، معرفی کرد. این روش به همراه روش‌های دیگر، برای اعتیادآور کردن بازی‌های ویدیویی و موبایل، به صورت متعدد استفاده می‌شود. اعتیاد به فناوری، مرز جدیدی از وابستگی‌های انسانی است.

از سوی دیگر، شاید بتوانیم به فکر استفاده‌ای متفاوت از نرم افزار باشیم. قبلاً مشاهده شده که نرم‌افزارها، در جهت‌دهی توجه انسان و تحریک آن برای انجام اقدامات خاصی، مؤثر واقع شده است. زمانی‌که این مورد در جهت درست استفاده شود، می‌تواند به فرصتی برای سوق دادن جامعه به سمت رفتار مفیدتر، تبدیل شود. با این‌حال، این ابزار، در کاربرد اشتباه، می‌تواند مضر باشد.

حماقت مصنوعی[۱۵]: چگونه می‌توان از بروز اشتباه جلوگیری کرد؟

هوش، خواه در انسان باشد یا ماشین، از یادگیری نشأت می‌گیرد. سیستم‌ها، معمولاً یک مرحله آموزشی دارند که در آن «یاد می‌گیرند» الگوهای صحیح را تشخیص دهند و مطابق با ورودی‌های خود عمل کنند. زمانی که یک سیستم به‌طور کامل آموزش ببیند، می‌تواند وارد مرحله آزمایش شود، جایی‌که با مثال‌های بیشتری سروکار دارد و در این مرحله بهتر می‌توان نحوه عملکرد آن را مشاهده کرد.

بدیهی است که مرحله آموزش، نمی‌تواند تمام نمونه‌های احتمالی را که یک سیستم ممکن است در دنیای واقعی با آن مواجه شود، پوشش دهد. این سیستم‌ها را می‌توان با روش‌هایی که برای گول زدن انسان درست عمل نمی‌کند، فریب داد. برای مثال، الگوهای نقطه‌ای تصادفی، می‌توانند ماشین را به سمت چیزی که در واقع وجود ندارد، هدایت کنند. اگر برای ورود به دنیای جدیدی از کار، امنیت و کارایی، به هوش مصنوعی تکیه کنیم، باید اطمینان حاصل کنیم که ماشین طبق برنامه داده‌شده، عمل می‌کند و مردم نمی‌توانند بر آن غلبه کرده و از آن برای پیشبرد اهداف خود استفاده کنند.

ربات‌های نژادپرست: چگونه سوگیری‌های هوش مصنوعی را حذف کنیم؟

هوش مصنوعی اگرچه دارای سرعت و ظرفیت پردازشی بسیار فراتر از توانایی انسان است، اما همیشه نمی‌تواند قابل‌اعتماد و بی‌طرف باشد. گوگل و شرکت اصلی آن، آلفابت، یکی از پیشگامان در زمینه هوش مصنوعی هستند. یکی از سرویس‌های مرتبط با هوش مصنوعی این شرکت، سرویس عکس‌های گوگل است که در آن از هوش مصنوعی برای شناسایی افراد، اشیاء و صحنه‌ها استفاده می‌شود. اما گاهی نیز ممکن است اشتباه شود. برای مثال، می‌توان به زمانی‌که یک دوربین، حساسیت نژادی را از دست داد، اشاره کرد. نمونه این اشتباه در دوربین دیجیتال نیکون[۱۶] مدل S630، مشاهده شد. به این‌صورت که برای افرادی که دارای چشمان خاصی هستند، نظیر ژاپنی‌ها، این دوربین قادر به تفکیک لبخند این افراد با چشمک زدن نبود. این امر به‌دلیل عدم توجه به حساسیت‌های نژادی در طراحی و استفاده از هوش مصنوعی، رخ داد. به عنوان نمونه دیگر، می‌توان به زمانی اشاره کرد، که از یک نرم‌افزار، به‌منظور پیش‌بینی مجرمان آینده، استفاده می‌شد. نتایج به‌دست‌آمده از این ابزار، وجود تعصب علیه سیاه‌پوستان را نشان می‌داد. ماجرا به این‌صورت بود که دختری سیاه‌پوست که به جرم استفاده بدون اجازه از دوچرخه همسایه به زندان افتاده بود، به همراه مردی سفیدپوست که به جرم دزدی مبلغ هنگفتی از دخل فروشگاه، در زندان بود و سابقه سرقت مسلحانه را نیز داشت، توسط این نرم افزار، به منظور پیش‌بینی احتمال وقوع جرم در آینده، مورد بررسی قرار گرفتند. نتیجه نشان داد که احتمال ارتکاب جرم توسط دختر سیاه‌پوست، به‌مراتب، بالاتر از احتمال ارتکاب جرم به‌وسیله مرد سفیدپوست است. این در حالی است که چندسال بعد، در حالی‌که دختر سیاه‌پوست، هیچ جرمی مرتکب نشده بود، مرد سفیدپوست در حال گذراندن دوره محکومیت خود، به جرم سرقت مسلحانه از یک انبار، بود. این نیز نمونه‌ای از اشتباه هوش مصنوعی، به‌دلیل استفاده از داده‌های متعصبانه نسبت به سیاه‌پوستان، بود.

ما نباید فراموش کنیم که سیستم‌های هوش مصنوعی که توسط انسان‌ها ایجاد می‌شوند، می‌توانند قضاوت‌هایی مغرضانه یا محدود داشته‌باشند. از طرفی، اگر از این ابزارها به‌درستی استفاده شود یا کسانی که برای پیشرفت اجتماعی تلاش می‌کنند، از آنها استفاده کنند، هوش مصنوعی می‌تواند به یک جرقه برای تغییرات مثبت تبدیل شود.

امنیت[۱۷]: چگونه هوش مصنوعی را از شر دشمنان در امان نگه داریم؟

هر چه یک فناوری قدرتمندتر شود، بیشتر می‌توان از آن، برای مقاصد پلید، به اندازه مقاصد خوب، استفاده کرد. این امر، نه تنها در مورد ربات‌هایی که برای جایگزینی سربازان انسانی، یا سلاح‌های خودمختار، استفاده می‌شوند، صادق است، بلکه در مورد سیستم‌های هوش مصنوعی، که استفاده نادرست از آنها می‌تواند منجر به آسیب شود، نیز صدق می‌کند. از آنجا‌که این نبردها، فقط در میدان جنگ انجام نمی‌شود، امنیت سایبری از اهمیت بیشتری برخوردار خواهد بود. بهرحال، ما با سیستمی روبه‌رو هستیم که به‌مراتب از ما، سریعتر و تواناتر است.

غول چراغ‌جادوی شیطانی[۱۸]: چگونه از عواقب ناخواسته جلوگیری کنیم؟

فقط دشمنان نیستند که باید نگرانشان باشیم. چه اتفاقی خواهد افتاد، اگر خود هوش مصنوعی دشمن ما شود؟ این سؤال، به این معنی نیست که ابزار هوش مصنوعی، ناگهان به یک «شیطان»، به روشی که برای یک انسان ممکن است، تبدیل شود یا مشابه حوادثی باشد که درباره هوش مصنوعی در فیلم‌های هالیوودی نشان داده می‌شود. بلکه می‌توان یک سیستم هوش مصنوعی پیشرفته را به‌عنوان «غول چراغ جادو[۱۹]» در نظر گرفت، به این صورت که می‌تواند آرزوها را برآورده کند، اما ممکن است عواقب پیش‌بینی‌نشده وحشتناکی نیز داشته باشد.

در مورد یک ماشین، احتمال اینکه سوءنیتی در کار باشد، کم است. تنها فقدان درک کاملی از آنچه برای این ماشین‌ها مدنظر است، مطرح می‌شود. یک سیستم هوش مصنوعی را تصور کنید که برای اعلام راه‌حل ریشه‌کن کردن سرطان در جهان، از او سؤال پرسیده شود. بعد از محاسبات فراوان، این ابزار، فرمولی را به‌عنوان نتیجه ارائه می‌دهد که در واقع، پایان سرطان را با کشتن همه مردم روی کره زمین، به ارمغان می‌آورد. در این حالت، مشخص است که کامپیوتر، در رابطه با هدف مدنظر خودش که «نه به سرطان بیشتر» است، بسیار کارآمد عمل کرده، اما مسلّماً این راه‌حل، روشی که مدنظر انسان‌ها باشد، نخواهد بود.

تکینگی[۲۰]: چطور یک سیستم هوشمند پیچیده را تحت کنترل داشته باشیم؟

دلیل قرار گرفتن انسان، در بالای زنجیره غذایی، دندان‌های تیز یا عضلات قوی نیست. می‌توان گفت، سلطه انسان به‌طور کامل، به خاطر نبوغ و ذکاوت او است. ما می‌توانیم از حیوانات بزرگتر، سریعتر و قوی‌تر بهره بگیریم، به این دلیل، که قادر به ساخت ابزاری برای کنترل و استفاده از آنها هستیم. این ابزار می‌تواند هم ابزار فیزیکی، مانند قفس و سلاح بوده و هم ابزار شناختی مانند آموزش و شرطی‌سازی، باشد.

موارد فوق، یک سؤال جدی در رابطه با هوش مصنوعی ایجاد می‌کند: آیا هوش مصنوعی، روزی، همان مزیت را نسبت به ما خواهد داشت؟ ما نمی‌توانیم فقط به «کشیدن دوشاخه» اعتماد کنیم. چون یک ماشین کاملاً پیشرفته، ممکن است این حرکت را پیش‌بینی کرده و از خود در مقابل آن دفاع کند. این همان چیزی است که برخی «تکینگی» می‌نامند: نقطه زمانی‌ که انسان دیگر باهوش‌ترین موجود روی کره زمین نیست.

حقوق ربات‌ها: چگونه رفتار انسانی با هوش مصنوعی را تعریف کنیم؟

درحالی‌که دانشمندان علوم مغز و اعصاب، هنوز در حال رمزگشایی اسرار تجربه‌های آگاهانه هستند، ما اطلاعات زیادی در مورد مکانیسم‌های اولیه پاداش و زیان کسب کرده‌ایم. ما این مکانیسم‌ها را حتی با حیوانات ساده نیز، به اشتراک می‌گذاریم. به نوعی، ما در حال ایجاد مکانیسم‌های مشابه این پاداش و زیان، در سیستم‌های هوش مصنوعی هستیم. برای مثال، یادگیری تقویتی[۲۱]، شبیه آموزش یک سگ است: مشابه زمانی‌که با تعیین پاداش و زیان، به یک سگ آموزش می‌دهیم، در یک سیستم هوش مصنوعی مبتنی بر یادگیری تقویتی نیز، بهبود عملکرد با ارائه یک پاداش مجازی، تقویت می‌شود.

در حال حاضر، این سیستمها نسبتاً سطحی هستند، اما در حال پیچیده‌تر شدن و نزدیک شدن به زندگی عادی، هستند. آیا ما می‌توانیم سیستمی را در نظر بگیریم که اگر از سیستم پاداش و زیان استفاده کند و به آن ورودی منفی داده شود، رنج بکشد؟! در کنار این روش، الگوریتم‌های به اصطلاح ژنتیکی[۲۲] قرار دارد. این الگوریتم‌ها، نمونه‌های بسیاری از سیستم را در یک لحظه ایجاد می‌کنند و تنها موفق‌ترین آنها «زنده می‌ماند[۲۳]» و برای ترکیب با سایر نمونه‌های موفق و تشکیل نسل بعدی، مورد استفاده قرار می‌گیرد. این امر در طول چندین نسل اتفاق می‌افتد و راهی برای بهبود سیستم است. نمونه‌های ناموفق حذف می‌شوند. باتوجه به حذف بسیاری از حالات در این روش، در چه نقطه‌ای، می‌توان الگوریتم‌های ژنتیکی را نوعی کشتار جمعی در نظر گرفت؟

زمانی‌که ماشین‌ها را به عنوان نهادی در نظر بگیریم که می‌توانند ادراک و احساس داشته و عملی را انجام دهند، فکر کردن درباره اینکه باید برای وضعیت حقوقی آنها، تدابیری لحاظ کنیم، جهش بزرگی به نظر نمی‌رسد. آیا باید با این ماشین‌ها، مانند حیوانات با سطح هوش مشابه، رفتار شود؟ آیا ما باید رنج ناشی از وجود «احساس[۲۴]» در ماشین را نیز در نظر بگیریم؟

برخی از سؤالات اخلاقی، در مورد کاهش درد و رنج بوده و برخی از آنها، در مورد خطر وجود نتایج منفی هستند. درحالی‌که ما همه این خطرات را مدنظر قرار می‌دهیم، باید به خاطر داشته باشیم که به‌طور کلی، این پیشرفت فناوری، به معنای زندگی بهتر برای همه است. هوش مصنوعی دارای پتانسیل وسیعی است و مسئولیت پیاده‌سازی و اجرای صحیح آن، با در نظر گرفتن همه مخاطرات، به عهده ما است.

تهیه‌کننده: فاطمه صالح‌نیا (دانشجوی ارشد هوش مصنوعی دانشگاه مالک اشتر)

تهیه‌شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی

لینک منبع

سایر مقالات