غولهای فناوری مانند آلفابت[۱]، آمازون، فیسبوک، آیبیام و مایکروسافت -و همچنین افرادی مانند استفان هاوکینگ[۲] و ایلان ماسک[۳]– اعتقاد داشتند که اکنون زمان مناسبی برای صحبت در مورد چشمانداز نامحدود هوش مصنوعی است. از بسیاری جهات، این مورد، به همان اندازه که برای فناوری در حال ظهور، مرز جدیدی ارائه میدهد، برای اخلاقیات و ارزیابی ریسک نیز مرز جدیدی تعیین خواهد کرد. پس باید دید کدام مسائل و مکالمات، ذهن متخصصان هوش مصنوعی را بیشتر درگیر میکند؟
بیکاری: بعد از اتمام مشاغل چه اتفاقی میافتد؟
سلسهمراتب کار، در اولویت نگرانیهای مربوط به خودکارسازی[۴] است. همانطور که روشهای خودکارسازی مشاغل را ابداع کردهایم، میتوانیم فضایی را برای افراد فراهم کنیم تا نقشهای پیچیدهتری را به عهده بگیرند. به عبارتی، از کار فیزیکی که بر جهان قبل از صنعت مسلط بود، به سمت کار مدیریتی و اجرایی که مشخصه جامعه جهانی شده است حرکت کنیم.
به عنوان نمونه، سیستم حملونقل را در نظر بگیرید. در حال حاضر، این سیستم، تنها در ایالات متحده، میلیونها نفر را استخدام میکند. اگر کامیونهای خودرانی که توسط ایلان ماسک وعده داده شده، در دهه آینده، به طور گسترده در دسترس باشد، چه اتفاقی خواهد بود؟ اما از سوی دیگر، اگر ریسک پایین تصادف را در نظر بگیریم، کامیونهای خودران، یک انتخاب اخلاقی به نظر میرسند. همین سناریو میتواند برای کارکنان ادارات و همچنین اکثریت نیروی کار در کشورهای توسعهیافته، اتفاق بیفتد.
اینجاست که به این سؤال میرسیم که چگونه میتوانیم در این عصر، وقت خود را صرف کنیم؟ بیشتر مردم هنوز به اینکه وقت خود را برای کسب درآمد کافی، برای تأمین هزینههای زندگی خودشان و خانوادههایشان صرف کنند، متکی هستند. ما تنها میتوانیم امیدوار باشیم که این فرصت، به مردم این امکان را بدهد، تا در فعالیتهای غیرکاری، مانند مراقبت از خانواده، تعامل با جوامع و یادگیری شیوههای جدید مشارکت در جامعه انسانی، وقت بیشتری صرف کنند.
اگر این انتقال به صورت موفق انجام شود، ممکن است روزی به عقب نگاه کرده و فکر کنیم که وحشیانه است که بشر برای اینکه بتواند زندگی کند، مجبور است بیشتر وقت بیداری خود را برای کار کردن تلف کند.
نابرابری: چگونه ثروت ایجادشده توسط ماشینها را توزیع کنیم؟
سیستم اقتصادی ما، مبتنی بر جبران خسارت برای اقتصاد است، که اغلب با استفاده از دستمزد ساعتی ارزیابی میشود. اکثر شرکتهای مرتبط با محصولات و خدمات، هنوز به کار ساعتی وابسته هستند. اما با استفاده از هوش مصنوعی، یک شرکت میتواند به شدت، تکیه بر نیروی کار انسانی را کاهش دهد و این امر، بدین معنی است که درآمد به افراد کمتری خواهد رسید. در نتیجه، افرادی که در شرکتهای مبتنی بر هوش مصنوعی، مالکیت دارند، همه پول را دریافت خواهند کرد.
ما در حال حاضر، شاهد افزایش شکاف ثروت هستیم، جاییکه بنیانگذاران شرکتهای نوپا، بخش عمده ای از ثروت مازاد اقتصادی ایجاد شده را کسب میکنند. در سال 2014، در سه شرکت بزرگ در دیترویت[۵] و سه شرکت بزرگ در دره سیلیکون[۶]، کاهش شدید تعداد کارمندان، انجام شد. این در حالی است که تنها در دره سیلیکون، با کاهش 10 برابری کارمندان، درآمدی مشابه قبل به دست آمد.
اگر واقعاً جامعه پساکار[۷] را تصور کنیم ، چگونه باید در این دوران، اقتصادی عادلانه را شکل دهیم؟
بشریت[۸]: ماشینها چگونه بر رفتار و تعاملات ما تأثیر میگذارند؟
رباتهای هوشمند مصنوعی، در مدلسازی مکالمه و روابط انسانی روزبهروز بهتر میشوند. در سال 2015، یک ربات به نام یوجین گوستمن[۹]، برای اولین بار برنده چالش تورینگ[۱۰] شد. در این چالش، ارزیابهای انسانی[۱۱]، از ورودی متنی، برای چت با یک موجودیت ناشناس استفاده میکردند، سپس این افراد، بایستی حدس میزدند که در حال مکالمه با یک انسان بودهاند یا با یک ماشین چت کردهاند. یوجین گوستمن، بیش از نیمی از افراد رأیدهنده را فریب داد، به طوری که آنها فکر کردند که با یک انسان صحبت کردهاند.
این نقطه عطف، تنها آغازی برای عصری است که ما به طور دائم با ماشینها، چه در حوزه خدمات مشتری و چه در فروش، به نحوی ارتباط برقرار میکنیم، که گویی آنها انسان هستند. در حالی که انسان، در میزان توجه و مهربانی که میتواند نسبت به شخص دیگری صرف کند، محدودیت دارد، اما رباتهای مصنوعی میتوانند منابع تقریباً نامحدودی را برای برقراری روابط، به کار گیرند.
با اینکه بسیاری از ما از این مسئله آگاه نیستیم، اما در این عصر شاهد این هستیم که چگونه ماشینها میتوانند باعث تحریک مراکز پاداش[۱۲] در مغز انسان شوند. اگر به عناوین جذب کلیکی[۱۳] و بازیهای ویدیویی دقت کنید، این عناوین اغلب با آزمایش A/B[۱۴]، بهینه میشوند. آزمایش A/B، را می توان یک شکل ابتدایی از بهینهسازی الگوریتمی، برای محتوایی که باعث جلب توجه انسان میشود، معرفی کرد. این روش به همراه روشهای دیگر، برای اعتیادآور کردن بازیهای ویدیویی و موبایل، به صورت متعدد استفاده میشود. اعتیاد به فناوری، مرز جدیدی از وابستگیهای انسانی است.
از سوی دیگر، شاید بتوانیم به فکر استفادهای متفاوت از نرم افزار باشیم. قبلاً مشاهده شده که نرمافزارها، در جهتدهی توجه انسان و تحریک آن برای انجام اقدامات خاصی، مؤثر واقع شده است. زمانیکه این مورد در جهت درست استفاده شود، میتواند به فرصتی برای سوق دادن جامعه به سمت رفتار مفیدتر، تبدیل شود. با اینحال، این ابزار، در کاربرد اشتباه، میتواند مضر باشد.
حماقت مصنوعی[۱۵]: چگونه میتوان از بروز اشتباه جلوگیری کرد؟
هوش، خواه در انسان باشد یا ماشین، از یادگیری نشأت میگیرد. سیستمها، معمولاً یک مرحله آموزشی دارند که در آن «یاد میگیرند» الگوهای صحیح را تشخیص دهند و مطابق با ورودیهای خود عمل کنند. زمانی که یک سیستم بهطور کامل آموزش ببیند، میتواند وارد مرحله آزمایش شود، جاییکه با مثالهای بیشتری سروکار دارد و در این مرحله بهتر میتوان نحوه عملکرد آن را مشاهده کرد.
بدیهی است که مرحله آموزش، نمیتواند تمام نمونههای احتمالی را که یک سیستم ممکن است در دنیای واقعی با آن مواجه شود، پوشش دهد. این سیستمها را میتوان با روشهایی که برای گول زدن انسان درست عمل نمیکند، فریب داد. برای مثال، الگوهای نقطهای تصادفی، میتوانند ماشین را به سمت چیزی که در واقع وجود ندارد، هدایت کنند. اگر برای ورود به دنیای جدیدی از کار، امنیت و کارایی، به هوش مصنوعی تکیه کنیم، باید اطمینان حاصل کنیم که ماشین طبق برنامه دادهشده، عمل میکند و مردم نمیتوانند بر آن غلبه کرده و از آن برای پیشبرد اهداف خود استفاده کنند.
رباتهای نژادپرست: چگونه سوگیریهای هوش مصنوعی را حذف کنیم؟
هوش مصنوعی اگرچه دارای سرعت و ظرفیت پردازشی بسیار فراتر از توانایی انسان است، اما همیشه نمیتواند قابلاعتماد و بیطرف باشد. گوگل و شرکت اصلی آن، آلفابت، یکی از پیشگامان در زمینه هوش مصنوعی هستند. یکی از سرویسهای مرتبط با هوش مصنوعی این شرکت، سرویس عکسهای گوگل است که در آن از هوش مصنوعی برای شناسایی افراد، اشیاء و صحنهها استفاده میشود. اما گاهی نیز ممکن است اشتباه شود. برای مثال، میتوان به زمانیکه یک دوربین، حساسیت نژادی را از دست داد، اشاره کرد. نمونه این اشتباه در دوربین دیجیتال نیکون[۱۶] مدل S630، مشاهده شد. به اینصورت که برای افرادی که دارای چشمان خاصی هستند، نظیر ژاپنیها، این دوربین قادر به تفکیک لبخند این افراد با چشمک زدن نبود. این امر بهدلیل عدم توجه به حساسیتهای نژادی در طراحی و استفاده از هوش مصنوعی، رخ داد. به عنوان نمونه دیگر، میتوان به زمانی اشاره کرد، که از یک نرمافزار، بهمنظور پیشبینی مجرمان آینده، استفاده میشد. نتایج بهدستآمده از این ابزار، وجود تعصب علیه سیاهپوستان را نشان میداد. ماجرا به اینصورت بود که دختری سیاهپوست که به جرم استفاده بدون اجازه از دوچرخه همسایه به زندان افتاده بود، به همراه مردی سفیدپوست که به جرم دزدی مبلغ هنگفتی از دخل فروشگاه، در زندان بود و سابقه سرقت مسلحانه را نیز داشت، توسط این نرم افزار، به منظور پیشبینی احتمال وقوع جرم در آینده، مورد بررسی قرار گرفتند. نتیجه نشان داد که احتمال ارتکاب جرم توسط دختر سیاهپوست، بهمراتب، بالاتر از احتمال ارتکاب جرم بهوسیله مرد سفیدپوست است. این در حالی است که چندسال بعد، در حالیکه دختر سیاهپوست، هیچ جرمی مرتکب نشده بود، مرد سفیدپوست در حال گذراندن دوره محکومیت خود، به جرم سرقت مسلحانه از یک انبار، بود. این نیز نمونهای از اشتباه هوش مصنوعی، بهدلیل استفاده از دادههای متعصبانه نسبت به سیاهپوستان، بود.
ما نباید فراموش کنیم که سیستمهای هوش مصنوعی که توسط انسانها ایجاد میشوند، میتوانند قضاوتهایی مغرضانه یا محدود داشتهباشند. از طرفی، اگر از این ابزارها بهدرستی استفاده شود یا کسانی که برای پیشرفت اجتماعی تلاش میکنند، از آنها استفاده کنند، هوش مصنوعی میتواند به یک جرقه برای تغییرات مثبت تبدیل شود.
امنیت[۱۷]: چگونه هوش مصنوعی را از شر دشمنان در امان نگه داریم؟
هر چه یک فناوری قدرتمندتر شود، بیشتر میتوان از آن، برای مقاصد پلید، به اندازه مقاصد خوب، استفاده کرد. این امر، نه تنها در مورد رباتهایی که برای جایگزینی سربازان انسانی، یا سلاحهای خودمختار، استفاده میشوند، صادق است، بلکه در مورد سیستمهای هوش مصنوعی، که استفاده نادرست از آنها میتواند منجر به آسیب شود، نیز صدق میکند. از آنجاکه این نبردها، فقط در میدان جنگ انجام نمیشود، امنیت سایبری از اهمیت بیشتری برخوردار خواهد بود. بهرحال، ما با سیستمی روبهرو هستیم که بهمراتب از ما، سریعتر و تواناتر است.
غول چراغجادوی شیطانی[۱۸]: چگونه از عواقب ناخواسته جلوگیری کنیم؟
فقط دشمنان نیستند که باید نگرانشان باشیم. چه اتفاقی خواهد افتاد، اگر خود هوش مصنوعی دشمن ما شود؟ این سؤال، به این معنی نیست که ابزار هوش مصنوعی، ناگهان به یک «شیطان»، به روشی که برای یک انسان ممکن است، تبدیل شود یا مشابه حوادثی باشد که درباره هوش مصنوعی در فیلمهای هالیوودی نشان داده میشود. بلکه میتوان یک سیستم هوش مصنوعی پیشرفته را بهعنوان «غول چراغ جادو[۱۹]» در نظر گرفت، به این صورت که میتواند آرزوها را برآورده کند، اما ممکن است عواقب پیشبینینشده وحشتناکی نیز داشته باشد.
در مورد یک ماشین، احتمال اینکه سوءنیتی در کار باشد، کم است. تنها فقدان درک کاملی از آنچه برای این ماشینها مدنظر است، مطرح میشود. یک سیستم هوش مصنوعی را تصور کنید که برای اعلام راهحل ریشهکن کردن سرطان در جهان، از او سؤال پرسیده شود. بعد از محاسبات فراوان، این ابزار، فرمولی را بهعنوان نتیجه ارائه میدهد که در واقع، پایان سرطان را با کشتن همه مردم روی کره زمین، به ارمغان میآورد. در این حالت، مشخص است که کامپیوتر، در رابطه با هدف مدنظر خودش که «نه به سرطان بیشتر» است، بسیار کارآمد عمل کرده، اما مسلّماً این راهحل، روشی که مدنظر انسانها باشد، نخواهد بود.
تکینگی[۲۰]: چطور یک سیستم هوشمند پیچیده را تحت کنترل داشته باشیم؟
دلیل قرار گرفتن انسان، در بالای زنجیره غذایی، دندانهای تیز یا عضلات قوی نیست. میتوان گفت، سلطه انسان بهطور کامل، به خاطر نبوغ و ذکاوت او است. ما میتوانیم از حیوانات بزرگتر، سریعتر و قویتر بهره بگیریم، به این دلیل، که قادر به ساخت ابزاری برای کنترل و استفاده از آنها هستیم. این ابزار میتواند هم ابزار فیزیکی، مانند قفس و سلاح بوده و هم ابزار شناختی مانند آموزش و شرطیسازی، باشد.
موارد فوق، یک سؤال جدی در رابطه با هوش مصنوعی ایجاد میکند: آیا هوش مصنوعی، روزی، همان مزیت را نسبت به ما خواهد داشت؟ ما نمیتوانیم فقط به «کشیدن دوشاخه» اعتماد کنیم. چون یک ماشین کاملاً پیشرفته، ممکن است این حرکت را پیشبینی کرده و از خود در مقابل آن دفاع کند. این همان چیزی است که برخی «تکینگی» مینامند: نقطه زمانی که انسان دیگر باهوشترین موجود روی کره زمین نیست.
حقوق رباتها: چگونه رفتار انسانی با هوش مصنوعی را تعریف کنیم؟
درحالیکه دانشمندان علوم مغز و اعصاب، هنوز در حال رمزگشایی اسرار تجربههای آگاهانه هستند، ما اطلاعات زیادی در مورد مکانیسمهای اولیه پاداش و زیان کسب کردهایم. ما این مکانیسمها را حتی با حیوانات ساده نیز، به اشتراک میگذاریم. به نوعی، ما در حال ایجاد مکانیسمهای مشابه این پاداش و زیان، در سیستمهای هوش مصنوعی هستیم. برای مثال، یادگیری تقویتی[۲۱]، شبیه آموزش یک سگ است: مشابه زمانیکه با تعیین پاداش و زیان، به یک سگ آموزش میدهیم، در یک سیستم هوش مصنوعی مبتنی بر یادگیری تقویتی نیز، بهبود عملکرد با ارائه یک پاداش مجازی، تقویت میشود.
در حال حاضر، این سیستمها نسبتاً سطحی هستند، اما در حال پیچیدهتر شدن و نزدیک شدن به زندگی عادی، هستند. آیا ما میتوانیم سیستمی را در نظر بگیریم که اگر از سیستم پاداش و زیان استفاده کند و به آن ورودی منفی داده شود، رنج بکشد؟! در کنار این روش، الگوریتمهای به اصطلاح ژنتیکی[۲۲] قرار دارد. این الگوریتمها، نمونههای بسیاری از سیستم را در یک لحظه ایجاد میکنند و تنها موفقترین آنها «زنده میماند[۲۳]» و برای ترکیب با سایر نمونههای موفق و تشکیل نسل بعدی، مورد استفاده قرار میگیرد. این امر در طول چندین نسل اتفاق میافتد و راهی برای بهبود سیستم است. نمونههای ناموفق حذف میشوند. باتوجه به حذف بسیاری از حالات در این روش، در چه نقطهای، میتوان الگوریتمهای ژنتیکی را نوعی کشتار جمعی در نظر گرفت؟
زمانیکه ماشینها را به عنوان نهادی در نظر بگیریم که میتوانند ادراک و احساس داشته و عملی را انجام دهند، فکر کردن درباره اینکه باید برای وضعیت حقوقی آنها، تدابیری لحاظ کنیم، جهش بزرگی به نظر نمیرسد. آیا باید با این ماشینها، مانند حیوانات با سطح هوش مشابه، رفتار شود؟ آیا ما باید رنج ناشی از وجود «احساس[۲۴]» در ماشین را نیز در نظر بگیریم؟
برخی از سؤالات اخلاقی، در مورد کاهش درد و رنج بوده و برخی از آنها، در مورد خطر وجود نتایج منفی هستند. درحالیکه ما همه این خطرات را مدنظر قرار میدهیم، باید به خاطر داشته باشیم که بهطور کلی، این پیشرفت فناوری، به معنای زندگی بهتر برای همه است. هوش مصنوعی دارای پتانسیل وسیعی است و مسئولیت پیادهسازی و اجرای صحیح آن، با در نظر گرفتن همه مخاطرات، به عهده ما است.
تهیهکننده: فاطمه صالحنیا (دانشجوی ارشد هوش مصنوعی دانشگاه مالک اشتر)