این امر به ویژه در مورد فنآوریهایی که شامل رویکرد “تنظیم کن و فراموش کن” باشد، مانند اکثر چتباتها[۱]، صادق است. پیشرفت در یادگیری ماشین، به ویژه زمانیکه به رباتها مربوط شود، میتواند حتی مسائل را پیچیدهتر کرده و عواقب بیشتری، به دنبال داشته باشد.
تای و روز بد مایکروسافت
یک نمونه برای خطرات عرضه رایگان ابزارهای یادگیری ماشین، چتبات مایکروسافت با نام “تای[۲]” بود. تای یک ربات توییتری بود که برای تعامل با کاربران در توییتر، با هدف یادگیری تعاملات، ارائه شد. اگرچه صحبتهای اولیه از طریق این ربات، بسیار مثبت و دوستانه بود، اما اوباش مجازی[۳] یا به اصطلاح ترولها[۴] در توییتر، به سرعت به این ابزار نفوذ کردند و با حمله به وی و استفاده از عبارات نژادپرستانه، زنستیز و سایر مطالب توهینآمیز، الگوریتم این ربات را دستکاری کردند تا ببینند آیا ربات نیز در گفتوگو از آنها تقلید میکند یا نه.
در نظر گرفتن تأثیرات انتقال اطلاعات به مردم از طریق ربات، که لزوماً دامنه پاسخگویی محدودی دارد، از اهمیت بالایی برخوردار است. علاوه بر این، این پاسخها توسط افرادی که تعصب و گرایشات خاص خود را دارند، از قبل، برنامهریزی شده است، که در صورت عدم نظارت دقیق بر پایگاههای فراخوانی و پاسخ، میتواند به نگرانیهای بیشتری در مورد بیطرفی، انصاف و دستکاری داده و اطلاعات منجر شود.
امیر شوات[۵] از گروه [۶]TechCrunch، یادآور میشود که پرسیدن این سؤال، از اهمیت بالایی برخوردار است:”اینکه آیا این ربات به من خدمات بهتری ارائه خواهد داد یا به ارائهدهنده آن خدمات؟”. برای مثال، شوات اینگونه ادامه میدهد:” آیا ربات سفارش غذا، اجناس با کیفیت پایین و قیمت بالاتر را پیشنهاد میدهد یا غذای با قیمت مناسب و کیفیت بالا؟”، آیا ماهیت محدود پاسخهای ربات، منجر به کاهش تفاوت و حساسیت موجود در هر پاسخ میشود؟ همچنین در نظر گرفتن این نکته نیز اهمیت دارد که ربات اطلاعات خود را از چه منبعی دریافت میکند و چگونه اطمینان حاصل شود که این منابع خود عاری از تعصب بیجا و فساد، خواهند بود.
این سؤالات، و موارد بسیار دیگر، نمونههای کاملی از ضرورت حفظ نظارت بر انسان برای جلوگیری از خطاهای سهوی انسانی و همچنین نظارت ویژه بر رباتها و مجموعه ورودی و خروجی آنها است.
حریم خصوصی، هویت و دیگر نگرانیهای اخلاقی
حریم خصوصی، یکی دیگر از موارد نگرانکننده در استفاده از رباتها، میباشد. حفظ امنیت پایگاه دادههای ورودی و خروجی ربات، به منظور جلوگیری از نابودی اطلاعات حساس شرکتها یا اطلاعات خصوصی کاربر، از اهمیت بسیار بالایی برخوردار است. کاربران باید بدانند که سؤالاتی که میپرسند و تعاملاتی که با رباتهای در دسترس، دارند، خصوصی و ایمن باقی میماند.
واکنشهای چتبات و سایر ارتباطات دیگر نیز، زمانیکه در تعامل با کاربران است، باید شامل حدی از سطح همدلی و حساسیت باشد. علاوه بر موارد عنوان شده، شوات، حتی سؤالات دیگری را نیز مطرح میکند:
- اینکه آیا انسانها بایستی اجازه سوءاستفاده از رباتها را داشته باشند یا نه؟
- به همین صورت، اینکه آیا رباتها میتوانند از انسانها سوءاستفاده کنند یا خیر؟
جنسیت و هویت، دو نگرانی مهم برای مالکان و بهرهبرداران از چتباتها هستند. آیا ربات باید مرد، زن یا کاملاً بدون جنسیت باشد؟ استفاده از رباتهای بدون جنسیت، ممکن است برای رباتهای انگلیسی راحتتر باشد، اما آیا در مورد رباتهایی که با زبانهای دیگر صحبت میکنند، نیز همینطور است؟ در مورد نژاد ربات چطور؟ آیا ربات باید یک نژاد، قومیت یا ملیت قابل شناسایی داشته باشد؟ آیا میتوان رباتی ایجاد کرد که عاری از هویت ملی، قومی یا نژادی باشد؟ آیا بدون تقویت روایتهای غالب، در مورد نژاد و قومیتی که از قبل در کشور یا منطقهای که کاربران در آن زندگی میکنند، میتوان رباتی بدون هویت ملی، قومی یا نژادی ایجاد کرد؟
اینها سؤالات مهمی است که شرکتها قبل از استفاده از رباتهای چتبات به صورت عملیاتی در کارهای روزمره و تعامل با کاربر، باید به آنها پاسخ دهند.