خانه » مقالات » ملاحظات اخلاقی مطرح در چت‌بات‌ها
ملاحظات اخلاقی مطرح در چت‌بات‌ها
یکشنبه, ۲ بهمن ۱۳۹۹
زمان تقریبی مطالعه ۹ دقیقه
چت‌بات‌ها، حوزه‌ای جدید و مهیج در یادگیری ماشین، تعامل کاربر و توزیع محتوا هستند. با این‌حال، همانند هر فن‌آوری جدید، چالش‌ها و پیامدهای اخلاقی وجود دارند که باید در نظر گرفته شود تا اطمینان حاصل شود که این فن‌آوری به شیوه‌ای مسئولانه و تأثیرگذار اجرا می‌شود.

این امر به ویژه در مورد فن‌آوری‌هایی که شامل رویکرد “تنظیم کن و فراموش کن” باشد، مانند اکثر چت‌بات‌ها[۱]، صادق است. پیشرفت در یادگیری ماشین، به ویژه زمانی‌که به ربات‌ها مربوط شود، می‌تواند حتی مسائل را پیچیده‌تر کرده و عواقب بیشتری، به دنبال داشته باشد.

تای و روز بد مایکروسافت

یک نمونه برای خطرات عرضه رایگان ابزارهای یادگیری ماشین، چت‌بات مایکروسافت با نام “تای[۲]” بود. تای یک ربات توییتری بود که برای تعامل با کاربران در توییتر، با هدف یادگیری تعاملات، ارائه شد. اگرچه صحبت‌های اولیه از طریق این ربات، بسیار مثبت و دوستانه بود، اما اوباش مجازی[۳] یا به اصطلاح ترول‌ها[۴] در توییتر، به سرعت به این ابزار نفوذ کردند و با حمله به وی و استفاده از عبارات نژادپرستانه، زن‌ستیز و سایر مطالب توهین‌آمیز، الگوریتم این ربات را دستکاری کردند تا ببینند آیا ربات نیز در گفت‌و‌گو از آن‌ها تقلید می‌کند یا نه.

در نظر گرفتن تأثیرات انتقال اطلاعات به مردم از طریق ربات، که لزوماً دامنه پاسخگویی محدودی دارد، از اهمیت بالایی برخوردار است. علاوه بر این، این پاسخ‌ها توسط افرادی که تعصب و گرایشات خاص خود را دارند، از قبل، برنامه‌ریزی شده است، که در صورت عدم نظارت دقیق بر پایگاه‌های فراخوانی و پاسخ، می‌تواند به نگرانی‌های بیشتری در مورد بی‌طرفی، انصاف و دستکاری داده و اطلاعات منجر شود.

امیر شوات[۵] از گروه [۶]TechCrunch، یادآور می‌شود که پرسیدن این سؤال، از اهمیت بالایی برخوردار است:”اینکه آیا این ربات به من خدمات بهتری ارائه خواهد داد یا به ارائه‌دهنده آن خدمات؟”. برای مثال، شوات این‌گونه ادامه می‌دهد:” آیا ربات سفارش غذا، اجناس با کیفیت پایین و قیمت بالاتر را پیشنهاد می‌دهد یا غذای با قیمت مناسب و کیفیت بالا؟”، آیا ماهیت محدود پاسخ‌های ربات، منجر به کاهش تفاوت و حساسیت موجود در هر پاسخ می‌شود؟ همچنین در نظر گرفتن این نکته نیز اهمیت دارد که ربات اطلاعات خود را از چه منبعی دریافت می‌کند و چگونه اطمینان حاصل شود که این منابع خود عاری از تعصب بیجا و فساد، خواهند بود.

این سؤالات، و موارد بسیار دیگر، نمونه‌های کاملی از ضرورت حفظ نظارت بر انسان برای جلوگیری از خطاهای سهوی انسانی و همچنین نظارت ویژه بر ربات‌ها و مجموعه ورودی و خروجی آن‌ها است.

حریم خصوصی، هویت و دیگر نگرانی‌های اخلاقی

حریم خصوصی، یکی دیگر از موارد نگران‌کننده در استفاده از ربات‌ها، می‌باشد. حفظ امنیت پایگاه داده‌های ورودی و خروجی ربات، به منظور جلوگیری از نابودی اطلاعات حساس شرکت‌ها یا اطلاعات خصوصی کاربر، از اهمیت بسیار بالایی برخوردار است. کاربران باید بدانند که سؤالاتی که می‌پرسند و تعاملاتی که با ربات‌های در دسترس، دارند، خصوصی و ایمن باقی می‌ماند.

واکنش‌های چت‌بات‌ و سایر ارتباطات دیگر نیز، زمانی‌که در تعامل با کاربران است، باید شامل حدی از سطح همدلی و حساسیت باشد. علاوه بر موارد عنوان شده، شوات، حتی سؤالات دیگری را نیز مطرح می‌کند:

  • اینکه آیا انسان‌ها بایستی اجازه سوءاستفاده از ربات‌ها را داشته باشند یا نه؟
  • به همین صورت، اینکه آیا ربات‌ها می‌توانند از انسان‌ها سوءاستفاده کنند یا خیر؟

جنسیت و هویت، دو نگرانی مهم برای مالکان و بهره‌برداران از چت‌بات‌ها هستند. آیا ربات باید مرد، زن یا کاملاً بدون جنسیت باشد؟ استفاده از ربات‌های بدون جنسیت، ممکن است برای ربات‌های انگلیسی راحت‌تر باشد، اما آیا در مورد ربات‌هایی که با زبان‌های دیگر صحبت می‌کنند، نیز همین‌طور است؟ در مورد نژاد ربات چطور؟ آیا ربات باید یک نژاد، قومیت یا ملیت قابل شناسایی داشته باشد؟ آیا می‌توان رباتی ایجاد کرد که عاری از هویت ملی، قومی یا نژادی باشد؟ آیا بدون تقویت روایت‌های غالب، در مورد نژاد و قومیتی که از قبل در کشور یا منطقه‌ای که کاربران در آن زندگی می‌کنند، می‌توان رباتی بدون هویت ملی، قومی یا نژادی ایجاد کرد؟

اینها سؤالات مهمی است که شرکت‌ها قبل از استفاده از ربات‌های چت‌بات به صورت عملیاتی در کارهای روزمره و تعامل با کاربر، باید به آن‌ها پاسخ دهند.

منابع
سایر مقالات