در فیلم اسپایک جونز[۱] به نام Her، تولید سال 2013، شخصیت اصلی فیلم عاشق یک سیستمعامل میشود و در جامعه، سؤالاتی درمورد نقش هوش مصنوعی، رابطۀ آن با کاربران، و مسائل اجتماعی بزرگترِ ناشی از آن ایجاد میکند. کرۀ جنوبی، در اواخر دسامبر سال 2020، با راهاندازی یک چتبات حرفهای هوش مصنوعی، تحت عنوان لی لودا، مختصراً با لحظاتی مشابه فیلم Her، روبهرو شد. اما تجربۀ لودا مثل فیلم Her، با شکستن قلب یا رفتار ملایمتآمیز همراه نبود، بلکه در عوض، انواع مختلف ترس، وحشت و خطرات ناشی از فناوریهای جدید موجود در جامعۀ کرۀ جنوبی را نمایان کرد.
لی لودا (در زبان کرهای به معنای «درکشده»)، یک چتبات هوش مصنوعی با قابلیت مکالمه بهصورت دامنۀ باز است که توسط آزمایشگاه اسکاتر[۲]، که در سال 2011 در کرۀ جنوبی تأسیس شده، راهاندازی شده است. آزمایشگاه اسکاتر، یک نرمافزار با نام «علم عشق» ایجاد کرده است که برنامهای برای دریافت مشاورۀ دوستیابی براساس تجزیهوتحلیل متن ارائه میدهد. این برنامه بیش از 2.7 میلیون بار در کرۀ جنوبی و ژاپن بارگیری شده است. این آزمایشگاه، با پشتیبانی غولهای تکنولوژی نظیر NC Soft و Softbank بیش از 5.9 میلیون دلار درآمد کسب کرده است.
لودا را تیم پینگپونگ از آزمایشگاه اسکاتر ساخته شد. هدف از این چتبات، توسعۀ اولین ابزار هوش مصنوعی برای ارتباط با انسان و در قالب یک انسان است. لودا با استفاده از یادگیری عمیق و بیش از 10 میلیارد مجموعه داده به زبان کرهای، یک دانشجوی دختر 20ساله با قد 163 سانتیمتر را شبیهسازی کرده است. در نهایت، لودا در پیامرسان فیسبوک، ادغام شده و کاربران ازطریق مکالمات روزمره و منظم به ایجاد ارتباط با وی ترغیب میشدند. درحالیکه هدف استفاده از این چتبات، بدون ضرر و زیان به نظر میرسید، اما اندکی پس از راهاندازی، مشکلات اخلاقی در آن ظاهر شد.
آزار جنسی، گفتار منفور و نقض حریم خصوصی
یادگیری عمیق، یک روش محاسباتی است که امکان شبیهسازی جنبههای خاصی از هوش انسان (مانند گفتار) را ازطریق پردازش حجم زیادی از دادهها فراهم میکند که با جمعآوری دادههای بیشتر، اغلب عملکرد آن را بهطور فزایندهای افزایش میدهد. این تکنیک در پیشرفت حوزۀ هوش مصنوعی در سالهای اخیر بسیار مؤثر بوده است. بااینحال، نکتۀ منفی یادگیری عمیق این است که اگر این برنامهها، توسط توسعهدهندگان کنترل نشوند، در نهایت تعصبهای موجود در مجموعه داده را تکرار میکنند. همچنین، اگر این برنامهها، در معرض دستکاری توسط کاربران مخرّب قرار گیرد، بهطوری که با دادههای بد، تغذیه شوند، باعث بهرهبرداری سوء از عناصر یادگیری برنامهها و آموزش اشتباه آنها میشود.
درمورد لودا، آزمایشگاه اسکاتر، از دادههای مکالمات متنی جمعآوریشده ازطریق نرمافزار «علم عشق» برای شبیهسازی یک زن 20سالۀ واقعنگرانه استفاده کرده و عنصر شخصیسازی که در آن به کار رفته است به کاربران امکان آموزش چتبات را میدهد. در نتیجه، اندکی پس از راهاندازی رسمی آن در 22 دسامبر، زمانیکه گزارش شد کاربرانی که درحال آموزش لودا هستند، در آموزش آن از سخنرانیهای تبعیضآمیز علیه زنان، اقلیتهای جنسی، خارجیها و افراد دارای معلولیت استفاده میکنند، مورد توجه عموم مردم قرار گرفت.
بررسی نتایج نشان میدهد، زمانیکه از لودا درمورد همجنسگرایان و سیاهپوستان سؤال میشود، لودا در پاسخ میگوید: «آنها به من حس خطر و احتیاط بیشتر داده و مشمئزکننده هستند» یا «آنها نفرتانگیز به نظر میرسند». بهعلاوه، کشف شد که گروههایی از کاربران در برخی از انجمنهای آنلاین آموزش لودا، دربارۀ پاسخگویی به مباحث جنسی، درحال جهتدهی خاصی به اطلاعات بودهاند و این مسئله، در جامعۀ کرۀ جنوبی که از قبل نیز با مسائل جنسیتی دستوپنجه نرم میکرد، بحثهای شدیدی در موضوع آزار جنسی (و اینکه آیا هوش مصنوعی خود میتواند باعث آزار و اذیت جنسی شود) برانگیخته است.
با ادامۀ جلب توجه لودا در سراسر کشور، اتهامات مربوط به سوءمدیریت دادههای شخصی توسط این شرکت مطرح شد. کاربران نرمافزار علم عشق، به دلیل ناآگاهی از اینکه از مکالمات خصوصی آنها به این روش استفاده شده است، شکایت کردند و همچنین مشخص شد که لودا از نامها، آدرسها و شمارهحسابهای بانکی موجود در مجموعه دادههای علم عشق، بهصورت تصادفی، برای پاسخگویی استفاده میکند.
آزمایشگاه اسکاتر، حتی یک مدل آموزشی از لودا را در گیتهاب بارگذاری کرده بود که شامل دادههایی بود که اطلاعات شخصی افراد (حدود 200 تبادل متن از گفتوگوی خصوصی فرد با فرد) را افشا میکرد. کاربران علم عشق، درحال آمادهسازی طرح دعوی طبقاتی علیه آزمایشگاه اسکاتر هستند و کمیسیون محافظت از اطلاعات شخصی، یک نهاد ناظر دولتی، تحقیقاتی را درمورد این شرکت آغاز کرده است تا مشخص شود آیا این شرکت، قانون حفاظت از اطلاعات شخصی را نقض کرده است یا نه.
انجمن اخلاق هوش مصنوعی در کره[۳] (KAIEA)، با انتشار بیانیهای در 11 ژانویه، با اشاره به منشور اخلاقی هوش مصنوعی خود، خواستار تعلیق فوری این سرویس شد. ائتلاف سازمانهای جامعۀ مدنی مانند وکلا برای یک جامعۀ دموکراتیک[۴]، انستیتوی حقوق دیجیتال[۵]، مرکز شبکۀ مترقی کره[۶] و سازمان همبستگی مردم برای دموکراسی مشارکتی[۷] نیز بیانیهای در 13 ژانویه منتشر کرده و ارتقای صنعت هوش مصنوعی توسط دولت را در آن محکوم کردند.
در نهایت، آزمایشگاه اسکاتر، لودا را در 11 ژانویه، دقیقاً 20 روز پس از راهاندازی آن، به حالت تعلیق درآورد.
میراث لودا؟
سئول، هوش مصنوعی را بهعنوان یک فنآوری اصلی در دستورکار ملّی خود مطرح نموده و دلیل حمایت از این صنعت را صریحاً رسیدن به سطح رقابت جهانی اعلام کرده است. برای نمونه، سئول استراتژی ملّی هوش مصنوعی خود را در دسامبر 2019، با هدف تبدیل شدن به یک رهبر جهانی در این حوزه، راهاندازی کرد.
پشتیبانی از صنعت هوش مصنوعی، بهشدت در برنامۀ جدید کرۀ جنوبی گنجانده شده است، بهطوری که ماهانه دولت مون جائه، میزان 160 تریلیون وون (146 میلیارد دلار) را در برنامۀ بازیابی پس از کرونا، به این حوزه اختصاص داده است. علاوهبر این، دولت قصد دارد تا در ترویج حکمرانی صحیح فناوری، اصلاح قوانین حفظ حریم خصوصی و صدور بخشنامههای مختلف در سراسر ادارات، نقشی ایفا کند. در سطح بینالمللی، کرۀ جنوبی به اصول OECD[۸]، در زمینۀ هوش مصنوعی کمک کرده و بهعنوان یکی از 15 عضو سهیم در برنامۀ همکاری جهانی در حوزۀ هوش مصنوعی شناخته میشود و اقدامات خود را با جنبش جهانی ارتقای «هوش مصنوعی انسانمحور[۹]»، همسو کرده است.
بااینحال، حادثۀ لودا شکاف بین واقعیت و پذیرش اصولی مانند «انسانمحور بودن»، «شفافیت[۱۰]» یا «انصاف[۱۱]» و همچنین مشکلات ترویج نوآوری، بهطوری که باید تضمینکنندۀ حاکمیت خوب و مؤثر فناوریهای جدید باشد را برجسته کرده است. مقررات فعلی مربوط به مدیریت دادهها و هوش مصنوعی نامشخص و ناکافی است و در بعضی حوزهها اصلاً وجود ندارد. برای مثال، طبق قانون فعلی حریم خصوصی، حداکثر مجازات برای انتشار اطلاعات شخصی، به دلیل ضعف در کار با دادهها، جریمه 20 میلیون وون (معادل 18.250 دلار) یا دو سال زندان است که ممکن است برای جلوگیری از اقدامات نادرست توسط استارتآپها، کافی نباشد. از طرف دیگر، ذینفعان صنعت، درمورد مقررات سنگینتر و کاهش سرمایهگذاری پس از حادثه لودا، ابراز نگرانی کردهاند که همین امر، میتواند در بخش نوآوری تأثیرات مهمی داشته باشد. علاوهبراین، نادیده گرفتن فاکتورهای اجتماعی زیربنایی یادشده، بسیار حیاتی است. عموم مردم در ابتدا، نه تنها بهخاطر عنصر هوش مصنوعی یا حریم خصوصی، بلکه بهخاطر بحثهای موجود درمورد سیاستهای هویتی ناشی از آن، درگیر داستان لودا شدند. در نتیجه، پاسخ عمومی به این پرسش فنی که آیا هوش مصنوعی، میتواند باعث خطرات جدی شود، ممکن است تحت تأثیر دیدگاههای ازپیش تعیینشدۀ آنها درمورد مسائل اجتماعی که با آن عجین شدهاند، قرار بگیرد.
برای مثال، جنسیت را در نظر بگیرید. در سالهای اخیر، جنبشها و حوادث اجتماعی مانند جنبش #MeToo [۱۲]، یا انتشار خبر کشف حلقۀ استثمار جنسی «اتاق نهم[۱۳]»، چالشهای مداوم کرۀ جنوبی را با خشونت جنسی و نابرابری جنسیتی آشکار کرده است. برای بسیاری، مسئلۀ جنسیتی لودا و تلاش برای تبدیل این چتبات به یک «برده جنسی»، نمیتواند از این مشکلات ساختاری و مبارزات زنان در جامعۀ گستردۀ کرۀ جنوبی، جدا باشد. علاوهبراین، بحث و جدال لودا، میتواند ناشی از نابرابری جنسیتی در بخش نوآوری باشد. طبق اعلام بانک جهانی، سهم زنان فارغالتحصیل کرۀ جنوبی از برنامههای STEM [۱۴]، حدوداً 25درصد است، که این مورد نشان میدهد مهندسانی که درحال ایجاد برنامههای هوش مصنوعی، مانند لودا هستند، احتمالاً مسائل جنسیتی را در مرحلۀ توسعۀ این ابزارها، مورد توجه قرار نمیدهند.
بدیهی است که این مورد، موضوعی نیست که تنها به کرۀ جنوبی محدود باشد. برای مثال، در سال 2016، مایکروسافت چتبات خود را با نام «تای[۱۵]»، راهاندازی کرد. ظرف چند ساعت، کاربران اظهارات توهینکننده و تبعیضآمیز علیه گروههای خاص را به آن آموزش دادند، همین امر، باعث شد مایکروسافت مجبور به غیرفعال کردن این چتبات شود.
ناگفته نماند که خطرات موجود در هوش مصنوعی، فراتر از رباتهای مخصوص چت، به طیف گستردهای از برنامههای کاربردی این حوزه تعمیم مییابد. اما در آن زمان، حادثۀ لودا بهوضوح اهمیت عوامل اجتماعی خاص کشور را نشان میدهد که در ظاهر باعث بهوجود آمدن این مسائل فنی یا نظارتی شده و متعاقباً باعث ارتباط عواملی میشود مانند نگرش متفاوت نسبت به حریم خصوصی، نظارت، حاکمیت و همچنین محیطهای سیاستی که در سراسر کرۀ زمین متفاوت هستند.
حادثۀ لودا به ایجاد یک گفتوگوی ملّی دربارۀ اخلاقیات هوش مصنوعی در کرۀ جنوبی کمک کرد. این اتفاق به کرۀ جنوبی نشان داد که اخلاق در هوش مصنوعی نه تنها به روشی مبهم، آیندهنگرانه و انتزاعی، بلکه به روشی فوری و ملموس نیاز دارد. این جدال میتواند در جاییکه همچنان تفکر صنعتگران و توسعهگرایان دربارۀ این فناوری غالب است، بهطور بالقوه به تلاش سازمانهای جامعۀ مدنی، برای ترویج استفاده مسئولانه از هوش مصنوعی در کرۀ جنوبی، شتاب بیشتری بدهد.