
مقدمه
هوش مصنوعی[۱] میتواند زندگیها را متحول کند؛ اما سیاستگذاری و مقررات باید تضمین کنند که بهجای حفظ وضع موجود برای تعداد اندکی از افراد مرفه، منافع آن برای همه باشد. پذیرش گستردۀ هوش مصنوعی[۲] و برنامههایی که برای تولید محتوای جدید طراحی شده است، در برخی از نقاط جهان بحثهای مهمی را درمورد توسعه و استقرار مسئولانۀ این فناوری و چگونگی کاهش خطرات آن ایجاد کرده است. درست زمانی که ریشی سوناک[۳] قرار است با جو بایدن[۴] در رابطه با نقش بریتانیا در توسعۀ مقررات بینالمللی هوش مصنوعی صحبت کند، تعدادی از رهبران صنعت در این زمینه بیانیهای را امضا کردند که «خطرات انقراض ناشی از هوش مصنوعی» را هشدار میدهد.
درحالیکه واکنشهای نظارتی در مقایسه با استقرار گستردۀ هوش مصنوعی مولّد کُند بوده است؛ اما سیاستها و فرایندهای قانونی در بسیاری از حوزههای قضایی شروع به شکلگیری کرده است. اما باوجود ماهیت بیسابقه و فراملّی این فناوری، رویکردهای رایج برای حکمرانی آن و راهحلهایی که عمدتاً در راستای چارچوبهای سیاست داخلی یا منطقهای تدبیر شدهاند، هنوز هم بسیار اندک است.
رویکردهای مختلف درحال پیدایش هستند
اتحادیۀ اروپا[۵] در آستانۀ تصویب قوانین موردانتظار برای هوش مصنوعی است که مانند قوانین اخیر خدمات و بازارهای دیجیتال، تکمیلکنندۀ مجموعۀ قابلتوجهی از مقررات فنی خود است. در مجموع، این مقررات یک رویکرد کلیگرا، دقیق و حفاظتی را نشان میدهد که قانونگذاران اتحادیۀ اروپا آن را در قبال مقررات فنی پذیرفتهاند. برخلاف بریتانیا و ایالات متحده که بیشتر رویکرد آنها مستقل و مبتنی بر خودشان است (یعنی تحت رهبری صنعت، برخلاف رهبری دولتها)
باوجود ماهیت بیسابقه و فراملّی این فناوری، رویکردهای رایج برای حکمرانی آن و راهحلهایی که عمدتاً در راستای چارچوبهای سیاست داخلی یا منطقهای تدبیر شدهاند، هنوز هم بسیار اندک است.
بهطور مشابه در زمینۀ نظارت و اجرا، با ایجاد یک نهاد متمرکز (هیئت هوش مصنوعی) توسط اتحادیۀ اروپا که بیانگر یک رویکرد تحمیلی در مقایسه با رویکرد غیرمتمرکز ایالات متحده و بریتانیا است. در اوایل سال 2023 رویکرد بریتانیا و همچنین استراتژی گستردۀ فناوری بینالمللی آن در سند سیاست دولت بیان شده است. این مورد اخیر، «نقش ابزارهای مدیریت غیرنظارتی قابلتعامل، مانند تکنیکهای تضمینی و استانداردهای فنی در ایجاد امکان توسعه و استقرار هوش مصنوعیِ مسئول« را در معرض توجه قرار میدهد. این تناقض در رویکردهای نظارتی، تعدادی پرسش مهم درمورد پیادهسازی و اجرای آن مطرح میکند؛ بهویژه با توجه به اینکه بخش عمدهای از تحقیقات هوش مصنوعی در ایالات متحده متمرکز شده است.
در مقابل، رویکرد سادهتر ایالات متحده برای ارزیابی خطرات، رعایت ملاحظات اخلاقی و قانونی ممکن است بهجای اینکه در مراحل توسعه و آزمایش فناوری قرار بگیرد، بیشتر بهعنوان یک فکر ثانویه مطرح شود. همچنین نگرانیهایی در رابطه با مشارکت مردم وجود دارد، بهویژه آنهایی که بیشتر در معرض خطر فناوری هوش مصنوعی هستند؛ مانند اقلیتهای قومی، جمعیت کشورهای درحال توسعه و گروههای مختلف آسیبپذیر. چنین روندهایی در معرض خطر سرایت به مرزهای ایالات متحده و نفوذ به آزمایشگاههای هوش مصنوعی در سراسر جهان هستند. بهخصوص که فناوریهای هوش مصنوعی معمولاً برای استفاده در سطوح گسترده طراحی میشوند. علاوهبراین، رویداد «رقابت تسلیحاتی» نیز باید موردتوجه قرار بگیرد.
حکمرانی هوش مصنوعی وجود دارد؛ اما نیازمند به اصلاح است
اینکه رویکردهای پیشنهادی حکمرانی، برای نظارت در این فناوری ماهیت منحصربهفرد هوش مصنوعی را در نظر بگیرند، بسیار اهمیت دارد. زیرا ممکن است نظارتهای قدیمی بهتنهایی برای چنین فناوری فراگیر و مخرّبی، مؤثر واقع نباشد. چارچوبهای نظارتی موجود بهویژه حقوقبشر، بنیادی ضروری برای پرداختن به این موضوعات را فراهم میسازد. اما آنها برای پرکردن شکافها، شفافسازی و ایجاد ابزارهای حکمرانی قوی و عادلانه، به میزانی از نوآوری نیاز دارند.
ممکن است در آینده برای نظارت و اجرای این فناوری در پیشروی و توسعه، به نهادهای داخلی و بینالمللی جدید و همچنین سیاستگذارانی نیاز باشد که تفکری خلاقانه و ذهنیتی به دور از تعصب نشان دهند؛ زیرا آنها بهدنبال تطبیق مشکلات جدید فناوریهای هوش مصنوعی در کنار مسائل ریشهدار اجتماعی هستند که با توسعه و استقرار این فناوری تشدید میشود. به سبب ماهیت تجربی هوش مصنوعی، نیاز به مکانیسمهای نظارتی هوشمندانه و مداوم وجود دارد. مطابق با نامهای که توسط سهامداران اصلی در این حوزه امضا شده است، صنایع نباید تجاریسازی سریع و زودهنگام محصولات هوش مصنوعی را به بهای ازدستدادن ملاحظات ایمنی، اخلاقی و حقوق بشر بیشازحد در اولویت قرار دهند.
یکی از رویکردهای پیشنهادی برای ایجاد تعادل بین تجاریسازی و کاهش خطرات، مدلی مانند سازمان غذا و داروی[۶] ایالت متحده است. این مدل، راهاندازی محصولات را در کنار درک فنی و ارزیابی خطرات همراه با نظارت و ارزیابی مداوم برای بررسی و سنجیدن اثرات مستقیم و جانبی ارائه میدهد. چنین رویکردی امکان بررسی همهجانبۀ خطرات ناشی از فناوری هوش مصنوعی و پیامدهای ناخواستۀ آن مانند سوءاستفادۀ گزارششدۀ اوپناِیآی[۷] از کارگرانِ کمدرآمد کنیایی برای فیلترکردن محتوای آسیبزا از مجموعهدادههای آموزشی چتجیپیتی[۸] گرفته تا مسائل مربوط به مالکیت معنوی و هزینههای زیستمحیطی توسعه و اجرای این فناوریها را فراهم میسازد.
صنایع نباید تجاریسازی سریع و زودهنگام محصولات هوش مصنوعی را به بهای ازدستدادن ملاحظات ایمنی، اخلاقی و حقوق بشر بیش از حد در اولویت قرار دهند
سیاستگذاران باید در راستای رویکردهای متفاوت در مقررات هوش مصنوعی مسائل قابلقبول را در مراحل اولیه بررسی کنند. این امر به تحقیقات بیشتری مانند گزارش اخیر مرکز تخصصی بینالمللی در مونترال، جهت تجربه و فهم بهترین راهکارها در حوزههای قضایی و چگونگی اطمینان از اینکه قوانین و چارچوبها مکمل یکدیگر هستند، نیاز دارد. راههای ممکن میتواند شامل توافقهای دوجانبه و چندجانبۀ اجباری و غیراجباری و تعیین تفاهمها و مکانیسمهای مشترک برای موقعیتهای بحثبرانگیز باشد. درنهایت، نیاز به سازمانهای جدید برای نظارت در توسعه و گسترش هوش مصنوعی در حوزههای مختلف و بهکارگیری آن و همچنین ایجاد گزارشاتی موفقیتآمیز وجود دارد. نمونههای قابلتوجه شامل بخش تحقیق و آموزش است که آشکارا با چتجیپیتی و مسائل مربوط به کپیرایت، سرقت ادبی و نحوۀ رویکرد شهرها و نظارت دموکراتیک بر استقرار هوش مصنوعی دستوپنجه نرم میکند.
برای تسهیل چنین بحثهایی، یک رویکرد میتواند شبیه به درگاه بیندولتی در یک مأموریت علمی برای اطلاعرسانی به کشورها از دانش فعلی و پیشبرد پاسخهای احتمالی درمورد تغییرات آبوهوا باشد. این روند بیندولتی میتواند به جوامع سیاستگذار کمک کند تا از پیشرفتهای تکنولوژیکی مطلع باشند و پاسخهایی مبتنی بر شواهد را در چنین فضای جنجالی و نسبتاً پویا ایجاد کند.
درخواست جدی برای تنظیم مقررات
هوش مصنوعی میتواند بهسرعت در همهجا فراگیر شود، اما برخلاف گسترش بیرویۀ فناوری قبلی مانند رسانههای اجتماعی، دولتهای سراسر جهان پیش از گسترش سریع هوش مصنوعی گامهای پیوستهای را برای تنظیم توسعه و استقرار آن برداشتهاند. بازیگران برجسته در صنعت نیز از وضع مقررات حمایت کرده، نگرانیهای شخصی خود را مطرح و در مذاکرات نیز شرکت میکنند که پدیدهای نسبتاً غیرمعمول در حوزۀ فناوری است.
کشورها و جوامع ممکن است هریک روابط خاص و منحصربهفردی با هوش مصنوعی داشته باشند؛ اما حفظ مجموعهای از ضمانتهای جهانی و حفاظت از حقوق بشر برای همه، بهویژه برای کسانی که در معرض خطر توسعۀ هوش مصنوعی قرار دارند از اهمیت ویژهای برخوردار است. گام حیاتی بعدی یک رویکرد مبتکرانه اما حساس، واقعبینانه و علمی برای ادارۀ هوش مصنوعی است.