خانه » مقالات » حکمرانی هوش مصنوعی باید میان خلاقیت و حساسیت تعادل ایجاد کند
حکمرانی هوش مصنوعی باید میان خلاقیت و حساسیت تعادل ایجاد کند
یکشنبه, ۲ دی ۱۴۰۳
زمان تقریبی مطالعه ۱۶ دقیقه

مقدمه  

هوش مصنوعی[۱] می‌تواند زندگی‌ها را متحول کند؛ اما سیاست‌گذاری و  مقررات باید تضمین کنند که به‌جای حفظ وضع موجود برای تعداد اندکی از افراد مرفه، منافع آن برای همه باشد. پذیرش گستردۀ هوش مصنوعی[۲] و برنامه‌هایی که برای تولید محتوای جدید طراحی شده است، در برخی از نقاط جهان بحث‌های مهمی را درمورد توسعه و استقرار مسئولانۀ این فناوری و چگونگی کاهش خطرات آن ایجاد کرده است. درست زمانی که ریشی سوناک[۳] قرار است با جو بایدن[۴] در رابطه با نقش بریتانیا در توسعۀ مقررات بین‌المللی هوش مصنوعی صحبت کند، تعدادی از رهبران صنعت در این زمینه بیانیه‌ای را امضا کردند که «خطرات انقراض ناشی از هوش مصنوعی» را هشدار می‌دهد. 

درحالی‌که واکنش‌های نظارتی در مقایسه با استقرار گستردۀ هوش مصنوعی مولّد کُند بوده است؛ اما سیاست‌ها و فرایندهای قانونی در بسیاری از حوزه‌های قضایی شروع به شکل‌گیری کرده است. اما باوجود ماهیت بی‌سابقه و فراملّی این فناوری، رویکردهای رایج برای حکمرانی آن و راه‌حل‌هایی که عمدتاً در راستای چارچوب‌های سیاست داخلی یا منطقه‌ای تدبیر شده‌اند، هنوز هم بسیار اندک است.

رویکردهای مختلف درحال پیدایش هستند

اتحادیۀ اروپا[۵] در آستانۀ تصویب قوانین موردانتظار برای هوش مصنوعی است که مانند قوانین اخیر خدمات و بازارهای دیجیتال، تکمیل‌کنندۀ مجموعۀ قابل‌توجهی از مقررات فنی خود است. در مجموع، این مقررات یک رویکرد کلی‌گرا، دقیق و حفاظتی را نشان می‌دهد که قانون‌گذاران اتحادیۀ اروپا آن را در قبال مقررات فنی پذیرفته‌اند. برخلاف بریتانیا و ایالات متحده که بیشتر رویکرد آن‌ها مستقل و مبتنی بر خودشان است (یعنی تحت رهبری صنعت، برخلاف رهبری دولت‌ها)

باوجود ماهیت بی‌سابقه و فراملّی این فناوری، رویکردهای رایج برای حکمرانی آن و راه‌حل‌هایی که عمدتاً در راستای چارچوب‌های سیاست داخلی یا منطقه‌ای تدبیر شده‌اند، هنوز هم بسیار اندک است.

به‌طور مشابه در زمینۀ نظارت و اجرا، با ایجاد یک نهاد متمرکز (هیئت هوش مصنوعی) توسط اتحادیۀ اروپا که بیانگر یک رویکرد تحمیلی در مقایسه با رویکرد غیرمتمرکز ایالات متحده و بریتانیا است. در اوایل سال 2023 رویکرد بریتانیا و همچنین استراتژی گستردۀ فناوری بین‌المللی آن در سند سیاست دولت بیان شده است. این مورد اخیر، «نقش ابزارهای مدیریت غیرنظارتی قابل‌تعامل، مانند تکنیک‌های تضمینی و استانداردهای فنی در ایجاد امکان توسعه و استقرار هوش مصنوعیِ مسئول« را در معرض توجه قرار می‌دهد. این تناقض در رویکردهای نظارتی، تعدادی پرسش مهم درمورد پیاده‌سازی و اجرای آن مطرح می‌کند؛ به‌ویژه با توجه به اینکه بخش عمده‌ای از تحقیقات هوش مصنوعی در ایالات متحده  متمرکز شده است.

در مقابل، رویکرد ساده‌تر ایالات متحده برای ارزیابی خطرات، رعایت ملاحظات اخلاقی و قانونی ممکن است به‌جای اینکه در مراحل توسعه و آزمایش فناوری قرار بگیرد، بیشتر به‌عنوان یک فکر ثانویه مطرح شود. همچنین نگرانی‌هایی در رابطه با مشارکت مردم وجود دارد، به‌ویژه آن‌هایی که بیشتر در معرض خطر فناوری هوش مصنوعی هستند؛ مانند اقلیت‌های قومی، جمعیت کشورهای درحال‌ توسعه و گروه‌های مختلف آسیب‌پذیر. چنین روندهایی در معرض خطر سرایت به مرزهای ایالات متحده و نفوذ به آزمایشگاه‌های هوش مصنوعی در سراسر جهان هستند. به‌خصوص که فناوری‌های هوش مصنوعی معمولاً برای استفاده در سطوح گسترده طراحی می‌شوند. علاوه‌براین، رویداد «رقابت تسلیحاتی» نیز باید موردتوجه قرار بگیرد.

حکمرانی هوش مصنوعی وجود دارد؛ اما نیازمند به اصلاح است

اینکه رویکردهای پیشنهادی حکمرانی، برای نظارت در این فناوری ماهیت منحصربه‌فرد هوش مصنوعی را در نظر بگیرند، بسیار اهمیت دارد. زیرا ممکن است نظارت‌های قدیمی به‌تنهایی برای چنین فناوری فراگیر و مخرّبی، مؤثر واقع نباشد. چارچوب‌های نظارتی موجود به‌ویژه حقوق‌بشر، بنیادی ضروری برای پرداختن به این موضوعات را فراهم می‌سازد. اما آن‌ها برای پرکردن شکاف‌ها، شفاف‌سازی و ایجاد ابزارهای حکمرانی قوی و عادلانه، به میزانی از نوآوری نیاز دارند.

ممکن است در آینده برای نظارت و اجرای این فناوری در پیشروی و توسعه، به نهادهای داخلی و بین‌المللی جدید و همچنین سیاست‌گذارانی نیاز باشد که تفکری خلاقانه و ذهنیتی به دور از تعصب نشان دهند؛ زیرا آنها به‌دنبال تطبیق مشکلات جدید فناوری‌های هوش مصنوعی در کنار مسائل ریشه‌دار اجتماعی هستند که با توسعه و استقرار این فناوری تشدید می‌شود. به سبب ماهیت تجربی هوش مصنوعی، نیاز به مکانیسم‌های نظارتی هوشمندانه و مداوم وجود دارد. مطابق با نامه‌ای که توسط سهام‌داران اصلی در این حوزه امضا شده است، صنایع نباید تجاری‌سازی سریع و زودهنگام محصولات هوش مصنوعی را به بهای ازدست‌دادن ملاحظات ایمنی، اخلاقی و حقوق بشر بیش‌ازحد در اولویت قرار دهند.

یکی از رویکردهای پیشنهادی برای ایجاد تعادل بین تجاری‌سازی و کاهش خطرات، مدلی مانند سازمان غذا و داروی[۶] ایالت متحده است. این مدل، راه‌اندازی محصولات را در کنار درک فنی و ارزیابی خطرات همراه با نظارت و ارزیابی مداوم برای بررسی و سنجیدن اثرات مستقیم و جانبی ارائه می‌دهد. چنین رویکردی امکان بررسی همه‌جانبۀ خطرات ناشی از فناوری هوش مصنوعی و پیامدهای ناخواستۀ آن مانند سوءاستفادۀ گزارش‌شدۀ اوپن‌اِی‌آی[۷] از کارگرانِ کم‌درآمد کنیایی برای فیلترکردن محتوای آسیب‌زا از مجموعه‌داده‌های آموزشی چت‌جی‌پی‌تی[۸] گرفته تا مسائل مربوط به مالکیت معنوی و هزینه‌های زیست‌محیطی توسعه و اجرای این فناوری‌ها را فراهم می‌سازد.

صنایع نباید تجاری‌سازی سریع و زودهنگام محصولات هوش مصنوعی را به بهای ازدست‌دادن ملاحظات ایمنی، اخلاقی و حقوق بشر بیش از حد در اولویت قرار دهند

سیاست‌گذاران باید در راستای رویکردهای متفاوت در مقررات هوش مصنوعی  مسائل قابل‌قبول را در مراحل اولیه بررسی کنند. این امر به تحقیقات بیشتری مانند گزارش اخیر مرکز تخصصی بین‌المللی در مونترال، جهت تجربه و فهم بهترین راهکارها در حوزه‌های قضایی و چگونگی اطمینان از اینکه قوانین و چارچوب‌ها مکمل یکدیگر هستند، نیاز دارد. راه‌های ممکن می‌تواند شامل توافق‌های دوجانبه و چندجانبۀ اجباری و غیراجباری و تعیین تفاهم‌ها و مکانیسم‌های مشترک برای موقعیت‌های بحث‌برانگیز باشد. درنهایت، نیاز به سازمان‌های جدید برای نظارت در توسعه و گسترش هوش مصنوعی در حوزه‌های مختلف و به‌کارگیری آن و همچنین ایجاد گزارشاتی موفقیت‌آمیز وجود دارد. نمونه‌های قابل‌توجه شامل بخش تحقیق و آموزش است که آشکارا با چت‌جی‌پی‌تی و مسائل مربوط به کپی‌رایت، سرقت ادبی  و نحوۀ رویکرد شهرها و نظارت دموکراتیک بر استقرار هوش مصنوعی دست‌وپنجه نرم می‌کند.

برای تسهیل چنین بحث‌هایی، یک رویکرد می‌تواند شبیه به درگاه بین‌دولتی در یک مأموریت علمی برای اطلاع‌رسانی به کشورها از دانش فعلی و پیشبرد پاسخ‌های احتمالی درمورد تغییرات آب‌وهوا باشد. این روند بین‌دولتی می‌تواند به جوامع سیاست‌گذار کمک کند تا از پیشرفت‌های تکنولوژیکی مطلع باشند و پاسخ‌هایی مبتنی بر شواهد را در چنین فضای جنجالی و نسبتاً پویا ایجاد کند.

درخواست جدی برای تنظیم مقررات 

هوش مصنوعی می‌تواند به‌سرعت در همه‌جا فراگیر شود، اما برخلاف گسترش بی‌رویۀ فناوری قبلی مانند رسانه‌های اجتماعی، دولت‌های سراسر جهان پیش از گسترش سریع هوش مصنوعی گام‌های پیوسته‌ای را برای تنظیم توسعه و استقرار آن برداشته‌اند. بازیگران برجسته در صنعت نیز از وضع مقررات حمایت کرده، نگرانی‌های شخصی خود را مطرح و در مذاکرات نیز شرکت می‌کنند که پدیده‌ای نسبتاً غیرمعمول در حوزۀ فناوری است.

کشورها و جوامع ممکن است هریک روابط خاص و منحصربه‌فردی با هوش مصنوعی داشته باشند؛ اما حفظ مجموعه‌ای از ضمانت‌های جهانی و حفاظت از حقوق بشر برای همه، به‌ویژه برای کسانی که در معرض خطر توسعۀ هوش مصنوعی  قرار دارند از اهمیت ویژه‌ای برخوردار است. گام حیاتی بعدی یک رویکرد مبتکرانه اما حساس، واقع‌بینانه و علمی برای ادارۀ هوش مصنوعی است. 

منابع
مترجمان
سایر مقالات