خانه » مقالات » مروری بر گزارش «حکمرانی هوش مصنوعی، پاسداشت حقوق‌بشر و کرامت انسانی»
مروری بر گزارش «حکمرانی هوش مصنوعی، پاسداشت حقوق‌بشر و کرامت انسانی»
نگاهی به وضعیت حقوق فطری انسانها بعد از ورود هوش مصنوعی به عرصه تعاملات بشری
یکشنبه, ۲ آذر ۱۴۰۳
زمان تقریبی مطالعه ۲۳ دقیقه
این گزارش به‌دنبال برقراری پلی میان هوش مصنوعی و حقوق‌بشر است و از این طریق می‌خواهد چارچوبی حقوق‌بشری برای قضاوت دربارۀ مخاطرات و زیان‌های هوش مصنوعی تدوین کند. نویسنده در این گزارش با تکیه بر اعلامیۀ حقوق‌بشر، میثاق بین‌المللی حقوق مدنی و سیاسی و معاهدۀ بین‌المللی حقوق اقتصادی، اجتماعی و فرهنگی که با هم منشور حقوق بین‌المللی را تشکیل می‌دهند، چالش‌هایی را که برای پنج مورد اساسی حقوق بشری به وجود آمده است شرح می‌دهد. این پنج مورد عبارت‌اند از عدم تبعیض و مساوات، مشارکت سیاسی، حریم خصوصی، آزادی بیان، رهیافت حقوق معلولان و طراحی در دسترس. در این گزارش همچنین چشم‌اندازی که ذی‌نفعان نسبت به مسئلۀ حقوق‌بشر و کرامت انسانی دارند و باید داشته باشند را بررسی می‌کند. گزاره‌های هنجاری این گزارش به ذی‌نفع‌هایی مانند حوزۀ کسب‌وکار، جامعۀ مدنی، دولت‌ها، سازمان ملل متحد، سازمان‌های بین‌دولتی و دانشگاه مربوط است. تأکید اساسی این گزارش بر آن است که توسعۀ هوش مصنوعی توسط هریک از ذی‌نفعان باید براساس حقوق بین‌المللِ موردقبول کشورهای عضو سازمان ملل باشد. گزارش یادشده می‌تواند یک مبنای ابتدایی برای احیای حقوق حداقلی بشر در رابطه با هوش مصنوعی محسوب شود.

چرا این گزارش مهم است؟

گزارش «حکمرانی هوش مصنوعی، پاسداشت حقوق‌بشر و کرامت انسانی» به‌عنوان یک منبع برای هر شخصِ حقیقی یا حقوقی که در حوزۀ هوش مصنوعی و حکمرانی کار می‌کند تهیه شده است. علاوه‌براین، گزارش یادشده به کسانی که در زمینۀ حقوق‌بشر فعالیت می‌کنند نیز مربوط می‌شود و بیان می‌کند که چرا آنان باید نگران تأثیرات هوش مصنوعی در عصر حاضر باشند. این گزارش به‌عنوان یک نقطۀ شروع، بر روی پنج نمونۀ ابتدایی از زمینه‌های حقوق‌بشری -عدم تبعیض، برابری، مشارکت سیاسی، حفظ حریم خصوصی و آزادی بیان- تمرکز می‌کند و نشان می‌دهد که چه چالش‌هایی میان حقوق فطری بشر و سامانه‌هایی که از هوش مصنوعی استفاده می‌کنند وجود دارد. 

این گزارش هم‌چنین اثبات می‌کند که علی‌رغم این نمونه‌های عمومی‌شده از آسیب‌رسانی به حقوق، پیشرفت‌هایی نیز در راستای افزایش کرامت انسانی به‌واسطۀ هوش مصنوعی در جریان است. برای مثال، پیش‌بینی اثرات منفی سامانه‌های هوش مصنوعی برای معلولان، می‌تواند طراحان را به سمت ساخت سامانه‌هایی سوق دهد که از حقوق آن‌ها محافظت کرده و آن را ارتقا می‌دهد.

این گزارش همچنین، تصویری از مشارکت ذی‌نفعان در محل تلاقی دو حوزۀ هوش مصنوعی و حقوق‌بشر را به نمایش می‌گذارد. درحالی‌که برخی از شرکت‌ها در بخش خصوصی درحال ارزیابی فعالانۀ تأثیرات حقوق‌بشری محصولات هوش مصنوعی خود هستند، بخش‌های دولت، سازمان‌های بین‌دولتی، جامعۀ مدنی و دانشگاهیان هم پیشرفت‌های نوظهور خود را داشته‌اند. اتخاذ رویکردهای حقوق‌بشری برای حوزۀ هوش مصنوعی در میان شرکت‌های بزرگ فناوری و سازمان‌های جامعۀ مدنی ممکن است حرکتی آنی و لحظه‌ای باشد. تا به امروز، فقط چند نمونۀ البته قابل‌توجه، در سازمان ملل، دولت و دانشگاه وجود دارد که حقوق‌بشر را به مرکز بحث‌های مربوط به حکمرانی هوش مصنوعی می‌رساند.

این گزارش همچنین نشان می‌دهد که حقوق‌بشر نمی‌تواند تمام نگرانی‌های فعلی و پیش‌بینی‌نشدۀ مربوط به هوش مصنوعی را برطرف کند. کارهای کوتاه‌مدت در این زمینه باید بر این نکته متمرکز باشند که چگونه دولت‌ها و نیز شرکت‌های فعال در حوزۀ هوش مصنوعی می‌توانند با سیاستگذاری‌های درست و مقتضی و با الگوگرفتن از کشورهای پیشرو در این زمینه، از هوش مصنوعی به‌عنوان ابزاری برای ارتقای معیارهای حقوق‌بشر استفاده کنند.

بخش‌های گزارش

این گزارش دارای دو بخش کلّی است که هر کدام به‌ترتیب پنج و شش بخش فرعی دارند. 

بخش اول گزارش با عنوان  چارچوبی حقوق‌بشری برای مخاطرات و زیان‌های هوش مصنوعی شامل این زیربخش‌هاست: عدم تبعیض و مساوات، مشارکت سیاسی، حریم خصوصی، آزادی بیان  و رهیافت حقوق معلولان و طراحی در دسترس. این بخش تعدادی از جنجال‌های عمومی‌شدۀ به وجود آمده توسط سامانه‌های هوش مصنوعی را از بازگو می‌کند. با عینک حقوق‌بشر می‌توان دریافت که چگونه این دسته از خطرات و خسارات در حوزۀ حقوق‌بشر قرار می‌گیرند. در این گزارش بر حقوق موجود در اعلامیۀ حقوق‌بشر و مهم‌ترین معاهدات حقوق‌بشری تمرکز شده است. این اسناد عبارت‌اند از: میثاق بین‌المللی حقوق مدنی و سیاسی (ICCPR)[۱] و معاهدۀ بین‌المللی حقوق اقتصادی، اجتماعی و فرهنگی (ICESRC)[۲] که تقریباً با اجماع 170 کشور تصویب شده است. این دو سند با هم منشور حقوق بین‌الملل[۳] را تشکیل می‌دهند که نشان‌دهندۀ آن است که حقوق‌بشر «تقسیم‌ناپذیر، به هم وابسته و به هم پیوسته‌اند.[۴]»

این گزارش هم‌چنین اثبات می‌کند که علی‌رغم این نمونه‌های عمومی‌شده از آسیب‌رسانی به حقوق، پیشرفت‌هایی نیز در راستای افزایش کرامت انسانی به‌واسطۀ هوش مصنوعی در جریان است. برای مثال، پیش‌بینی اثرات منفی سامانه‌های هوش مصنوعی برای معلولان، می‌تواند طراحان را به سمت ساخت سامانه‌هایی سوق دهد که از حقوق آن‌ها محافظت کرده و آن را ارتقا می‌دهد.

این بخش نه‌تنها برای چالش‌های محلّی و موضعی که فناوری‌های منفرد به وجود می‌آورند بلکه برای دغدغه‌ها و نگرانی‌هایی که ازطریق چارچوب حقوق جهانی قابل‌حل هستند، اساس و بنیانی را فراهم می‌کند. این بخش که به‌جای یک تحلیل جامع، همچون نقطۀ شروعی در نظر گرفته شده است، پنج حوزۀ حقوق‌بشری را مورد بررسی قرار خواهد داد و ضمن بررسی این حقوق و آسیب‌هایی که می‌تواند به‌وسیلۀ هوش مصنوعی به این حقوق وارد شود، به ما  این امکان می‌دهد فناوری‌های هوش مصنوعی را به نفع پیشرفت حقوق‌بشر توسعه دهیم.

بخش نخست، و از منظر مساوات، شرکت‌ها را به چالش اولویت‌بخشی به رعایت استانداردهای حقوق‌بشری و انجام بررسی‌هایی موشکافانه ‌مبتنی بر حقوق دعوت می‌کند. در میان این توصیه‌ها، خواسته‌ای مبنی بر اینکه شرکت‌ها باید در طراحی سامانه‌ها از انواع نظرات و هنجارها بهطور فعالانه استفاده کنند، وجود دارد. همچنین در این بخش شرکت‌ها تشویق شده‌اند که سازوکارهایی برای دسترسی و جبران خسارت ایجاد کنند که توسعه‌دهندگان را مسئول نتایج تبعیض‌آمیزشان سازد.

بخش دوم با تاکید بر حقوق مرتبط با مشارکت سیاسی مثلاً ذیل حق تعیین سرنوشت و حق مشارکتِ برابر در امور سیاسی و عمومی، بیان می‌کند که  چگونه ربات‌ها و سامانه‌های هوش مصنرعی می‌توانند در زمان‌های موردنیاز، ابزاری برای اعمال این حق باشند.

بخش سوم از منظر حریم خصوصی بیان می‌کند که قوانین و اصول بین‌المللی حقوق‌بشر درمورد حریم خصوصی می‌تواند به توسعه‌دهندگان هوش مصنوعی در تحلیل، شناسایی و واکنش به خطرات موجود کمک کند. قابلیت‌‌های هوش مصنوعی بیانگر این است که هوش مصنوعی چگونه می‌تواند حریم خصوصی را از حیث جمع‌آوری لجام‌گسیختۀ داده‌ها و  توانایی در بی‌هویت‌ساختن افراد تهدید کند. همچنین بیانگر این نکتۀ مهم است که حفاظت از حق حریم خصوصی برای برخورداری از حقوقی مرتبط مانند آزادی بیان، تشکیل اجتماعات و مشارکت سیاسی نقشی کلیدی دارد

از منظر حقوق معلولان، این گزارش بیان می‌کند که دخالت‌دادن کاملِ رهیافت حقوق‌بشری در ساخت و نگهداری سامانه‌های هوش مصنوعی مستلزم تغییر در فرهنگ صنایع فناورانه و سازمان‌ها است. کسانی که در زمینۀ حقوق معلولین کار می‌کنند، به پیشرفت‌های بزرگی -حداقل در برخی از شرکت‌های بزرگ فناوری- نائل شده‌اند و این اتفاق می‌تواند الگویی باشد برای اینکه با حقوق دیگر افرادِ توان‌خواه چه می‌شود کرد[۵].

آنچه بر اهمیت این گزارش می‌افزاید این است که درحال حاضر، بخش زیادی از جامعه دربارۀ تأثیرات واقعی سامانه‌های هوش مصنوعی بر انسان مردد هستند. در میان امیدهایی که هوش مصنوعی برای تحقق «خیر جهانی» می‌تواند به بار بیاورد، شواهدی وجود دارد که نشان می‌دهد درحال حاضر برخی از سامانه‌های هوش مصنوعی حقوق اساسی و آزادی‌ها را نقض می‌کنند. درحالی‌که ذی‌نفعان به دنبال ستاره‌ای قطبی برای راهبری توسعۀ هوش مصنوعی هستند، می‌توانیم برای کمک به ترسیم مسیر پیشِ‌رو به حقوق‌بشر اتکا کنیم. حقوق بین‌الملل بشر ابزاری قدرتمند برای شناسایی، پیشگیری و جبران دستۀ مهمی از خطرات و آسیب‌ها است. چارچوبی مبتنی بر حقوق‌بشر می‌تواند برای کسانی که درحال توسعۀ هوش مصنوعی هستند راهنمایی‌هایی آرمانی، هنجاری و قانونی فراهم کند تا از کرامت انسانی و ارزش ذاتی هر فرد، فارغ از کشور یا قلمروی قضایی او، حمایت شود. 

به زبان ساده: برای اینکه هوش مصنوعی به سود منافع عمومی باشد، حداقل باید در طراحی و به‌کارگیری آن، از آسیب‌رسانی به ارزش‌های بنیادین انسانی جلوگیری شود.

بخش دوم گزارش با عنوان «چشم‌انداز ذی‌نفعان» شامل بخش‌های زیر است: حوزۀ کسب‌وکار، جامعۀ مدنی، دولت‌ها، سازمان ملل متحد،سازمان‌های بین‌دولتی و دانشگاه.

از نظر کسب‌ کار و حریم خصوصی، این گزارش بیان می‌کند که فعالان و کارمندان مرتبط [با حوزۀ هوش مصنوعی] به‌شکلی فزاینده توانسته‌اند فشار معناداری بر شرکت‌های بزرگ فناوری وارد کنند. پس از آنکه شرکت سیاسی Cambridge Analytica به‌طور پنهانی به داده‌های خصوصی ده‌ها میلیون کاربر فیس‌بوک دسترسی پیدا کرد تا در رأی آن‌ها اثرگذار باشد، چند گروه و سازمان غیرانتفاعی نامه‌ای سرگشاده به بزرگ‌ترین سهامداران نهادی فیس‌بوک فرستادند. در این نامه ادعا شده بود که این شرکت «در ارزیابی و رسیدگی به مسائل دیرینه – و درعین‌حال اضطراریِ- حقوق‌بشری، مانند نگرانی‌هایی اساسی مربوط به حقوق مدنی، سیاسی و حریم خصوصی کوتاهی می‌کند»[۶]

دولت‌ها باید تعهدات خود را در زمینۀ حقوق‌بشر تصدیق کنند و وظیفۀ حمایت از حقوق اساسی را در سیاست‌های ملّی هوش مصنوعی، دستورالعمل‌ها و مقرراتِ ممکن لحاظ کنند. دولت‌ها می‌توانند در نهادهای چندجانبه، مانند سازمان ملل، برای حمایت از توسعۀ هوش‌مصنوعی‌ای که به حقوق‌بشر احترام می‌گذارد، نقش فعال‌تری داشته باشند.

این گزارش اذعان می‌کند معدودی از کشورها قوانینی تصویب کرده‌اند که به اثرات حقوق‌بشری هوش مصنوعی جهت‌دهی می‌کند. با این وجود، اتحادیۀ اروپا با توسل به اصول حقوق‌محور، علاقه‌مند به تنظیم‌گری شرکت‌های فناوری است. مقررات عمومی حفاظت از داده (GDPR) اتحادیۀ اروپا حمایت‌های جدیدی از حقوق شهروندان اروپایی پیرامون مسئلۀ حفاظت از داده و حریم خصوصی ایجاد می‌کند که بر روند هر سازمانی که اطلاعات ساکنان اروپا را جمع‌آوری می‌کنند اثرگذار است[۷].

جمع‌بندی

این گزارش درنهایت، ثمرۀ مطالعات خود را در قالب چند توصیۀ کاریردی، در خطاب به ذی‌نفعان ارائه می دهد:

-شرکت‌های فناوری برای شناسایی و پاسخ به خطرات مربوط به به‌کارگیری هوش مصنوعی باید مسیرهای ارتباطی مؤثری با گروه‌های محلّی جامعۀ مدنی و پژوهشگران پیدا کنند، به‌ویژه در مناطق جغرافیایی که نگرانی‌های حقوق‌بشری در آنجا زیاد است.

-شرکت‌های فناوری و پژوهشگران باید ارزیابی اثرات حقوق‌بشری (HRIA)[۸] را ازطریق بررسی چرخۀ عمر سامانه‌های هوش مصنوعی خود انجام دهند. به‌ویژه، پژوهشگران با توجه به تحولات جدید در ارزیابی اثرات الگوریتمی، باید روش HRIA را برای هوش مصنوعی ارزیابی مجدد کنند. 

-دولت‌ها باید تعهدات خود را در زمینۀ حقوق‌بشر تصدیق کنند و وظیفۀ حمایت از حقوق اساسی را در سیاست‌های ملّی هوش مصنوعی، دستورالعمل‌ها و مقرراتِ ممکن لحاظ کنند. دولت‌ها می‌توانند در نهادهای چندجانبه، مانند سازمان ملل، برای حمایت از توسعۀ هوش‌مصنوعی‌ای که به حقوق‌بشر احترام می‌گذارد، نقش فعال‌تری داشته باشند.

-ازآنجاکه اصول حقوق‌بشر به مشخصات فنی شبیه نیست، وکلای حقوق‌بشر، سیاست‌گذاران، دانشمندان علوم اجتماعی، دانشمندان کامپیوتر و مهندسان باید با همکاری یکدیگر حقوق‌بشر را در مدل‌های تجاری، روندهای کاری و طراحی محصول عملیاتی کنند.

-دانشگاهیان باید ارزش‌ها، محدودیت‌ها و تعاملات میان قانون حقوق‌بشر و رهیافت‌های کرامت انسانی، قوانین بشردوستانه و اخلاق را در رابطه با فناوری‌های نوظهور هوش مصنوعی بررسی کنند. محققان حقوقی و حقوق‌بشری باید هنگام مواجهه با خطرات و خسارات خاص هوش مصنوعی، با سایر ذی‌نفعان همکاری کنند.

-بازرسان و گزارشگران ویژۀ حقوق‌بشر سازمان ملل متحد باید به واکاویِ تأثیرات حقوق‌بشری ناشی از سامانه‌های هوش مصنوعی و عمومی‌سازی این موضوعات ادامه دهند. مقامات سازمان ملل و دولت‌های عضو باید ارزیابی کنند که آیا سازوکارهای فعلی سازمان ملل برای نظارت بر حقوق بین‌المللی، پاسخگویی و جبران خسارات کافی‌اند تا واکنش مناسبی به هوش مصنوعی و سایر فناوری‌های سریعاً نوظهور نشان بدهند. 

سایر مقالات