
چرا این گزارش مهم است؟
گزارش «حکمرانی هوش مصنوعی، پاسداشت حقوقبشر و کرامت انسانی» بهعنوان یک منبع برای هر شخصِ حقیقی یا حقوقی که در حوزۀ هوش مصنوعی و حکمرانی کار میکند تهیه شده است. علاوهبراین، گزارش یادشده به کسانی که در زمینۀ حقوقبشر فعالیت میکنند نیز مربوط میشود و بیان میکند که چرا آنان باید نگران تأثیرات هوش مصنوعی در عصر حاضر باشند. این گزارش بهعنوان یک نقطۀ شروع، بر روی پنج نمونۀ ابتدایی از زمینههای حقوقبشری -عدم تبعیض، برابری، مشارکت سیاسی، حفظ حریم خصوصی و آزادی بیان- تمرکز میکند و نشان میدهد که چه چالشهایی میان حقوق فطری بشر و سامانههایی که از هوش مصنوعی استفاده میکنند وجود دارد.
این گزارش همچنین اثبات میکند که علیرغم این نمونههای عمومیشده از آسیبرسانی به حقوق، پیشرفتهایی نیز در راستای افزایش کرامت انسانی بهواسطۀ هوش مصنوعی در جریان است. برای مثال، پیشبینی اثرات منفی سامانههای هوش مصنوعی برای معلولان، میتواند طراحان را به سمت ساخت سامانههایی سوق دهد که از حقوق آنها محافظت کرده و آن را ارتقا میدهد.
این گزارش همچنین، تصویری از مشارکت ذینفعان در محل تلاقی دو حوزۀ هوش مصنوعی و حقوقبشر را به نمایش میگذارد. درحالیکه برخی از شرکتها در بخش خصوصی درحال ارزیابی فعالانۀ تأثیرات حقوقبشری محصولات هوش مصنوعی خود هستند، بخشهای دولت، سازمانهای بیندولتی، جامعۀ مدنی و دانشگاهیان هم پیشرفتهای نوظهور خود را داشتهاند. اتخاذ رویکردهای حقوقبشری برای حوزۀ هوش مصنوعی در میان شرکتهای بزرگ فناوری و سازمانهای جامعۀ مدنی ممکن است حرکتی آنی و لحظهای باشد. تا به امروز، فقط چند نمونۀ البته قابلتوجه، در سازمان ملل، دولت و دانشگاه وجود دارد که حقوقبشر را به مرکز بحثهای مربوط به حکمرانی هوش مصنوعی میرساند.
این گزارش همچنین نشان میدهد که حقوقبشر نمیتواند تمام نگرانیهای فعلی و پیشبینینشدۀ مربوط به هوش مصنوعی را برطرف کند. کارهای کوتاهمدت در این زمینه باید بر این نکته متمرکز باشند که چگونه دولتها و نیز شرکتهای فعال در حوزۀ هوش مصنوعی میتوانند با سیاستگذاریهای درست و مقتضی و با الگوگرفتن از کشورهای پیشرو در این زمینه، از هوش مصنوعی بهعنوان ابزاری برای ارتقای معیارهای حقوقبشر استفاده کنند.
بخشهای گزارش
این گزارش دارای دو بخش کلّی است که هر کدام بهترتیب پنج و شش بخش فرعی دارند.
بخش اول گزارش با عنوان چارچوبی حقوقبشری برای مخاطرات و زیانهای هوش مصنوعی شامل این زیربخشهاست: عدم تبعیض و مساوات، مشارکت سیاسی، حریم خصوصی، آزادی بیان و رهیافت حقوق معلولان و طراحی در دسترس. این بخش تعدادی از جنجالهای عمومیشدۀ به وجود آمده توسط سامانههای هوش مصنوعی را از بازگو میکند. با عینک حقوقبشر میتوان دریافت که چگونه این دسته از خطرات و خسارات در حوزۀ حقوقبشر قرار میگیرند. در این گزارش بر حقوق موجود در اعلامیۀ حقوقبشر و مهمترین معاهدات حقوقبشری تمرکز شده است. این اسناد عبارتاند از: میثاق بینالمللی حقوق مدنی و سیاسی (ICCPR)[۱] و معاهدۀ بینالمللی حقوق اقتصادی، اجتماعی و فرهنگی (ICESRC)[۲] که تقریباً با اجماع 170 کشور تصویب شده است. این دو سند با هم منشور حقوق بینالملل[۳] را تشکیل میدهند که نشاندهندۀ آن است که حقوقبشر «تقسیمناپذیر، به هم وابسته و به هم پیوستهاند.[۴]»
این گزارش همچنین اثبات میکند که علیرغم این نمونههای عمومیشده از آسیبرسانی به حقوق، پیشرفتهایی نیز در راستای افزایش کرامت انسانی بهواسطۀ هوش مصنوعی در جریان است. برای مثال، پیشبینی اثرات منفی سامانههای هوش مصنوعی برای معلولان، میتواند طراحان را به سمت ساخت سامانههایی سوق دهد که از حقوق آنها محافظت کرده و آن را ارتقا میدهد.
این بخش نهتنها برای چالشهای محلّی و موضعی که فناوریهای منفرد به وجود میآورند بلکه برای دغدغهها و نگرانیهایی که ازطریق چارچوب حقوق جهانی قابلحل هستند، اساس و بنیانی را فراهم میکند. این بخش که بهجای یک تحلیل جامع، همچون نقطۀ شروعی در نظر گرفته شده است، پنج حوزۀ حقوقبشری را مورد بررسی قرار خواهد داد و ضمن بررسی این حقوق و آسیبهایی که میتواند بهوسیلۀ هوش مصنوعی به این حقوق وارد شود، به ما این امکان میدهد فناوریهای هوش مصنوعی را به نفع پیشرفت حقوقبشر توسعه دهیم.
بخش نخست، و از منظر مساوات، شرکتها را به چالش اولویتبخشی به رعایت استانداردهای حقوقبشری و انجام بررسیهایی موشکافانه مبتنی بر حقوق دعوت میکند. در میان این توصیهها، خواستهای مبنی بر اینکه شرکتها باید در طراحی سامانهها از انواع نظرات و هنجارها بهطور فعالانه استفاده کنند، وجود دارد. همچنین در این بخش شرکتها تشویق شدهاند که سازوکارهایی برای دسترسی و جبران خسارت ایجاد کنند که توسعهدهندگان را مسئول نتایج تبعیضآمیزشان سازد.
بخش دوم با تاکید بر حقوق مرتبط با مشارکت سیاسی مثلاً ذیل حق تعیین سرنوشت و حق مشارکتِ برابر در امور سیاسی و عمومی، بیان میکند که چگونه رباتها و سامانههای هوش مصنرعی میتوانند در زمانهای موردنیاز، ابزاری برای اعمال این حق باشند.
بخش سوم از منظر حریم خصوصی بیان میکند که قوانین و اصول بینالمللی حقوقبشر درمورد حریم خصوصی میتواند به توسعهدهندگان هوش مصنوعی در تحلیل، شناسایی و واکنش به خطرات موجود کمک کند. قابلیتهای هوش مصنوعی بیانگر این است که هوش مصنوعی چگونه میتواند حریم خصوصی را از حیث جمعآوری لجامگسیختۀ دادهها و توانایی در بیهویتساختن افراد تهدید کند. همچنین بیانگر این نکتۀ مهم است که حفاظت از حق حریم خصوصی برای برخورداری از حقوقی مرتبط مانند آزادی بیان، تشکیل اجتماعات و مشارکت سیاسی نقشی کلیدی دارد
از منظر حقوق معلولان، این گزارش بیان میکند که دخالتدادن کاملِ رهیافت حقوقبشری در ساخت و نگهداری سامانههای هوش مصنوعی مستلزم تغییر در فرهنگ صنایع فناورانه و سازمانها است. کسانی که در زمینۀ حقوق معلولین کار میکنند، به پیشرفتهای بزرگی -حداقل در برخی از شرکتهای بزرگ فناوری- نائل شدهاند و این اتفاق میتواند الگویی باشد برای اینکه با حقوق دیگر افرادِ توانخواه چه میشود کرد[۵].
آنچه بر اهمیت این گزارش میافزاید این است که درحال حاضر، بخش زیادی از جامعه دربارۀ تأثیرات واقعی سامانههای هوش مصنوعی بر انسان مردد هستند. در میان امیدهایی که هوش مصنوعی برای تحقق «خیر جهانی» میتواند به بار بیاورد، شواهدی وجود دارد که نشان میدهد درحال حاضر برخی از سامانههای هوش مصنوعی حقوق اساسی و آزادیها را نقض میکنند. درحالیکه ذینفعان به دنبال ستارهای قطبی برای راهبری توسعۀ هوش مصنوعی هستند، میتوانیم برای کمک به ترسیم مسیر پیشِرو به حقوقبشر اتکا کنیم. حقوق بینالملل بشر ابزاری قدرتمند برای شناسایی، پیشگیری و جبران دستۀ مهمی از خطرات و آسیبها است. چارچوبی مبتنی بر حقوقبشر میتواند برای کسانی که درحال توسعۀ هوش مصنوعی هستند راهنماییهایی آرمانی، هنجاری و قانونی فراهم کند تا از کرامت انسانی و ارزش ذاتی هر فرد، فارغ از کشور یا قلمروی قضایی او، حمایت شود.
به زبان ساده: برای اینکه هوش مصنوعی به سود منافع عمومی باشد، حداقل باید در طراحی و بهکارگیری آن، از آسیبرسانی به ارزشهای بنیادین انسانی جلوگیری شود.
بخش دوم گزارش با عنوان «چشمانداز ذینفعان» شامل بخشهای زیر است: حوزۀ کسبوکار، جامعۀ مدنی، دولتها، سازمان ملل متحد،سازمانهای بیندولتی و دانشگاه.
از نظر کسب کار و حریم خصوصی، این گزارش بیان میکند که فعالان و کارمندان مرتبط [با حوزۀ هوش مصنوعی] بهشکلی فزاینده توانستهاند فشار معناداری بر شرکتهای بزرگ فناوری وارد کنند. پس از آنکه شرکت سیاسی Cambridge Analytica بهطور پنهانی به دادههای خصوصی دهها میلیون کاربر فیسبوک دسترسی پیدا کرد تا در رأی آنها اثرگذار باشد، چند گروه و سازمان غیرانتفاعی نامهای سرگشاده به بزرگترین سهامداران نهادی فیسبوک فرستادند. در این نامه ادعا شده بود که این شرکت «در ارزیابی و رسیدگی به مسائل دیرینه – و درعینحال اضطراریِ- حقوقبشری، مانند نگرانیهایی اساسی مربوط به حقوق مدنی، سیاسی و حریم خصوصی کوتاهی میکند»[۶]
دولتها باید تعهدات خود را در زمینۀ حقوقبشر تصدیق کنند و وظیفۀ حمایت از حقوق اساسی را در سیاستهای ملّی هوش مصنوعی، دستورالعملها و مقرراتِ ممکن لحاظ کنند. دولتها میتوانند در نهادهای چندجانبه، مانند سازمان ملل، برای حمایت از توسعۀ هوشمصنوعیای که به حقوقبشر احترام میگذارد، نقش فعالتری داشته باشند.
این گزارش اذعان میکند معدودی از کشورها قوانینی تصویب کردهاند که به اثرات حقوقبشری هوش مصنوعی جهتدهی میکند. با این وجود، اتحادیۀ اروپا با توسل به اصول حقوقمحور، علاقهمند به تنظیمگری شرکتهای فناوری است. مقررات عمومی حفاظت از داده (GDPR) اتحادیۀ اروپا حمایتهای جدیدی از حقوق شهروندان اروپایی پیرامون مسئلۀ حفاظت از داده و حریم خصوصی ایجاد میکند که بر روند هر سازمانی که اطلاعات ساکنان اروپا را جمعآوری میکنند اثرگذار است[۷].
جمعبندی
این گزارش درنهایت، ثمرۀ مطالعات خود را در قالب چند توصیۀ کاریردی، در خطاب به ذینفعان ارائه می دهد:
-شرکتهای فناوری برای شناسایی و پاسخ به خطرات مربوط به بهکارگیری هوش مصنوعی باید مسیرهای ارتباطی مؤثری با گروههای محلّی جامعۀ مدنی و پژوهشگران پیدا کنند، بهویژه در مناطق جغرافیایی که نگرانیهای حقوقبشری در آنجا زیاد است.
-شرکتهای فناوری و پژوهشگران باید ارزیابی اثرات حقوقبشری (HRIA)[۸] را ازطریق بررسی چرخۀ عمر سامانههای هوش مصنوعی خود انجام دهند. بهویژه، پژوهشگران با توجه به تحولات جدید در ارزیابی اثرات الگوریتمی، باید روش HRIA را برای هوش مصنوعی ارزیابی مجدد کنند.
-دولتها باید تعهدات خود را در زمینۀ حقوقبشر تصدیق کنند و وظیفۀ حمایت از حقوق اساسی را در سیاستهای ملّی هوش مصنوعی، دستورالعملها و مقرراتِ ممکن لحاظ کنند. دولتها میتوانند در نهادهای چندجانبه، مانند سازمان ملل، برای حمایت از توسعۀ هوشمصنوعیای که به حقوقبشر احترام میگذارد، نقش فعالتری داشته باشند.
-ازآنجاکه اصول حقوقبشر به مشخصات فنی شبیه نیست، وکلای حقوقبشر، سیاستگذاران، دانشمندان علوم اجتماعی، دانشمندان کامپیوتر و مهندسان باید با همکاری یکدیگر حقوقبشر را در مدلهای تجاری، روندهای کاری و طراحی محصول عملیاتی کنند.
-دانشگاهیان باید ارزشها، محدودیتها و تعاملات میان قانون حقوقبشر و رهیافتهای کرامت انسانی، قوانین بشردوستانه و اخلاق را در رابطه با فناوریهای نوظهور هوش مصنوعی بررسی کنند. محققان حقوقی و حقوقبشری باید هنگام مواجهه با خطرات و خسارات خاص هوش مصنوعی، با سایر ذینفعان همکاری کنند.
-بازرسان و گزارشگران ویژۀ حقوقبشر سازمان ملل متحد باید به واکاویِ تأثیرات حقوقبشری ناشی از سامانههای هوش مصنوعی و عمومیسازی این موضوعات ادامه دهند. مقامات سازمان ملل و دولتهای عضو باید ارزیابی کنند که آیا سازوکارهای فعلی سازمان ملل برای نظارت بر حقوق بینالمللی، پاسخگویی و جبران خسارات کافیاند تا واکنش مناسبی به هوش مصنوعی و سایر فناوریهای سریعاً نوظهور نشان بدهند.