خانه » مقالات » آیا برای پیاده‌سازی اخلاق کلان‌داده دیر است؟
آیا برای پیاده‌سازی اخلاق کلان‌داده دیر است؟
دوشنبه, ۳ دی ۱۳۹۹
زمان تقریبی مطالعه ۱۵ دقیقه
طی چندسال اخیر، تلاش برای اعمال موضوعات اخلاقی در تحقیقات هوش مصنوعی و به‌ خصوص موضوع کلان‌داده‌ها، بسیار مطرح شده‌ است. از اختصاص بودجه‌های کلان در این رابطه تا ابتکارات صنعت و میزگردها و نشست‌های سالانه، می‌توان این‌طور برداشت کرد که اخلاق داده در آستانه پیشرفت قرار دارد. با این‌حال، آیا می‌توان امیدوار بود که واقعاً تغییری ایجاد شود، یا اینکه برای رسیدن به اخلاق کلان‌داده خیلی دیر شده است؟

به‌نظر می‌رسد که روند فعلی دنیای کلان‌داده‌ها و تحقیقات هوش مصنوعی، کاملاً مخالف مفهوم ظاهری بررسی اصول اخلاقی بوده است. امروزه، دانشمندان داده، به‌جای این‌که بپرسند برای بهبود جوامع بشری چه سؤالاتی باید پرسیده شود، اغلب می‌پرسند که با استفاده از ابزارها و داده‌های موجود، چه سؤالاتی امکان‌پذیر است و خصوصاً چه سؤالاتی بیشترین توجه را، از نظر اعتبار چاپ و کمک‌های مالی، به خود جلب می‌کند.

حتی در حالی‌که دانشگاهیان به‌طور عمومی، به ترویج بررسی عمیق و بازگشت تمرکز بر روی آنچه دانشمندان داده، باید انجام دهند، به‌جای آنچه می‌توانند انجام دهند، می‌پردازند، واقعیت تغییر چندانی نداشته است. جوامع حرفه‌ای که با بررسی کامل نهاد نظارت اخلاقی[۱] و رضایت آگاهانه همراه شده‌اند، در سخنرانی‌های خود از این امر استقبال می‌کنند، در صورتی‌که در عمل، هیچ‌یک از این موارد را انجام نمی‌دهند. محققان برجسته، بحران کپی‌برداری و نشر اخلاقی را تبلیغ می‌کنند، اما برای کارهای خود، درخواست‌های مکرر نشریات اخلاقی، به منظور بررسی کپی‌برداری اطلاعات در تحقیقات‌شان را، رد می‌کنند. این در حالی است که برترین انجمن‌های علمی، که این افراد عضو هیئت مدیره آن هستند، نیز هیچ اقدامی در راستای ترغیب محققان خود، برای رعایت اصول در استفاده اخلاقی از داده، یا ارائه دسترسی برای بررسی اخلاقی، انجام نمی‌دهند.

مؤسسات دولتی، به دنبال تعریف مجدد رضایت آگاهانه هستند تا تحقیقات را از بررسی‌های اخلاقی بیشتر، معاف کنند. در حالی‌که برخی از سرمایه‌داران خصوصی و دولتی، از پیشگامان جنبش دسترسی آزاد محسوب می‌شوند، با این وجود می‌گویند که علاقه چندانی به دسترسی آزادانه برای بررسی‌های اخلاقی ندارند و دانشگاه‌ها نیز با این استدلال که اطلاعات آن‌ها محرمانه است، از این امر سرباز می‌زنند. ژورنال‌های برتر می‌گویند، باتوجه به استانداردها و دامنه بین المللی تألیفات آن‌ها، نیاز به بازبینی اخلاقی محتوا برای آن‌ها غیرمنصفانه است. بنابراین دانشگاه‌ها با وجود این‌که در سطح عمومی بر اهمیت استفاده اخلاقی از داده‌ها تأکید دارند، در مراکز تحقیقاتی خود، به محققان اجازه می‌دهند حق کپی‌برداری را نادیده بگیرند و آگاهانه شرایط و مجوزهای استفاده از داده را نقض کنند، حتی بعضاً اجازه استفاده از داده‌های سرقتی را نیز می‌دهند و در برخی موارد، به دنبال یافتن راه‌های بیشتر برای رفع محدودیت‌ها و دور زدن مقررات استفاده از داده‌ها هستند. به نظر می‌رسد حتی دانشگاه‌هایی که دقیق‌ترین و محدودترین سیاست‌های استفاده از داده‌ها را دارند نیز در عمل، از این سیاست‌ها چشم‌پوشی می‌کنند.

شاید بزرگ‌ترین مسئله این است که در دنیای کلان‌داده‌ها، مرزهای انضباطی در حال نابودی است و زمینه‌هایی با سابقه طولانی بررسی اخلاقی، توسط زمینه‌هایی که هیچ سابقه بازبینی ندارند و همین‌طور جنبش‌های فعال مخالف بررسی اخلاقی تحقیقات، محو می‌شوند. دانشمندان داده، در حال ایجاد به یک الگوی منظم جهانی هستند و روش‌ها و داده‌های خود را در هر حوزه قابل تصوری اعمال می‌کنند. تنها چند دهه قبل، یک مطالعه مستند از جمعیت آسیب‌پذیر در یک کشور دیگر، به‌طور سنتی توسط یک قوم‌نگار آموزش‌دیده و با تحقیقات عمیق در موضوعات انسانی، حفظ حریم شخصی افراد و رضایت آگاهانه آن‌ها قابل انجام بود. اما امروزه، این مطالعه می‌تواند به‌راحتی توسط مجموعه‌ای از دانشمندان کامپیوتر، با استفاده از میلیون‌ها عکس و جزئیات شخصی زندگی افراد از راه دور، انجام شود، و حتی احساسات این افراد دستکاری شده یا مورد برداشت شخصی قرار گیرد، بدون اینکه حتی این افراد بدانند از اطلاعات آن‌ها به‌عنوان نمونه آزمایشی استفاده شده‌است.

محققان هوش مصنوعی در تلاش هستند تا به موفقیت‌های عمومی در ساخت ماشین‌های تمام هوشمند برسند. اما ساختار نهادهای نظارتی آکادمیک به این صورت است که تعداد کمی از این کارها از نوع قابل بررسی اخلاقی هستند و ماهیت آن‌ها تماماً از لحاظ فنی مورد بررسی قرار می‌گیرد. به این صورت که عموم مردم تا زمانی‌که این فناوری مستقیماً با مرگ و زندگی مصرف‌کننده در ارتباط نباشد مثلاً در خودروهای بدون راننده، از سرعت پیشرفت این تکنولوژی‌ها، آگاه نیستند.

نکته قابل توجه این است که شرکت‌های بزرگی نظیر بلومبرگ[۲] که در زمینه اخلاق در کلان‌داده، اقدامات بزرگی را انجام داده‌اند که به هیاهوی قابل‌توجهی نیز منجر شده است، خود به عمل به تعهدات اجرایی شدن این ایده‌آل‌ها روی نمی‌آورند تا جایی‌که عملاً نیز یکی از دانشمندان داده در بلومبرگ، اذعان داشته که بررسی‌های اخلاقی را در خصوص تحقیقات علوم کامپیوتر الزامی دانسته، اما در زمینه کاری خود این الزامات را متداول نمی‌داند.

اگر شرکتی که خود مشوق این اقدامات است، آمادگی لازم برای این‌که محققان خود را ملزم به رعایت آن کند، نداشته باشد، فایده تلاش برای راه‌اندازی و گسترش اخلاق در کلان‌داده چه خواهد بود؟ از این گذشته، اگر دانشمندان داده ملزم به بررسی اخلاقی، رعایت کپی‌رایت، آزمون تعصب الگوریتمی[۳] و در نظر گرفتن تأثیرات اجتماعی در کار خود نباشند، به احتمال زیاد، به دنبال پروژه‌هایی هستند که بیشترین فرصت را برای انتشار و سرمایه‌گذاری دارند. علاوه‌ بر‌این، این واقعیت که بسیاری از دانشمندان داده، برای داده‌های جمع آوری شده، از اطلاعات کشورهایی که سابقه استفاده از بررسی اخلاقی را به‌جز در تحقیقات پزشکی ندارند، استفاده می‌کنند، به همین دلیل، تزریق استانداردهای اخلاقی به مجلات و کنفرانس‌های بزرگ را بسیار ناعادلانه می‌دانند.

آیا تمام موارد و مشکلات اعلام شده، بدان معناست که وقتی این اخبار مربوط به دنیای کلان‌داده‌ها و هوش مصنوعی به گوش می‌رسد، برای پیاده‌سازی اخلاق داده‌ها خیلی دیر شده است؟ اگر سرویس‌های تأمین مالی عمده، جوامع و ناشران حرفه‌ای به سمت نظارت اخلاقی کامل، بر روی همه موارد ارسالی بروند (و از معافیت نظارت اخلاقی بر داده‌های در دسترس عموم، ممانعت کنند)، همچنین خواستار مراکز قانونی بازنشر پایگاه داده‌ها باشند ( در حالی‌که به استانداردهای قانونی و اخلاقی پای‌بند هستند)، این مفاهیم به سرعت به علوم داده تزریق خواهد شد. در حالی‌که بدیهی است که همچنان، شرکت‌های خصوصی در عمل به این قوانین آزاد هستند، بنابراین از طریق فشار بر روی دانشمندان داده شرکتی، در راستای انتشار محتوا در چارچوب ادبیات دانشگاهی، می‌توان تا حدی آن‌ها را نیز کنترل کرد. این امر یعنی اینکه آن‌ها بایستی حتی بخش‌های اصلی کار خود را از طریق نسخه‌برداری اولیه انجام دهند. بنابراین حداقل مجبور به رعایت فرمت نسخه‌برداری خواهند بود. اگر مجلات از همه نویسندگان بخواهند تا نتایج بررسی کامل نهاد نظارت اخلاقی را، در خصوص کار خود ارائه دهند، این امر در بزرگترین شرکت‌های داده‌محور، در شروع تحقیقات کلان‌داده، باعث ایجاد بینش قابل توجهی در استدلال‌های اخلاقی خواهد شد.

با کنار هم قرار دادن این موارد، وقتی علم داده از سمت مقالات سنگین ریاضی در مجلات تخصصی دانشگاه خارج می‌شود تا به یک محرک در جامعه تبدیل شود، اگر نتوان گفت که به‌طور کامل بر ما مسلط می‌شود، باز هم می‌تواند زندگی روزمره ما را تحت فشار قرار دهد. هزاران تصمیم محققان و برنامه‌نویسان بر روی همه چیز، از تصمیمات دادگاه‌ها گرفته تا ایمنی ماشین‌هایی که امروزه ما را احاطه کرده‌اند و الگوریتمی که تصمیم می‌گیرد آیا این مقاله در خبرخوان‌های اجتماعی ظاهر شود یا نه، تأثیر می‌گذارد. امروزه افرادی که دنیای کلان‌داده را هدایت می‌کنند، در رشته‌هایی نظیر علوم کامپیوتر زمینه مطالعاتی داشته و تمایل دارند تا بر زمینه‌های مختلفی مانند رشته‌هایی که به سوالات پاسخ می‌دهند، تأکید کنند، نه مواردی که آن‌ها را مورد پرسش قرار می‌دهند. در حالی‌که به عنوان یک جامعه، شاید بزرگترین سؤال از همه فقط این باشد که آن‌ها دقیقاً باید به چه سؤالاتی پاسخ دهند؟

منابع
سایر مقالات