بهنظر میرسد که روند فعلی دنیای کلاندادهها و تحقیقات هوش مصنوعی، کاملاً مخالف مفهوم ظاهری بررسی اصول اخلاقی بوده است. امروزه، دانشمندان داده، بهجای اینکه بپرسند برای بهبود جوامع بشری چه سؤالاتی باید پرسیده شود، اغلب میپرسند که با استفاده از ابزارها و دادههای موجود، چه سؤالاتی امکانپذیر است و خصوصاً چه سؤالاتی بیشترین توجه را، از نظر اعتبار چاپ و کمکهای مالی، به خود جلب میکند.
حتی در حالیکه دانشگاهیان بهطور عمومی، به ترویج بررسی عمیق و بازگشت تمرکز بر روی آنچه دانشمندان داده، باید انجام دهند، بهجای آنچه میتوانند انجام دهند، میپردازند، واقعیت تغییر چندانی نداشته است. جوامع حرفهای که با بررسی کامل نهاد نظارت اخلاقی[۱] و رضایت آگاهانه همراه شدهاند، در سخنرانیهای خود از این امر استقبال میکنند، در صورتیکه در عمل، هیچیک از این موارد را انجام نمیدهند. محققان برجسته، بحران کپیبرداری و نشر اخلاقی را تبلیغ میکنند، اما برای کارهای خود، درخواستهای مکرر نشریات اخلاقی، به منظور بررسی کپیبرداری اطلاعات در تحقیقاتشان را، رد میکنند. این در حالی است که برترین انجمنهای علمی، که این افراد عضو هیئت مدیره آن هستند، نیز هیچ اقدامی در راستای ترغیب محققان خود، برای رعایت اصول در استفاده اخلاقی از داده، یا ارائه دسترسی برای بررسی اخلاقی، انجام نمیدهند.
مؤسسات دولتی، به دنبال تعریف مجدد رضایت آگاهانه هستند تا تحقیقات را از بررسیهای اخلاقی بیشتر، معاف کنند. در حالیکه برخی از سرمایهداران خصوصی و دولتی، از پیشگامان جنبش دسترسی آزاد محسوب میشوند، با این وجود میگویند که علاقه چندانی به دسترسی آزادانه برای بررسیهای اخلاقی ندارند و دانشگاهها نیز با این استدلال که اطلاعات آنها محرمانه است، از این امر سرباز میزنند. ژورنالهای برتر میگویند، باتوجه به استانداردها و دامنه بین المللی تألیفات آنها، نیاز به بازبینی اخلاقی محتوا برای آنها غیرمنصفانه است. بنابراین دانشگاهها با وجود اینکه در سطح عمومی بر اهمیت استفاده اخلاقی از دادهها تأکید دارند، در مراکز تحقیقاتی خود، به محققان اجازه میدهند حق کپیبرداری را نادیده بگیرند و آگاهانه شرایط و مجوزهای استفاده از داده را نقض کنند، حتی بعضاً اجازه استفاده از دادههای سرقتی را نیز میدهند و در برخی موارد، به دنبال یافتن راههای بیشتر برای رفع محدودیتها و دور زدن مقررات استفاده از دادهها هستند. به نظر میرسد حتی دانشگاههایی که دقیقترین و محدودترین سیاستهای استفاده از دادهها را دارند نیز در عمل، از این سیاستها چشمپوشی میکنند.
شاید بزرگترین مسئله این است که در دنیای کلاندادهها، مرزهای انضباطی در حال نابودی است و زمینههایی با سابقه طولانی بررسی اخلاقی، توسط زمینههایی که هیچ سابقه بازبینی ندارند و همینطور جنبشهای فعال مخالف بررسی اخلاقی تحقیقات، محو میشوند. دانشمندان داده، در حال ایجاد به یک الگوی منظم جهانی هستند و روشها و دادههای خود را در هر حوزه قابل تصوری اعمال میکنند. تنها چند دهه قبل، یک مطالعه مستند از جمعیت آسیبپذیر در یک کشور دیگر، بهطور سنتی توسط یک قومنگار آموزشدیده و با تحقیقات عمیق در موضوعات انسانی، حفظ حریم شخصی افراد و رضایت آگاهانه آنها قابل انجام بود. اما امروزه، این مطالعه میتواند بهراحتی توسط مجموعهای از دانشمندان کامپیوتر، با استفاده از میلیونها عکس و جزئیات شخصی زندگی افراد از راه دور، انجام شود، و حتی احساسات این افراد دستکاری شده یا مورد برداشت شخصی قرار گیرد، بدون اینکه حتی این افراد بدانند از اطلاعات آنها بهعنوان نمونه آزمایشی استفاده شدهاست.
محققان هوش مصنوعی در تلاش هستند تا به موفقیتهای عمومی در ساخت ماشینهای تمام هوشمند برسند. اما ساختار نهادهای نظارتی آکادمیک به این صورت است که تعداد کمی از این کارها از نوع قابل بررسی اخلاقی هستند و ماهیت آنها تماماً از لحاظ فنی مورد بررسی قرار میگیرد. به این صورت که عموم مردم تا زمانیکه این فناوری مستقیماً با مرگ و زندگی مصرفکننده در ارتباط نباشد مثلاً در خودروهای بدون راننده، از سرعت پیشرفت این تکنولوژیها، آگاه نیستند.
نکته قابل توجه این است که شرکتهای بزرگی نظیر بلومبرگ[۲] که در زمینه اخلاق در کلانداده، اقدامات بزرگی را انجام دادهاند که به هیاهوی قابلتوجهی نیز منجر شده است، خود به عمل به تعهدات اجرایی شدن این ایدهآلها روی نمیآورند تا جاییکه عملاً نیز یکی از دانشمندان داده در بلومبرگ، اذعان داشته که بررسیهای اخلاقی را در خصوص تحقیقات علوم کامپیوتر الزامی دانسته، اما در زمینه کاری خود این الزامات را متداول نمیداند.
اگر شرکتی که خود مشوق این اقدامات است، آمادگی لازم برای اینکه محققان خود را ملزم به رعایت آن کند، نداشته باشد، فایده تلاش برای راهاندازی و گسترش اخلاق در کلانداده چه خواهد بود؟ از این گذشته، اگر دانشمندان داده ملزم به بررسی اخلاقی، رعایت کپیرایت، آزمون تعصب الگوریتمی[۳] و در نظر گرفتن تأثیرات اجتماعی در کار خود نباشند، به احتمال زیاد، به دنبال پروژههایی هستند که بیشترین فرصت را برای انتشار و سرمایهگذاری دارند. علاوه براین، این واقعیت که بسیاری از دانشمندان داده، برای دادههای جمع آوری شده، از اطلاعات کشورهایی که سابقه استفاده از بررسی اخلاقی را بهجز در تحقیقات پزشکی ندارند، استفاده میکنند، به همین دلیل، تزریق استانداردهای اخلاقی به مجلات و کنفرانسهای بزرگ را بسیار ناعادلانه میدانند.
آیا تمام موارد و مشکلات اعلام شده، بدان معناست که وقتی این اخبار مربوط به دنیای کلاندادهها و هوش مصنوعی به گوش میرسد، برای پیادهسازی اخلاق دادهها خیلی دیر شده است؟ اگر سرویسهای تأمین مالی عمده، جوامع و ناشران حرفهای به سمت نظارت اخلاقی کامل، بر روی همه موارد ارسالی بروند (و از معافیت نظارت اخلاقی بر دادههای در دسترس عموم، ممانعت کنند)، همچنین خواستار مراکز قانونی بازنشر پایگاه دادهها باشند ( در حالیکه به استانداردهای قانونی و اخلاقی پایبند هستند)، این مفاهیم به سرعت به علوم داده تزریق خواهد شد. در حالیکه بدیهی است که همچنان، شرکتهای خصوصی در عمل به این قوانین آزاد هستند، بنابراین از طریق فشار بر روی دانشمندان داده شرکتی، در راستای انتشار محتوا در چارچوب ادبیات دانشگاهی، میتوان تا حدی آنها را نیز کنترل کرد. این امر یعنی اینکه آنها بایستی حتی بخشهای اصلی کار خود را از طریق نسخهبرداری اولیه انجام دهند. بنابراین حداقل مجبور به رعایت فرمت نسخهبرداری خواهند بود. اگر مجلات از همه نویسندگان بخواهند تا نتایج بررسی کامل نهاد نظارت اخلاقی را، در خصوص کار خود ارائه دهند، این امر در بزرگترین شرکتهای دادهمحور، در شروع تحقیقات کلانداده، باعث ایجاد بینش قابل توجهی در استدلالهای اخلاقی خواهد شد.
با کنار هم قرار دادن این موارد، وقتی علم داده از سمت مقالات سنگین ریاضی در مجلات تخصصی دانشگاه خارج میشود تا به یک محرک در جامعه تبدیل شود، اگر نتوان گفت که بهطور کامل بر ما مسلط میشود، باز هم میتواند زندگی روزمره ما را تحت فشار قرار دهد. هزاران تصمیم محققان و برنامهنویسان بر روی همه چیز، از تصمیمات دادگاهها گرفته تا ایمنی ماشینهایی که امروزه ما را احاطه کردهاند و الگوریتمی که تصمیم میگیرد آیا این مقاله در خبرخوانهای اجتماعی ظاهر شود یا نه، تأثیر میگذارد. امروزه افرادی که دنیای کلانداده را هدایت میکنند، در رشتههایی نظیر علوم کامپیوتر زمینه مطالعاتی داشته و تمایل دارند تا بر زمینههای مختلفی مانند رشتههایی که به سوالات پاسخ میدهند، تأکید کنند، نه مواردی که آنها را مورد پرسش قرار میدهند. در حالیکه به عنوان یک جامعه، شاید بزرگترین سؤال از همه فقط این باشد که آنها دقیقاً باید به چه سؤالاتی پاسخ دهند؟