
ماه گذشته، دادگاه عالی ایالات متحده در مورتی میسوری استدلالهای شفاهی را رسیدگی کرد. شاکیان آن پرونده – دادستان کل ایالت جمهوریخواه میسوری و لوئیزیانا، همراه با شاکیان خصوصی – ادعا میکنند که دولت بایدن شرکتهای رسانه اجتماعی را تهدید کرده که اگر دست از سخنان نادرست راجع به COVID-19 برندارند، تلافی خواهد کرد. دادگاه، مستقل از دخالت دولت، احتمالاً مشخص میکند که واقعاً این اتفاق واقعاً رخ داده یا پلتفرمها به روشهای معمول خود دست به بازبینی محتوا زدهاند. اما، نکتۀ کلیدی این تحلیل، تفکیک سانسور از بازبینی محتواست.
اگر از ایلان ماسک، علاقهمند به آزادی بیان بپرسید، نظر او دربارۀ بازبینی محتوا چیست، احتمالاً میگوید: «بازبینی یک لغت پروپاگاندایی برای سانسور است». اما اگر از یک متخصص امنیت و اعتماد بپرسید که تفاوت میان بازبینی محتوا و سانسور چیست، احتمالاً اینگونه برداشت میکنید که: «سانسور در واقع کاری است که فقط دولت توانایی انجام آنرا دارد. کاری نیست که ما بتوانیم انجام دهیم».
دیو ویلنر، مدیر اسبق امنیت و اعتماد در شرکتهایی همچون فیس بوک و OpenAI و عضو غیرمقیم حال حاضر در برنامه استنفورد در زمینۀ مدیریت فناوریهای نوظهور، در سخنرانی اخیر خود در مرکز برکمن کلاین، به سوالی دربارۀ سانسور و بازبینی محتوا در عصر هوش مصنوعی پاسخ داد. او با تمسخر گفت: «مارک زاکربرگ مالک هیچ زندانی نیست و هرگز کسی را در این سازمانها زندانی نکرده است و فکر میکنم این یک تمایز مهم باشد.»
حق با ویلنر است. بهعنوان ناظر سابق محتوا، با شنیدن کلمه «C» به خود میلرزم و من نیز همان پاسخ دندانشکن را دادهام. زمانی که با این پلتفرمها کار میکردم، تمرکزم بر کاهش اثر سخنان نفرتانگیز، اطلاعات نادرست و افراطگرایی خشونتآمیز در ابعاد جهانی بود – از تئوریپردازان توطئهگر مانند الکس جونز گرفته تا مدیریت پس لرزههای حملات تروریستی در برنامه پخش مستقیم. اما وقتی به سانسور میاندیشم، این فکر به ذهنم میرسد که دولت کسی را به خاطر عقاید سیاسیاش ساکت کرده است. عکسالعمل سریع من فکرکردن به دیوارآتش بزرگ چین و نظارت دولتی یا سانسور اینترنتی است که در ایران یا در پخش تلویزیون روسیه رخ می دهد.
در ایالات متحده، حمایت ما در برابر این شکل از سانسور – نوعی از سانسور که یک نهاد دولتی میتواند خودسرانه هم اعمال قانون کرده و هم علیه شهروندان خود به دلیل بیان سخنان سیاسی اعمال خشونت کند – اولین متمم قانون اساسی است. رویۀ قضایی دیوان عالی در مورد گفتار را میتوان (به طور غیر جامع) به صورت زیر خلاصه کرد: «هر فردی میتواند بصورت آنلاین با طنین صدا از هر جعبۀ صابونی (محل سخنرانی)، تبدیل به جارچی شهر شود». اینترنت «میدان مدرن عمومی است . . . و به طورکلی محدود کردن دسترسی به رسانههای اجتماعی، کاربران را از مشارکت در اجرای بهحقِ متمم اول قانون اساسی باز میدارد. درصورتی قدرت اینترنت رد میشود که فرض کنیم دولت در بهترین موقعیت برای انتخاب گفتارِ ما قرار گرفته است. به این معنی نیست که متمم اول قانون اساسی از ما در برابر هر نوع سانسور دولتی محافظت میکند، یا اینکه اصلاً سانسور دولتی در ایالات متحده وجود ندارد. بلکه به این نکته اشاره دارد که مجموعهای از قوانین و اصول اعتقادی بهعنوان اولین خط دفاعی وجود دارد که از دخالت دولت دربرابر حق مردم برای صحبت آزادانه دفاع میکند.
با این حال، متمم اول، حقی است که شهروندان در برابر سانسور دولتی دارند – نه دربرابر اقدامات ویرایشی فعالان خصوصی. و در واقع برای درک دقیق این مطلب، باید این واقعیت را در نظر گرفت که سانسور فقط یک موضوع حقوقی نیست، بلکه یک مفهوم اخلاقی است. یک «وضعیت استراتژیک پیچیده» را میان سخنرانان ناراضی و گروه اکثریت بر اساس مجموعه ارزشهای «عینی» نشان میدهد که در آن ساختار گروه اکثریت را میتوان با یکی از موارد زیر مشخص کرد: اندازه گروه، اقتدار اخلاقی/ فرهنگی/ ارتدکس، وضعیت اجتماعی و تخصیص منابع، و از طریق این ابعاد بر گفتمان مسلط میشوند و سخنرانان را (از طریق ابزارهای اجتماعی یا خشونتآمیز) سانسور یا تحریم میکنند. به طور خلاصه، یک گروه این قدرت را دارد که تصمیم بگیرد گروه دیگر چگونه خود را ابراز کند. گروه دوم، به معنای واقعی کلمه، حرفی برای گفتن ندارد.
وقتی به جای دولتها، نهادهای خصوصی خاص، بواسطۀ قدرت فیلترینگ خود، صدای گروههای ناراضی را خاموش میکنند، یک جای کار میلنگد. مخصوصاً بازبینی محتوا در اکثر پلتفرمهای اصلی همان مفهوم سانسور را دربرمیگیرد، زیرا افراد سخنران اکثراً به اشکال خاصی از سخنرانی سیاسی توجه میکنند که عموماً به شدت بازبینی شدهاند. اما تمام اشکال گفتار یکسان نیست. دعوت به مرگ، بیماری یا آسیب دربرابر گروههای حفاظتشده؛ دامن زدن به قیام خشونتآمیز؛ یا تبلیغ دروغ در مورد کارایی واکسن کووید، فایده اجتماعی چندانی ندارد و مطمئناً چه به صورت آنلاین و چه آفلاین باعث آسیبرسانی میشود.
بیشک شرکتکنندهای که از ویلنر در مورد دیدگاهش راجع به بازبینی محتوا پرسیده بود، نمونههایی از این نوع سانسور غیردولتی را در ذهن داشت – چه در فضای مجازی و چه آفلاین، موارد زیادی از این نوع وجود دارد. شرکتهای پلتفرم در زمان فراگیری کووید-۱۹ متهم به سانسور شدند زیرا کووید-۱۹ و محتوا راجع به واکسن را به دلیل عدم اطمینان از صحت آن حذف میکردند. اخیراً، تأکید بیش از حد بر محتوای زبان عربی در مورد درگیری اسرائیل و حماس موضوع مناقشه بوده است. دنیای آفلاین نیز مملو از این نمونههاست، از گروههایی که در ایالتهای مختلف تلاش میکنند که کتابها را ممنوع کنند تا نشریه حقوق هاروارد که حتی متهم به سانسور صدای یک پژوهشگر فلسطینی شده است.
من با این طرزفکر که اینها نمونههایی از سانسور هستند، موافقم. وقتی به جای دولتها، نهادهای خصوصی خاص، بواسطۀ قدرت فیلترینگ خود، صدای گروههای ناراضی را خاموش میکنند، یک جای کار میلنگد. مخصوصاً بازبینی محتوا در اکثر پلتفرمهای اصلی همان مفهوم سانسور را دربرمیگیرد، زیرا افراد سخنران اکثراً به اشکال خاصی از سخنرانی سیاسی توجه میکنند که عموماً به شدت بازبینی شدهاند. اما تمام اشکال گفتار یکسان نیست. دعوت به مرگ، بیماری یا آسیب دربرابر گروههای حفاظتشده؛ دامن زدن به قیام خشونتآمیز؛ یا تبلیغ دروغ در مورد کارایی واکسن کووید، فایده اجتماعی چندانی ندارد و مطمئناً چه به صورت آنلاین و چه آفلاین باعث آسیبرسانی میشود. در این شرایط، ادغام بازبینی محتوا با سانسور به چند دلیل مشکل ساز است:
-
اهداف و پیامدهای سانسور و بازبینی محتوا متفاوت است
هدف سانسور دولتی محدود کردن سخنانی است که مغایر با ارتدکس سیاسی مورد تایید دولت است. از سوی دیگر، بازبینی محتوا در پلتفرمهای رسانههای اجتماعی باهدف ارائه راههای اصولی، قابل اجرا و قابل توضیح در جهت ترویج آزادی بیان و به حداقل رساندن آسیب کاربران است. با این حال، بازبینی محتوا مسلماً ناسازگار است (گاهی اوقات به دلایل سیاسی، اما اغلب به این دلیل که انسانهای بدی پشت آن هستند)، به نظر می رسد این ارزشها با نمونههای قبلی مغایر باشند، واضح است که سانسور در عمل به معنی کنترل و یکنواختی سیاسی است. در هر دو حالت میدانند که شما نمیتوانید آزادی بیان دستنخوردهای داشته باشید، اما ممنوعیت در یکی از آنها به دنبال محدودکردن مخالفت است، در حالی که در دیگری به هدف حداکثرسازی فراگیری است.
تلفیق سانسور دولتی با بازبینی محتوا نشانگر تمایل به رهایی از هر دو حالت است. اما میدانیم که این کار جواب نمیدهد. اجازه سخنرانی صرفاً به دلیل آنکه سخنران از نظر موقعیت در جایگاه اکثریت قرار دارد، یک شکست کامل است. این استاندارد خودسرانه به افرادی که میگویند توسط پلتفرمها ساکت شدهاند، اجازه میدهد تا بیرون بروند و کتابها یا افراد دکس را ممنوع کنند. همچنین این موضوع به برخی اجازه میدهد تا بعضی از صداهای به حاشیه رانده شده را بلند کنند، بااینکه صداهای اعتراضی با آنها مخالفند. چه آزادی بیان در ذهن شما و چه بیان حقیقت در قدرت، این حق زمانی میبایست تمام شود که کسی را در معرض آسیب یا سخنرانی غیرقانونی دیگری قرار دهد. باید استانداردی برای سخنرانی مجاز در گفتمان عمومی پلتفرمها وجود داشته باشد که نفوذ گستردهتری نسبت به کاربر بدون آن پلتفرم دارند.
عواقب آن نیز متفاوت است. با سانسور دولتی، یک گوینده ممکن است به طور ضمنی تهدید به خشونت فیزیکی، از دست دادن آزادی یا پول شود، یا دولت و نمایندگان او را به دلیل بیان کلامی مبهم و کلی که احتمالاً برای دولت توهین آمیز باشد، مورد آزار و اذیت قرار دهند. بازبینی محتوا مطمئناً میتواند نتایج منفی داشته باشد، مانند ممنوع شدن از یک سایت به دلیل نقض مداوم قوانین گفتار یک پلتفرم، یا تبلیغ محتوای غیرقابل اعتراض مانند تروریسم یا CSAM. اما در خارج از این موارد، زمانیکه سخنرانی حذف میشود، اغلب یک سیستم اعتصابی به وجود میآید که به شما در صورت نقض قوانین هشدار میدهد. یا وقتی کیفیت محتوا دارای ارزش مشکوکی باشد، روشهایی برای محدود کردن دسترسی به محتوای کاربر ایجاد میشود. (لازم به ذکر است که این قوانین ممکن است به طور یکسان برای همه کاربران اعمال نشود، به خصوص اگر کاربر یک شخصیت مشهور یا سیاسی باشد.)
-
اتهامات سانسوری، موجب سلب مشروعیت یکپارچگی میشود
بطورکلی، کار یک متخصص امنیت و اعتماد دشوار است. چالشبرانگیزترین جنبههای این نقش، پاسخ به آتشافروزیهای روابط عمومی (که ظاهراً پایانی ندارد) است، مجبورشدن به تحلیل بصری برخی از فجیعترین محتواها که کاربران آنها را آپلود میکنند، و تلاشی جدی برای اطمینان از اینکه ابزارها، خطمشیها و رویههای موجود درجهت مدیریت میلیونها تصمیم محتوایی است که مقیاس انصاف و شایستگی را رعایت میکند و هم برای تیمهای داخلی و هم برای دنیای خارج قابل توجیه میباشد. فرآیندی که این ابزارها، سیاستها و رویهها را توسعه میدهد، دقیق بوده و برای پاسخگویی به تغییرات پویا در گفتمان آنلاین دائماً بروزآوری میشود. متخصصانی که در این زمینه مشغول به کارند اغلب فداکار بوده و بیاجر کار میکنند. در واقع، این کارمندان به کار روی این موضوعات چالش برانگیز ادامه میدهند، زیرا آنها واقعاً به منافع کاربران اهمیت میدهند و میخواهند مطمئن شوند که تصمیمات سیاسی و اجرایی با در نظر گرفتن آنها اتخاذ میشود.
ما افرادی با این همدلی و مهارتها میخواهیم که تصمیمات مهمی برای گفتمان آنلاین اتخاذ نمایند، اما از مشروعیت اتهامات نادرست سانسور در این حرفه بکاهند. هدف شبکههای اجتماعی ظرفیت بخشیدن به مردم درجهت تشکیل جوامع و نزدیکتر شدن به جهان است. خروجی این هدف والا، یکپارچگی است: هدف آن محافظت از جوامع متعلق به یک شرکت پلتفرمی دربرابر کاربرانی است که عمدا یا سهواً به بقیه آسیب میرسانند، برای اطمینان از اینکه مردم در محیطی مشارکت میکنند که در آن احساس امنیت کنند. این کار شامل ارزیابی محتوای مضر در برابر مجموعهای از رفتارهای توهینآمیز مانند قلدری، آزار و اذیت، اطلاعات نادرست، سخنان مشوق نفرتانگیز و غیره است – اینها استانداردهایی است که کارشناسان داخلی و خارجی در سرتاسر طیف سیاسی برای دیگران تهیه میکنند تا محتوا و هدف قابل تشخیص کاربر از پست آن را تجزیه و تحلیل کنند.
مواقعی وجود دارد که متخصصان یکپارچگی میخواهند محتوا را حذف کنند زیرا ادامه میزبانی آن اشتباه است، اما خطمشی اجازه حذف را نمیدهد. و از طرف دیگر، اغلب مواقعی وجود دارد که کارکنان یکپارچگی فکر میکنند باید محتوا فعال بماند، حتی اگر خطمشی خاصی را نقض کند، اما از تصمیم حذف تبعیت میکنند زیرا وفاداری به خطمشی کلید مشروعیت آنهاست. بیان، یا حتی پیشنهاد اینکه این کار توسط افرادی با «برنامه سیاسی» یا با هدف ضمنی خاموش کردن سخنرانان ناراضی انجام شود، تقریباً هیچ گاه مبتنی بر واقعیت نیست.
-
کاربران گزینههایی فراتر از یک پلتفرم دارند
در نهایت، ادغام بازبینی محتوا با سانسور این موضوع را پیش فرض قرار میدهد که وقتی کاربر در پلتفرمی «ساکت شد»، جایی برای بیان آزادانه خود در فضای آنلاین پیدا نمیکند. اگر واقعاً اینگونه بود، افراد ممنوع شده در فیس بوک احتمالاً به طور قطع از YouTube، TikTok، Reddit و غیره نیز منع میشدند. زیرا وقتی دولت یک سخنران را سانسور میکند، آنها عملاً از فرصت های عمومی و خصوصی پلتفرم برای بیان دیدگاههای مخالف خود محروم میشوند.
اما این موضوع درمورد پلتفرمهای رسانه اجتماعی به سادگی صدق نمیکند. اگر کاربری برای همیشه از یک پلتفرم منع شود – که معمولاً دلیل آن نقض مداوم ممنوعیتهای پلتفرم در رابطه با انواع خاصی از رفتارهای ضداجتماعی (مانند دعوت به خشونت علیه گروههای خاص، ترویج تروریسم) است- کاربران آزادند تا به پلتفرمهای دیگر رفته و در آنجا به روش مشابهی اظهار نظر کنند. پلتفرمهای مختلف آستانه تحمل متفاوتی نسبت به گفتار دارند. به عنوان مثال، تفاوت فاحش سیاستهای اعتدالی فیسبوک نسبت به Truth Social کسی را شگفتزده نمیکند. در واقع، کاربری که از پلتفرم اول ممنوع شده است ممکن است به آسانی مخاطبان پذیرایی را در پلتفرم دیگر پیدا کند. مسئله اینجاست که بسیاری از کاربران بر این باورند که حق دارند حساب کاربری در رسانه اجتماعی داشته باشند و بر این اساس، حق دارند تا هر چه میخواهند به هر کس بگویند. اما طبق نظر مدیر تحقیقات رصدخانه اینترنت استانفورد (و عضو هیئت مدیره Tech Policy Press) رنه دی رستا، آزادی بیان به معنای آزادی دسترسی نیست. شما حقِ داشتن یک حساب رسانه اجتماعی را ندارید، و اگر شخصی بطور مداوم از یک پلتفرم رسانهٔ اجتماعی منع میشود، احتمالاً باید فکر کند که چگونه فعالیتهایش را با ارزشهای آن سایت منطبق کند.
البته، بنا به دلایلی باید نگران شرکتهای بزرگ رسانههای اجتماعی باشیم که دولت تقریباً در آن حضور دارد و بر میلیاردها سخنرانی نظارت دارد. نمونهها در رابطه با تلاشهای سرسختانه برای بازبینی پلتفرمها (و گاهی اوقات بازبینی گزینشی محتوای سیاسیشان) فراوان است. این رویدادها به طور واضحی باعث میشود تا در کاربران این سوال به وجود آید که “چرا با من این کار را کردید و با شخص دیگر نه؟” و موجب تضعیف یکپارچگی تلاشها برای بازبینی میشود.
اما حوزه امنیت و اعتماد در حال تخصصی کردن شیوههای خود میباشد. این صنعت درحال حاضر دارای سازمانهای حرفهای شخص ثالث است، مانند Integrity Institute، که تمرکزش بر پاسخگوکردن پلتفرمها دربارۀ محیطهای دیجیتالیای است که خلق میکنند. فرصتهایی برای متخصصان تا بهترین شیوههای بازبینی محتوا که آزادی بیان و امنیت کاربر را متعادل میکند، به اشتراک بگذارند؛ علاقهمندی به شفافیت بیشتر در مورد نحوۀ اتخاذ این تصمیمات رو به افزایش است. با توسعۀ صنعت، کاربران باید از این موضوع خاطرجمع باشند که افرادی در خط مقدم این مسائل بغرنج قرار دارند که به انجام کار درست برای جوامع آنلاینشان اهمیت میدهند و برای ایجاد اعتماد و نفع همگانی در تجربه کاربر تلاش میکنند، و اگر آنها نگران اعتدال هستند باید ملحق شوند.
نتیجهگیری
میان بازبینی محتوا و سانسور تفاوت وجود دارد. بازبینی محتوا به دنبال اطمینان از آن است که درعین اینکه ریسک آسیب به مشارکت افراد کاهش مییابد، اکثر مردم میتوانند مشارکت داشته باشند؛ سانسور در تلاش است تا مشارکت سیاسی را محدود کند. اولی به دنبال کثرت و شمولیت است. و دومی به دنبال یکنواختی و کنترل است. البته این بدان معناست که ناظران در حال قضاوت ارزشی هستند. اما ارزشهای بیحدوحصر متمم اول قانون اساسی ایالات متحده از کاربران در برابر آسیبهایی که از اینترنت ناشی میشود یا توسط آن تشدید میشود، محافظت نمیکند – چه تیراندازی پخش مستقیم در کرایستچرچ باشد، یا نسلکشی در میانمار، یا شورش در ساختمان کنگره ایالات متحده در ۶ ژانویه.
همانطور که ما باید نسبت به نهادهایی مانند دولت که تعیین میکنند کدام سخنرانی ارزشمندتر است، بدبین باشیم، در عین حال هم باید به این نکته توجه کنیم که نابودی چیزی که پلتفرمها به عنوان بازبینی محتوا در مفهوم وسیعتر سانسور از آن یاد میکنند، خطر کاهش اهمیت آنرا به همراه دارد؛ مشروعیتزدایی از کارهای مهمی که متخصصان امنیت روزانه انجام میدهند و ظاهراً این گونه به نظر میرسد که کاربران در این زمینه هیچ نمایندهای ندارند. در عوض، بایستی بازبینی محتوا را در دستهبندی خودش قرار دهیم – این کار به ما امکانی میدهد که آن را با شرایط خودش نقد کنیم، جدا از انگی که «سانسور» به همراه دارد.