خانه » مقالات » کلمه سانسور یک معنای دقیق دارد: دفاع از تعدیل محتوا
کلمه سانسور یک معنای دقیق دارد: دفاع از تعدیل محتوا
یکشنبه, ۲ بهمن ۱۴۰۳
زمان تقریبی مطالعه ۳۵ دقیقه
این متن به بررسی مفهوم سانسور و تفاوت آن با بازبینی محتوا می‌پردازد. نویسنده استدلال می‌کند که سانسور در معنای دقیق خود عملی است که معمولاً توسط دولت‌ها انجام می‌شود و هدف آن محدود کردن آزادی بیان در جهت منافع سیاسی است. در مقابل، بازبینی محتوا در پلتفرم‌های دیجیتال، تلاشی برای ایجاد تعادل میان آزادی بیان و کاهش آسیب‌های اجتماعی است. متن به نمونه‌هایی از سانسور دولتی و بازبینی محتوای خصوصی اشاره می‌کند، مانند حذف محتواهای مرتبط با کووید-19 یا درگیری‌های سیاسی. نویسنده تاکید دارد که یکسان‌پنداری سانسور و بازبینی محتوا می‌تواند تلاش‌های متخصصان امنیت و اعتماد در پلتفرم‌های دیجیتال را به حاشیه ببرد. در نهایت، ضرورت بازبینی محتوا برای محافظت از گفتمان عمومی در برابر خشونت، اطلاعات نادرست و سخنان نفرت‌انگیز برجسته می‌شود.

ماه گذشته، دادگاه عالی ایالات متحده در مورتی میسوری استدلال‌های شفاهی را رسیدگی کرد. شاکیان آن پرونده – دادستان کل ایالت جمهوری‌خواه میسوری و لوئیزیانا، همراه با شاکیان خصوصی – ادعا می‌کنند که دولت بایدن شرکت‌های رسانه‌ اجتماعی را تهدید کرده که اگر دست از سخنان نادرست راجع به COVID-19 برندارند، تلافی خواهد کرد. دادگاه، مستقل از دخالت دولت، احتمالاً مشخص می‌کند که واقعاً این اتفاق واقعاً رخ داده یا پلتفرم‌ها به روش‌های معمول خود دست به بازبینی محتوا زده‌اند. اما، نکتۀ کلیدی این تحلیل، تفکیک سانسور از بازبینی محتواست.

اگر از ایلان ماسک، علاقه‌مند به آزادی بیان بپرسید، نظر او دربارۀ بازبینی محتوا چیست، احتمالاً می‌گوید: «بازبینی یک لغت پروپاگاندایی برای سانسور است». اما اگر از یک متخصص امنیت و اعتماد بپرسید که تفاوت میان بازبینی محتوا و سانسور چیست، احتمالاً اینگونه برداشت می‌کنید که: «سانسور در واقع کاری است که فقط دولت توانایی انجام آنرا دارد. کاری نیست که ما بتوانیم انجام دهیم».

 دیو ویلنر، مدیر اسبق امنیت و اعتماد در شرکت‌هایی همچون فیس بوک و OpenAI و عضو غیرمقیم حال حاضر در برنامه استنفورد در زمینۀ مدیریت فناوری‌های نوظهور، در سخنرانی اخیر خود در مرکز برکمن کلاین، به سوالی دربارۀ سانسور و بازبینی محتوا در عصر هوش مصنوعی پاسخ داد. او با تمسخر گفت: «مارک زاکربرگ مالک هیچ زندانی نیست و هرگز کسی را در این سازمان‌ها زندانی نکرده است و فکر می‌کنم این یک تمایز مهم باشد.»

حق با ویلنر است. به‌عنوان ناظر سابق محتوا، با شنیدن کلمه «C» به خود می‌لرزم و من نیز همان پاسخ دندان‌شکن را  داده‌ام. زمانی که با این پلتفرم‌ها کار می‌کردم، تمرکزم بر کاهش اثر سخنان نفرت‌انگیز، اطلاعات نادرست و افراط‌گرایی خشونت‌آمیز در ابعاد جهانی بود – از تئوری‌پردازان توطئه‌گر‌ مانند الکس جونز گرفته تا مدیریت پس لرزه‌های حملات تروریستی در برنامه پخش مستقیم. اما وقتی به سانسور می‌اندیشم، این فکر به ذهنم می‌رسد که دولت کسی را به خاطر عقاید سیاسی‌اش ساکت کرده است. عکس‌العمل سریع من فکرکردن به دیوارآتش بزرگ چین و نظارت دولتی یا سانسور اینترنتی است که در ایران یا در پخش تلویزیون روسیه رخ می دهد.

در ایالات متحده، حمایت ما در برابر این شکل از سانسور نوعی از سانسور که یک نهاد دولتی می‌تواند خودسرانه هم اعمال قانون کرده و هم  علیه شهروندان خود به دلیل بیان سخنان سیاسی اعمال خشونت کند – اولین متمم قانون اساسی است. رویۀ قضایی دیوان عالی در مورد گفتار را می‌توان (به طور غیر جامع) به صورت زیر خلاصه کرد: «هر فردی می‌تواند بصورت آنلاین با طنین صدا از هر جعبۀ صابونی (محل سخنرانی)، تبدیل به جارچی شهر شود». اینترنت «میدان مدرن عمومی است . . . و به طورکلی محدود کردن دسترسی به رسانه‌های اجتماعی، کاربران را از مشارکت در اجرای به‌حقِ متمم اول قانون اساسی باز می‌دارد. درصورتی قدرت اینترنت رد می‌شود که فرض کنیم دولت در بهترین موقعیت برای انتخاب گفتارِ ما قرار گرفته است. به این معنی نیست که متمم اول قانون اساسی از ما در برابر هر نوع سانسور دولتی محافظت می‌کند، یا اینکه اصلاً سانسور دولتی در ایالات متحده وجود ندارد. بلکه به این نکته اشاره دارد که مجموعه‌ای از قوانین و اصول اعتقادی  به‌عنوان اولین خط دفاعی وجود دارد که از دخالت دولت دربرابر حق مردم برای صحبت آزادانه دفاع می‌کند.

با این حال، متمم اول، حقی است که شهروندان در برابر سانسور دولتی دارند – نه دربرابر اقدامات ویرایشی فعالان خصوصی. و در واقع برای درک دقیق این مطلب، باید این واقعیت را در نظر گرفت که سانسور فقط یک موضوع حقوقی نیست، بلکه یک مفهوم اخلاقی است. یک «وضعیت استراتژیک پیچیده» را میان سخنرانان ناراضی و گروه اکثریت بر اساس مجموعه ارزش‌های «عینی» نشان می‌دهد که در آن ساختار  گروه اکثریت را می‌توان با یکی از موارد زیر مشخص کرد: اندازه گروه، اقتدار اخلاقی/ فرهنگی/ ارتدکس، وضعیت اجتماعی و تخصیص منابع، و از طریق این ابعاد بر گفتمان مسلط می‌شوند و سخنرانان را (از طریق ابزارهای اجتماعی یا خشونت‌آمیز) سانسور یا تحریم می‌کنند. به طور خلاصه، یک گروه این قدرت را دارد که تصمیم بگیرد گروه دیگر چگونه خود را ابراز کند. گروه دوم، به معنای واقعی کلمه، حرفی برای گفتن ندارد.

وقتی به جای دولت‌ها، نهادهای خصوصی خاص، بواسطۀ قدرت فیلترینگ خود، صدای گروه‌های ناراضی را خاموش می‌کنند، یک جای کار می‌لنگد. مخصوصاً بازبینی محتوا در اکثر پلتفرم‌های اصلی همان مفهوم سانسور را دربرمی‌گیرد، زیرا افراد سخنران اکثراً به اشکال خاصی از سخنرانی سیاسی توجه می‌کنند که عموماً به شدت بازبینی شده‌اند. اما تمام اشکال گفتار یکسان نیست. دعوت به مرگ، بیماری یا آسیب دربرابر گروه‌های حفاظت‌شده؛ دامن زدن به قیام خشونت‌آمیز؛ یا تبلیغ دروغ در مورد کارایی واکسن کووید، فایده اجتماعی چندانی ندارد و مطمئناً چه به صورت آنلاین و چه آفلاین  باعث آسیب‌رسانی می‌شود.

بی‌شک شرکت‌کننده‌ای که از ویلنر در مورد دیدگاهش راجع به بازبینی محتوا پرسیده بود، نمونه‌هایی از این نوع سانسور غیردولتی را در ذهن داشت – چه در فضای مجازی و چه آفلاین، موارد زیادی از این نوع وجود دارد. شرکت‌های پلتفرم در زمان فراگیری کووید-۱۹ متهم به سانسور شدند زیرا کووید-۱۹ و محتوا راجع به واکسن را به دلیل عدم اطمینان از صحت آن حذف می‌کردند. اخیراً، تأکید بیش از حد بر محتوای زبان عربی در مورد درگیری اسرائیل و حماس موضوع مناقشه بوده است. دنیای آفلاین نیز مملو از این نمونه‌هاست، از گروه‌هایی که در ایالت‌های مختلف تلاش می‌کنند که کتاب‌ها را ممنوع کنند تا نشریه حقوق هاروارد که حتی متهم به سانسور صدای یک پژوهشگر فلسطینی شده است.

من با این طرزفکر که این‌ها نمونه‌هایی از سانسور هستند، موافقم. وقتی به جای دولت‌ها، نهادهای خصوصی خاص، بواسطۀ قدرت فیلترینگ خود، صدای گروه‌های ناراضی را خاموش می‌کنند، یک جای کار می‌لنگد. مخصوصاً بازبینی محتوا در اکثر پلتفرم‌های اصلی همان مفهوم سانسور را دربرمی‌گیرد، زیرا افراد سخنران اکثراً به اشکال خاصی از سخنرانی سیاسی توجه می‌کنند که عموماً به شدت بازبینی شده‌اند. اما تمام اشکال گفتار یکسان نیست. دعوت به مرگ، بیماری یا آسیب دربرابر گروه‌های حفاظت‌شده؛ دامن زدن به قیام خشونت‌آمیز؛ یا تبلیغ دروغ در مورد کارایی واکسن کووید، فایده اجتماعی چندانی ندارد و مطمئناً چه به صورت آنلاین و چه آفلاین  باعث آسیب‌رسانی می‌شود. در این شرایط، ادغام بازبینی محتوا با سانسور به چند دلیل مشکل ساز است:

  1. اهداف و پیامدهای سانسور و بازبینی محتوا متفاوت است

هدف سانسور دولتی محدود کردن سخنانی است که مغایر با ارتدکس سیاسی مورد تایید دولت است. از سوی دیگر، بازبینی محتوا در پلتفرم‌های رسانه‌های اجتماعی باهدف ارائه راه‌های اصولی، قابل اجرا و قابل توضیح در جهت ترویج آزادی بیان و به حداقل رساندن آسیب کاربران است. با این حال، بازبینی محتوا مسلماً ناسازگار است (گاهی اوقات به دلایل سیاسی، اما اغلب به این دلیل که انسان‌های بدی پشت آن هستند)، به نظر می رسد این ارزش‌ها با نمونه‌های قبلی مغایر باشند، واضح است که سانسور در عمل به معنی کنترل و یکنواختی سیاسی است. در هر دو حالت می‌دانند که شما نمی‌توانید آزادی بیان دست‌نخورده‌ای داشته باشید، اما ممنوعیت در یکی از آن‌ها‌ به دنبال محدودکردن مخالفت است، در حالی که در دیگری به هدف حداکثرسازی فراگیری است.

تلفیق سانسور دولتی با بازبینی محتوا نشانگر تمایل به رهایی از هر دو حالت است. اما می‌دانیم که این کار جواب نمی‌دهد. اجازه سخنرانی صرفاً به دلیل آنکه سخنران از نظر موقعیت در جایگاه اکثریت قرار دارد، یک شکست کامل است. این استاندارد خودسرانه به افرادی که می‌گویند توسط پلتفرم‌ها ساکت شده‌اند، اجازه می‌دهد تا بیرون بروند و کتاب‌ها یا افراد دکس را ممنوع کنند. همچنین این موضوع به برخی اجازه می‌دهد تا بعضی از صداهای به حاشیه رانده شده را بلند کنند، بااینکه صداهای اعتراضی‌ با آنها مخالفند. چه آزادی بیان در ذهن شما و چه بیان حقیقت در قدرت، این حق زمانی می‌بایست تمام شود که کسی را در معرض آسیب یا سخنرانی غیرقانونی دیگری قرار دهد. باید استانداردی برای سخنرانی مجاز در گفتمان عمومی پلتفرم‌ها وجود داشته باشد که نفوذ گسترده‌تری نسبت به کاربر بدون آن پلتفرم دارند. 

عواقب آن نیز متفاوت است. با سانسور دولتی، یک گوینده ممکن است به طور ضمنی تهدید به خشونت فیزیکی، از دست دادن آزادی یا پول شود، یا دولت و نمایندگان او را به دلیل بیان کلامی مبهم و کلی که احتمالاً برای دولت توهین آمیز باشد، مورد آزار و اذیت قرار دهند. بازبینی محتوا مطمئناً می‌تواند نتایج منفی داشته باشد، مانند ممنوع شدن از یک سایت به دلیل نقض مداوم قوانین گفتار یک پلتفرم، یا تبلیغ محتوای غیرقابل اعتراض مانند تروریسم یا  CSAM. اما در خارج از این موارد، زمانیکه سخنرانی حذف می‌شود، اغلب یک سیستم اعتصابی به وجود می‌آید که به شما در صورت نقض قوانین هشدار می‌دهد. یا وقتی کیفیت محتوا دارای ارزش مشکوکی باشد، روش‌هایی برای محدود کردن دسترسی به محتوای کاربر ایجاد می‌شود. (لازم به ذکر است که این قوانین ممکن است به طور یکسان برای همه کاربران اعمال نشود، به خصوص اگر کاربر یک شخصیت مشهور یا سیاسی باشد.)

  1. اتهامات سانسوری، موجب سلب مشروعیت یکپارچگی می‌شود

بطورکلی، کار یک متخصص امنیت و اعتماد دشوار است. چالش‌برانگیزترین جنبه‌های این نقش، پاسخ به آتش‌افروزی‌های روابط عمومی (که ظاهراً پایانی ندارد) است، مجبورشدن به تحلیل بصری برخی از فجیع‌ترین محتواها که کاربران آنها را آپلود می‌کنند، و تلاشی جدی برای اطمینان از اینکه ابزارها، خط‌مشی‌ها و رویه‌های موجود درجهت مدیریت میلیون‌ها تصمیم محتوایی است که مقیاس انصاف و شایستگی را رعایت می‌کند و هم برای تیم‌های داخلی و هم برای دنیای خارج قابل توجیه‌ می‌باشد. فرآیندی که این ابزارها، سیاست‌ها و رویه‌ها را توسعه می‌دهد، دقیق بوده و برای پاسخگویی به تغییرات پویا در گفتمان آنلاین دائماً بروزآوری می‌شود. متخصصانی که در این زمینه مشغول به کارند اغلب فداکار بوده و بی‌اجر کار می‌کنند. در واقع، این کارمندان به کار روی این موضوعات چالش برانگیز ادامه می‌دهند، زیرا آنها واقعاً به منافع کاربران اهمیت می‌دهند و می‌خواهند مطمئن شوند که تصمیمات سیاسی و اجرایی با در نظر گرفتن آن‌ها اتخاذ می‌شود.

ما افرادی با این همدلی و مهارت‌ها می‌خواهیم که تصمیمات مهمی برای گفتمان آنلاین اتخاذ نمایند، اما از مشروعیت اتهامات نادرست سانسور در  این حرفه بکاهند. هدف شبکه‌های اجتماعی ظرفیت بخشیدن به مردم درجهت تشکیل جوامع و نزدیک‌تر شدن به جهان است. خروجی این هدف والا، یکپارچگی است: هدف آن محافظت از جوامع متعلق به یک شرکت پلتفرمی دربرابر کاربرانی است که عمدا یا سهواً به بقیه آسیب می‌رسانند، برای اطمینان از اینکه مردم در محیطی مشارکت می‌کنند که در آن احساس امنیت کنند. این کار شامل ارزیابی محتوای مضر در برابر مجموعه‌ای از رفتارهای توهین‌آمیز مانند قلدری، آزار و اذیت، اطلاعات نادرست، سخنان مشوق نفرت‌انگیز و غیره است این‌ها استانداردهایی است که کارشناسان داخلی و خارجی در سرتاسر طیف سیاسی برای دیگران تهیه می‌کنند تا محتوا و هدف قابل تشخیص کاربر از پست آن  را تجزیه و تحلیل ‌کنند.

مواقعی وجود دارد که متخصصان یکپارچگی می‌خواهند محتوا را حذف کنند زیرا ادامه میزبانی آن اشتباه است، اما خط‌مشی اجازه حذف را نمی‌دهد. و از طرف دیگر، اغلب مواقعی وجود دارد که کارکنان یکپارچگی فکر می‌کنند باید محتوا فعال بماند، حتی اگر خط‌مشی خاصی را نقض کند، اما از تصمیم حذف تبعیت می‌کنند زیرا وفاداری به خط‌مشی کلید مشروعیت آنهاست. بیان، یا حتی پیشنهاد اینکه این کار توسط افرادی با «برنامه سیاسی» یا با هدف ضمنی خاموش کردن سخنرانان ناراضی انجام ‌شود، تقریباً هیچ گاه مبتنی بر واقعیت نیست.

  1. کاربران گزینه‌هایی فراتر از یک پلتفرم دارند

در نهایت، ادغام بازبینی محتوا با سانسور این  موضوع را پیش فرض قرار می‌دهد که وقتی کاربر در پلتفرمی «ساکت شد»، جایی برای بیان آزادانه خود در فضای آنلاین پیدا نمی‌کند. اگر واقعاً اینگونه بود، افراد ممنوع شده در فیس بوک احتمالاً به طور قطع از YouTube، TikTok، Reddit و غیره نیز منع می‌شدند. زیرا وقتی دولت  یک سخنران را سانسور می‌کند، آنها عملاً  از فرصت های عمومی و خصوصی پلتفرم برای بیان دیدگاه‌های مخالف خود محروم می‌شوند.

اما این موضوع درمورد پلتفرم‌های رسانه اجتماعی به سادگی صدق نمی‌کند. اگر کاربری برای همیشه از یک پلتفرم منع شود – که معمولاً دلیل آن نقض مداوم ممنوعیت‌های پلتفرم‌ در رابطه با انواع خاصی از رفتارهای ضداجتماعی (مانند دعوت به خشونت علیه گروه‌های خاص، ترویج تروریسم) است- کاربران آزادند تا به پلتفرم‌های دیگر رفته و در آنجا به روش مشابهی اظهار نظر کنند. پلتفرم‌های مختلف آستانه‌ تحمل متفاوتی نسبت به گفتار دارند. به عنوان مثال، تفاوت فاحش سیاست‌های اعتدالی فیس‌بوک نسبت به Truth Social کسی را شگفت‌زده نمی‌کند. در واقع، کاربری که از پلتفرم اول ممنوع شده است ممکن است به آسانی مخاطبان پذیرایی را در پلتفرم دیگر پیدا کند. مسئله اینجاست که بسیاری از کاربران بر این باورند که حق دارند حساب کاربری در رسانه اجتماعی داشته باشند و بر این اساس، حق دارند تا هر چه می‌خواهند به هر کس بگویند. اما طبق نظر مدیر تحقیقات رصدخانه اینترنت استانفورد (و عضو هیئت مدیره Tech Policy Press) رنه دی رستا، آزادی بیان به معنای آزادی دسترسی نیست. شما حقِ داشتن یک حساب رسانه اجتماعی را ندارید، و اگر شخصی بطور مداوم از یک پلتفرم رسانه‌ٔ اجتماعی منع می‌شود، احتمالاً باید فکر کند که چگونه فعالیت‌هایش را با ارزش‌های آن سایت منطبق کند.

البته، بنا به دلایلی باید نگران شرکت‌های بزرگ رسانه‌های اجتماعی باشیم که دولت تقریباً در آن حضور دارد و بر میلیاردها سخنرانی نظارت دارد. نمونه‌ها در رابطه با تلاش‌های سرسختانه برای بازبینی پلتفرم‌ها (و گاهی اوقات بازبینی گزینشی محتوای سیاسی‌شان) فراوان است. این رویدادها به طور واضحی باعث می‌شود تا در کاربران این سوال به وجود آید که “چرا با من این کار را کردید و با شخص دیگر نه؟” و موجب تضعیف یکپارچگی تلاش‌ها برای بازبینی می‌شود.

اما حوزه امنیت و اعتماد در حال تخصصی کردن شیوه‌های خود می‌باشد. این صنعت درحال حاضر دارای سازمان‌های حرفه‌ای شخص ثالث است، مانند Integrity Institute، که تمرکزش بر پاسخگوکردن پلتفرم‌ها دربارۀ محیط‌های دیجیتالی‌ای است که خلق می‌کنند. فرصت‌هایی برای متخصصان تا بهترین شیوه‌های بازبینی محتوا که آزادی بیان و امنیت کاربر را متعادل می‌کند، به اشتراک بگذارند؛ علاقه‌مندی به شفافیت بیشتر در مورد نحوۀ اتخاذ این تصمیمات رو به افزایش است. با توسعۀ صنعت، کاربران باید از این موضوع خاطرجمع باشند که افرادی در خط مقدم این مسائل بغرنج قرار دارند که به انجام کار درست برای جوامع آنلاین‌شان اهمیت می‌دهند و برای ایجاد اعتماد و نفع همگانی در تجربه کاربر تلاش می‌کنند، و اگر آن‌ها نگران اعتدال هستند باید ملحق شوند.

نتیجه‌گیری

میان بازبینی محتوا و سانسور تفاوت وجود دارد. بازبینی محتوا به دنبال اطمینان از آن است که درعین اینکه ریسک آسیب به مشارکت افراد کاهش می‌یابد، اکثر مردم می‌توانند مشارکت داشته باشند؛ سانسور در تلاش است تا مشارکت سیاسی را محدود کند. اولی به دنبال کثرت و شمولیت است. و دومی به دنبال یکنواختی و کنترل است. البته این بدان معناست که ناظران در حال قضاوت ارزشی هستند. اما ارزش‌های بی‌حدوحصر متمم اول قانون اساسی ایالات متحده از  کاربران در برابر آسیب‌هایی که از اینترنت ناشی می‌شود یا توسط آن تشدید می‌شود، محافظت نمی‌کند چه تیراندازی پخش مستقیم در کرایست‌چرچ باشد، یا نسل‌کشی در میانمار، یا شورش در ساختمان کنگره ایالات متحده در ۶ ژانویه. 

همانطور که ما باید نسبت به نهادهایی مانند دولت که تعیین می‌کنند کدام سخنرانی ارزشمندتر است، بدبین باشیم، در عین حال هم باید به این نکته توجه کنیم که نابودی چیزی که پلتفرم‌ها به عنوان بازبینی محتوا در مفهوم وسیع‌تر سانسور از آن یاد می‌کنند، خطر کاهش اهمیت آنرا به همراه دارد؛ مشروعیت‌زدایی از کارهای مهمی که متخصصان امنیت روزانه انجام می‌دهند و ظاهراً این گونه به نظر  می‌رسد که کاربران در این زمینه هیچ نماینده‌ای ندارند. در عوض، بایستی بازبینی محتوا را در دسته‌بندی خودش قرار دهیم این کار به ما امکانی می‌دهد که آن را با شرایط خودش نقد کنیم، جدا از انگی که «سانسور» به همراه دارد. 

سایر مقالات