خانه » مقالات » شخصی‌سازی اطلاعات در فضای مجازی چیست و چه پیامدهایی دارد؟/ بخش دوم
شخصی‌سازی اطلاعات در فضای مجازی چیست و چه پیامدهایی دارد؟/ بخش دوم
شنبه, ۱ دی ۱۳۹۹
زمان تقریبی مطالعه ۲۱ دقیقه
ارزش‌باری فناوری یکی از بنیادی‌ترین آموزه‌های فلسفه تکنولوژی است که واجد پیامدهای نظری و عملی بسیاری است. وفق این آموزه، فناوری و مصنوعات فناورانه، صرفاً ابزارهایی خنثی برای رسیدن به اهداف مشخص نیستند، بلکه واجد اقتضائات خاص خود هستند. به تعبیر دیگر این مصنوعات، حامل ارزش‌هایی خاص هستند که مستقل از اراده کاربر در حال اثرگذاری‌اند. یکی از بنیادی‌ترین این اثرگذاری‌ها، اثرگذاری در سطح ادراکی است.

در قسمت اول این یادداشت توضح داده شد که شخصی‌سازی اطلاعات اصولا چیست و روشن شد که پیامدهای اخلاقی آن در دو دسته دنبال می‌شود:

  • دسته اول: پیامدهایی که در مرحله گردآوری داده‌ها رخ می‌دهند
  • دسته دوم: پیامدهایی که در مرحله اِعمال شخصی‌سازی رخ می‌دهند

پیامدهای دسته اول در قسمت قبل گذشت. در این قسمت به پیامدهای دسته دوم یعنی اعمال شخصی‌سازی می‌پردازیم:

پس از گردآوری داده‌ها و ترسیم شخصیت کاربر، شخصی‌سازی‌های گوناگون در سطوح مختلف اعمال می‌شود. برای مثال شخصی سازی موتورهای جست‌وجو در قالب سیستم پیشنهاد‌دهی خودکار، شخصی‌سازی شبکه‌های اجتماعی در قالب پیشنهاد دوست و محتوا و شخصی‌سازی وب‌سایت‌های خبری و فروشگاه‌های اینترنتی در قالب پیشنهادهای خبری و خرید. از جمله مسائل اخلاقی در این بخش عبارت‌اند از:

مسئله حباب فیلتری یا اتاق پژواک

حباب فیلتری[۱] وضعیت اطلاعاتی خاص و منحصر به فردی است که فضای مجازی از طریق شخصی‌سازی برای کاربران به وجود می‌آورد. اصطلاح حباب فیلتری را برای اولین بار الی پارایزر[۲] بود که در کتاب مهم خود با همین عنوان مطرح کرد (2011). در مقدمه این کتاب چنین می‌خوانیم:

کد اصلی و اساسی‌ای که در قلب اینترنت قرار گرفته بسیار ساده است. نسل جدید فیلترهای اینترنتی به چیزهایی می‌نگرند که به نظر می‌رسد شما به آنها علاقه دارید- کارهایی که در عمل انجام داده‌اید، یا چیزهایی که افرادی مثل شما دوست دارند- و سپس سعی می‌کنند تا آنها را برون‌یابی[۳] کنند. این فیلترها در واقع موتورهای پیش‌بینی‌‌کننده هستند که مدام در حال خلق و بهبود نظریه‌ای هستند که می‌گوید شما چه کسی هستید و در گام بعدی چه کار خواهید کرد. این موتورها مجموعاً یک جهان اطلاعاتی منحصر به فرد برای هر یک از ما خلق می‌کنند- چیزی که من آن را حباب فیلتری نامیده‌ام- جهانی که به گونه‌ای بنیادین، نحوه مواجهه ما با ایده‌ها و اطلاعات را دگرگون می‌کند. (Pariser, 2011, p. 10)

حباب فیلتری، بسیار شبیه به پدیده دیگری است که تحت عنوان اتاق پژواک[۴] شناخته می‌شود:

…اثر اتاق پژواک وقتی به وجود می‌آید که افراد، گروه‌های همگن را شکل می‌دهند و به افراد دیگری می‌پیوندند که دیدگاه‌های سیاسی مشابه دارند. (Colleoni, Rozza, & Arvidsson, 2014)

با دقیق‌تر شدن هر چه بیشتر شخصی‌سازی‌ها شعاع این حباب فیلتری یا ابعاد این اتاق پژواک هم متعاقباً کمتر می‌شود. اصلی‌ترین پیامد حباب‌های فیلتری عبارت است از سوگیری‌های شناختی[۵]. این سوگیری‌های شناختی را براساس دو پدیده در علوم‌شناختی می‌توان بررسی کرد:

  • رسوخ‌پذیری شناختی[۶]

منظور از رسوخ‌پذیری شناختی، تغییر قوای ادراکی[۷] فرد در اثر تغییر باورهای اوست. حباب فیلتری یا اتاق پژواک، با تکرار مداوم باورهای فرد، مانع آشنایی او با باورها و عقاید دیگر می‌شود که این نیز به نوبه خود به تدریج منجر به تغییر قوای ادراکی فرد می‌شود. برای مثال، قوای تفکر انتقادی فرد ضعیف‌تر می‌شود.

  • سامانه‌های شناختی

دانیل کانمن[۸] یکی از تاثیرگذارترین دانشمندان علوم شناختی در جهان که در سال 2002 جایزه نوبل اقتصاد را به خاطر پژوهش‌هایش در حوزه نظریه تصمیم از آن خود کرد، در کتاب معروف خود بین دو سامانه فکری تمایز ایجاد می‌کند (Kahneman, 2011, pt. 1):

  • سامانه 1

سریع و خودکار عمل می‌کند، بی هیچ کنترل خودخواسته و بی‌زحمت یا با اندکی زحمت کار می‌کند. وظیفه این سامانه اتخاذ تصمیمات آنی و خودکار است. برای مثال چرخیدن به سوی منبع صداهای ناگهانی، پاسخ به پرسش 2+2 و رانندگی در یک جاده خلوت از مصادیق عملکردی این سامانه هستند.

  • سامانه 2

توجه را به فعالیت‌های ذهنی پرزحمت مانند محاسبات پیچیده اختصاص می‌دهد. بررسی اعتبار یک استدلال پیچیده، پایش مناسب بودن رفتارها در یک محیط اجتماعی و تمرکز بر صدای شخصی خاص در مکانی شلوغ از مصادیق فعالیت‌های سامانه 2 هستند.
رابرات زایانس[۹] در یکی از مقاله‌های مهم و تاثیرگذار خود این فرض را مطرح می‌کند که صرف تکرار یک محتوای خاص باعث ایجاد نوعی احساس خوشایند و راحتی در مواجه با آن می‌شود (Zajonc, 1968). او نام این اثر را اثر مواجه صرف[۱۰] می‌گذارد. این اثر را ذیل مدل دو سامانه‌ای کانمن می‌توان فهم کرد؛ اثر مواجهه صرف، باعث انتقال یک محتوا از سامانه 2 به سامانه 1 می‌شود. این نیز به نوبه خود منجر به از دست رفتن کنترل شناختی بر این محتواها می‌شود.

مسئله خودمختاری[۱۱] کاربر

آیا شخصی سازی شدید و گرفتار شدن در حباب فیلتری، خودمختاری فرد در تصمیم‌گیری‌هایش را زیر سوال نمی‌برد؟ اینکه کدام محتوا را ببیند؟ با چه کسی در یک شبکه اجتماعی دوست شود؟ کدام عناوین خبری را ببیند؟ آیا الگوریتم‌ها به جای فرد این تصمیم‌گیری‌ها را انجام نمی‌دهند؟

مسئله هویت

آیا شخصی‌سازی باعث تثبیت شخصیت و به یک معنا شکل‌گیری یک هویت لایتغیر در فرد نمی‌شود؟ آیا اساساً هویت فردی در مواجه با اندیشه‌های مختلف شکل نمی‌گیرد؟

در اینجا لازم است تا به مقررات عمومی حفاظت از داده‌ها[۱۲] که از تاریخ 25 می 2018 (4 خرداد 1397) در اتحادیه اروپا تصویب شده است نیز اشاره‌ای داشته باشیم. به نظر می‌رسد GDPR عمدتاً ناظر به بخش اول یعنی گردآوری داده‌ها و پردازش آنها باشد و گزاره صریحی درباب حباب فیلتری یا اتاق‌های پژواک در آن به چشم نمی‌خورد. بنابراین بررسی نسبت آن با مسئله حباب فیلتری می‌تواند موضوع یک پژوهش مجزا باشد. GDPR قائل به مطلق بودن حق حریم خصوصی و محافظت از داده‌ها نمی‌باشد و آن را در نسبت با سایر مولفه‌های اجتماعی و فرهنگی در نظر می‌گیرد (General Data Protection Regulation, 2016, p. 2). از این منظر کاملاً تحت تاثیر نظریه آمیختگی بافتاری[۱۳] می‌باشد. نظریه‌ای که با عنایت کامل به ماهیت بافتارمند مفهوم حریم‌خصوصی مفهوم تناسب[۱۴] را پیشنهاد می‌دهد و سپس سعی می‌کند تا با ارائه روشی مشخص و روشن، طریقه تشخیص تناسب را در بافت‌های مختلف نشان دهد (Nissenbaum, 2010).

مسئله دستکاری رفتارها

این مسئله از چنان اهمیتی برخوردار می باشد که ادبیات گسترده‌ای حول آن تولید شده است. مسئله این است که الگوریتم‌ها به تدریج داده‌ها و ترجیحات خودشان را (به واسطه طراحان‌شان) نیز وارد پیشنهادها می‌کنند. این باعث می‌شود تا امکان دستکاری باورها و متعاقباً رفتارهای افراد فراهم شود. این دستکاری‌ها در دو حوزه عمده خودشان را نشان می‌دهند:

  • حوزه سیاسی

مفهوم محوری در این حوزه، ریز‌نشانه‌روی[۱۵] است. الکساندر گیج[۱۶] برای اولین بار در سال 2002 این مفهوم را ابداع کرد. در ریز‌نشانه‌روی، اطلاعات مختلفی که از کاربر جمع‌آوری شده است تحلیل شده و شخصیت و تمایالات سیاسی وی استخراج می‌شود. سپس پیام‌ها و تبلیغات سیاسی به صورت کاملاً شخصی سازی شده و هدفمند برای وی ارسال می‌شوند. برای مثال بررسی‌ها نشان می‌دهند که بیش از حد 80 درصد پیشنهادهای یوتیوب، ترامپ را بر سایر رقبا برتری می‌داده است (Chaslot, 2016). مصداق دیگر، دستکاری روان شناختی کاربران فیسبوک است برای متمایل شدن به ترامپ (Brenner, 2018).

  • حوزه اقتصادی

در حوزه اقتصاد و بازاریابی مفهوم تبلیغات شخصی‌سازی‌شده یا تبلیغات صفحه‌نمایشی[۱۷] اصطلاحات رایجی هستند که ذیل مفهوم کلان‌تری تحت عنوان بازاریابی اینترنتی یا بازاریابی دیجیتال مورد بحث و تحقیق فراوان واقع شده‌اند. یکی از رایج‌ترین روش‌ها استفاده از فناوری رخ‌سازی[۱۸] است. این فناوری از الگوریتم‌ها برای شناسایی و خلق دانش از میان مجموعه‌ای از داده‌ها استفاده می‌کند (Hildebrandt, 2008, pp. 17–18). توضیح آنکه تقریباً همه وب‌سایت‌ها اقدام به تعقیب اطلاعاتی[۱۹] کاربران خود می‌کنند، به این معنا که اطلاعات جست‌وجوهای اینترنتی او را ثبت کرده و به مرور در یک فایل مجزا و مختص به کاربر ذخیره می‌نمایند. پس از مدتی که حجم اطلاعات ذخیره شده – حجم اطلاعات به دست آمده از فعالیت‌های برخط[۲۰] کاربر- افزایش یافت، با استفاده از الگوریتم‌های رایانه‌ای اقدام به استخراج الگوهای رفتاری حاکم بر این داده‌ها کرده و نهایتاً با بازسازی منش وشخصیت کاربر قادر به تحلیل و پیش‌بینی فعالیت‌های بعدی او می‌شوند (Geary, 2012b). یکی از رایج‌ترین روش‌ها برای تعقیب اطلاعاتی افراد و جمع‌آوری این اطلاعات استفاده از فناوری کوکی[۲۱] است.

برای مثال یکی از شرکت‌های بسیار معروف در این حوزه شرکت دابل کلیک[۲۲] از شرکت‌های تابعه گوگل می‌باشد. بنا به آمارهای موجود این شرکت – که در واقع وظیفه آن تعقیب اطلاعاتی کاربران و جمع‌آوری اطلاعات آنهاست- در سال 2011 حدود 35.5 میلیارد دلار برای گوگل درآمد داشته است (Geary, 2012a). تقریباً همه شرکت‌های بزرگ دیگر نیز چنین فرآیندهایی دارند و اساساً یکی از منابع عمده درآمدهای ایشان محسوب می‌شود.

جمع‌بندی

با توجه به مواردی که در این مقاله کوتاه ذکر شد، به نظر می‌رسد شخصی‌سازی اطلاعات، علیرغم پیامدهای مثبت بسیاری که دارد می تواند واجد پیامدهای ناخواسته و منفی نیز باشد. به همین علت لازم است تا درست مثل سایر مصنوعات و محصولات فناورانه، با این محصول نیز مواجهه فعالانه- انتقادی-آگاهانه داشته باشیم. به این معنا که صرفاً به گونه‌ای منفعلانه آن را رد / یا قبول نکنیم، بلکه با مطالعه کامل آن، وجوه مثبت آن را پذیرفته و وجوه منفی آن را یا از میان ببریم یا کاهش دهیم.

مراجع

  1. Brenner, T. (2018). Mark Zuckerberg Testimony: Senators Question Facebook’s Commitment to Privacy. Retrieved from https://www.nytimes.com/2018/04/10/us/politics/mark-zuckerberg-testimony.html
  2. Chaslot, G. (2016). YouTube’s A.I. was divisive in the US presidential election. Retrieved from https://medium.com/the-graph/youtubes-ai-is-neutral-towards-clicks-but-is-biased-towards-people-and-ideas-3a2f643dea9a
  3. Colleoni, E., Rozza, A., & Arvidsson, A. (2014). Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data. Journal of Communication64(2), 317–332. https://doi.org/10.1111/jcom.12084
  4. Geary, J. (2012a). DoubleClick (Google): What is it and what does it do? Retrieved from https://www.theguardian.com/technology/2012/apr/23/doubleclick-tracking-trackers-cookies-web-monitoring
  5. Geary, J. (2012b). Tracking the trackers: What are cookies? An introduction to web tracking. Retrieved from https://www.theguardian.com/technology/2012/apr/23/cookies-and-web-tracking-intro
  6. General Data Protection Regulation (2016). the European Union.
  7. Hildebrandt, M. (2008). Defining profiling: A new type of knowledge? In Profiling the European Citizen: Cross-Disciplinary Perspectives (pp. 17–45). https://doi.org/10.1007/978-1-4020-6914-7_2
  8. Ihde, D. (1990). Technology and the LifeworldThe Indiana Series in the Philosophie of Technologie (Vol. 1). https://doi.org/10.1049/et:20060114
  9. Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
  10. Nissenbaum, H. (2010). PRIVACY IN CONTEXT Technology, Policy, and the Integrity of Social Life. Stanford UP.
  11. Pariser, E. (2011). The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. New York: The Penguin Press.
  12. Tseng, M. M., Jiao, R. J., & Wang, C. (2010). Design for mass personalization. CIRP Annals59(1), 175–178. https://doi.org/10.1016/j.cirp.2010.03.097
  13. Zajonc, R. B. (1968). Attitudinal effects of mere exposure. Journal of Personality and Social Psychology9(2, Pt.2), 1–27. https://doi.org/10.1037/h0025848

بخش اول نوشته را از اینجا بخوانید.

نویسندگان
سایر مقالات