یکی از دغدغههای اساسی مسئولین و محققین سیاسی، ایجاد شرایط پایدار برای حاکمیت صحیح و کنترل فضای دوقطبی است.
مطالعه اخیر مرکز تحقیقات پیو[۱] نشان داد که کاربران سیاه پوست شبکههای اجتماعی، احتمالاً بیشتر اخبار مربوط به بحث نژاد را دنبال میکنند. گزارش مولر[۲] نشان میدهد، روسیه، طرفداران برنی سندرز[۳] را علیه هیلاری کلینتون[۴] هدف قرار داده بود. بلومبرگ نیوز[۵] در اکتبر 2016 به نقل از برد پارسکاله[۶]، مدیر دیجیتال دولت ترامپ در سال 2016 و رئیس ستاد انتخاباتی وی در سال 2020،[۷] بیان کرد که با پستهای فیسبوک و دیگر پستهای رسانهای، طرفداران احتمالی کلینتون را هدف قرار داده تا آنها را از جریان انتخابات حذف کند. پارسکاله که از اوایل ماه اوت، 9.2 میلیون دلار بیش از چهار نامزد اصلی دموکرات، برای تبلیغات فیسبوک ترامپ در انتخابات 2020 هزینه کرده بود، اشاره کرد که این رقم در سال 2016 برای 50 هزار تبلیغ بصورت روزانه، در سطوح مختلفی برای جامعه هدف و رأیدهندگان بوده است.
در حالی که سوءاستفاده عوامل سیاسی از روزنامهنگاری زرد[۸]، چیز جدیدی نیست، بهرهوری این روزنامهنگاران از تکنیکهای دستکاری اطلاعات در فضای مبتنی بر فناوری، تغییر بسیار مهمی است. الگوریتمها اکنون قدرتمندترین متصدیان اطلاعات هستند که اقدامات چندمنظوره برای چنین دستکاریهایی را امکانپذیر میکنند. البته این الگوریتمها تبعیضآمیز هستند وشاید پذیرفتن این امر به نظر سخت برسد. در دانشگاه کالج لندن[۹]، با تجزیه و تحلیل سیگنالهای باینری[۱۰]، رفتار شبکههای اجتماعی، مدلسازی شدهاست. نتیجه تجزیه و تحلیلها روی عوامل انجام شده، حاکی از آن بودکه مردم نظراتشان را در موضوعاتی به اشتراک میگذارند که در مورد آنها اختلاف نظر دارند. بیشتر “عوامل” در این مدل، سیگنالهایی را مشخص میکنند که براساس سیگنالهای دریافتی از محیط منتشر شدهاند. (به همان شکلی که کاربران اخبار و اطلاعات را در فضای مجازی به اشتراک میگذارند). اما تعداد کمی از این عوامل بعنوان”استدلالگرهای انگیزهمند[۱۱]”شناخته میشوند.
در واقع اصطلاح “استدلال باانگیزه”، شامل تعصب شناختی است که دربرگیرندهی جنبههای فردی، از جمله احساسات، کلیشهها، ترسها، باورها و استدلال ناخودآگاه است. این جنبههای شناختی بر تصمیمگیری تأثیر میگذارد و باعث میشود فرد باور کند منطقی رفتار میکند، بدون اینکه واقعاً چنین باشد. همه جنبهها بر نحوه درک واقعیت تأثیر میگذارند. ممکن است تصور کنید که “استدلالگرهای انگیزهمند”، مبارزان سیاسی، لابیگر یا حتی از کاربران متعصب فیسبوک هستند. اما در واقع، “استدلالگرهای انگیزهمند”، الگوریتمهایی هستند که اخبار آنلاین را تصحیح میکنند. این الگوریتمها، صرفنظر از آنچه میشنوند یا دریافت میکنند، فقط نظرات از پیش تعیین شده خود را منتشر میکنند. نتایج نشان داد که در هر صورت، “استدلالگرهای انگیزهمند”، بر گفتگوهای آنلاین مسلط میشوند و همه عوامل دیگر را به سمت عقاید ثابتی سوق میدهند که در نتیجه شبکههای اجتماعی دو قطبی میشوند. “اتاقهای پژواک[۱۲]”، نتیجه اجتنابناپذیر شبکههای اجتماعی است که متشکل از همین “استدلالگرهای انگیزهمند”است.
در اقتصاد رسانهای آنلاین، هوش مصنوعی طی الگوریتمهایی در صدد آن است تا از طریق وادار کردن کاربر به کلیک بر روی تبلیغات و تکرار هرچه بیشتر این نوع تعاملات انسانی، به عوامل سودآور دسترسی داشته باشد. اما تصمیمات در هوش مصنوعی، نه تنها مبنای اقتصادی ندارد، بلکه از نظر آماری نیز ساختار هوشی سادهای دارد.
به عنوان مثال، گزارش گاردین در سال 2016 در مورد جستجوهای گوگل برای واژهی “موهای غیرحرفهای[۱۳]”، نتایج عمدهای از تصاویر زنان سیاهپوست را به همراه داشت، در حالی که با جستجوی واژهی “حرفهایها” تصاویر زنان سفیدپوست را ارائه میداد. آیا این یک سوگیری عمیق اجتماعی نسبت به نژادپرستی و تبعیض جنسیتی را نشان نمیدهد؟ برای اینکه به چنین نتیجهای برسیم، باید این را پذیرفته باشیم که کاربران از اصطلاح “موهای غیرحرفهای”، برای دسترسی به تصاویر زنان سیاه سیاهپوست استفاده میکنند. این مسأله صرف نظر از تعصبات اجتماعی (که قطعاً وجود دارد)، تردیدآمیز به نظر میرسد. دکتر رابرت اسمیت[۱۴]، متخصص در زمینه هوش مصنوعی بیان کرد که هوش مصنوعی به لحاظ آماری میتواند در مورد تشخیص مدل موهای زنان سیاهپوست از مدل موهای مردان سیاهپوست و زنان سفیدپوست و… قابل اعتماد باشد. این صرفاً یک جنبه از نگاه الگوریتمی در هوش مصنوعی است که موارد را با استفاده از ویژگیهای کلی رنگ، شکل و اندازه تحلیل میکند. درست مانند نژادپرستی در دنیای واقعی، برای الگوریتمها، توسل به ویژگیهای ساده، راحتتر از برداشت هرگونه درک واقعی از مردم است. هوش مصنوعی این عمل را رمزگذاری میکند.
در مثالی دیگر، گاردین عنوان کرد که با جستجوی کلمه “مرد”، تقریباً تمام تصاویر از مردان سفیدپوست، البته در سنین مختلف، بدست میآید. جستجوی کلمه “زن” نیز اکثریت قریب به اتفاق زنان جوان و سفیدپوست را نشان میدهد. با توجه به اینکه اکثریت جمعیت جهان غیر سفیدپوست هستند، مشخص است که چگونه تعصبات سفیدپوست غرب محور، از نژاد و باورهای جنسیتی گرفته تا استانداردهای فرهنگی زیبایی و ارزش، بر نحوه کار وب و داستانهای آن چیره شدهاست. در واقع بخش تصاویر گوگل در پاسخ به آنچه بیشتر مردم میخواهند ببینند، تصور شده است. میتوان گفت تعصب داشتن یعنی پیش داوری درباره ویژگیهای ساده و سپس برداشت کلی از این مفروضات. این فرآیند دقیقاً همان کاری است که الگوریتمها از نظر فنی انجام میدهند. در واقع الگوریتمها با استفاده از این روش، “دادههای بزرگ[۱۵]” نامفهوم را از تعاملات آنلاین کاربران، به محتوایی قابل درک تجزیه میکنند. با توجه به ویژگیهای سادهای که الگوریتمها از آن استفاده میکنند (جنسیت، نژاد، اقناع سیاسی، مذهب، سن و غیره) و تعمیمهای آماری که از آنها بدست میآید، پیامد زندگی واقعی، تفکیک اطلاعاتی است که با تفکیک نژادی، جنسیتی و اجتماعی قبلی، بی شباهت نیست. از طرفی، گاردین عنوان میکند که محتوایی که موتورها و الگوریتمها قادر به دانستن و یافتن آن هستند، تحت تأثیر محتوایی است که کاربر برای کار کردن به آنها میدهد، به این معنی که ممکن است تعصبات کاربران را منعکس کند.
گروههایی که برای دستیابی به قدرت اقتصادی و سیاسی تلاش میکنند، از تکنیکهایی مانند بازاریابی هدفمند و کنترل هرج و مرج دیجیتالی برای دستهبندی گروهها، جهت منافع خود، استفاده خواهند کرد که نتیجه این امر صرفاً در فضای انتخاباتی ظهور نمییابد، بلکه به گسترش اختلافات عمیق در دنیای واقعی نیز منجر خواهد شد. مطالعات دانشگاه کالج لندن نشان میدهد که کلید مقابله با گرایش طبیعی که شبکههای اجتماعی به واسطه الگوریتم خود، برای تبعیض دارند، ترویج اختلاط ایدهها از طریق تبادل اطلاعاتی بیشتر بین افراد است. این ممکن است عملاً به معنای تنظیم رسانههای آنلاین باشد و برای مهندسان هوش مصنوعی الزامی است که الگوریتمهایی را پیرامون اصول جدید طراحی کنند تا بهینهسازی را با ترویج ایدههای متنوع، متعادل سازند. این تغییر علمی، چشمانداز اطمینانبخشی از ترکیب سالمتر اطلاعات، به ویژه در مورد مسائل قطبی را نوید میدهد.