خانه » مقالات » شبکه‌های اجتماعی؛ آیینۀ عبرت برای گسترش هوش مصنوعی
شبکه‌های اجتماعی؛ آیینۀ عبرت برای گسترش هوش مصنوعی
بیایید همان اشتباهاتی را که در قبال شبکه‌های اجتماعی مرتکب شدیم در قبال هوش مصنوعی مرتکب نشویم!
یکشنبه, ۲ دی ۱۴۰۳
زمان تقریبی مطالعه ۳۸ دقیقه
یک دهه پیش، شبکه‌های اجتماعی به دلیل نقشی که در برانگیختن قیام‌های انقلابی در جهان عرب و فراتر از آن داشتند، مورد تمجید بسیاری قرار گرفتند. حالا اما صفحات اول جراید و رسانه‌ها همه مملو از داستان‌هایی دربارۀ نقش شبکه‌های اجتماعی در انتشار اطلاعات نادرست، توطئه‌سازی، تخلفات و خطرات ایجادی برای سلامت روان افراد است. برای مثال، در یک نظرسنجی در سال ۲۰۲۲، آمریکایی‌ها رسانه‌های اجتماعی را عامل افزایش خشونت گفتمان سیاسی کشور، گسترش اطلاعات نادرست و افزایش قطب‌بندی حزبی دانستند.

مقدمه

امروز دردانۀ حوزۀ تکنولوژی چیزی نیست جز هوش مصنوعی! فناوری‌ای که درست مانند شبکه‌های اجتماعی، این ظرفیت را دارد که جهان را از بسیاری جهات تغییر دهد. برخی از این نوع تکنولوژی‌ها برای دموکراسی مطلوب‌اند، اما درعین‌حال این ظرفیت را هم دارند که آسیب‌هایی باورنکردنی به مردم و جامعه وارد کنند. چیزهای زیادی می‌توانیم دربارۀ تحولات بی‌قاعدۀ رسانه‌های اجتماعی در دهۀ گذشته بیاموزیم که امروزه مستقیماً درمورد شرکت‌ها و فناوری‌های هوش مصنوعی نیز صدق می‌کند. این تجربیات می‌تواند به ما کمک کند تا از انجام اشتباهاتی مشابه با آنچه درمورد شبکه‌های اجتماعی انجام دادیم، پرهیز کنیم.

به‌طور خاص، پنج ویژگی اساسی شبکه‌های اجتماعی به جامعه آسیب رسانده است و جالب اینکه هوش مصنوعی نیز دقیقاً این ویژگی‌ها را دارد. البته توجه داشته باشید که آنها ذاتاً شر مطلق نیستند. همۀ این تکنولوژی‌ها مانند یک ابزار بُرنده می‌توانند هم مطلوب و هم نامطلوب به کار روند. نکتۀ اصلی این است که چه کسی این تیغ را به دست می‌گیرد و آن را به چه سمتی می‌چرخاند. این درمورد رسانه‌های اجتماعی نیز صادق بوده است و اکنون درمورد هوش مصنوعی نیز صدق می‌کند. در هر دو مورد، راه‌حل در محدودیت‌های قانونی استفاده از این فناوری‌ها نهفته است.

شمارۀ ۱: تبلیغات

نقشی که تبلیغات در اینترنت ایفا می‌کند بیش از هر چیز دیگری اهمیت دارد. زمانی که تجاری‌سازی برای اولین‌بار وارد حوزۀ اینترنت شد، هیچ راه آسانی برای کاربران وجود نداشت تا با پرداخت‌های خُرد، کارهایی مانند مشاهدۀ یک صفحۀ وب انجام دهند. علاوه‌براین، کاربران اکنون به دسترسی رایگان عادت کرده‌اند و مدل‌های اشتراکی را برای دریافت برخی خدمات نمی‌پذیرند. تبلیغات بهترین مدل کسب‌وکار بود و این مدلی است که رسانه‌های اجتماعی نیز به آن تکیه می‌کنند، مدلی که باعث می‌شود تعامل را بر هر چیز دیگری ارجح دانست.

هم گوگل و هم فیسبوک بر این باورند که هوش مصنوعی به آنها کمک می‌کند تا استیلای خود را بر بازار تبلیغات آنلاین حفظ کنند. درمقابل، غول‌های فناوری که به‌طور سنتی کمتر به تبلیغات وابسته‌اند، مانند مایکروسافت و آمازون، معتقدند هوش مصنوعی به شما کمک خواهد کرد که فعالیت خود در این حوزه را گسترش دهید. آنها به کمک هوش مصنوعی بخش بزرگ‌تری از بازار را تصرف خواهند کرد.

غول‌های فناوری به چیزی نیاز دارند تا تبلیغ‌کنندگان را متقاعد کند که روی پلتفرم‌هایشان هزینه کنند. علی‌رغم ادعاهای وحشتناک درمورد اثربخشی بازاریابی هدفمند، محققان مدت‌ها تلاش کرده‌اند نشان دهند تبلیغات آنلاین واقعاً کجا و چه زمانی تأثیرگذار خواهد بود. اخیراً برندهای بزرگی مانند اوبر و پروکتر اند گمبل صدها میلیون از هزینۀ تبلیغات دیجیتال خود کم کرده‌اند و اعلام کرده‌اند این امر به‌هیچ‌وجه در فروش آنها تأثیر منفی نداشته است.

اکنون به گفتۀ رهبران حوزۀ صنعت، تبلیغاتِ مبتنی بر هوش مصنوعی بسیار کارآمدتر از گذشته است. گوگل به شما اطمینان می‌دهد که هوش مصنوعی می‌تواند نسخۀ تبلیغاتی شما را در پاسخ به آنچه کاربران جست‌وجو می‌کنند، تغییر دهد و الگوریتم‌های هوش مصنوعی آن، کمپین‌های شما را برای به موفقیت بیشترِ شما پیکربندی کند. این تکنیک‌ها اگرچه با روش‌های دست‌کاری محدود می‌شوند، اما بزرگ‌ترین خطر برای کاربرانِ هدف در ربات‌های چت هوش مصنوعی است. همان‌طور که گوگل و متا تبلیغات را در نتایج جست‌وجو و فیدهای شما جاسازی می‌کنند، شرکت‌های هوش مصنوعی نیز تحت فشار قرار می‌گیرند تا تبلیغات را در مکالمات جاسازی کنند و ازآنجایی‌که این مکالمات رابطه‌ای و شبیه ارتباط انسانی خواهد بود، می‌تواند آسیب‌رسان‌تر باشد.

همانطور که گوگل و متا تبلیغات را در نتایج جستجو و فیدهای شما جاسازی می کنند، شرکت های هوش مصنوعی نیز تحت فشار قرار می گیرند تا تبلیغات را در مکالمات جاسازی کنند و از آنجایی که این مکالمات رابطه‌ای و شبیه ارتباط انسانی خواهد بود، می‌تواند آسیب‌رسان‌تر باشد.

شمارۀ ۲: نظارت

اتّکای شبکه‌های اجتماعی به تبلیغات به‌عنوان راه اصلیِ کسب درآمد از وب‌سایت‌ها منجر به شخصی‌سازی و نظارت روزافزون شده است. امروز هوش مصنوعی به دنبال آن است که تبلیغ‌کنندگان در شبکه‌های اجتماعی را متقاعد کند که می‌تواند تبلیغات را به‌گونه‌ای مؤثر تغییر دهد. آن‌ها باید نشان دهند که می‌توانند تا حد امکان اطلاعات بیشتری دربارۀ آن افراد جمع‌آوری کنند. اغراق درمورد ابعاد جاسوسی هوش مصنوعی از کاربران به نظر دشوار است. تجزیه‌وتحلیل اخیر Consumer Reports درمورد فیسبوک نشان داد که هر کاربر از سوی بیش از 2200 شرکت مختلف در حوزۀ وب مورد جاسوسی قرار می‌گیرد.

پلتفرم‌های مبتنی بر هوش مصنوعی که توسط تبلیغ‌کنندگان حمایت می‌شوند، با همان مشوّق‌های قدرتمندی مواجه خواهند شد که شبکه‌های اجتماعی پیش‌تر از آنها بهره می‌گرفتند. تصور اینکه یک اپراتور چت‌بات بتواند ادعا کند که می‌تواند کاربران را براساس موقعیت مکانی، داده‌های ترجیحی یا سابقۀ چت گذشته هدف قرار دهد و آنها را برای خرید محصولات متقاعد کند، می‌تواند درآمد خوبی به همراه داشته باشد.

از سوی دیگر، با تکیه بر هوش مصنوعی برای ارائۀ خدمات شخصی، امکان دست‌کاری نیز بیشتر خواهد شد. یکی از وعده‌های هوش مصنوعیِ مولّد، چشم‌انداز ایجاد یک دستیار دیجیتال شخصی پیشرفته است که درواقع به‌عنوان پیشخدمت شما عمل کند. این امر نیازمند نزدیکی بیشتری به کاربران نسبت به موتورهای جست‌وجو، ارائه‌دهندگان ایمیل، سیستم ذخیره‌سازی ابری یا تلفن همراه است. شما دائماً آن را همراه خود می‌بینید  و برای اینکه به‌طور مؤثر از طرف شما کار کند، باید همه چیز را درمورد شما بداند. او درحقیقت به‌عنوان یک دوست عمل می‌کند و شما نیز به‌احتمال زیاد با آن به‌عنوان یک دوست رفتار خواهید کرد و به‌اشتباه به آن اعتماد کامل خواهید کرد.

حتی اگر تمایل داشته باشید که دستیار هوش مصنوعی را با سبک زندگی و ترجیحات خود آشنا نکنید، فناوری هوش مصنوعی ممکن است کسب اطلاعات دربارۀ شما را برای شرکت‌ها آسان‌تر کند. نمایش‌های اولیه نشان می‌دهد که چگونه می‌توان از چت‌بات‌ها برای استخراج مخفیانۀ داده‌های شخصی با پرسیدن سؤالات پیش‌پاافتاده استفاده کرد. هوش مصنوعی می‌تواند با ادغام فزایندۀ چت‌ربات‌ها با همه چیز از سیستم‌های خدمات مشتری گرفته تا رابط‌های جست‌وجوی اولیه در وب‌سایت‌ها به اطلاعات شما دست پیدا کند.

شمارۀ ۳: ویروسی کردن

شبکه‌های اجتماعی به کاربران در هر سطحی و هر سنی اجازه می‌دهند هر ایده‌ای را در ابعاد گسترده در اختیار عموم قرار دهند. یک دهه پیش، فعالان حوزۀ فناوری امیدوار بودند این نوع ویروس‌پذیری مردم را گرد هم بیاورد و دسترسی به حقایق سرکوب‌شده را تضمین کند، اما به‌عنوان یک موضوع ساختاری به نفع یک شبکۀ اجتماعی است که مواردی را که به‌احتمال زیاد روی آنها کلیک می‌کنید و به اشتراک می‌گذارید و چیزهایی که شما را در پلتفرم نگه می‌دارند را به شما نشان دهد. همان‌طور که اتفاق می‌افتد، این اغلب به معنای محتوای ظالمانه، مبهم و تحریک‌کننده است. محققان دریافته‌اند که محتوایی که حداکثر خصومت را نسبت به مخالفان سیاسی ابراز می‌دارد، بیشتر در فیس‌بوک و توییتر وجود دارد و این برای ابراز خشم و انتشار اطلاعات نادرست به افراد انگیزه می‌دهد.

همان‌طور که جاناتان سوئیفت[۱] یک بار نوشت: دروغ پرواز می‌کند و حقیقت لنگان به دنبال آن است. به نظر می‌رسد که دانشگاهیان این را درمورد شبکه‌های اجتماعی ثابت کرده‌اند. مردم بیشتر احتمال دارد اطلاعات نادرست را به اشتراک بگذارند. شاید به این دلیل باشد که این اطلاعات جدیدتر و غافلگیرکننده‌تر به نظر می‌رسند. امروزه متأسفانه این نوع اطلاعات غلط تبدیل به ویروسی فراگیر شده‌اند.

هوش مصنوعی این ظرفیت را دارد که این مشکل را تشدید کند، زیرا تولید و انتشار محتوا را آسان‌تر، سریع‌تر و خودکارتر می‌کند. ابزارهای مولّد هوش مصنوعی می‌توانند تعداد بی‌پایانی دروغ درمورد هر فرد یا موضوعی بسازند که برخی از آنها عملاً مثل ویروس می‌مانند. این دروغ‌ها می‌تواند توسط حساب‌های اجتماعی تحت کنترل ربات‌های هوش مصنوعی که می‌توانند اطلاعات غلط اصلی را در هر مقیاسی به اشتراک بگذارند، ایجاد شود. مولّدهای متنی قدرتمند هوش مصنوعی و عوامل مستقل درحال حاضر شروع به نشان‌دادن حضور خود در رسانه‌های اجتماعی کرده‌اند. در ماه جولای، محققان دانشگاه ایندیانا یک بات‌نت متشکل از بیش از 1100 حساب توییتر را نشان دادند که به نظر می‌رسید با استفاده از  چت‌جی‌پی‌تی اداره می‌شود.

هوش مصنوعی محتوای ویروسی که از شبکه‌های اجتماعی بیرون می‌آید را تقویت می‌کند. این می‌تواند توسط وب‌سایت‌ها و محتوای وب، نظرات کاربران و برنامه‌های تلفن هوشمند ایجاد شود، همچنین می‌تواند هزاران یا حتی میلیون‌ها شخصیت جعلی را شبیه‌سازی کند تا این تصور اشتباه ایجاد شود که یک ایده، یا یک موقعیت سیاسی، یا استفاده از یک محصول، رایج‌تر از آن چیزی است که واقعاً هست. آنچه ممکن است به نظر ما یک بحث سیاسی پر جنب‌وجوش بین دو نفر باشد، می‌تواند صرفاً مجادلۀ دو ربات باشد. نکته این است که این قابلیت‌ها فقط برای کسانی که پول و قدرت زیاد دارند در دسترس نخواهد بود؛ بلکه ابزارهای هوش مصنوعی لازم به‌راحتی در دسترس همگان قرار خواهد گرفت.

شمارۀ ۴: قفل کردن

شرکت‌های سهام‌دار شبکه‌های اجتماعی تلاش زیادی می‌کنند تا ترک پلتفرم‌هایشان را برای شما سخت کنند. بستن یک حساب کاربری در شبکه‌ای اجتماعی فقط این نیست که مکالمه با دوستان خود را از دست خواهید داد. آنها انتقال داده‌های ذخیره‌شده، اتصالات، پست‌ها، عکس‌ها و پورت آن را به پلتفرم دیگری برای شما دشوار می‌کنند. هر لحظه‌ای که برای به اشتراک گذاشتن خاطره، ارتباط با یک آشنا یا تنظیم دنبال‌کنندگان خود در یک پلتفرم اجتماعی سرمایه‌گذاری می‌کنید، آجری به دیواری اضافه می‌کند که برای رفتن به سکوی دیگری باید از آن بالا بروید.

این مفهوم قفل‌کردن یا زنجیرکردن شما در شبکه‌های اجتماعی مسئله‌ای منحصربه‌فرد نیست. مایکروسافت سال‌ها فرمت‌های اسناد اختصاصی را پرورش داد تا شما از محصول پرچم‌دار آفیس آن استفاده کنید. سرویس موسیقی یا کتاب‌خوان الکترونیکی شما، انتقال محتوای خریداری‌شده به سرویس یا خوانندۀ رقیب را برای شما سخت می‌کند و اگر از آیفون به دستگاه اندرویدی جابه‌جا شوید، دوستانتان ممکن است شما را به‌خاطر شکل خاص پیام‌های متنی مسخره کنند. بااین‌حال شبکه‌های اجتماعی این را به سطح جدیدی می‌برند که مهم نیست چقدر بد است، اگر همۀ دوستان شما آنجا باشند، ترک فیسبوک بسیار سخت است. هماهنگ‌کردن همه برای رفتن به یک پلتفرم جدید غیرممکن است، بنابراین هیچ‌کس این کار را نمی‌کند.

به‌طور مشابه، شرکت‌هایی که دستیارهای دیجیتال شخصی مبتنی بر هوش مصنوعی را ایجاد می‌کنند، روند انتقال این شخصی‌سازی به هوش مصنوعی دیگر را برای کاربران دشوار می‌کنند. اگر دستیارهای شخصی هوش مصنوعی موفق شدند به صرفه‌جویی بسیار مفیدی در زمان دست یابند، به این دلیل است که آنها جزئیات زندگی شما را می‌دانند. آیا می‌خواهید آن را رها کنید تا خدمات شرکت دیگری را شروع کنید؟ در مثال‌های پرشماری، برخی افراد پیوندهای نزدیک، شاید حتی خانوادگی با چت‌ربات‌های هوش مصنوعی ایجاد کرده‌اند. اگر به هوش مصنوعی خود به‌عنوان یک دوست یا درمانگر فکر می‌کنید، این می‌تواند شکل قدرتمندی از زنجیرکردن شما باشد.

بحث قفل زدن به شما یک نگرانی مهم است، زیرا منجر به ارائۀ محصولات و خدماتی می‌شود که کمتر به تقاضای مشتری پاسخ می‌دهند. هرچه تغییر به یک رقیب برای شما سخت‌تر باشد، شرکت می‌تواند بدتر با شما رفتار کند. شرکت‌های هوش مصنوعی بدون هیچ راهی برای تحمیل قابلیت همکاری، انگیزۀ کمتری برای نوآوری در ویژگی‌ها یا رقابت در قیمت دارند و بدین ترتیب نگرانی کمتری هم درمورد نظارت یا سایر رفتارهای بد ایجاد می‌کنند.

شمارۀ ۵: انحصار

شبکه‌های اجتماعی اغلب به‌عنوان ابزاری مفید برای کاربران خود شناخته می‌شوند، اما گاهی همین شبکه‌ها ارزش خود را از دست می‌دهند و محصولاتشان را به تجربه‌های واقعاً بدی برای همه تبدیل می‌کنند. این چرخه‌ای است که کوری داکترو[۲] با قدرت درمورد آن نوشته است و تاریخچۀ فیس‌بوک، توییتر و اخیراً  تیک‌تاک هم بر آن صحه می‌گذارد.

دلیل این نتایج ساختاری است. اثرات شبکه‌ای پلتفرم‌های فناوری، چند شرکت را به سمت مسلط‌شدن سوق می‌دهد و قفل‌شدن تسلط آنها را تضمین می‌کند. مشوّق‌ها در بخش فناوری آن‌قدر چشمگیر و درعین‌حال قدرتمند هستند که به شش شرکت بزرگ (آمازون، اپل، گوگل، متا، مایکروسافت و انویدیا) این امکان را داده‌اند که هرکدام یک تریلیون دلار یا بیشتر ارزش داشته باشند. این شرکت‌ها از ثروت خود برای جلوگیری از هرگونه قانون معناداری که قدرت آنها را محدود می‌کند استفاده می‌کنند و آنها گاهی اوقات با یکدیگر تبانی می‌کنند تا درعین‌حال ثروتمندتر شوند.

در میانۀ این مارپیچ استثماری، چندان به اثرات خارجی که بر عموم مردم مشاهده می‌شود و نیز بر افرادی که حتی از پلتفرم‌ها استفاده نمی‌کنند، توجه نمی‌شود. حتی پس از اینکه جامعه برای سال‌ها با اثرات سوء آنها دست‌وپنجه نرم می‌کند، شبکه‌های اجتماعی انحصاری عملاً انگیزه‌ای برای کنترل اثرات زیست‌محیطی محصولاتشان، تمایلی به جلوگیری از انتشار اطلاعات نادرست یا تأثیرات مخرّب بر سلامت روان ندارند و دولت عملاً هیچ مقرراتی را برای این اهداف اعمال نکرده است. به همین ترتیب، تعداد کمی از حفاظ‌ها برای محدودکردن تأثیر منفی بالقوۀ هوش مصنوعی وجود دارد یا اصلاً وجود ندارد.

کاهش خطرات

خطراتی که هوش مصنوعی برای مردم ایجاد می‌کند بسیار آشنا هستند، اما با یک تفاوت بزرگ و آن اینکه هنوز برای جلوگیری از این خطرات دیر نشده است. این بار، ما می‌دانیم که چه خطراتی پیش‌روی ما است. با مروری بر تجربیات خود درمورد آسیب‌های ناشی از رسانه‌های اجتماعی، همۀ هشدارهایی که باید برای اجتناب از اشتباهات مشابه نیاز داشته باشیم را داریم.

بزرگ‌ترین اشتباهی که ما در قبال شبکه‌های اجتماعی مرتکب شدیم این بود که آن را به‌عنوان یک فضای بی‌نظم رها کردیم. درحال حاضر پس از تمام مطالعات و افشاگری‌ها درمورد تأثیرات منفی شبکه‌های اجتماعی بر کودکان و سلامت روان و همچنین پس از افشای مداخلات روسیه در سیاست‌های داخلی، باز هم شبکه‌های اجتماعی در ایالات متحده تا حد زیادی همچنان به‌مثابۀ یک سلاح غیرقانونی در دست یک‌سری افراد عمل می‌کنند. کنگره میلیون‌ها دلار به غول‌های فناوری کمک خواهد کرد و قانون‌گذاران نیز میلیون‌ها دلار از جیب خود در این شرکت‌ها سرمایه‌گذاری خواهند کرد، اما آنچه نیاز به آن حس می‌شود تصویب قوانینی است که رفتار آنها را محدود کند و بر بی‌نظمی در فضای مجازی پایان دهد.

ما نمی‌توانیم همین کار را با هوش مصنوعی انجام دهیم، زیرا خطرات بیشتری وجود دارد. آسیب‌هایی که شبکه‌های اجتماعی می‌توانند وارد کنند ناشی از تأثیر آن بر ارتباطات ما است، اما هوش مصنوعی ما را به همان روش‌ها و بسیاری موارد دیگر تحت‌تأثیر قرار می‌دهد. اگر مسیر غول‌های فناوری نشانه‌ای باشد، ابزارهای هوش مصنوعی به‌طور فزاینده‌ای در نحوۀ یادگیری و نحوۀ بیان افکارمان دخالت خواهند داشت. بااین‌وجود این ابزارها بر نحوۀ برنامه‌ریزی فعالیت‌های روزانه‌مان، نحوۀ طراحی محصولات، نحوۀ نوشتن قوانین و حتی نحوۀ تشخیص بیماری‌ها نیز تأثیر می‌گذارند. نقش گستردۀ این فناوری‌ها در زندگی روزمرۀ ما به شرکت‌های انتفاعی فرصت‌هایی می‌دهد تا بر جنبه‌های بیشتری از جامعه کنترل داشته باشند و ما را در معرض خطرات ناشی از انگیزه‌ها و تصمیمات خود قرار دهند.

علاوه بر تقویت و اجرای قانون ضد انحصار، می‌توانیم مقرراتی را معرفی کنیم که از استانداردهای رقابتی خاص در بخش فناوری، مانند قابلیت حمل داده‌ها و قابلیت همکاری دستگاه‌ها پشتیبانی ‌کند.

خبر خوب این است که ما یک دستۀ کامل از ابزارها برای تعدیل خطراتی که اقدامات شرکتی برای زندگی ما ایجاد می‌کنند را داریم که از مقررات شروع می‌شود. مقررات می‌تواند به شکل محدودیت‌هایی در فعالیت باشد، مانند محدودیت‌هایی درمورد نوع کسب‌وکارها و محصولاتی که مجاز به ترکیب ابزارهای هوش مصنوعی هستند. آنها می‌توانند در قالب قوانین شفافیت ارائه شوند که نیازمند افشای مجموعه‌داده‌هایی است که برای آموزش مدل‌های هوش مصنوعی استفاده می‌شود یا اینکه چه مدل‌های جدیدی در مرحلۀ پیش‌تولید درحال آموزش هستند. همچنین آنها می‌توانند به شکل الزامات نظارت و پاسخگویی باشند و مجازات‌های مدنی را در مواردی که شرکت‌ها قوانین را رعایت نمی‌کنند، مجاز می‌کنند.

بزرگ‌ترین اهرمی که دولت‌ها درمورد شرکت‌های فناوری دارند، قانون است. علی‌رغم آنچه بسیاری از لابی‌ها از شما می‌خواهند فکر کنید، یکی از نقش‌های اصلی مقررات حفظ رقابت است و نه سخت‌تر کردن زندگی برای کسب‌وکارها. درحال حاضر تبدیل‌شدن اوپن‌اِی‌آی به متای دیگری که تعداد کاربران و دسترسی آن چندین برابر رقبایش است، اجتناب‌ناپذیر نیست. علاوه‌بر تقویت و اجرای قانون ضدانحصار، می‌توانیم مقرراتی را معرفی کنیم که از استانداردهای رقابتی خاص در بخش فناوری، مانند قابلیت حمل داده‌ها و قابلیت همکاری دستگاه‌ها پشتیبانی ‌کند. این یکی دیگر از استراتژی‌های اصلی برای مقاومت در برابر انحصار و کنترل‌گری شرکت‌ها است.

علاوه‌براین، دولت‌ها می‌توانند مقررات موجود درمورد تبلیغات را اجرا کنند. همان‌طور که ایالات متحده تنظیم می‌کند که چه رسانه‌هایی می‌توانند یا نمی‌توانند میزبان تبلیغات محصولات حساس مانند سیگار باشند و همان‌طور که بسیاری از حوزه‌های قضایی دیگر، کنترل دقیقی بر زمان و نحوۀ تبلیغات حساس سیاسی اعمال می‌کنند، در این مورد نیز ایالات متحده می‌تواند تعامل بین ارائه‌دهندگان هوش مصنوعی و تبلیغ‌کنندگان را محدود کند.

درنهایت، ما باید بدانیم که توسعه و ارائۀ ابزارهای هوش مصنوعی لازم نیست در حوزۀ مستقل شرکت‌ها باشد. ما مردم و دولت‌ها هم می‌توانیم این کار را انجام دهیم. با این اوصاف ما قادر هستیم فراتر برویم و از دولت خود بخواهیم تا ابزارهای هوش مصنوعی را اختیاری-عمومی بسازد که با نظارت سیاسی و پاسخگویی تحت سیستم دموکراتیک مردم قابل‌پیگیری و نظارت باشد.

اینکه کدام‌یک از این راه‌حل‌ها کاربردی‌ترین، مهم‌ترین، یا فوری‌ترین راه‌حل موردنیاز است، قابل‌بحث خواهد بود. ما باید یک گفت‌وگوی اجتماعی پر جنب‌وجوش درمورد اینکه آیا و چگونه از هریک از این ابزارها استفاده کنیم، داشته باشیم. راه‌های زیادی برای رسیدن به یک نتیجۀ خوب وجود دارد.

مشکل این است که درحال حاضر در ایالات متحده و باتوجه‌به در پیش بودنِ انتخابات ریاست‌جمهوری این اتفاق نخواهد افتاد. از سوی دیگر گسترش درگیری به‌طور نگران‌کننده در سراسر آسیا و اروپا، و بحران آب‌وهوای جهانی حاکی از آن است که لزوم استفاده از هوش مصنوعی بیشتر هم حس می‌شود. بااین‌حال هنوز دیر نیست. اکنون هنوز در ابتدای راه اولیه برای کاربردهای عملی هوش مصنوعی قرار داریم و ما باید و می‌توانیم بهتر عمل کنیم.

مترجمان
سایر مقالات