جلسه نقد کتاب «هوش مصنوعی و آینده بشریت» با حضور مترجم کتاب؛
قهرمان‌پور: هوش مصنوعی، چالشی ژئوپلیتیک برای آینده بشر
سه شنبه, ۴ اردیبهشت ۱۴۰۴
زمان تقریبی مطالعه ۵۰ دقیقه
سومین برنامه از سلسله برنامه‌های نقد کتاب «حاشیه» با بررسی کتاب «هوش مصنوعی و آینده بشریت»، نوشته هنری کسینجر و اریک اشمیت، با حضور دکتر رحمن قهرمان‌پور، مترجم کتاب، دوم اردیبهشت ۱۴۰۴ در پردیس قم پژوهشگاه فضای مجازی برگزار شد.

هوش مصنوعی و بازنگری در نقش انسان در جهان

در ابتدای برنامه آقای دکتر قهرمان‌پور با توجه به جایگاه انسان در تحولات جهان توضیح دادند: مسالۀ کتاب و عنوان آن، «تمدن و آینده بشریت» را می‌توان هم از دیدگاه فلسفی و هم غیرفلسفی بررسی کرد. عصر روشنگری در اروپا با جمله دکارت «من می‌اندیشم، پس هستم»، شروع می‌شود که در آن به جایگاه انسان به‌عنوان موجودی فکرکننده اشاره شده است. انسان تا پیش از ظهور هوش مصنوعی، در مرکز تحولات علمی، اجتماعی و فرهنگی قرار داشت اما با پیشرفت هوش مصنوعی، این جایگاه به چالش کشیده شده است.

علوم انسانی و ریشه‌های فلسفی پیشرفت هوش مصنوعی

مترجم کتاب با اشاره به آغاز عصر هوش مصنوعی گفت: ظهور هوش مصنوعی پس از دورانی که به «زمستان هوش مصنوعی» معروف بود و در کتاب به آن اشاره شده است با پیشرفت‌هایی در حوزۀ زبان و مدل‌های ریاضی رخ داد. این پیشرفت‌ها بیشتر از این‌که مدیون مهندسین باشد مدیون فلاسفه‌ای مثل ویتگنشتاین بود که اهمیت مسئلۀ زبان را نشان دادند. در گذشته، الگوریتم‌ها و مدل‌های سادۀ ریاضی پایه هوش مصنوعی بودند، اما حالا با توسعۀ شبکه‌های عصبی و یادگیری عمیق، مسئله زبان به‌عنوان عاملی کلیدی در پیشرفت هوش مصنوعی شناخته شده است. این امر نشان می‌دهد که علوم انسانی نقش بسیار مهمی در گسترش هوش مصنوعی دارند.

در ادامه آقای قهرمان‌پور به این نکته اشاره کرد: پیشرفت‌های اخیر هوش مصنوعی، به‌ویژه در حوزۀ یادگیری عمیق و شبکه‌های عصبی، مدیون تأثیرات فلسفه و علوم انسانی است. از دیدگاه فلاسفه‌ای مثل ویتگنشتاین، پدیده‌ها ذاتی ندارند بلکه از طریق مدل‌های زبانی و یادگیری شناخته می‌شوند. برای توضیح این موضوع، مثالی از نحوۀ شناسایی گربه توسط بچه‌ها آورده می‌شود:

بچه‌ها گربه را نه از طریق تعریف دقیق (مثل وجود چهار پا، سر، یا ابعاد خاص) بلکه از طریق یادگیری زبانی و مشاهده مکرر گربه در حالات مختلف می‌شناسند. به‌عنوان مثال، وقتی به بچه می‌گوییم «این گربه است»، او با دیدن گربه در حالت‌های متنوع (مانند درازکشیده، روی ماشین، یا راه‌رفتن) یاد می‌گیرد که همۀ این‌ها گربه هستند. این رویکرد بر اساس مدل‌های زبانی و الگوهای تکراری استوار است.

در مقابل، مدل‌های قدیمی هوش مصنوعی که بر اساس قواعد ثابت عمل می‌کردند، در شناسایی پدیده‌هایی مثل گربه یا سگ ناکام بودند. به‌عنوان مثال، اگر هوش مصنوعی گربه را فقط با تعریف «چهار پا و سر» بشناسد، در مواجهه با تصویری از یک گربه درازکشیده یا با بدن نصفه، نمی‌توانست آن را تشخیص دهد. اما با الهام از مدل‌های زبانی و یادگیری شناختی، هوش مصنوعی حالا قادر است الگوها را از طریق مشاهدات مکرر و بدون نیاز به تعاریف دقیق یاد بگیرد.

این تحول به انقلاب زبان‌شناختی در علوم انسانی (دهه‌های ۱۹۷۰-۱۹۸۰) بازمی‌گردد که اهمیت زبان و مدل‌های یادگیری را در شناخت پدیده‌ها برجسته کرد. به‌طور مشابه، در ترجمه‌های هوش مصنوعی، دیگر کلمه به کلمه ترجمه نمی‌شود بلکه الگوهای زبانی و مکرر یاد گرفته می‌شوند. این نشان می‌دهد که علوم انسانی، به‌ویژه فلسفه زبان و یادگیری شناختی، نقش کلیدی در پیشرفت هوش مصنوعی داشته‌اند.

پیشرفت‌های اخیر هوش مصنوعی، به‌ویژه در حوزۀ یادگیری عمیق و شبکه‌های عصبی، مدیون تأثیرات فلسفه و علوم انسانی است. از دیدگاه فلاسفه‌ای مثل ویتگنشتاین، پدیده‌ها ذاتی ندارند بلکه از طریق مدل‌های زبانی و یادگیری شناخته می‌شوند.

هوش مصنوعی و قاعده‌مندی: بحثی جهانی از کیسینجر تا اجلاس پاریس

در بخش دیگری از برنامه آقای رحمن قهرمان‌پور توضیحاتی در مورد کتاب بیان کرده و گفتند: نکتۀ کلیدی کتاب اهمیت تلفیق دیدگاه‌های فنی-مهندسی و علوم انسانی در درک و مدیریت هوش مصنوعی است. کتاب «هوش مصنوعی و آینده بشریت»، نوشته هنری کیسینجر (دیپلمات و صاحب‌نظر در علوم انسانی) به همراه دو همکار، یکی از مدیران ارشد گوگل، این موضوع را به‌عنوان محور اصلی بررسی می‌کند. این کتاب که از آخرین آثار کیسینجر است، از مسائل بنیادی مانند جایگاه انسان در عصر هوش مصنوعی شروع می‌کند و به موضوعات پیچیده‌تری مانند قاعده‌مند کردن استفاده از هوش مصنوعی می‌پردازد.

اهمیت این کتاب در این است که نشان می‌دهد چگونه ترکیب دیدگاه‌های فنی و علوم انسانی می‌تواند به درک بهتری از چالش‌های هوش مصنوعی منجر شود. در بخش‌های پایانی کتاب، نویسندگان به بحث دربارۀ ضرورت وضع قوانین بین‌المللی برای کنترل و مقررات‌گذاری هوش مصنوعی می‌پردازند. این موضوع در اجلاسی که اخیراً در پاریس برگزار شد نیز مطرح بود، جایی که رهبرانی مانند نارندرا مودی و امانوئل مکرون دربارۀ قاعده‌مند کردن استفاده از هوش مصنوعی و فضای مجازی بحث کردند.

ایشان ادامه دادند: در نهایت، اینکه هوش مصنوعی هم فرصت‌های بزرگی ایجاد می‌کند و هم چالش‌های جدی. کشورهایی مانند هند، تایوان و امارات که به‌سرعت در حال سرمایه‌گذاری در این حوزه هستند، می‌توانند از این فناوری بهره‌برداری کنند و به توسعۀ خود کمک کنند. اما در عین حال، جامعه جهانی نیازمند قاعده‌مند کردن و تنظیم این فناوری است تا از سوءاستفاده و پیامدهای منفی آن جلوگیری شود. این یک وظیفه بسیار دشوار است، اما به‌دلیل اهمیت موضوع، اجتناب‌ناپذیر به نظر می‌رسد.

پایان بازدارندگی هسته‌ای؟ تأثیر هوش مصنوعی بر امنیت جهانی

آقای دکتر با توجه به مسئله بسیار حساس و مهم «اثر هوش مصنوعی بر بازدارندگی هسته‌ای» توضیح دادند: تاکنون، سلاح‌های هسته‌ای به‌عنوان ابزاری برای ایجاد بازدارندگی در برابر جنگ‌های بزرگ در نظر گرفته می‌شدند و تحت حفاظت‌های فیزیکی، امنیتی و اطلاعاتی شدید قرار داشتند.

اما با ظهور هوش مصنوعی، همین‌طور حملات سایبری، این موازنه به‌شدت به‌خطر افتاده است. امروزه، اگر یک هکر یا یک کشور رقیب بتواند به شبکه‌های امنیتی یا سیستم‌های مدیریت سلاح‌های هسته‌ای نفوذ کند، ممکن است توانایی کنترل یا حتی فعال کردن این سلاح‌ها را به‌دست آورد. این موضوع نه‌تنها بازدارندگی هسته‌ای را زیر سؤال می‌برد، بلکه امنیت جهانی را نیز به مخاطره می‌اندازد.

برای مثال، در رابطه بین هند و پاکستان، هند با پیشرفت در حوزۀ هوش مصنوعی و حملات سایبری، توانسته است تا حدی بازدارندگی هسته‌ای پاکستان را تضعیف کند. پاکستان که سال‌ها سرمایه‌گذاری کرده و موشک‌ها و کلاهک‌های هسته‌ای ساخته، اکنون با چالشی روبرو شده: اگر هوش مصنوعی بتواند سیستم‌های مدیریت این سلاح‌ها را مختل کند، این سرمایه‌گذاری‌ها بی‌فایده می‌شوند. این موضوع باعث شده برخی در پاکستان بپرسند که آیا ساخت این سلاح‌ها واقعاً ارزش این هزینه‌ها را دارد یا خیر.

بنابراین، اهمیت این موضوع در این است که هوش مصنوعی و حملات سایبری می‌توانند موازنۀ قدرت هسته‌ای را به‌هم بزنند. یک جوان ۲۰ ساله با مهارت‌های هکری می‌تواند به سیستم‌های مدیریت موشک‌های بین‌قاره‌ای نفوذ کند و این باعث می‌شود که میلیاردها دلار سرمایه‌گذاری برای ایجاد بازدارندگی هسته‌ای بی‌فایده شود. این یک مسئله بسیار جدی است و نیازمند بحث و تدوین قوانین بین‌المللی برای جلوگیری از سوءاستفاده از هوش مصنوعی در حوزه‌های نظامی و امنیتی است.

از انقلاب صنعتی تا هوش مصنوعی: تحولات بنیادین در تاریخ بشر

مهمان برنامه با بیان این نکته که برخی فناوری‌ها در تاریخ زندگی بشر سرنوشت‌ساز هستند تصریح کردند: کیسینجر و نویسندگان کتاب هوش مصنوعی و آینده بشریت تأکید می‌کنند که هوش مصنوعی یک «فناوری سرنوشت‌ساز» و «برهم‌زننده» است. این نوع فناوری‌ها، همانند انقلاب صنعتی یا ظهور ماشین بخار، زندگی انسان‌ها را به‌طور بنیادین تغییر می‌دهند. به‌عنوان مثال، انقلاب صنعتی باعث شد که جوامع از حالت کشاورزی به صنعتی تبدیل شوند، خودرو و نفت به کالاهای استراتژیک تبدیل شوند و حتی هواپیماها انسان را قادر به پرواز کردند. حالا، در عصر حاضر، هوش مصنوعی به‌عنوان یک فناوری برهم‌زننده دیگر، در حال ایجاد تحولات عظیمی در زندگی اجتماعی، علمی و سیاسی است.

تحولات هوش مصنوعی و نقش آن در ایجاد شکاف بین نسل‌ها

آقای دکتر توضیح داد: هوش مصنوعی نه تنها به لحاظ فناوری جامعه را دگرگون می‌کند، بلکه شکافی بین نسل‌ها ایجاد می‌کند. به‌عنوان مثال، کودکان امروزی که با گوشی‌های هوشمند و بازی‌هایی مانند ماین‌کرافت بزرگ می‌شوند، به‌صورت طبیعی با هوش مصنوعی تعامل دارند و از آن برای یادگیری زبان‌ها یا حل مسائل استفاده می‌کنند. این موضوع می‌تواند منجر به شکافی بین نسل‌ها شود، به‌طوری که افراد قدیمی‌تر (مثل پدربزرگ‌ها) دیگر نتوانند به‌راحتی با نسل جدید ارتباط برقرار کنند.

تفاوت هوش مصنوعی با فناوری‌های گذشته: پایان انحصار دولت‌ها

آقای قهرمان‌پور چالش‌های انتقال و قاعده‌مند کردن فناوری هوش مصنوعی و تفاوت آن با فناوری‌های پیشین را این‌گونه تشریح کردند: در گذشته، فناوری‌های حساس مانند سلاح‌های هسته‌ای یا فناوری‌های فضایی تحت انحصار دولت‌ها و کشورهای توسعه‌یافته بودند و انتقال آن‌ها به کشورهای در حال توسعه بسیار محدود و کنترل‌شده بود. اما در عصر حاضر، هوش مصنوعی به‌عنوان یک فناوری پیشرفته، دیگر در انحصار دولت‌ها نیست و عمدتاً توسط بخش خصوصی توسعه می‌یابد. این موضوع باعث شده است که کنترل و جلوگیری از انتشار آن بسیار دشوارتر شود.

به‌عنوان مثال، شرکت‌هایی مانند گوگل، اپل و دیگر شرکت‌های فناوری، امروزه پیشرو در توسعه و گسترش هوش مصنوعی هستند. محصولاتی مانند گوشی‌های هوشمند که به‌طور گسترده در دسترس عموم قرار می‌گیرند، حاوی فناوری‌های هوش مصنوعی پیشرفته هستند. این امر باعث شده است که حتی افراد عادی نیز به این فناوری دسترسی داشته باشند و از آن استفاده کنند. این وضعیت، برخلاف دوران پس از جنگ جهانی دوم که انتقال فناوری‌های حساس به کشورهای در حال توسعه بسیار محدود بود، فرصت‌های بیشتری را برای کشورهای  جهان سوم فراهم کند تا از این فناوری بهره‌برداری کنند.

آسیب‌پذیری جوامع در عصر هوش مصنوعی: وابستگی یا تهدید؟

مهمان برنامه در سخنان خود با اشاره به چالش‌های مربوط به گسترش فناوری هوش مصنوعی افزودند: اگر یک هواپیمای مجهز به هوش مصنوعی تصمیم به انجام عملیات نظامی بگیرد، این تصمیم بدون در نظر گرفتن ارزش‌ها یا پیامدهای انسانی خواهد بود. این موضوع نشان می‌دهد که هوش مصنوعی، به‌دلیل عدم وجود احساسات و ارزش‌های انسانی، می‌تواند منجر به فاجعه‌های بزرگی شود.

علاوه بر این، آسیب‌پذیری جوامع در برابر هوش مصنوعی با افزایش وابستگی به این فناوری بیشتر می‌شود. هرچه جامعه بیشتر با هوش مصنوعی تعامل داشته باشد، به همان اندازه نیز آسیب‌پذیری آن در برابر سوءاستفاده یا حوادث احتمالی افزایش می‌یابد. به‌عنوان مثال، حملات سایبری مبتنی بر هوش مصنوعی می‌توانند زیرساخت‌های حیاتی مانند شبکه‌های برق، ارتباطات و حتی سیستم‌های هسته‌ای را مختل کنند.

داده‌ها، الگوریتم‌ها و قدرت: نقش هوش مصنوعی در شکل‌دهی به جوامع

مترجم کتاب در مورد چالش‌های اجتماعی، سیاسی و اقتصادی ناشی از انتشار فناوری هوش مصنوعی و وابستگی جوامع به پلتفرم‌های دیجیتال صحبت کرد و گفت: در عصر حاضر، کاربران عادی بدون آگاهی کامل، با استفاده روزمره از شبکه‌های اجتماعی، موتورهای جستجو و دیگر پلتفرم‌های دیجیتال، به‌طور غیرمستقیم به تولید داده و تقویت الگوریتم‌های هوش مصنوعی کمک می‌کنند. به‌عنوان مثال، هر بار که کاربران در گوگل جستجو می‌کنند، در فیسبوک پست می‌گذارند یا در اینستاگرام عکس می‌فرستند، داده‌های خود را در اختیار شرکت‌های بزرگ فناوری قرار می‌دهند. این داده‌ها سپس توسط الگوریتم‌های هوش مصنوعی تجزیه و تحلیل می‌شوند تا الگوها و رفتارهای جمعی شناسایی شوند.

به‌عنوان مثال، شرکت‌هایی مانند Cambridge Analytic نشان دادند که چگونه داده‌های کاربران می‌توانند برای تأثیرگذاری بر انتخابات سیاسی استفاده شوند. در انتخابات ریاست‌جمهوری آمریکا (۲۰۱۶) و انتخابات برزیل (۲۰۱۸)، اطلاعات میلیون‌ها کاربر جمع‌آوری شد و با استفاده از هوش مصنوعی، پیام‌های سیاسی شخصی‌سازی‌شده به آن‌ها ارسال شد.

ایشان ادامه داد: در این میان، کشورهای در حال توسعه مانند ایران، ترکیه، پاکستان و آفریقا، در حال حاضر بیشتر به‌عنوان «کارگران دیجیتال» عمل می‌کنند که داده‌های خود را به شرکت‌های بزرگ فناوری تحویل می‌دهند. این کشورها از فناوری‌های هوش مصنوعی استفاده می‌کنند، اما نقش آن‌ها بیشتر مصرف‌کننده و تولیدکننده داده است و نه توسعه‌دهنده این فناوری. این وضعیت باعث می‌شود که آن‌ها در مقایسه با کشورهای پیشرفته‌تر، در موقعیت ضعیف‌تری قرار بگیرند.

قدرت در عصر هوش مصنوعی: چگونه معادلات جهانی دگرگون می‌شوند؟

آقای رحمن قهرمان‌پور در مورد نقشه قدرت جهان توضیح داد: در گذشته، قدرت یک کشور بر اساس عواملی مانند داشتن سلاح‌های هسته‌ای، منابع طبیعی مانند نفت یا فناوری‌های پیشرفته تعیین می‌شد. اما در آینده، هوش مصنوعی و فناوری کوانتوم به‌عنوان عوامل اصلی قدرت مطرح خواهند شد. به‌عنوان مثال، چین با توسعه فناوری کوانتوم، ادعا می‌کند که می‌تواند زیردریایی‌های هسته‌ای آمریکا را که قبلاً غیرقابل شناسایی بودند، ردیابی کند. این پیشرفت‌ها نشان می‌دهند که معادلات قدرت جهانی در حال تغییر هستند و کشورهایی که نتوانند در این حوزه‌ها پیشرفت کنند، به‌سرعت به حاشیه رانده خواهند شد.

رابطه انسان و ماشین در تصمیم‌گیری: همکاری، نظارت یا واگذاری؟

آقای قهرمان‌پور در رابطه با این سوال که، آیا هوش مصنوعی می‌تواند به‌صورت مستقل تصمیم‌گیری کند یا باید همیشه به‌ویژه در حوزه‌های حساس مانند سیاست و امنیت نظامی، تحت نظارت و همکاری انسان باشدگفت:

در حال حاضر، رابطۀ انسان و ماشین در تصمیم‌گیری به سه شکل وجود دارد:

  1. تصمیم‌گیری مشترک انسان و ماشین: انسان با استفاده از تحلیل‌ها و پیشنهادات هوش مصنوعی، تصمیم نهایی را می‌گیرد.
  2. تصمیم‌گیری مستقل ماشین: ماشین بدون دخالت انسان، تصمیم می‌گیرد (مانند برخی سیستم‌های دفاعی خودکار).
  3. تصمیم‌گیری مستقل انسان: انسان بدون کمک ماشین، تصمیم می‌گیرد.

با این حال، اینکه آیا هوش مصنوعی می‌تواند به‌صورت مستقل در حوزه‌های پیچیده مانند سیاست تصمیم بگیرد، بسیار چالش‌برانگیز است. به‌عنوان مثال، وزارت دفاع آمریکا اخیراً اجازه داده است که فرماندهان نظامی با کمک هوش مصنوعی تصمیم بگیرند. این امر نشان می‌دهد که حتی در عرصه‌های بسیار حساس مانند نظامی، ماشین‌ها به‌تدریج در فرآیند تصمیم‌گیری نقش بیشتری پیدا می‌کنند. اما این موضوع می‌تواند پیامدهای سنگینی داشته باشد، زیرا تصمیمات نظامی اغلب مربوط به جان انسان‌ها و امنیت ملی است و هرگونه اشتباه می‌تواند منجر به فاجعه شود.

بنابراین، سؤال اصلی این است که آیا سیاستمداران می‌توانند تصمیم‌گیری را کاملاً به هوش مصنوعی واگذار کنند؟

در گذشته، فناوری‌های حساس مانند سلاح‌های هسته‌ای یا فناوری‌های فضایی تحت انحصار دولت‌ها و کشورهای توسعه‌یافته بودند و انتقال آن‌ها به کشورهای در حال توسعه بسیار محدود و کنترل‌شده بود. اما در عصر حاضر، هوش مصنوعی به‌عنوان یک فناوری پیشرفته، دیگر در انحصار دولت‌ها نیست و عمدتاً توسط بخش خصوصی توسعه می‌یابد. این موضوع باعث شده است که کنترل و جلوگیری از انتشار آن بسیار دشوارتر شود.

سه چالش بزرگ در بومی‌سازی پلتفرم‌های دیجیتال: مالی، شبکه‌سازی و فناوری

مترجم کتاب  با اشاره به چالش‌ بومی‌سازی پلتفرم‌های دیجیتال و رقابت نابرابر با پلتفرم‌ها افزود:

در حال حاضر، پلتفرم‌های بزرگی مانند توییتر، فیسبوک و تلگرام که توسط شرکت‌های بین‌المللی اداره می‌شوند، انحصار قابل توجهی در فضای دیجیتال دارند. این پلتفرم‌ها به‌دلیل گردش مالی عظیم، الگوریتم‌های پیشرفته و شبکۀ کاربری گسترده‌شان، توانسته‌اند موقعیت خود را در سراسر جهان تثبیت کنند.

به‌عنوان مثال، وقتی یک کشور تصمیم می‌گیرد پلتفرم بومی مشابه توییتر یا فیسبوک بسازد، با چالش‌های بزرگی روبرو می‌شود. اولین چالش گردش مالی است؛ پلتفرم‌های جهانی به‌دلیل درآمدزایی بالا از طریق تبلیغات، خدمات اشتراکی و سرمایه‌گذاری‌های بزرگ، می‌توانند هزینه‌های عملیاتی و توسعه خود را تأمین کنند. اما پلتفرم‌های محلی معمولاً منابع مالی محدودی دارند و نمی‌توانند رقابت کنند.

دومین چالش شبکه‌سازی است. پلتفرم‌های جهانی به‌دلیل تعداد زیاد کاربران و تعاملات بین‌المللی، جذابیت بیشتری برای کاربران جدید دارند. در مقابل، پلتفرم‌های محلی معمولاً تنها به جمعیت داخلی محدود می‌شوند و نمی‌توانند جذابیت یک شبکه جهانی را ایجاد کنند.

سومین چالش الگوریتم‌ها و فناوری است. پلتفرم‌های بزرگ به‌دلیل دسترسی به سرمایه و متخصصان برجسته، می‌توانند الگوریتم‌های پیشرفته‌تری توسعه دهند که کاربران را بیشتر جذب کنند. در حالی که پلتفرم‌های محلی معمولاً به فناوری‌های قدیمی‌تر و ساده‌تر محدود می‌شوند.

در مورد هند نیز، این کشور توانسته است در برخی زمینه‌ها مانند بومی‌سازی تیک‌تاک پیشرفت کند. اما این موفقیت‌ها به‌دلیل شرایط خاصی مانند بازار داخلی بزرگ و حمایت دولت بوده است. در عین حال، هند همچنان در بسیاری از زمینه‌ها به پلتفرم‌های جهانی وابسته است.

هوش مصنوعی و کاهش تنوع دیدگاه‌ها: نقش الگوریتم‌های هوش مصنوعی

مهمان برنامه در مورد یکی از آسیب‌های اصلی فضای مجازی و هوش مصنوعی که نویسنده کتاب هم به آن اشاره کرده، گفت: شخصی‌سازی محتوا بر کاهش تنوع دیدگاه‌ها و افزایش تعصب اجتماعی تاثیر دارد، در فضای مجازی، الگوریتم‌های هوش مصنوعی معمولاً محتوایی را به کاربران نشان می‌دهند که با علایق، باورها و دیدگاه‌های قبلی آن‌ها همخوانی دارد. این موضوع باعث می‌شود که افراد در «حباب‌های اطلاعاتی» (Information Bubbles) یا «غرفه‌های انعکاسی» (Echo Chambers) قرار بگیرند، جایی که فقط با افرادی تعامل دارند که همانند خودشان فکر می‌کنند.

در ادامه ایشان اشاره کرد: این وضعیت، فرصت گفت‌وگو، نقدپذیری و قرار گرفتن در معرض دیدگاه‌های مخالف را از بین می‌برد. در حالی که اساس روشنگری بر پایۀ تحمل اختلاف عقیده، گفت‌وگوی انتقادی و شنیدن دیدگاه‌های متفاوت است، فضای مجازی و هوش مصنوعی به‌جای تقویت این ارزش‌ها، باعث می‌شوند که افراد در گروه‌های هم‌فکر خود محصور شوند. این امر منجر به افزایش تعصب اجتماعی و کاهش توانایی افراد برای تحمل دیدگاه‌های متفاوت می‌شود.

هوش مصنوعی و تصمیم‌گیری‌های پیچیده

دکتر قهرمان‌پور با اشاره به چالش اصلی مقایسه هوش مصنوعی و انسان در شناخت واقعیت و تصمیم‌گیری، و در پاسخ به این سوال که که آیا هوش مصنوعی می‌تواند درک و شناخت انسان را در حوزه‌های پیچیده فراتر ببرد یا خیر گفت: هوش مصنوعی و انسان تفاوت‌هایی دارند از جمله:

  1. هوش مصنوعی در کارهای تکراری و داده‌محور

هوش مصنوعی در کارهایی که نیاز به پردازش حجم زیادی از داده‌ها و انجام محاسبات دقیق دارد، عملکرد بسیار بهتری نسبت به انسان دارد. به‌عنوان مثال، در مطالعات امنیتی در آفریقا، هوش مصنوعی توانسته است با تحلیل میلیون‌ها متغیر، الگوهایی را شناسایی کند که انسان‌ها به‌دلیل محدودیت‌های ذهنی و حافظه، قادر به تشخیص آن‌ها نبوده‌اند. این قابلیت در کارهایی مانند پیش‌بینی شرایط جوی، تحلیل داده‌های پزشکی یا حتی رانندگی در بیرون شهرها (در شرایط کنترل‌شده) بسیار مفید است.

  1. ضعف هوش مصنوعی در خلاقیت و تصمیم‌گیری پیچیده

هوش مصنوعی هنوز در حوزه‌هایی مانند خلاقیت، تشخیص احساسات و تصمیم‌گیری در شرایط غیرقابل پیش‌بینی ضعیف عمل می‌کند. به‌عنوان مثال، در مذاکرات پیچیده بین ایران و آمریکا، هوش مصنوعی نمی‌تواند به‌راحتی پیشنهاداتی مانند غنی‌سازی مشترک را تحلیل کند، زیرا این موضوعات شامل ابعاد سیاسی، فرهنگی و احساسی است که هوش مصنوعی قادر به درک آن‌ها نیست.

  1. وابستگی به داده‌ها

هوش مصنوعی تنها بر اساس داده‌هایی که به آن داده می‌شود عمل می‌کند. اگر داده‌های موجود ناقص یا غلط باشند، نتایج هوش مصنوعی نیز اشتباه خواهد بود. به‌عنوان مثال، در مورد ماشین‌های بدون راننده، هوش مصنوعی در شرایطی مانند نور آفتاب منعکس‌شده از کامیون‌ها اشتباه می‌کند، زیرا نمی‌تواند به‌سرعت بین نور واقعی و عوارض نوری تمایز قائل شود. اما انسان‌ها به‌دلیل توانایی ادراکی و تجربه، معمولاً می‌توانند در چنین شرایطی تصمیم‌گیری بهتری داشته باشند.

  1. کارهای انسانی و ظریف

در کارهایی مانند آشپزی، هنر یا تعاملات اجتماعی، هوش مصنوعی هنوز نمی‌تواند جایگزین انسان شود. به‌عنوان مثال، هوش مصنوعی ممکن است بتواند دستور پخت غذایی را اجرا کند، اما توانایی درک طعم واقعی، خلاقیت در ترکیب مواد غذایی یا احساس لذت از غذا را ندارد. این کارها نیازمند تجربه، احساسات و خلاقیت انسانی هستند.

هوش مصنوعی و شبکه‌های اجتماعی: نقش آن‌ها در تشدید قطبی‌شدگی سیاسی و اجتماعی

در بخش دیگری از این برنامه، مترجم کتاب در مورد «جنبه تاریک هوش مصنوعی و نقش آن در تشدید قطبی‌شدگی سیاسی و اجتماعی» گفت: هوش مصنوعی و شبکه‌های اجتماعی، هرچند ابزارهایی قدرتمند برای اتصال و اطلاع‌رسانی هستند، اما متأسفانه می‌توانند به تقویت نفرت اجتماعی، تعصب قومی، نژادی و مذهبی و ایجاد شکاف‌های اجتماعی کمک کنند.

هوش مصنوعی و الگوریتم‌های پشت شبکه‌های اجتماعی می‌توانند اخبار جعلی یا تحریف‌شده را به‌سرعت و به‌صورت گسترده منتشر کنند. این اخبار معمولاً طراحی شده‌اند تا احساسات منفی مانند نفرت، ترس یا خشم را تحریک کنند. به‌عنوان مثال: در مورد روهینگیا، یک روحانی بودایی با استفاده از شبکه‌های اجتماعی مانند فیسبوک، پیام‌هایی علیه مسلمانان منتشر کرد که منجر به تحریک نفرت و خشونت‌های گسترده علیه جامعه روهینگیا شد.

هوش مصنوعی و انقلاب در شناخت و آموزش

مهمان برنامه ابراز داشت: نکات کلیدی در بحث هوش مصنوعی، تأثیر آن بر شناخت و سیستم‌های آموزشی است. این پرسش مطرح می‌شود که آیا هوش مصنوعی شیوه جدیدی از شناخت را به انسان معرفی خواهد کرد؟ در حال حاضر، مشکلاتی مانند ضعف در آموزش سنتی (مثل املا و یادگیری جدول ضرب) و تغییر شیوه‌های یادگیری نسل جدید (مانند وابستگی به فناوری و پیام‌رسان‌ها) وجود دارد. با پیشرفت هوش مصنوعی، ممکن است سیستم آموزشی سنتی (مثل حضور ۱۲ ساله در مدرسه) با چالش مواجه شود. به عنوان مثال، در آینده ممکن است بچه‌ها به جای حفظ اطلاعات، از دستیار هوش مصنوعی برای یادگیری استفاده کنند. همچنین، تقلب و استفاده از هوش مصنوعی در تحقیقات دانشگاهی به موضوعی رایج تبدیل شده است.

آقای کیسینجر در کتاب می‌گوید از منظر فلسفی، منبع شناخت در طول تاریخ تغییر کرده است: از دوران باستان که شناخت از منابع دینی و فلسفی سرچشمه می‌گرفت، به دوران روشنگری که علم به عنوان منبع شناخت مطرح شد. حالا با ظهور هوش مصنوعی، شاید در آینده هوش مصنوعی به عنوان منبع جدید شناخت شناخته شود. این تغییر می‌تواند به جایگزینی فلسفه سنتی با دیدگاه‌های الگوریتمی و ماشینی منجر شود. به عنوان مثال، به جای تفکر فردی در مورد مسائل فلسفی مثل عدالت، افراد ممکن است به پاسخ‌های ارائه‌شده توسط هوش مصنوعی متکی باشند. این تحول سؤالاتی درباره آینده آموزش، فلسفه و هویت انسانی به همراه دارد.

کاهش ظرفیت فلسفی و اخلاقی انسان: عواقب هوش مصنوعی بر اندیشه انسانی

آقای دکتر با توجه به موضوع «فرصت تأمل و بازاندیشی» انسان‌ها بیان کرد: در کتاب اشاره می‌شود که هوش مصنوعی به تدریج فرصت تأمل و بازاندیشی را از انسان‌ها سلب می‌کند. در دوران روشنگری، اندیشیدن و تفکر عمیق برای کشف معنا و رسالت زندگی ضروری بود، اما امروزه هوش مصنوعی و فناوری‌های پیشرفته این فرصت را از بین می‌برند. به جای آن، انسان‌ها درگیر سرگرمی‌های دیجیتالی مانند شبکه‌های اجتماعی، موسیقی و محتواهای سریع می‌شوند و زمان کمتری برای تفکر درباره اهداف و معنای زندگی اختصاص می‌دهند. این موضوع می‌تواند منجر به کاهش ظرفیت فلسفی و اخلاقی انسان شود؛ به طوری که در آینده، انسان‌ها شاید نتوانند به سؤالات بنیادین زندگی پاسخ دهند یا حتی به دنبال پاسخ نباشند.

همچنین، هوش مصنوعی جامعه (Social AI) به عنوان یک مفهوم در حال توسعه، نشان می‌دهد که انسان‌ها ممکن است خود را با هوش مصنوعی تطبیق دهند و ارزش‌ها و رفتارهای خود را بر اساس آن تغییر دهند. این تحول می‌تواند به یک جامعه بدون عمق فلسفی و اخلاقی منجر شود که تصمیم‌گیری‌های انسانی کاهش یابد. به عنوان مثال، در آینده ممکن است مردم به جای مطالعه کتاب‌های فلسفی یا علمی، به خلاصه‌های سریع و الگوریتم‌های هوش مصنوعی متکی باشند.

جامعه اخلاقی در عصر هوش مصنوعی: آینده‌ای بدون ارزش‌ها؟

در بخش پایانی برنامه آقای دکتر قهرمان‌پور به موضوع «ابعاد اخلاقی هوش مصنوعی» به عنوان یکی از دغدغه‌های اصلی درباره هوش مصنوعی اشاره کرده و گفت: هوش مصنوعی به طور ذاتی قادر به درک یا ارزیابی اخلاقی نیست و تنها بر اساس الگوریتم‌ها و داده‌هایی که دریافت می‌کند عمل می‌کند. این موضوع باعث می‌شود پرسش‌هایی مطرح شود: آیا تصمیمات هوش مصنوعی خوب است یا بد؟ آیا این فناوری به نفع انسانیت است یا ممکن است زیان‌بار باشد؟

اگر ملاحظات اخلاقی از زندگی انسان‌ها حذف شود، جامعه به سمتی حرکت می‌کند که ارزش‌ها و معیارهای اخلاقی کمرنگ می‌شوند. این موضوع به ویژه در مورد هوش مصنوعی بحران‌زا است؛ زیرا هوش مصنوعی بدون برداشت اخلاقی عمل می‌کند و ممکن است منجر به تصمیم‌گیری‌هایی شود که با ارزش‌های انسانی در تعارض باشند.

فیلسوفانی مانند هابرماس از دهه‌های قبل به این موضوع توجه کرده‌اند و به بررسی آینده اخلاق و جامعه اخلاقی پرداخته‌اند. این دغدغه که «جامعه اخلاقی در عصر هوش مصنوعی چگونه خواهد بود»، یکی از چالش‌های بنیادین آینده است. در نهایت، هوش مصنوعی می‌تواند به عنوان ابزاری قدرتمند در دستان انسان‌ها باشد، اما استفاده از آن به نحوی که اخلاق و ارزش‌های انسانی را رعایت کند، نیازمند تامل عمیق و تصمیم‌گیری‌های آگاهانه است.

 

نویسندگان