
هوش مصنوعی و بازنگری در نقش انسان در جهان
در ابتدای برنامه آقای دکتر قهرمانپور با توجه به جایگاه انسان در تحولات جهان توضیح دادند: مسالۀ کتاب و عنوان آن، «تمدن و آینده بشریت» را میتوان هم از دیدگاه فلسفی و هم غیرفلسفی بررسی کرد. عصر روشنگری در اروپا با جمله دکارت «من میاندیشم، پس هستم»، شروع میشود که در آن به جایگاه انسان بهعنوان موجودی فکرکننده اشاره شده است. انسان تا پیش از ظهور هوش مصنوعی، در مرکز تحولات علمی، اجتماعی و فرهنگی قرار داشت اما با پیشرفت هوش مصنوعی، این جایگاه به چالش کشیده شده است.
علوم انسانی و ریشههای فلسفی پیشرفت هوش مصنوعی
مترجم کتاب با اشاره به آغاز عصر هوش مصنوعی گفت: ظهور هوش مصنوعی پس از دورانی که به «زمستان هوش مصنوعی» معروف بود و در کتاب به آن اشاره شده است با پیشرفتهایی در حوزۀ زبان و مدلهای ریاضی رخ داد. این پیشرفتها بیشتر از اینکه مدیون مهندسین باشد مدیون فلاسفهای مثل ویتگنشتاین بود که اهمیت مسئلۀ زبان را نشان دادند. در گذشته، الگوریتمها و مدلهای سادۀ ریاضی پایه هوش مصنوعی بودند، اما حالا با توسعۀ شبکههای عصبی و یادگیری عمیق، مسئله زبان بهعنوان عاملی کلیدی در پیشرفت هوش مصنوعی شناخته شده است. این امر نشان میدهد که علوم انسانی نقش بسیار مهمی در گسترش هوش مصنوعی دارند.
در ادامه آقای قهرمانپور به این نکته اشاره کرد: پیشرفتهای اخیر هوش مصنوعی، بهویژه در حوزۀ یادگیری عمیق و شبکههای عصبی، مدیون تأثیرات فلسفه و علوم انسانی است. از دیدگاه فلاسفهای مثل ویتگنشتاین، پدیدهها ذاتی ندارند بلکه از طریق مدلهای زبانی و یادگیری شناخته میشوند. برای توضیح این موضوع، مثالی از نحوۀ شناسایی گربه توسط بچهها آورده میشود:
بچهها گربه را نه از طریق تعریف دقیق (مثل وجود چهار پا، سر، یا ابعاد خاص) بلکه از طریق یادگیری زبانی و مشاهده مکرر گربه در حالات مختلف میشناسند. بهعنوان مثال، وقتی به بچه میگوییم «این گربه است»، او با دیدن گربه در حالتهای متنوع (مانند درازکشیده، روی ماشین، یا راهرفتن) یاد میگیرد که همۀ اینها گربه هستند. این رویکرد بر اساس مدلهای زبانی و الگوهای تکراری استوار است.
در مقابل، مدلهای قدیمی هوش مصنوعی که بر اساس قواعد ثابت عمل میکردند، در شناسایی پدیدههایی مثل گربه یا سگ ناکام بودند. بهعنوان مثال، اگر هوش مصنوعی گربه را فقط با تعریف «چهار پا و سر» بشناسد، در مواجهه با تصویری از یک گربه درازکشیده یا با بدن نصفه، نمیتوانست آن را تشخیص دهد. اما با الهام از مدلهای زبانی و یادگیری شناختی، هوش مصنوعی حالا قادر است الگوها را از طریق مشاهدات مکرر و بدون نیاز به تعاریف دقیق یاد بگیرد.
این تحول به انقلاب زبانشناختی در علوم انسانی (دهههای ۱۹۷۰-۱۹۸۰) بازمیگردد که اهمیت زبان و مدلهای یادگیری را در شناخت پدیدهها برجسته کرد. بهطور مشابه، در ترجمههای هوش مصنوعی، دیگر کلمه به کلمه ترجمه نمیشود بلکه الگوهای زبانی و مکرر یاد گرفته میشوند. این نشان میدهد که علوم انسانی، بهویژه فلسفه زبان و یادگیری شناختی، نقش کلیدی در پیشرفت هوش مصنوعی داشتهاند.
پیشرفتهای اخیر هوش مصنوعی، بهویژه در حوزۀ یادگیری عمیق و شبکههای عصبی، مدیون تأثیرات فلسفه و علوم انسانی است. از دیدگاه فلاسفهای مثل ویتگنشتاین، پدیدهها ذاتی ندارند بلکه از طریق مدلهای زبانی و یادگیری شناخته میشوند.
هوش مصنوعی و قاعدهمندی: بحثی جهانی از کیسینجر تا اجلاس پاریس
در بخش دیگری از برنامه آقای رحمن قهرمانپور توضیحاتی در مورد کتاب بیان کرده و گفتند: نکتۀ کلیدی کتاب اهمیت تلفیق دیدگاههای فنی-مهندسی و علوم انسانی در درک و مدیریت هوش مصنوعی است. کتاب «هوش مصنوعی و آینده بشریت»، نوشته هنری کیسینجر (دیپلمات و صاحبنظر در علوم انسانی) به همراه دو همکار، یکی از مدیران ارشد گوگل، این موضوع را بهعنوان محور اصلی بررسی میکند. این کتاب که از آخرین آثار کیسینجر است، از مسائل بنیادی مانند جایگاه انسان در عصر هوش مصنوعی شروع میکند و به موضوعات پیچیدهتری مانند قاعدهمند کردن استفاده از هوش مصنوعی میپردازد.
اهمیت این کتاب در این است که نشان میدهد چگونه ترکیب دیدگاههای فنی و علوم انسانی میتواند به درک بهتری از چالشهای هوش مصنوعی منجر شود. در بخشهای پایانی کتاب، نویسندگان به بحث دربارۀ ضرورت وضع قوانین بینالمللی برای کنترل و مقرراتگذاری هوش مصنوعی میپردازند. این موضوع در اجلاسی که اخیراً در پاریس برگزار شد نیز مطرح بود، جایی که رهبرانی مانند نارندرا مودی و امانوئل مکرون دربارۀ قاعدهمند کردن استفاده از هوش مصنوعی و فضای مجازی بحث کردند.
ایشان ادامه دادند: در نهایت، اینکه هوش مصنوعی هم فرصتهای بزرگی ایجاد میکند و هم چالشهای جدی. کشورهایی مانند هند، تایوان و امارات که بهسرعت در حال سرمایهگذاری در این حوزه هستند، میتوانند از این فناوری بهرهبرداری کنند و به توسعۀ خود کمک کنند. اما در عین حال، جامعه جهانی نیازمند قاعدهمند کردن و تنظیم این فناوری است تا از سوءاستفاده و پیامدهای منفی آن جلوگیری شود. این یک وظیفه بسیار دشوار است، اما بهدلیل اهمیت موضوع، اجتنابناپذیر به نظر میرسد.
پایان بازدارندگی هستهای؟ تأثیر هوش مصنوعی بر امنیت جهانی
آقای دکتر با توجه به مسئله بسیار حساس و مهم «اثر هوش مصنوعی بر بازدارندگی هستهای» توضیح دادند: تاکنون، سلاحهای هستهای بهعنوان ابزاری برای ایجاد بازدارندگی در برابر جنگهای بزرگ در نظر گرفته میشدند و تحت حفاظتهای فیزیکی، امنیتی و اطلاعاتی شدید قرار داشتند.
اما با ظهور هوش مصنوعی، همینطور حملات سایبری، این موازنه بهشدت بهخطر افتاده است. امروزه، اگر یک هکر یا یک کشور رقیب بتواند به شبکههای امنیتی یا سیستمهای مدیریت سلاحهای هستهای نفوذ کند، ممکن است توانایی کنترل یا حتی فعال کردن این سلاحها را بهدست آورد. این موضوع نهتنها بازدارندگی هستهای را زیر سؤال میبرد، بلکه امنیت جهانی را نیز به مخاطره میاندازد.
برای مثال، در رابطه بین هند و پاکستان، هند با پیشرفت در حوزۀ هوش مصنوعی و حملات سایبری، توانسته است تا حدی بازدارندگی هستهای پاکستان را تضعیف کند. پاکستان که سالها سرمایهگذاری کرده و موشکها و کلاهکهای هستهای ساخته، اکنون با چالشی روبرو شده: اگر هوش مصنوعی بتواند سیستمهای مدیریت این سلاحها را مختل کند، این سرمایهگذاریها بیفایده میشوند. این موضوع باعث شده برخی در پاکستان بپرسند که آیا ساخت این سلاحها واقعاً ارزش این هزینهها را دارد یا خیر.
بنابراین، اهمیت این موضوع در این است که هوش مصنوعی و حملات سایبری میتوانند موازنۀ قدرت هستهای را بههم بزنند. یک جوان ۲۰ ساله با مهارتهای هکری میتواند به سیستمهای مدیریت موشکهای بینقارهای نفوذ کند و این باعث میشود که میلیاردها دلار سرمایهگذاری برای ایجاد بازدارندگی هستهای بیفایده شود. این یک مسئله بسیار جدی است و نیازمند بحث و تدوین قوانین بینالمللی برای جلوگیری از سوءاستفاده از هوش مصنوعی در حوزههای نظامی و امنیتی است.
از انقلاب صنعتی تا هوش مصنوعی: تحولات بنیادین در تاریخ بشر
مهمان برنامه با بیان این نکته که برخی فناوریها در تاریخ زندگی بشر سرنوشتساز هستند تصریح کردند: کیسینجر و نویسندگان کتاب هوش مصنوعی و آینده بشریت تأکید میکنند که هوش مصنوعی یک «فناوری سرنوشتساز» و «برهمزننده» است. این نوع فناوریها، همانند انقلاب صنعتی یا ظهور ماشین بخار، زندگی انسانها را بهطور بنیادین تغییر میدهند. بهعنوان مثال، انقلاب صنعتی باعث شد که جوامع از حالت کشاورزی به صنعتی تبدیل شوند، خودرو و نفت به کالاهای استراتژیک تبدیل شوند و حتی هواپیماها انسان را قادر به پرواز کردند. حالا، در عصر حاضر، هوش مصنوعی بهعنوان یک فناوری برهمزننده دیگر، در حال ایجاد تحولات عظیمی در زندگی اجتماعی، علمی و سیاسی است.
تحولات هوش مصنوعی و نقش آن در ایجاد شکاف بین نسلها
آقای دکتر توضیح داد: هوش مصنوعی نه تنها به لحاظ فناوری جامعه را دگرگون میکند، بلکه شکافی بین نسلها ایجاد میکند. بهعنوان مثال، کودکان امروزی که با گوشیهای هوشمند و بازیهایی مانند ماینکرافت بزرگ میشوند، بهصورت طبیعی با هوش مصنوعی تعامل دارند و از آن برای یادگیری زبانها یا حل مسائل استفاده میکنند. این موضوع میتواند منجر به شکافی بین نسلها شود، بهطوری که افراد قدیمیتر (مثل پدربزرگها) دیگر نتوانند بهراحتی با نسل جدید ارتباط برقرار کنند.
تفاوت هوش مصنوعی با فناوریهای گذشته: پایان انحصار دولتها
آقای قهرمانپور چالشهای انتقال و قاعدهمند کردن فناوری هوش مصنوعی و تفاوت آن با فناوریهای پیشین را اینگونه تشریح کردند: در گذشته، فناوریهای حساس مانند سلاحهای هستهای یا فناوریهای فضایی تحت انحصار دولتها و کشورهای توسعهیافته بودند و انتقال آنها به کشورهای در حال توسعه بسیار محدود و کنترلشده بود. اما در عصر حاضر، هوش مصنوعی بهعنوان یک فناوری پیشرفته، دیگر در انحصار دولتها نیست و عمدتاً توسط بخش خصوصی توسعه مییابد. این موضوع باعث شده است که کنترل و جلوگیری از انتشار آن بسیار دشوارتر شود.
بهعنوان مثال، شرکتهایی مانند گوگل، اپل و دیگر شرکتهای فناوری، امروزه پیشرو در توسعه و گسترش هوش مصنوعی هستند. محصولاتی مانند گوشیهای هوشمند که بهطور گسترده در دسترس عموم قرار میگیرند، حاوی فناوریهای هوش مصنوعی پیشرفته هستند. این امر باعث شده است که حتی افراد عادی نیز به این فناوری دسترسی داشته باشند و از آن استفاده کنند. این وضعیت، برخلاف دوران پس از جنگ جهانی دوم که انتقال فناوریهای حساس به کشورهای در حال توسعه بسیار محدود بود، فرصتهای بیشتری را برای کشورهای جهان سوم فراهم کند تا از این فناوری بهرهبرداری کنند.
آسیبپذیری جوامع در عصر هوش مصنوعی: وابستگی یا تهدید؟
مهمان برنامه در سخنان خود با اشاره به چالشهای مربوط به گسترش فناوری هوش مصنوعی افزودند: اگر یک هواپیمای مجهز به هوش مصنوعی تصمیم به انجام عملیات نظامی بگیرد، این تصمیم بدون در نظر گرفتن ارزشها یا پیامدهای انسانی خواهد بود. این موضوع نشان میدهد که هوش مصنوعی، بهدلیل عدم وجود احساسات و ارزشهای انسانی، میتواند منجر به فاجعههای بزرگی شود.
علاوه بر این، آسیبپذیری جوامع در برابر هوش مصنوعی با افزایش وابستگی به این فناوری بیشتر میشود. هرچه جامعه بیشتر با هوش مصنوعی تعامل داشته باشد، به همان اندازه نیز آسیبپذیری آن در برابر سوءاستفاده یا حوادث احتمالی افزایش مییابد. بهعنوان مثال، حملات سایبری مبتنی بر هوش مصنوعی میتوانند زیرساختهای حیاتی مانند شبکههای برق، ارتباطات و حتی سیستمهای هستهای را مختل کنند.
دادهها، الگوریتمها و قدرت: نقش هوش مصنوعی در شکلدهی به جوامع
مترجم کتاب در مورد چالشهای اجتماعی، سیاسی و اقتصادی ناشی از انتشار فناوری هوش مصنوعی و وابستگی جوامع به پلتفرمهای دیجیتال صحبت کرد و گفت: در عصر حاضر، کاربران عادی بدون آگاهی کامل، با استفاده روزمره از شبکههای اجتماعی، موتورهای جستجو و دیگر پلتفرمهای دیجیتال، بهطور غیرمستقیم به تولید داده و تقویت الگوریتمهای هوش مصنوعی کمک میکنند. بهعنوان مثال، هر بار که کاربران در گوگل جستجو میکنند، در فیسبوک پست میگذارند یا در اینستاگرام عکس میفرستند، دادههای خود را در اختیار شرکتهای بزرگ فناوری قرار میدهند. این دادهها سپس توسط الگوریتمهای هوش مصنوعی تجزیه و تحلیل میشوند تا الگوها و رفتارهای جمعی شناسایی شوند.
بهعنوان مثال، شرکتهایی مانند Cambridge Analytic نشان دادند که چگونه دادههای کاربران میتوانند برای تأثیرگذاری بر انتخابات سیاسی استفاده شوند. در انتخابات ریاستجمهوری آمریکا (۲۰۱۶) و انتخابات برزیل (۲۰۱۸)، اطلاعات میلیونها کاربر جمعآوری شد و با استفاده از هوش مصنوعی، پیامهای سیاسی شخصیسازیشده به آنها ارسال شد.
ایشان ادامه داد: در این میان، کشورهای در حال توسعه مانند ایران، ترکیه، پاکستان و آفریقا، در حال حاضر بیشتر بهعنوان «کارگران دیجیتال» عمل میکنند که دادههای خود را به شرکتهای بزرگ فناوری تحویل میدهند. این کشورها از فناوریهای هوش مصنوعی استفاده میکنند، اما نقش آنها بیشتر مصرفکننده و تولیدکننده داده است و نه توسعهدهنده این فناوری. این وضعیت باعث میشود که آنها در مقایسه با کشورهای پیشرفتهتر، در موقعیت ضعیفتری قرار بگیرند.
قدرت در عصر هوش مصنوعی: چگونه معادلات جهانی دگرگون میشوند؟
آقای رحمن قهرمانپور در مورد نقشه قدرت جهان توضیح داد: در گذشته، قدرت یک کشور بر اساس عواملی مانند داشتن سلاحهای هستهای، منابع طبیعی مانند نفت یا فناوریهای پیشرفته تعیین میشد. اما در آینده، هوش مصنوعی و فناوری کوانتوم بهعنوان عوامل اصلی قدرت مطرح خواهند شد. بهعنوان مثال، چین با توسعه فناوری کوانتوم، ادعا میکند که میتواند زیردریاییهای هستهای آمریکا را که قبلاً غیرقابل شناسایی بودند، ردیابی کند. این پیشرفتها نشان میدهند که معادلات قدرت جهانی در حال تغییر هستند و کشورهایی که نتوانند در این حوزهها پیشرفت کنند، بهسرعت به حاشیه رانده خواهند شد.
رابطه انسان و ماشین در تصمیمگیری: همکاری، نظارت یا واگذاری؟
آقای قهرمانپور در رابطه با این سوال که، آیا هوش مصنوعی میتواند بهصورت مستقل تصمیمگیری کند یا باید همیشه بهویژه در حوزههای حساس مانند سیاست و امنیت نظامی، تحت نظارت و همکاری انسان باشدگفت:
در حال حاضر، رابطۀ انسان و ماشین در تصمیمگیری به سه شکل وجود دارد:
- تصمیمگیری مشترک انسان و ماشین: انسان با استفاده از تحلیلها و پیشنهادات هوش مصنوعی، تصمیم نهایی را میگیرد.
- تصمیمگیری مستقل ماشین: ماشین بدون دخالت انسان، تصمیم میگیرد (مانند برخی سیستمهای دفاعی خودکار).
- تصمیمگیری مستقل انسان: انسان بدون کمک ماشین، تصمیم میگیرد.
با این حال، اینکه آیا هوش مصنوعی میتواند بهصورت مستقل در حوزههای پیچیده مانند سیاست تصمیم بگیرد، بسیار چالشبرانگیز است. بهعنوان مثال، وزارت دفاع آمریکا اخیراً اجازه داده است که فرماندهان نظامی با کمک هوش مصنوعی تصمیم بگیرند. این امر نشان میدهد که حتی در عرصههای بسیار حساس مانند نظامی، ماشینها بهتدریج در فرآیند تصمیمگیری نقش بیشتری پیدا میکنند. اما این موضوع میتواند پیامدهای سنگینی داشته باشد، زیرا تصمیمات نظامی اغلب مربوط به جان انسانها و امنیت ملی است و هرگونه اشتباه میتواند منجر به فاجعه شود.
بنابراین، سؤال اصلی این است که آیا سیاستمداران میتوانند تصمیمگیری را کاملاً به هوش مصنوعی واگذار کنند؟
در گذشته، فناوریهای حساس مانند سلاحهای هستهای یا فناوریهای فضایی تحت انحصار دولتها و کشورهای توسعهیافته بودند و انتقال آنها به کشورهای در حال توسعه بسیار محدود و کنترلشده بود. اما در عصر حاضر، هوش مصنوعی بهعنوان یک فناوری پیشرفته، دیگر در انحصار دولتها نیست و عمدتاً توسط بخش خصوصی توسعه مییابد. این موضوع باعث شده است که کنترل و جلوگیری از انتشار آن بسیار دشوارتر شود.
سه چالش بزرگ در بومیسازی پلتفرمهای دیجیتال: مالی، شبکهسازی و فناوری
مترجم کتاب با اشاره به چالش بومیسازی پلتفرمهای دیجیتال و رقابت نابرابر با پلتفرمها افزود:
در حال حاضر، پلتفرمهای بزرگی مانند توییتر، فیسبوک و تلگرام که توسط شرکتهای بینالمللی اداره میشوند، انحصار قابل توجهی در فضای دیجیتال دارند. این پلتفرمها بهدلیل گردش مالی عظیم، الگوریتمهای پیشرفته و شبکۀ کاربری گستردهشان، توانستهاند موقعیت خود را در سراسر جهان تثبیت کنند.
بهعنوان مثال، وقتی یک کشور تصمیم میگیرد پلتفرم بومی مشابه توییتر یا فیسبوک بسازد، با چالشهای بزرگی روبرو میشود. اولین چالش گردش مالی است؛ پلتفرمهای جهانی بهدلیل درآمدزایی بالا از طریق تبلیغات، خدمات اشتراکی و سرمایهگذاریهای بزرگ، میتوانند هزینههای عملیاتی و توسعه خود را تأمین کنند. اما پلتفرمهای محلی معمولاً منابع مالی محدودی دارند و نمیتوانند رقابت کنند.
دومین چالش شبکهسازی است. پلتفرمهای جهانی بهدلیل تعداد زیاد کاربران و تعاملات بینالمللی، جذابیت بیشتری برای کاربران جدید دارند. در مقابل، پلتفرمهای محلی معمولاً تنها به جمعیت داخلی محدود میشوند و نمیتوانند جذابیت یک شبکه جهانی را ایجاد کنند.
سومین چالش الگوریتمها و فناوری است. پلتفرمهای بزرگ بهدلیل دسترسی به سرمایه و متخصصان برجسته، میتوانند الگوریتمهای پیشرفتهتری توسعه دهند که کاربران را بیشتر جذب کنند. در حالی که پلتفرمهای محلی معمولاً به فناوریهای قدیمیتر و سادهتر محدود میشوند.
در مورد هند نیز، این کشور توانسته است در برخی زمینهها مانند بومیسازی تیکتاک پیشرفت کند. اما این موفقیتها بهدلیل شرایط خاصی مانند بازار داخلی بزرگ و حمایت دولت بوده است. در عین حال، هند همچنان در بسیاری از زمینهها به پلتفرمهای جهانی وابسته است.
هوش مصنوعی و کاهش تنوع دیدگاهها: نقش الگوریتمهای هوش مصنوعی
مهمان برنامه در مورد یکی از آسیبهای اصلی فضای مجازی و هوش مصنوعی که نویسنده کتاب هم به آن اشاره کرده، گفت: شخصیسازی محتوا بر کاهش تنوع دیدگاهها و افزایش تعصب اجتماعی تاثیر دارد، در فضای مجازی، الگوریتمهای هوش مصنوعی معمولاً محتوایی را به کاربران نشان میدهند که با علایق، باورها و دیدگاههای قبلی آنها همخوانی دارد. این موضوع باعث میشود که افراد در «حبابهای اطلاعاتی» (Information Bubbles) یا «غرفههای انعکاسی» (Echo Chambers) قرار بگیرند، جایی که فقط با افرادی تعامل دارند که همانند خودشان فکر میکنند.
در ادامه ایشان اشاره کرد: این وضعیت، فرصت گفتوگو، نقدپذیری و قرار گرفتن در معرض دیدگاههای مخالف را از بین میبرد. در حالی که اساس روشنگری بر پایۀ تحمل اختلاف عقیده، گفتوگوی انتقادی و شنیدن دیدگاههای متفاوت است، فضای مجازی و هوش مصنوعی بهجای تقویت این ارزشها، باعث میشوند که افراد در گروههای همفکر خود محصور شوند. این امر منجر به افزایش تعصب اجتماعی و کاهش توانایی افراد برای تحمل دیدگاههای متفاوت میشود.
هوش مصنوعی و تصمیمگیریهای پیچیده
دکتر قهرمانپور با اشاره به چالش اصلی مقایسه هوش مصنوعی و انسان در شناخت واقعیت و تصمیمگیری، و در پاسخ به این سوال که که آیا هوش مصنوعی میتواند درک و شناخت انسان را در حوزههای پیچیده فراتر ببرد یا خیر گفت: هوش مصنوعی و انسان تفاوتهایی دارند از جمله:
- هوش مصنوعی در کارهای تکراری و دادهمحور
هوش مصنوعی در کارهایی که نیاز به پردازش حجم زیادی از دادهها و انجام محاسبات دقیق دارد، عملکرد بسیار بهتری نسبت به انسان دارد. بهعنوان مثال، در مطالعات امنیتی در آفریقا، هوش مصنوعی توانسته است با تحلیل میلیونها متغیر، الگوهایی را شناسایی کند که انسانها بهدلیل محدودیتهای ذهنی و حافظه، قادر به تشخیص آنها نبودهاند. این قابلیت در کارهایی مانند پیشبینی شرایط جوی، تحلیل دادههای پزشکی یا حتی رانندگی در بیرون شهرها (در شرایط کنترلشده) بسیار مفید است.
- ضعف هوش مصنوعی در خلاقیت و تصمیمگیری پیچیده
هوش مصنوعی هنوز در حوزههایی مانند خلاقیت، تشخیص احساسات و تصمیمگیری در شرایط غیرقابل پیشبینی ضعیف عمل میکند. بهعنوان مثال، در مذاکرات پیچیده بین ایران و آمریکا، هوش مصنوعی نمیتواند بهراحتی پیشنهاداتی مانند غنیسازی مشترک را تحلیل کند، زیرا این موضوعات شامل ابعاد سیاسی، فرهنگی و احساسی است که هوش مصنوعی قادر به درک آنها نیست.
- وابستگی به دادهها
هوش مصنوعی تنها بر اساس دادههایی که به آن داده میشود عمل میکند. اگر دادههای موجود ناقص یا غلط باشند، نتایج هوش مصنوعی نیز اشتباه خواهد بود. بهعنوان مثال، در مورد ماشینهای بدون راننده، هوش مصنوعی در شرایطی مانند نور آفتاب منعکسشده از کامیونها اشتباه میکند، زیرا نمیتواند بهسرعت بین نور واقعی و عوارض نوری تمایز قائل شود. اما انسانها بهدلیل توانایی ادراکی و تجربه، معمولاً میتوانند در چنین شرایطی تصمیمگیری بهتری داشته باشند.
- کارهای انسانی و ظریف
در کارهایی مانند آشپزی، هنر یا تعاملات اجتماعی، هوش مصنوعی هنوز نمیتواند جایگزین انسان شود. بهعنوان مثال، هوش مصنوعی ممکن است بتواند دستور پخت غذایی را اجرا کند، اما توانایی درک طعم واقعی، خلاقیت در ترکیب مواد غذایی یا احساس لذت از غذا را ندارد. این کارها نیازمند تجربه، احساسات و خلاقیت انسانی هستند.
هوش مصنوعی و شبکههای اجتماعی: نقش آنها در تشدید قطبیشدگی سیاسی و اجتماعی
در بخش دیگری از این برنامه، مترجم کتاب در مورد «جنبه تاریک هوش مصنوعی و نقش آن در تشدید قطبیشدگی سیاسی و اجتماعی» گفت: هوش مصنوعی و شبکههای اجتماعی، هرچند ابزارهایی قدرتمند برای اتصال و اطلاعرسانی هستند، اما متأسفانه میتوانند به تقویت نفرت اجتماعی، تعصب قومی، نژادی و مذهبی و ایجاد شکافهای اجتماعی کمک کنند.
هوش مصنوعی و الگوریتمهای پشت شبکههای اجتماعی میتوانند اخبار جعلی یا تحریفشده را بهسرعت و بهصورت گسترده منتشر کنند. این اخبار معمولاً طراحی شدهاند تا احساسات منفی مانند نفرت، ترس یا خشم را تحریک کنند. بهعنوان مثال: در مورد روهینگیا، یک روحانی بودایی با استفاده از شبکههای اجتماعی مانند فیسبوک، پیامهایی علیه مسلمانان منتشر کرد که منجر به تحریک نفرت و خشونتهای گسترده علیه جامعه روهینگیا شد.
هوش مصنوعی و انقلاب در شناخت و آموزش
مهمان برنامه ابراز داشت: نکات کلیدی در بحث هوش مصنوعی، تأثیر آن بر شناخت و سیستمهای آموزشی است. این پرسش مطرح میشود که آیا هوش مصنوعی شیوه جدیدی از شناخت را به انسان معرفی خواهد کرد؟ در حال حاضر، مشکلاتی مانند ضعف در آموزش سنتی (مثل املا و یادگیری جدول ضرب) و تغییر شیوههای یادگیری نسل جدید (مانند وابستگی به فناوری و پیامرسانها) وجود دارد. با پیشرفت هوش مصنوعی، ممکن است سیستم آموزشی سنتی (مثل حضور ۱۲ ساله در مدرسه) با چالش مواجه شود. به عنوان مثال، در آینده ممکن است بچهها به جای حفظ اطلاعات، از دستیار هوش مصنوعی برای یادگیری استفاده کنند. همچنین، تقلب و استفاده از هوش مصنوعی در تحقیقات دانشگاهی به موضوعی رایج تبدیل شده است.
آقای کیسینجر در کتاب میگوید از منظر فلسفی، منبع شناخت در طول تاریخ تغییر کرده است: از دوران باستان که شناخت از منابع دینی و فلسفی سرچشمه میگرفت، به دوران روشنگری که علم به عنوان منبع شناخت مطرح شد. حالا با ظهور هوش مصنوعی، شاید در آینده هوش مصنوعی به عنوان منبع جدید شناخت شناخته شود. این تغییر میتواند به جایگزینی فلسفه سنتی با دیدگاههای الگوریتمی و ماشینی منجر شود. به عنوان مثال، به جای تفکر فردی در مورد مسائل فلسفی مثل عدالت، افراد ممکن است به پاسخهای ارائهشده توسط هوش مصنوعی متکی باشند. این تحول سؤالاتی درباره آینده آموزش، فلسفه و هویت انسانی به همراه دارد.
کاهش ظرفیت فلسفی و اخلاقی انسان: عواقب هوش مصنوعی بر اندیشه انسانی
آقای دکتر با توجه به موضوع «فرصت تأمل و بازاندیشی» انسانها بیان کرد: در کتاب اشاره میشود که هوش مصنوعی به تدریج فرصت تأمل و بازاندیشی را از انسانها سلب میکند. در دوران روشنگری، اندیشیدن و تفکر عمیق برای کشف معنا و رسالت زندگی ضروری بود، اما امروزه هوش مصنوعی و فناوریهای پیشرفته این فرصت را از بین میبرند. به جای آن، انسانها درگیر سرگرمیهای دیجیتالی مانند شبکههای اجتماعی، موسیقی و محتواهای سریع میشوند و زمان کمتری برای تفکر درباره اهداف و معنای زندگی اختصاص میدهند. این موضوع میتواند منجر به کاهش ظرفیت فلسفی و اخلاقی انسان شود؛ به طوری که در آینده، انسانها شاید نتوانند به سؤالات بنیادین زندگی پاسخ دهند یا حتی به دنبال پاسخ نباشند.
همچنین، هوش مصنوعی جامعه (Social AI) به عنوان یک مفهوم در حال توسعه، نشان میدهد که انسانها ممکن است خود را با هوش مصنوعی تطبیق دهند و ارزشها و رفتارهای خود را بر اساس آن تغییر دهند. این تحول میتواند به یک جامعه بدون عمق فلسفی و اخلاقی منجر شود که تصمیمگیریهای انسانی کاهش یابد. به عنوان مثال، در آینده ممکن است مردم به جای مطالعه کتابهای فلسفی یا علمی، به خلاصههای سریع و الگوریتمهای هوش مصنوعی متکی باشند.
جامعه اخلاقی در عصر هوش مصنوعی: آیندهای بدون ارزشها؟
در بخش پایانی برنامه آقای دکتر قهرمانپور به موضوع «ابعاد اخلاقی هوش مصنوعی» به عنوان یکی از دغدغههای اصلی درباره هوش مصنوعی اشاره کرده و گفت: هوش مصنوعی به طور ذاتی قادر به درک یا ارزیابی اخلاقی نیست و تنها بر اساس الگوریتمها و دادههایی که دریافت میکند عمل میکند. این موضوع باعث میشود پرسشهایی مطرح شود: آیا تصمیمات هوش مصنوعی خوب است یا بد؟ آیا این فناوری به نفع انسانیت است یا ممکن است زیانبار باشد؟
اگر ملاحظات اخلاقی از زندگی انسانها حذف شود، جامعه به سمتی حرکت میکند که ارزشها و معیارهای اخلاقی کمرنگ میشوند. این موضوع به ویژه در مورد هوش مصنوعی بحرانزا است؛ زیرا هوش مصنوعی بدون برداشت اخلاقی عمل میکند و ممکن است منجر به تصمیمگیریهایی شود که با ارزشهای انسانی در تعارض باشند.
فیلسوفانی مانند هابرماس از دهههای قبل به این موضوع توجه کردهاند و به بررسی آینده اخلاق و جامعه اخلاقی پرداختهاند. این دغدغه که «جامعه اخلاقی در عصر هوش مصنوعی چگونه خواهد بود»، یکی از چالشهای بنیادین آینده است. در نهایت، هوش مصنوعی میتواند به عنوان ابزاری قدرتمند در دستان انسانها باشد، اما استفاده از آن به نحوی که اخلاق و ارزشهای انسانی را رعایت کند، نیازمند تامل عمیق و تصمیمگیریهای آگاهانه است.