
چشمانداز کنونی هوش مصنوعی بیش از هر چیز با تفاوتهایش از شبکه عصبی مغز انسان تعریف میشود. یک کودک خردسال تنها با دریافت روزانه حدود هزار کالری و داشتن گفتوگوهای روزمره، چگونگی برقراری ارتباط مؤثر را میآموزد؛ درحالیکه شرکتهای فناوری در حال بازگشایی نیروگاههای هستهای، آلودهکردن جوامع حاشیهنشین و سرقت ترابایتی کتابها هستند تا مدلهای زبانی بزرگ[۱] خود را آموزش داده و اجرا کنند.
«یک کودک تنها با هزار کالری و چند گفتوگوی ساده میآموزد ارتباط برقرار کند؛ اما هوش مصنوعی برای تقلید همین توانایی، به انرژی عظیم و میلیاردها داده نیاز دارد. آیا این نشانۀ شباهت است یا تفاوت بنیادی؟»
با این حال، شبکههای عصبی در اصل از مغزها الهامگرفته شدند و به هر حال «عصبی» هستند. با وجود تفاوت چشمگیر در میزان نیازشان به انرژی و داده، مدلهای زبانی بزرگ و مغز انسان اشتراکات زیادی دارند. هر دو از میلیونها زیرواحد تشکیل شدهاند: در مغز این واحدها نورونهای بیولوژیکی هستند و در شبکهها، «نورونهای شبیهسازیشده». این دو (مغز و شبکههای عصبی) تنها چیزهایی روی زمین هستند که میتوانند روان و انعطافپذیر زبان تولید کنند؛ و دانشمندان هنوز بهسختی درک می کنند که هریک از آنها دقیقاً چگونه کار میکند.
یک کودک با کمترین انرژی و صرفاً در جریان زندگی روزمره، زبان را میآموزد؛ اما برای رسیدن به همین توانایی، شرکتهای فناوری باید میلیاردها داده گردآوری کنند، سرورهای عظیم به کار بگیرند و انرژی کلان مصرف کنند.
من میتوانم به این شباهتها گواهی دهم؛ من از مسیر شش سال تحصیل در مقطع تحصیلات تکمیلی علوم اعصاب، به روزنامهنگاری و سپس هوش مصنوعی رسیدم. در میان دانشمندان علوم اعصاب، دیدگاه رایجی وجود دارد که ساخت شبکههای عصبی شبیه به مغز، یکی از امیدبخشترین مسیرها برای پیشرفت این حوزه است؛ و این نگرش کمکم به روانشناسی هم سرایت کرده است. هفتهٔ گذشته، مجلهٔ معتبر «نیچر[۲]» دو پژوهش منتشر کرد که استفاده از شبکههای عصبی را برای پیشبینی رفتار انسان و سایر حیوانات در آزمایشهای روانشناسی به نمایش گذاشته بودند. هر دو پژوهش پیشنهاد میکنند که این شبکههای آموزشدیده میتوانند به دانشمندان در پیشبرد درکشان از ذهن انسان کمک کنند.
اما پیشبینی یک رفتار و توضیح اینکه آن رفتار چگونه پدیدآمده است، دو مقولهٔ کاملاً متفاوتاند.
در یکی از این پژوهشها، محققان یک مدل زبانی بزرگ را به چیزی تبدیل کردند که خود آن را «مدل پایهای شناخت انسان» مینامند. به طور پیشفرض، مدلهای زبانی بزرگ در تقلید از رفتار انسانی چندان موفق نیستند، آنها در موقعیتهایی که انسانها عقلانیت را رها میکنند (مانند کازینوها) به طور منطقی عمل میکنند. بنابراین پژوهشگران « لاما ۳.۱[۳]» (یکی از مدلهای متنباز شرکت متا) را بر روی دادههای حاصل از ۱۶۰ آزمایش روانشناسی بازآموزی کردند؛ آزمایشهایی که شامل وظایفی مانند انتخاب از میان مجموعهای از «ماشینهای اسلات» (دستگاههای شرطبندی) برای دستیابی به حداکثر پرداخت یا بهخاطرسپاری دنبالهای از حروف بود. آنها مدل حاصل را «سنتائور[۴]» نامیدند.
در مقایسه با مدلهای روانشناختی مرسوم که از معادلات ریاضی ساده استفاده میکنند، سنتائور عملکرد بسیار بهتری در پیشبینی رفتار از خود نشان داد. پیشبینی دقیق واکنشهای انسان در آزمایشهای روانشناسی، بهخودی خود ارزشمند است؛ برای نمونه، دانشمندان میتوانند با کمک سنتائور، ابتدا آزمایشهای خود را روی رایانه شبیهسازی کنند و سپس سراغ جذب و پرداخت هزینه به شرکتکنندگان انسانی بروند. با این حال، پژوهشگران در مقالههای خود پیشنهاد میکنند که سنتائور میتواند چیزی بیش از یک ماشین پیشبینی باشد. آنها استدلال میکنند که با بررسی سازوکارهایی که به سنتائور امکان میدهد رفتار انسانی را بهطور مؤثر بازتولید کند، دانشمندان خواهند توانست نظریههای تازهای دربارهٔ سازوکار درونی ذهن انسان توسعه دهند.
مدل سنتائور توانست واکنشهای انسانی را دقیقتر از مدلهای روانشناسی پیشبینی کند. اما آیا صرفاً دانستن اینکه چه اتفاقی میافتد کافی است؟ یا باید بفهمیم چرا آن اتفاق میافتد؟
اما برخی روانشناسان تردید دارند که سنتائور بتواند واقعاً چیز زیادی دربارهٔ ذهن در اختیار ما قراردهد. درست است که او در پیشبینی رفتار انسانها بهتر از مدلهای متعارف روانشناسی عمل میکند اما در عوض، میلیاردها برابر پارامترهای بیشتری هم دارد. صرفاً به این دلیل که یک مدل در ظاهر مانند انسان رفتار میکند، به این معنا نیست که در درون هم مانند او عمل میکند. «اولیویا گوئست[۵]»، استادیار علوم شناختی محاسباتی در دانشگاه رادبود هلند، سنتائور را به یک ماشینحساب تشبیه میکند؛ ماشینی که میتواند بهخوبی پاسخ یک نابغهٔ ریاضی را هنگام جمعزدن دو عدد پیشبینی کند. او میگوید: «نمیدانم اگر بخواهید دربارهٔ توانایی جمع در انسان چیزی بیاموزید، مطالعهٔ یک ماشینحساب چه فایدهای خواهد داشت.»
حتی اگر سنتائور واقعاً بخشی مهم از روانشناسی انسان را بازتاب دهد، دانشمندان ممکن است برای استخراج هرگونه بینش از میلیونها نورون این مدل به مشکل بخورند. پژوهشگران هوش مصنوعی با تمام تلاش در پی کشف سازوکار مدلهای زبانی بزرگ هستند، اما تنها توانستهاند اندکی از این «جعبهٔ سیاه» را باز کنند. درک یک مدل عظیم شبکه عصبی از ذهن انسان، احتمالاً چندان آسانتر از درک خودِ ذهن نخواهد بود.
مدلهای بزرگ میلیونها پارامتر دارند و مثل جعبههای سیاهاند؛ خروجی تولید میکنند ولی توضیح درونیشان همچنان مبهم و دستنیافتنی است.
یک رویکرد جایگزین این است که سراغ مقیاس کوچک برویم. دومین مقاله از دو پژوهش منتشرشده در نیچر بر شبکههای عصبی بسیار ریز (برخی در حد یک نورون) تمرکز دارد؛ شبکههایی که با همین اندازۀ ناچیز هم میتوانند رفتار موشهای کوچک، موشهای صحرایی، میمونها و حتی انسانها را پیشبینی کنند. از آنجا که این شبکهها بسیار کوچکاند، امکان ردیابی فعالیت تکتک نورونها وجود دارد و میتوان فعالیت هر نورون را بهطور جداگانه دنبال کرد و از آن دادهها برای فهمیدن نحوهی تولید پیشبینیهای رفتاری توسط شبکه استفاده کرد. هرچند هیچ تضمینی نیست که این مدلها دقیقاً مانند مغزهایی که برای تقلید از آنها آموزش دیدهاند عمل کنند، اما دستکم میتوانند فرضیههایی آزمونپذیر دربارهٔ شناخت انسان و حیوانات ارائه دهند.
درکپذیری هزینه دارد. برخلاف سنتائور که برای تقلید رفتار انسان در دهها وظیفهٔ مختلف آموزش دیده بود، هر شبک کوچک فقط میتواند رفتاری را در یک وظیفهی خاص پیشبینی کند. برای نمونه، یک شبکهٔ خاص صرفاً در پیشبینی چگونگی انتخاب افراد میان دستگاههای اسلات تخصص دارد. مارسلو ماتار[۶]، استادیار روانشناسی و علوم عصبی در دانشگاه نیویورک که رهبری پژوهش شبکههای کوچک را بر عهده داشت و در پروژهٔ سنتائور نیز مشارکت کرده بود، میگوید: «اگر رفتار واقعاً پیچیده باشد، به یک شبکهٔ بزرگ نیاز دارید. اما بهای این کار آن است که حالا درک آن بسیار، بسیار دشوار میشود.»
امروز توانایی ما در پیشبینی رفتار سیستمهای پیچیده بهسرعت در حال رشد است، اما درک واقعی ما از آنها هنوز عقب مانده و این شکاف هر روز بیشتر میشود.
این کشمکش میان پیشبینی و درک، یکی از ویژگیهای کلیدی علمی است که بر شبکههای عصبی تکیه دارد. (من اتفاقاً در حال نوشتن کتابی دربارهٔ همین موضوع هم هستم.) مطالعاتی مانند پژوهش ماتار[۷] در جهت پر کردن این شکاف اندکی پیشرفت داشتهاند، هرچند شبکههای او بسیار کوچکاند، اما میتوانند رفتار را دقیقتر از مدلهای روانشناسی سنتی پیشبینی کنند. پژوهشهایی دربارهٔ قابلیت تفسیر مدلهای زبانی بزرگ در مؤسساتی مانند «آنتروپیک[۸]» نیز در همین مسیر قرار دارند. با این حال، امروز توانایی ما در پیشبینی سیستمهای پیچیده (از انسان گرفته تا سامانههای اقلیمی و پروتئینها)خیلی سریع رشد کرده، اما پیش بینی و درک واقعی ما از آنها همچنان عقب مانده است.