دستورها شبيه شعرهاى كوتاه و انتزاعىاند.
«طوفانى سهمگين بر فراز صخرههاى ساحلى. ابرها شکل لولهای به خود گرفتهاند و بىوقفه صاعقه میزند.»
پايينتر مىروم؛ دستور ديگرى ظاهر مىشود:
«پیکر مردى كه از آتشى ملايم شكل گرفته، خطوط بدنش با جرقههاى ضعیفی مىدرخشد، به سوى زنى پيش مىرود كه از جريان آب ساخته شده، پیکر آن زن تشکیل شده از امواج و مه سبکی و برق مىزند. آن دو با آرامش به سوى هم قدم برمیدارند و به آغوش گرم یکدیگر میرسند.»
اين صحنهها در قالب ويديوهايى ساختهشده با هوش مصنوعى در برابر چشمانم جان مىگيرند. در كليپ نخست، صاعقههاى ناشيانه از دل ابر بيرون مىجهند و بر سطح آب و مانیتور من مىغلتند. در دومى، انسانهايى بىجنسیت، درخشان و نورانى اشک مىريزند و همديگر را در آغوش مىكشند. اين ويديوها پشت سر هم ظاهر مىشوند، پيش از آنكه ذهن خودم فرصت تخیلکردن آنها را داشته باشد، گويى فعل رؤيا ديدن منسوخ و ناكارآمد شده است.
من در درحال استفاده از برنامهاى به نام Vibes هستم؛ يك شبكۀ اجتماعى جدید در پلتفرم Meta AI، با این تفاوت که هیچ انسان واقعی در آن نیست. كاربران مىتوانند در این فضا یک حساب بسازند و از مدل زبانى بزرگ این شركت بخواهند ايدههايشان را به تصوير درآورد. ويديوهاى تولیدشده به شكل تصادفى در فيدى شبيه تيکتاک نمايش داده مىشوند (اپلیکیشن جدید Sora 2 از OpenAI نیز تقريباً همين كار را مىكند). تصاوير، بسیار تمیز و بیش از حد پردازش شدهاند؛ سبک زیباییشناختی «واقعىتر از واقعيت» كه سبک غالب هنر هوش مصنوعی مولد شده است. هر ويديو به تنهايى كنجكاوىبرانگيز است اما ارزشش پس از يک بار ديدن از بین میرود. در مجموع، تاثیری ناخوشایند و تقريبا مخدّر دارند: بىزمينه، خرفتکننده و مهمتر از همه، بىپايان. هر كليپ متوالی به همان اندازه كه زود مصرف است، بیمزه هم هست.
صفحهای جدید باز میکنم و پست جدید رئيسجمهور ترامپ را در شبكهٔ اجتماعى شخصىاش مىبينم. ويديويى از هوش مصنوعى كه در روز اعتراضات «پادشاه بی پادشاه[۱]» منتشر شده: ترامپ تاجى بر سر دارد و سوار جنگندهاى است كه روى آن نوشته شده «پادشاه ترامپ»! او با جنگنده بر فراز میدان تایمز نیویورک میرود و چیزی شبيه مدفوع بر جمعيت معترضان زير پايش مىريزد. آهنگ Danger Zone از كنى لاگينز پخش مىشود.
صفحهای ديگر باز مىكنم. حساب رسمى كاخ سفيد در X تصويرى AI از ترامپ و معاونش جى. دى. ونس منتشر كرده كه هر دو تاج بر سر دارند. يكى از اينفلوئنسرهاى مگا (MAGA) نيز فريب پوسترى تبليغاتى براى اجراى نيمۀ دوم مسابقهٔ سوپربول از سازمان Turning Point USA را خورده كه در فهرست مهمانان ويژهاش كلمهٔ «سرخک» نيز آمده است. با ويديوهاى ساخته شده با هوش مصنوعی بیشتری روبهرو مىشوم: مردى در آشپزخانه، پوکمانی به نام پيكاجو را در دستگاه آشپزی sous-vide میاندازد؛ در ديگرى، تبليغى كاملاً ساختگى اما به ظاهر واقعی از اسباببازى «جزيرهى جفرى اپستين[۲]» به سبک تبليغات دههٔ نود میلادی پخش مىشود. اين ويديوها همگى واترمارک Sora2 دارند، نشانى كه حالا بسيارى به ويديوهاى حقيقى هم اضافه مىكنند تا مخاطبان را دست بيندازند.
نظرات زير همهٔ اين ويديوها تقريباً يكى است و بر اساس اين ديدگاه شكل گرفته كه تشخيص ويديوهاى هوش مصنوعى از کلیپهای واقعى دشوار شده است: «كارمان تمام است.»
ورود چتباتهايى كه متنهاى بیمحتوا توليد مىكنند باعث آلودگی نتايج جستوجوى گوگل و آرشیوهای علمى با توهمات ماشينی شده است.
زندگى در دوران طلايى «شلختهنگاری[۳]» چنین احساسی به انسان میدهد؛ عبارتی کلی كه براى توصيف کیفیت ضعیف و اسپمگونهٔ محتوای تولیدشده با AI به كار مىرود. من كمكم به این نتیجه رسیدهام که اين پديده همارز ديجيتالى يک گونۀ مهاجم است. همانطور كه ورود و تكثير يک گياه يا جانور جديد معمولاً موجب آسيب زيستمحيطى و تهديد گونههاى بومى مىشود، ورود چتباتهايى كه متنهاى بیمحتوا توليد مىكنند باعث آلودگی نتايج جستوجوى گوگل و آرشیوهای علمى با توهمات ماشينی شده است.
در دو سال گذشته فروشندگان كتاب با سيل كتابهاى تقلبىِ و نقدهاى نوشته شده توسط هوش مصنوعی در سايتهايى مانند آمازون دستوپنجه نرم كردهاند. این معضل همان «كدهای شلخته» است. در دنياى شركتى «کار شلخته» در شکلهای مختلفی مانند ايميلهاى بیخود، ارائههاى ضعيف و يادداشتهاى بىروح خود را نشان میدهد. معلمان نيز در درياى «کارهای شلختهٔ علمى» غرقاند تا جايى كه ناچار شدهاند برنامههاى درسى خود را بازنویسی کنند. در ليستهاى اسپاتيفاى، تيكتاك و حتى گروههای چت شما نيز این شلختهنگاری وجود دارند. برخى از كانالهاى پربازديد يوتيوب هم سرشار از اين ويديوهاى شلختهٔ AI هستند و حتى شركتهاى ماءالشعیرسازی هم از تصاوير مولد AI بر روى قوطيهاى خود استفاده مىكنند. هيچ عرصهاى از زندگى و کار از اين آلودگى شلختهنگاری در امان نمانده است.
محتواى مصنوعى پديدهٔ جديدى نيست، اما اكنون به ستون اصلى اينترنت تبديل شده است. شركت سئوی Graphite گزارش داده كه اینترنت از نوامبر ۲۰۲۴ به نقطهٔ عطف تولیدات ماشینی رسیده، بهطوریکه حجم مقالات توليدشده با هوش مصنوعى در وب از ميزان توليدات انسانى پيشى گرفته است.
شركت سئوی Graphite گزارش داده كه اینترنت از نوامبر ۲۰۲۴ به نقطهٔ عطف تولیدات ماشینی رسیده، بهطوریکه حجم مقالات توليدشده با هوش مصنوعى در وب از ميزان توليدات انسانى پيشى گرفته است.
از نظر حجم تولید، شايد «شلختهنگارى» بارزترین و موفقترين محصول جانبی دوران هوش مصنوعى مولد تاكنون باشد؛ این موضوع همچنین نشانۀ همان چیزی است که قبلا از آن به عنوان «توهم جمعى» دربارهى هوش مصنوعى یاد کردم، جايى كه هيجان ساخت و آیندهٔ مفروض ما از ابرهوشى خداگونه و درمان سرطان با واقعيت ملالآور جنگندهٔ مدفوعى ترامپ تلاقى مىكند.
تمام اينها اثرى مبهم بر ذهن مىگذارد. زندگى در اين دوران چنين است كه احساس مىكنى عنصرى اساسى از انسانيت مشترک ما كمكم از جهان رخت برمىبندد. اگر به اندازۀ كافى در اينترنت بمانی، مىبينى كه اين محتواهاى ارزان مصنوعى همهجا هستند و بىسروصدا فرهنگ را تغییرشكل مىدهند. بازاریابان، سياستمداران و حتى كاربران عادى از آن براى تبليغ، گسترش پروپاگاندا و ارتباط با یکدیگر استفاده مىكنند. ذهن ما مانند پيكاچوى بيچاره در دستگاه sous-vide، در طعمهٔ تعاملات ماشينساخته آرام آرام مغزپخت میشود تا در نهايت با اشارهای از هم بپاشد. نمونهاى از تجربهٔ امروزى من در اينترنت معاصر: چند هفته پيش خالۀ پيرم ويدئويى در اينستاگرام فرستاد كه در آن دو سگ، مانند انسان، پشت ميز نشسته و پادكست ضبط مىكردند. كسى پاسخ نداد. چند روز بعد، دوستش ويدئويى از بچهگربهاى فرستاد که لباس زن ميانسالى بر تن داشت و مثل یک كودک حرف مىزد. باز هم هيچ واكنشى نبود. با خودم فکر کردم چه چيزهای دیگرى در اکسپلور آنها وجود دارد!
زندگى در نقطهى اوج شلختهنگارى الزاماً رودرویی با بحرانى فورى نيست، بلكه نوعى تسليم تدريجى در برابر یک سردرگمى همگانى است. اغلب مىتوان این محتوای شلخته را تشخيص داد، اما تردید کمکم رخنه میکند. زير تصاوير زيباى حياتوحش در اينستاگرام، نظرات بىشمارى مىبينيد كه مىپرسند: «اين واقعى است يا هوش مصنوعى؟». به تدریج شک مىكنيد كه این آهنگی که شنیدید کار هوش مصنوعی بوده یا نه. ويدئويى از اعتراض پناهجويان به نیروهای [۴]ICE مىبينيد و چک میکنید که ویدیو واترمارک AI دارد یا نه. رئيسجمهور را مىبينيد كه كليپى ساختگى از خود در برنامهٔ خبرى فاکس منتشر مىكند و برایتان سوال میشود که خودش مىداند اين ویدیو واقعى نيست؟
زندگى در اين دوران چنين است كه احساس مىكنى عنصرى اساسى از انسانيت مشترک ما كمكم از جهان رخت برمىبندد. اگر به اندازۀ كافى در اينترنت بمانی، مىبينى كه اين محتواهاى ارزان مصنوعى همهجا هستند و بىسروصدا فرهنگ را تغییرشكل مىدهند.
اگر زياد بهش فکر کنید همه چيز رنگى شيطانى به خود مىگيرد. مدلهاى زبانى بزرگ كه تمام دستاورد خلاقيت انسان را بلعيدهاند، پيوسته آن را بازتركيب مىكنند تا جهانهاى خيالى و محتواهاى سفارشى بسازند كه تقريباً از واقعيت غیرقابل تشخیص شدهاند (و هر روز هم بهتر و واقعىتر مىشوند). اين ديگر بازنويسى تاريخ نيست، بلكه نوعى حملۀ DDos (محرومسازی از خدمات) به آن است؛ سيلابى از آشغالهای مصنوعى كه باعث مىشود تعامل با محتوای واقعی و انسانی به يكى از هزاران تجربهٔ محتوايى در منوی انتخابی کاربران تبدیل شود.
شركتهاى بزرگ فناورى در پى آناند كه اين زبالههاى فراگیر اينترنتى را به چيزى ارزشمند تبديل كنند. دستكم در مورد متا، دليلش آشکار است. همانطور كه رايان برودريك نویسنده در بهار امسال نوشت: «شبكههاى اجتماعى در دههى ۲۰۱۰ به دنبال مقیاس بالا بودند و حالا به مخاطبانى گسترده و جهانى دست پیدا کردهاند كه ديگر نمىتوانند درست با هم ارتباط برقرار كنند». شبكههايشان توانستند بین مردم دنیا ارتباط برقرار کنند، اما آنقدر عظیم و پر از محتوای انسانی شدند كه محتواى شلختهٔ مدلهای زبانی بزرگ خصوصی توانستند خلأ شکل گرفته در نیازهای آن را پر کنند. شبكهاى اجتماعى را تصور کنید كه در آن، واحد اصلى محتوا نه متون و لینکهای سوم شخص است و نه محتوای سياسى تفرقهانگیز. بلكه زبان جهانى آن ويديوهاى كوتاهِ یکبار مصرف است كه پی در پی ميان كاربران معتاد اسکرول کردن دست به دست مىشود.
مدل پیشنهادی OpenAI در Sora2 كمى متفاوت به نظر مىرسد؛ بيشتر شبيه يک نمايش پرزرقوبرق براى نشان دادن قدرت مدلهايش است. سم آلتمن در زمان معرفى اين ابزار نوشت كه «خلاقيت در آستانهٔ یک انفجار كامبرينى[۵] است» و با استفاده از این ابزار «كيفيت هنر و سرگرمى مىتواند بهطرز چشمگيرى افزايش يابد». سرمايهگذار خطرپذیر مارک اندرسن نیز پیشبینی کرد که Sora2 باعث خلق نوع جدیدی از خلاقیت میشود: «فيلمسازى كه مهارت بصری، یا دسترسی به صحنه، دوربين يا بازيگر ندارد، اما ايدهاى در ذهن دارد. از كليپهاى كوتاه و انيميشنها آغاز مىشود و سرانجام به فيلمهاى سینمایی مىرسد.»
شبكهاى اجتماعى را تصور کنید كه در آن، واحد اصلى محتوا نه متون و لینکهای سوم شخص است و نه محتوای سياسى تفرقهانگیز، بلكه زبان جهانى آن ويديوهاى كوتاهِ یکبار مصرف است كه پی در پی ميان كاربران معتادِ اسکرول کردن دست به دست مىشود.
مبنای این پیشبینی بر آن است که Sora2، مانند ساير ابزارهاى هوش مصنوعى، دشواری بالای ميان مفهوم و اجرا را در فرآيند خلاقيت از ميان مىبرد. تخيل و ايدهپردازی یک تجربهٔ انسانی جهانشمول است، اما اجرای آن اكتسابى است كه به برای کسب مهارتهای لازم برای پیادهسازی آن ایده نياز به زمان و انرژى دارد. تعريف آلتمن از خلاقيت اين عنصر دوم را بهكل ناديده مىگيرد، تا جايى كه به نظر مىرسد اين غفلت، اصل بنيادى بيشتر ابزارهاى OpenAI است. او تابستان امسال در پادكست کمدین تئو وان[۶] گفت: «اينكه بتوانی فقط با توضيح دادن ایدهات به AI، يك نرمافزار كامل تحویل بگیری براى بشر فوقالعاده است. چون بهنظرم در این نقطه تعداد ايدههاى خوب بسيار بيشتر از كسانى است كه بلدند چگونه آن ایدهها را محقق كنند. اگر هوش مصنوعى بتواند اين كار را برايمان انجام دهد، ما در خلق ايدههاى خلاقانه واقعاً خوبيم.»
آنچه آلتمن توصیف میکند، جهانی خلاق و بدون مهارت است. ویل منیدیس[۷]، کارآفرین و سرمایهگذار،اوایل امسال در یادداشتی در ساباستک استدلال کرد که «شلختهنگاری زمانی پدید میآید که نه تنها سختی کار، یعنی جنبههای طاقتفرسای کار، بلکه خودِ کار، یعنی تعاملات انسانی معنادار همراه با نوآوری و ابتکار، از میان برداشته شود.» به عبارت دیگر، این همان حذف تمام دشواریها، عاملیت و در نتیجه انسانیت است. در مورد شبکههای اجتماعی مانند نسخههای تقلیدی SlopTok، نبود دشواری و سختی بسیار مطلوب است. کاربران انسانی در شبکههای اجتماعی گرهی پر از دشواری هستند، آنها دعوا میکنند، رفتارهای غیرقابل پیشبینی دارند، بهصورت نامنظم محتوا تولید میکنند و وقتی هم به اندازه کافی دنبالکننده داشتند، انتظار سهمی از درآمد تبلیغات را دارند. انسانها سرمایه هستند، اما در عین حال مایهٔ دردسر هم هستند.
این فیدهای شلخته مشکلات خودشان را دارند. . تنها چند روز پس از عرضه Sora2، کاربران آن را با ویدیوهایی از صحبتهای نژادپرستانهٔ مارتین لوتر کینگ جونیور و دزدی او از فروشگاه پر کردند. (OpenAI در ایکس اعلام کرد که در حال همکاری با خانواده کینگ است و استفاده از چهرهٔ او را ممنوع کرده است.) مدت کوتاهی بعد زلدا ویلیامز، دختر بازیگر و کمدین رابین ویلیامز، از دنبالکنندگانش در اینستاگرام خواست دیگر برایش ویدیوهای مصنوعی پدر مرحومش را نفرستند: « لطفاً اگر ذرهای شرافت دارید، این کار را تمام کنید. برای او، برای من، برای همه. این کار احمقانه است، تلف کردن وقت و انرژی است و باور کنید او هرگز چنین چیزی نمیخواست.»
وقتی چتباتها خودشان مقاله مینویسند و سپس همان مقالات منبع آموزش چتباتهای دیگر میشوند چه خواهد شد؟ متخصصان فناوری نگران «فروپاشی مدل» هستند. این سیل محتوای بیکیفیت ممکن است نخستین گام در جهت فروپاشی مدلهای آینده باشد.
با این حال، یک فید مصنوعی از بعد نظری بسیار سادهتر از این حرفاست، اکسپلوری بیپایان از تعاملات محرک دوپامین برای کاربران و خوراکی برای شبکههای اجتماعی و چتهای دیگر. جو وایزنتال[۸]، نویسنده و پادکستر بلومبرگ، اخیراً در ایکس نوشت که این تکامل نوعی همخوانی شاعرانه دارد: «از همان لحظهٔ شروع مصرف محتوا از طریق فید میشد ظهور شلختهنگاری را پیشبینی کرد.»
رویای افرادی چون آلتمن و اندرسن نقطهٔ نهایی منطقی فناوری است، تلاشی برای حذف مقاومت شناختی و پر کردن شکاف میان تخیل و واقعیت. اما با الهام گرفتن از چارچوب فکری منیدیس باید گفت، که این تلاش دشواری بیفایده را با کارِ معنادار اشتباه میگیرد. آنها بهغلط باور دارند که جهان تنها بر پایهٔ ایدهها میچرخد و ارزشی برای زحمتی که در پیاده سازی آنها صرف میشود قائل نیستند. آیندهٔ بدون دشواری که آنها وعده میدهند ترسناک است، تکراری و بیروح، بنبستی فرهنگی. این آینده شبیه استارتآپی فانتزی به نام Cluely است که شعارش این است: «دیگر هرگز مجبور نیستی تنهایی فکر کنی.» یا شبیه سرویس تولید پادکست Inception Point AI که حدودا پنجهزار پادکست در شبکه پادکستی خود تولید کرده و بهطور میانگین هر هفته سه هزار قسمت جدید آن هم با هزینهای کمتر از یک دلار برای هر قسمت منتشر میکند (به ادعای خودشان). یا شبیه برنامهٔ مارک زاکربرگ برای جایگزین کردن دوستان واقعی با چتباتهای هوش مصنوعی، راهحلی بیدشواری برای همهگیری تنهایی.
در حال حاضر دلالهای شلختهنگاری درآمد خوبی دارند. اسپمرهای فیسبوک که از تصاویر «زنانی که با هوش مصنوعی به حالت شیردهی درآمدهاند» و تصاویری عجیب از «مسیح میگویی[۹]» استفاده میکنند، کاربران را به کلیک روی لینکهای وبسایتهای بیارزش وادار کرده و از ترافیک درآمدزایی میکنند. به گزارش واشنگتن پست برخی اکانتهای تیکتاک، ماهانه تا پنجهزار دلار از طریق ساخت ویدیوهای احمقانهٔ درمورد پیرمردهایی که درباره کثیف کردن لباسهایشان حرف میزنند، کسب درآمد میکنند.
همه اینها در ساخت آن چیزی که طراح معروف آنژلوس آرنیس[۱۰] اسم آن را «زیرساخت بیمعنایی» میگذارد نقش دارند. برای پروژهای فناورانه که کارش تولید هنر، موسیقی، فیلم و متون تهی از تجربهٔ انسانی است و هیچ احساسی در خود ندارد چه اسم دیگری میتوان گذاشت؟ شاید هرکدام از این شلختهنگاریها بهتنهایی ارزش نگرانی نداشته باشد، اما خالی بودن این ابزارها از مفهوم «دشواری» در گذر زمان اثری فرسایشی دارد. به جای افزایش بهرهوری، خروجیهای «خلاقانهٔ» هوش مصنوعی مولد در حال آسیب رساندن به تار و پود ارتباطات انسانیاند. تحقیقات نشان دادهاند که در برخی شرکتها کارمندان، همکارانی را که از هوش مصنوعی مولد استفاده میکنند، کمتر خلاق و حتی کمتر قابل اعتماد میدانند.
تقریباً یک سوم از کسانی که از چتباتها برای دریافت اخبار استفاده کردهاند، تشخیص حقیقت از دروغ را دشوار یافتهاند. هوش مصنوعی واقعا زیرساختی از بیمعنایی و سردرگمی ایجاد کرده است.
تهدید شلختهنگاری آن است که با ایجاد چرخههای بازخوردمحور از اطلاعات تکراری، اینترنت را به سمت تهی شدن از معنا سوق میدهد. آموزش چتباتها با مجموعهای از دادههای واقعی است که انسانها جمعآوری و تحلیل کردهاند. آنها این اطلاعات را میگیرند و تحلیلهای خود را تولید میکنند که ممکن است شامل خطا یا توهم باشد. اما اتفاقی که بعد از آن میافتد، نگرانکنندهتر است: وقتی چتباتها خودشان مقاله مینویسند و سپس همان مقالات منبع آموزش چتباتهای دیگر میشوند چه خواهد شد؟ متخصصان فناوری نگران «فروپاشی مدل» هستند، پدیدهای که در آن محتواهای تولید شده توسط AI به خورد مدلهای جدید داده میشوند و در هر تکرار خطاها بیشتر میشوند. این سیل شلختهنگاری ممکن است نخستین گام در جهت فروپاشی مدلهای آینده باشد.
حتی بدون چنین فروپاشیای، هجوم این آشغالهای مصنوعی آب را برای کاربران واقعی گلآلود کرده است. پژوهشی از مرکز تحقیقاتی پیو[۱۱] نشان میدهد که تقریباً یک سوم از کسانی که از چتباتها برای دریافت اخبار استفاده کردهاند، تشخیص حقیقت از دروغ را دشوار یافتهاند. هوش مصنوعی واقعا زیرساختی از بیمعنایی و سردرگمی ایجاد کرده است.
فراگیری شلختهنگاری باعث شده مردم آن را به چیزهای مختلفی تشبیه کنند. من آن را به گونهای مهاجم تشبیه کردهام؛ دیگران آن را به یک مادهٔ مصنوعی و ارزانقیمت دیگر یعنی پلیاستر تشبیه کردهاند. اگر به اندازهٔ کافی شلختهنگاری مصرف کرده باشید، ممکن است آن را با خوراکیهای فوقفرآوریشدهای مقایسه کنید که برای ربودن ذائقه شما طراحی شدهاند. شاید جهان در این مورد روزی به تعادل برسد. گاهی اوقات، یک اکوسیستم میتواند با مهاجمان سازگار شود. اما گاهی هم مارها تمام پرندگان را میخورند.
هوش مصنوعی مولد واقعاً تحولآفرین و فاقد دشواری است، اما انگیزههای اقتصادی پشت استفاده از آن کمتر در خدمت شکوفایی انسان و بیشتر در جهت تولید محتوای بیکیفیت بی حد و مرز است.
اما در واقعیت هیچکدام از این مقایسهها، اتفاقات پیشرو را تمام و کمال در برنمیگیرد. در اصل، شلختهنگاری پای نوعی نیهیلیسم را به همه جنبههای زندگی ما باز کرده است. طرفداران هوش مصنوعی ادعا میکنند ابزارهای AI چنان وفورِ بیسابقهای از قدرت ذهنی شبهانسانی را آزاد میکند که پتانسیل جمعی ما را به عنوان یک گونه ارتقا خواهد داد. اما تا این لحظه، خروجی اصلی آن دقیقاً خلاف این ادعاست: زیرساختی از بیمعنایی که حتی عمل خلق محتوایی پرمعنا را بیاهمیت میسازد.
سازندگان این ابزارها، از روایتی اغواگرایانه برای فروش آن استفاده میکنند: هوش مصنوعی مولد میتواند انجام هرکاری را بهتر کند، خلاقیت را تسهیل کند، دشواریهای کار را از میان بردارد، بهرهوری را افزایش دهد و مرزهای امکان را گسترش دهد. مبلغان AI میگویند تغییری که در اقتصاد آنلاین ایجاد کرده، نشانهٔ خوشبینی است. اما در حال حاضر بسیاری از این مزایا صرفاً نظریاند. هوش مصنوعی مولد واقعاً تحولآفرین و فاقد دشواری است، اما انگیزههای اقتصادی پشت استفاده از آن کمتر در خدمت شکوفایی انسان و بیشتر در جهت تولید شلختهنگاری بی حد و مرز است.
این ماجرا تراژدی است. از میان رفتن دشواریهای کاری، انسان را از چیزی حیاتی محروم میکند. آنچه میان تخیل و آفرینش رخ میدهد، توصیفناپذیر است، فرایندی شامل تلاش، تکرار، شادی، درماندگی، ناامیدی و غرور. از طریق همین فرایند است که اختیار خود را بهکار میگیریم، معنا میسازیم و در جهان پیش میرویم. بهگمان من از دست دادن آن، تسلیم شدن و از دست دادن خودِ انسانیت است.