سعیده بابایی
معرفی

دکتر سعیده بابایی دارای مدرک دکتری فلسفه علم و فناوری از پژوهشگاه علوم انسانی و مطالعات فرهنگی است و در حال حاضر به عنوان پژوهشگر در مرکز پژوهشی آرا فعالیت می‌کند. زمینه‌های تخصصی او شامل فلسفه علم است و دارای سابقه‌ای در مهندسی سیستم‌های انرژی نیز می‌باشد. بابایی با تمرکز بر مسائل علمی و اجتماعی، در فعالیت‌های مختلف پژوهشی و فکری مشارکت داشته و نقشی مؤثر در حوزه سیاست‌گذاری علمی و فناوری ایفا کرده است.

مقاله « هوش مصنوعی و مسئله توزیع مسئولیت » از جمله آثار ایشان است.

مقالات از قلم نویسندگان داخلی و خارجی بخوانید
الگوریتم‌ها به‌مثابۀ زامبی‌های اخلاقی | قسمت سوم: مسئولیت‌پذیری
چنان که گفتیم، ادعای این متن این است که الگوریتم‌ها خودمختار یا پاسخگو نیستند، زیرا توانایی حسی ندارند. برای آنکه (بر اساس خودمختاری) «خوب» را درک کنیم و طبق آن عمل کنیم، باید بتوانیم درکی از لذت، معناداری و رضایت داشته باشیم. اگرچه، نیازی نیست که همه انواع درد را تجربه کرده باشیم (هرچند که این توان
تاریخ انتشار پنج‌شنبه, ۶ اسفند ۱۴۰۱
الگوریتم‌ها به‌مثابۀ زامبی‌های اخلاقی | قسمت دوم: خودمختاری
برای یافتن رابطه میان خودمختاری و عاملیت اخلاقی باید به تعبیر غنی‌تر از خودمختاری (که در ادبیات فلسفه سیاسی و فلسفه اخلاق بحث می‌شود) توسل جست، نه صفت سطحی «خودمختار» که درباره تکنولوژی به کار می‌بریم. در نتیجه، پس از آنکه فهمیدیم یک موجود دارای عاملیت اخلاقی است، آنگاه استقلال او از عامل‌های دیگر د
تاریخ انتشار چهار شنبه, ۵ اسفند ۱۴۰۱
الگوریتم‌ها به‌مثابۀ زامبی‌های اخلاقی | قسمت اول: عاملیت اخلاقی
زامبی‌ها در فلسفه ذهن موجوداتی تعریف می‌شوند که از نظر فیزیکی، مولکول به مولکول شبیه ما هستند و وظایف و کارکردهای ما را نیز دارند و به نحوی تمایزناپذیر شبیه ما انسان‌ها عمل می‌کنند. اما بر خلاف انسان‌ها، دارای تجربه آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمی‌کنند. اگر چنین موجوداتی ب
تاریخ انتشار سه شنبه, ۴ اسفند ۱۴۰۱
چرا باید حکمت عملی مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟ | بخش دوم
در قسمت قبل درباره حکمت عملی و تقسیم آن به دو نوع مصنوعی و غیرمصنوعی توضیح دادیم. در این قسمت به بررسی برخی زوایای حکمت عملی مصنوعی میپردازیم.
تاریخ انتشار چهار شنبه, ۵ آبان ۱۴۰۱
چرا باید حکمت عملیِ مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟ | بخش اول
حکمت عملی مفهومی فلسفی است که اشاره به استدلال اخلاقی آگاهانه یا حکمت عملی دارد. ادعا می شود که در اغلب انسان های بالغ، این توانایی نقشی اساسی را دراستدلال اخلاقی سطح بالا ایفا می‌کند. اگر بخواهیم هوش مصنوعی توانایی استدلال در برابر مسائل اخلاقی را به گونه‌ای مشابه عملکرد انسان‌های کفایتمند دارا شود
تاریخ انتشار چهار شنبه, ۵ آبان ۱۴۰۱
معرفت؛ دومین شرط مسئولیت‌پذیری
در قسمت اول بیان کردیم که از نگاه ارسطو، شرط اول مسئولیت پذیری کنترل و شرط دوم داشتن معرفت است. شرط اول در قسمت قبل شرح داده شد. در این قسمت به توضیح شرط معرفت و به عبارت دیگر شفافیت و تبیین پذیری میپردازیم.
تاریخ انتشار سه شنبه, ۴ شهریور ۱۴۰۱
کنترل؛ اولین شرط مسئولیت‌پذیری
هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده و این روند در حال گسترش است. یکی از مهمترین پرسش ها که در حوزه های مطالعات اخلاقی و حقوقی هوش مصنوعی مطرح می شود، این است که مسئول خطاهای سرزده از این سیستم های هوشمند کیست؟
تاریخ انتشار شنبه, ۱ شهریور ۱۴۰۱
عاملیت و مسئولیت در هوش مصنوعی (بخش دوم و پایانی)
به باور اندیشمندانی که مخالف مسئولیت‌پذیری هوش مصنوعی هستند، واگذاری مسئولیت به هوش مصنوعی نه معنایی دارد و نه فایده‌ای. در شرایطی که هوش مصنوعی به حد کافی از خودمختاری رسیده باشد و در جایگاه طراح قرار گرفته و هدف را دریافت می‌کند، مدیر ارشد هنوز در جایگاه کاربری است که تعیین هدف می‌کند.
تاریخ انتشار یکشنبه, ۲ بهمن ۱۴۰۰