سعیده بابایی

معرفی
دکتر سعیده بابایی دارای مدرک دکتری فلسفه علم و فناوری از پژوهشگاه علوم انسانی و مطالعات فرهنگی است و در حال حاضر به عنوان پژوهشگر در مرکز پژوهشی آرا فعالیت میکند. زمینههای تخصصی او شامل فلسفه علم است و دارای سابقهای در مهندسی سیستمهای انرژی نیز میباشد. بابایی با تمرکز بر مسائل علمی و اجتماعی، در فعالیتهای مختلف پژوهشی و فکری مشارکت داشته و نقشی مؤثر در حوزه سیاستگذاری علمی و فناوری ایفا کرده است.
مقاله « هوش مصنوعی و مسئله توزیع مسئولیت » از جمله آثار ایشان است.
مقالات
از قلم نویسندگان داخلی و خارجی بخوانید
الگوریتمها بهمثابۀ زامبیهای اخلاقی | قسمت سوم: مسئولیتپذیری
چنان که گفتیم، ادعای این متن این است که الگوریتمها خودمختار یا پاسخگو نیستند، زیرا توانایی حسی ندارند. برای آنکه (بر اساس خودمختاری) «خوب» را درک کنیم و طبق آن عمل کنیم، باید بتوانیم درکی از لذت، معناداری و رضایت داشته باشیم. اگرچه، نیازی نیست که همه انواع درد را تجربه کرده باشیم (هرچند که این توان
تاریخ انتشار پنجشنبه, ۶ اسفند ۱۴۰۱
الگوریتمها بهمثابۀ زامبیهای اخلاقی | قسمت دوم: خودمختاری
برای یافتن رابطه میان خودمختاری و عاملیت اخلاقی باید به تعبیر غنیتر از خودمختاری (که در ادبیات فلسفه سیاسی و فلسفه اخلاق بحث میشود) توسل جست، نه صفت سطحی «خودمختار» که درباره تکنولوژی به کار میبریم. در نتیجه، پس از آنکه فهمیدیم یک موجود دارای عاملیت اخلاقی است، آنگاه استقلال او از عاملهای دیگر د
تاریخ انتشار چهار شنبه, ۵ اسفند ۱۴۰۱
الگوریتمها بهمثابۀ زامبیهای اخلاقی | قسمت اول: عاملیت اخلاقی
زامبیها در فلسفه ذهن موجوداتی تعریف میشوند که از نظر فیزیکی، مولکول به مولکول شبیه ما هستند و وظایف و کارکردهای ما را نیز دارند و به نحوی تمایزناپذیر شبیه ما انسانها عمل میکنند. اما بر خلاف انسانها، دارای تجربه آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمیکنند. اگر چنین موجوداتی ب
تاریخ انتشار سه شنبه, ۴ اسفند ۱۴۰۱
چرا باید حکمت عملی مصنوعی را در هوش مصنوعی شبیهسازی کنیم؟ | بخش دوم
در قسمت قبل درباره حکمت عملی و تقسیم آن به دو نوع مصنوعی و غیرمصنوعی توضیح دادیم. در این قسمت به بررسی برخی زوایای حکمت عملی مصنوعی میپردازیم.
تاریخ انتشار چهار شنبه, ۵ آبان ۱۴۰۱
چرا باید حکمت عملیِ مصنوعی را در هوش مصنوعی شبیهسازی کنیم؟ | بخش اول
حکمت عملی مفهومی فلسفی است که اشاره به استدلال اخلاقی آگاهانه یا حکمت عملی دارد. ادعا می شود که در اغلب انسان های بالغ، این توانایی نقشی اساسی را دراستدلال اخلاقی سطح بالا ایفا میکند. اگر بخواهیم هوش مصنوعی توانایی استدلال در برابر مسائل اخلاقی را به گونهای مشابه عملکرد انسانهای کفایتمند دارا شود
تاریخ انتشار چهار شنبه, ۵ آبان ۱۴۰۱
معرفت؛ دومین شرط مسئولیتپذیری
در قسمت اول بیان کردیم که از نگاه ارسطو، شرط اول مسئولیت پذیری کنترل و شرط دوم داشتن معرفت است. شرط اول در قسمت قبل شرح داده شد. در این قسمت به توضیح شرط معرفت و به عبارت دیگر شفافیت و تبیین پذیری میپردازیم.
تاریخ انتشار سه شنبه, ۴ شهریور ۱۴۰۱
کنترل؛ اولین شرط مسئولیتپذیری
هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده و این روند در حال گسترش است. یکی از مهمترین پرسش ها که در حوزه های مطالعات اخلاقی و حقوقی هوش مصنوعی مطرح می شود، این است که مسئول خطاهای سرزده از این سیستم های هوشمند کیست؟
تاریخ انتشار شنبه, ۱ شهریور ۱۴۰۱
عاملیت و مسئولیت در هوش مصنوعی (بخش دوم و پایانی)
به باور اندیشمندانی که مخالف مسئولیتپذیری هوش مصنوعی هستند، واگذاری مسئولیت به هوش مصنوعی نه معنایی دارد و نه فایدهای. در شرایطی که هوش مصنوعی به حد کافی از خودمختاری رسیده باشد و در جایگاه طراح قرار گرفته و هدف را دریافت میکند، مدیر ارشد هنوز در جایگاه کاربری است که تعیین هدف میکند.
تاریخ انتشار یکشنبه, ۲ بهمن ۱۴۰۰