خانه » مقالات » چگونه می‌توان به کمک هوش اخلاقی از خطرات هوش مصنوعی جلوگیری کرد؟
چگونه می‌توان به کمک هوش اخلاقی از خطرات هوش مصنوعی جلوگیری کرد؟
دوشنبه, ۳ آذر ۱۳۹۹
زمان تقریبی مطالعه ۱۵ دقیقه
نگرانی‌های عمومی که در مورد خطرات هوش مصنوعی وجود دارد، قابل درک است. وجود یک مجموعه اخلاقی به‌عنوان یک ناظر، می‌تواند به شفافیت و پاسخگویی به تصمیمات اخذ شده در حوزه توسعه هوش مصنوعی کمک کند.

پس از اعتراضات گسترده علیه نژادپرستی در ایالات‌متحده، غول‌های فن‌آوری مایکروسافت، آمازون و IBM به‌طور علنی اعلام کردند که دیگر به ادارات پلیس اجازه دسترسی به فن‌آوری تشخیص چهره خود را نمی دهند. اما دلیل این امر چه بود؟ هوش مصنوعی می‌تواند مستعد خطا باشد، به‌ویژه در شناخت افراد رنگین پوست و سایر گروه‌هایی که در جامعه به‌صورت محدود وجود دارند.

برای جلوگیری – نه فقط کاهش- خطرات هوش مصنوعی، باید یک هیأت‌ نظارت اخلاقی هوش مصنوعی منصوب کرد.

چنین نگرانی‌های اخلاقی تنها به نرم افزارهای تشخیص چهره ختم نمی‌شود. هر سازمانی که در حال توسعه یا استفاده از راهکارهای هوش مصنوعی باشد، باید در مورد این‌که هوش مصنوعی، این برند تجاری را به خطر نندازد یا منجر به تحریم و نابودی کسب و کار نشود، اطمینان حاصل کند.

از برد اسمیت[۱]، رئیس مایکروسافت، نقل شده است، “تا زمانی‌که یک قانون ملی، مبتنی بر حقوق بشر وضع نشود که بر این فن‌آوری حاکم باشد”، شرکت وی فن‌آوری شناسایی چهره را به ادارات پلیس ایالات متحده نمی‌فروشد.
در این حالت، در غیاب یک نهاد حمایتی قانونی، در برابر خطرات این حوزه، سازمان‌ها برای محافظت از خود، در برابر هوش مصنوعی، چه کاری می‌توانند انجام دهند؟!

از این گذشته، هوش مصنوعی می‌تواند به پیامدهای منفی متعددی، نظیر حذف مشاغل پایدار و پردرآمد تا تعیین مجازات زندان و اخذ مزایای پزشکی از طریق الگوریتم‌های نامشخص‌ در راستای استفاده سوء از امکانات، منجر شود. به دلیل این‌که، در این حوزه، معمولاً همه چیز کاملاً خودکار استفاده می‌شود، این احتمال نیز وجود دارد که مورد سوءاستفاده نیز قرار گیرد.

بنابراین مجدداً تأکید می‌شود که اولین و شاید مهم‌ترین گام برای جلوگیری از این قبیل مشکلات، منصوب کردن یک هیئت علمی اخلاقی هوش مصنوعی، نه فقط برای کاهش، بلکه برای جلوگیری از خطرات هوش مصنوعی است.

حمایت‌های موسسه ورای آنچه وجود دارد

بیماری همه‌گیر کووید 19، باعث ایجاد نگرانی‌های خاصی در مورد کارکنان و سلامت افراد شده است. این نگرانی‌ها به چگونگی استفاده از اصول اخلاقی داده در فرآیندهای تصمیم‌گیری، در طول بازه جمع‌آوری، استفاده و به اشتراک‌گذاری داده‌ها مرتبط است. در حال حاضر، اگر هر سازمانی بخواهد از فرصت‌های زیادی که هوش مصنوعی در اختیار آن قرار داده، برای کسب و کار خود استفاده کند، باید کاربرانش را از خطرات هوش مصنوعی نیز حفظ کند.
منشأ خطرات قابل درک و واقعی، معمولاً توانایی هوش مصنوعی در تصمیم‌گیری و عمل است، که با دخالت کم انسان یا بدون هیچ‌گونه دخالتی انجام می‌شود. اغلب موارد، خطراتی هستند که در زمینه حفظ حریم خصوصی، مشاغل، روابط و برقراری عدالت رخ می‌دهند.

اگرچه سازوکارهای عمومی برای کاهش خطرات این حوزه ایجاد شده است، اما هنوز کافی نیست. فشارهای بازار، شرکت‌ها را به توسعه هوش مصنوعی تشویق کرده تا به‌عنوان مثال، نیازهای دولت را شناسایی کند و مفاهیمی از قبیل تشخیص چهره را ممکن سازد. با این‌حال، تعهد اخلاقی در خصوص استفاده از این امکانات، هنوز شکل نگرفته و یا پیشرفتی نداشته است.

وجود یک هیأت‌ نظارت ناآگاه و بی‌اطلاع، مفید نیست. باید اعضای انتخاب شده، از تمام جزئیات و احتمالات موجود در این حوزه، مطلع باشند.

نهادهای نظارتی معمولاً در زمینه هوش مصنوعی آمادگی کافی ندارند و نمی‌توانند نظارت کافی را در این رابطه به‌عهده بگیرند. دادگاه‌ها، معمولاً از انتخاب‌هایی که منجر به پیامدهای معکوس در جامعه می‌شود، خودداری می‌کنند. همین امر موجب شده است برای اطمینان از رفاه عمومی، سخت‌گیری بیشتری را در تصمیم‌گیری مدنظر قرار دهند.

بنابراین این‌که توسعه‌دهندگان حوزه هوش مصنوعی، نگران سوءاستفاده از راهکار‌های ارائه شده یا سایر پیچیدگی‌های مرتبط با آن باشند، تعجب‌آور نیست. نگرانی مایکروسافت در مورد استفاده از فن‌آوری تشخیص چهره مطمئناً قابل توجیه است، زیرا این فن‌آوری‌های پیشرفته اگرچه برای محافظت از جامعه طراحی شده‌اند، اما چنانچه در جهت درست استفاده نشوند، می‌توانند روی همان جامعه، تأثیر منفی بگذارند.

و بار این قبیل اشتباهات به‌راحتی می‌تواند بر روی دوش افراد رنگین پوست و سایر افرادی که در نهادهای توسعه و نظارت بر چنین فن‌آوری‌هایی نمایندگان کمتری دارند، بیفتد.

ایجاد یک نهاد خارجی مختص اخلاق هوش مصنوعی

آکسون[۲]، یک ارائه‌دهنده قانونی در حوزه فن‌آوری هوش مصنوعی، برای کمک به مکانیسم‌های محافظت از مردم، یک هیأت اخلاق خارجی تأسیس کرد تا کاستی‌های این بخش را بهبود دهد. به‌طور خاص، این شرکت هیأت مدیره‌ای ایجاد کرده است که امکان شفافیت، پاسخگویی و بازنمایی بیشتری را در روند توسعه هوش مصنوعی ارائه می‌دهد. در زیر به برخی آموخته‌های به‌‌دست آمده از این اقدام پرداخته شده است:

بازنمایی

مشتریان اولیه، خریداران محصولات شما هستند، اما مصرف‌کنندگان چه‌ کسانی هستند؟

در مورد فن‌آوری‌های وابسته به پلیس، نهادهای انتظامی و اجرایی قانون، ممکن است مشتری شما باشند، اما جوامعی که این افراد به آن‌ خدمت می‌کنند، مصرف‌کننده اصلی هستند و مستقیماً تحت تأثیر استفاده از این فن‌آوری‌ها قرار می‌گیرند.

چنانچه افرادی در هیأت نظارت انتخاب شوند که مصرف کنندگان اصلی محصولات را درک کرده و بتوانند بینشی نسبت به تأثیر بالقوه فن‌آوری‌های هوش مصنوعی ایجاد کنند، این کار به فیلتر کردن پیشنهادهای ضعیف برای تولید محصولات هوش مصنوعی، پیش از ورود به بازار کمک می‌کند.

شفافیت

در مورد هر پروژه هوش مصنوعی و نقشه راه آن، کاملاً با هیأت اخلاقی هوش مصنوعی صادق باشید. وجود یک هیأت نظارت ناآگاه و بی‌اطلاع، مفید نیست. اعضای انتخاب شده، باید تمام جزئیات لازم را داشته باشند تا بتوانند توصیه‌های مطمئنی در خصوص توسعه پروژه‌ها ارائه دهند. این نوع شفافیت و اعتبار به شما کمک می‌کند تا اعضای شایسته‌ای را در این هیأت آموزش داده و نگه دارید.

مسئولیت

هنگامی‌که هیأت‌مدیره توصیه‌های خود را ارائه داد، رهبران ارشد باید به‌صورت عمومی، به آن‌ها پاسخ دهند. این امر نشان می‌دهد که سازمان، متعهد و پاسخگو است.

توانمند‌سازی هیأت اخلاقی هوش مصنوعی

علاوه بر موارد قبل، آکسون، در راستای توانمندسازی هیأت اخلاقی هوش مصنوعی و اعضای آن، گام‌های گوناگونی برداشته است:

  1. اعضای موثر را انتخاب کنید. علاوه بر تمرکز روی کسانی‌که تحت تاثیر فن‌آوری های هوش مصنوعی شما قرار می‌گیرند، از مستقل بودن هیأت مدیره نیز اطمینان حاصل کنید. برای این‌کار، خود هیأت مدیره را در انتخاب اعضای آینده درگیر کنید و مطمئن شوید که شامل هیچ‌یک از کارمندان سازمان شما نباشد. هیأت‌مدیره را به اندازه کافی متنوع و واجد شرایط به چالش کشیدن تصمیمات تجاری بسازید. در این حالت، اعضای احتمالی نه تنها متخصصان هوش‌ مصنوعی و یادگیری ماشین، بلکه تنظیم‌کننده‌ها، دانشگاهیان و شاغلان فعال در حوزه تجارت شما خواهند بود.
  2. قابلیت بازخورد مناسب و شفاف ایجاد کنید. برای اطمینان از کارایی هیأت‌مدیره، از سه قانون اساسی استفاده کنید:
  3. سازماندهی پاسخگویی. از طریق انتخاب یک نماینده از گروه اخلاق و یک نماینده از گروه توسعه، به تیم توسعه هوش مصنوعی خود اجازه دسترسی نامحدود به هیأت اخلاق بدهید. این امر، اعتماد بین طرفین و شرکت‌کنندگان را تضمین می‌کند و ساز و کارهایی را برای رسیدگی به هرگونه نگرانی اخلاقی (مانند شکایت از افشاگران)، به‌وجود می‌آورد.

وجود یک هیأت مدیره خارجی در حوزه اخلاق هوش مصنوعی، می‌تواند در سازمان، برتری رقابتی و انعطاف‌پذیری بیشتری برای کسب و کار ایجاد کرده و باعث تمایل بیشتر سازمان به جذب استعدادها شود.

سایر مقالات