پس از اعتراضات گسترده علیه نژادپرستی در ایالاتمتحده، غولهای فنآوری مایکروسافت، آمازون و IBM بهطور علنی اعلام کردند که دیگر به ادارات پلیس اجازه دسترسی به فنآوری تشخیص چهره خود را نمی دهند. اما دلیل این امر چه بود؟ هوش مصنوعی میتواند مستعد خطا باشد، بهویژه در شناخت افراد رنگین پوست و سایر گروههایی که در جامعه بهصورت محدود وجود دارند.
برای جلوگیری – نه فقط کاهش- خطرات هوش مصنوعی، باید یک هیأت نظارت اخلاقی هوش مصنوعی منصوب کرد.
چنین نگرانیهای اخلاقی تنها به نرم افزارهای تشخیص چهره ختم نمیشود. هر سازمانی که در حال توسعه یا استفاده از راهکارهای هوش مصنوعی باشد، باید در مورد اینکه هوش مصنوعی، این برند تجاری را به خطر نندازد یا منجر به تحریم و نابودی کسب و کار نشود، اطمینان حاصل کند.
از برد اسمیت[۱]، رئیس مایکروسافت، نقل شده است، “تا زمانیکه یک قانون ملی، مبتنی بر حقوق بشر وضع نشود که بر این فنآوری حاکم باشد”، شرکت وی فنآوری شناسایی چهره را به ادارات پلیس ایالات متحده نمیفروشد.
در این حالت، در غیاب یک نهاد حمایتی قانونی، در برابر خطرات این حوزه، سازمانها برای محافظت از خود، در برابر هوش مصنوعی، چه کاری میتوانند انجام دهند؟!
از این گذشته، هوش مصنوعی میتواند به پیامدهای منفی متعددی، نظیر حذف مشاغل پایدار و پردرآمد تا تعیین مجازات زندان و اخذ مزایای پزشکی از طریق الگوریتمهای نامشخص در راستای استفاده سوء از امکانات، منجر شود. به دلیل اینکه، در این حوزه، معمولاً همه چیز کاملاً خودکار استفاده میشود، این احتمال نیز وجود دارد که مورد سوءاستفاده نیز قرار گیرد.
بنابراین مجدداً تأکید میشود که اولین و شاید مهمترین گام برای جلوگیری از این قبیل مشکلات، منصوب کردن یک هیئت علمی اخلاقی هوش مصنوعی، نه فقط برای کاهش، بلکه برای جلوگیری از خطرات هوش مصنوعی است.
حمایتهای موسسه ورای آنچه وجود دارد
بیماری همهگیر کووید 19، باعث ایجاد نگرانیهای خاصی در مورد کارکنان و سلامت افراد شده است. این نگرانیها به چگونگی استفاده از اصول اخلاقی داده در فرآیندهای تصمیمگیری، در طول بازه جمعآوری، استفاده و به اشتراکگذاری دادهها مرتبط است. در حال حاضر، اگر هر سازمانی بخواهد از فرصتهای زیادی که هوش مصنوعی در اختیار آن قرار داده، برای کسب و کار خود استفاده کند، باید کاربرانش را از خطرات هوش مصنوعی نیز حفظ کند.
منشأ خطرات قابل درک و واقعی، معمولاً توانایی هوش مصنوعی در تصمیمگیری و عمل است، که با دخالت کم انسان یا بدون هیچگونه دخالتی انجام میشود. اغلب موارد، خطراتی هستند که در زمینه حفظ حریم خصوصی، مشاغل، روابط و برقراری عدالت رخ میدهند.
اگرچه سازوکارهای عمومی برای کاهش خطرات این حوزه ایجاد شده است، اما هنوز کافی نیست. فشارهای بازار، شرکتها را به توسعه هوش مصنوعی تشویق کرده تا بهعنوان مثال، نیازهای دولت را شناسایی کند و مفاهیمی از قبیل تشخیص چهره را ممکن سازد. با اینحال، تعهد اخلاقی در خصوص استفاده از این امکانات، هنوز شکل نگرفته و یا پیشرفتی نداشته است.
وجود یک هیأت نظارت ناآگاه و بیاطلاع، مفید نیست. باید اعضای انتخاب شده، از تمام جزئیات و احتمالات موجود در این حوزه، مطلع باشند.
نهادهای نظارتی معمولاً در زمینه هوش مصنوعی آمادگی کافی ندارند و نمیتوانند نظارت کافی را در این رابطه بهعهده بگیرند. دادگاهها، معمولاً از انتخابهایی که منجر به پیامدهای معکوس در جامعه میشود، خودداری میکنند. همین امر موجب شده است برای اطمینان از رفاه عمومی، سختگیری بیشتری را در تصمیمگیری مدنظر قرار دهند.
بنابراین اینکه توسعهدهندگان حوزه هوش مصنوعی، نگران سوءاستفاده از راهکارهای ارائه شده یا سایر پیچیدگیهای مرتبط با آن باشند، تعجبآور نیست. نگرانی مایکروسافت در مورد استفاده از فنآوری تشخیص چهره مطمئناً قابل توجیه است، زیرا این فنآوریهای پیشرفته اگرچه برای محافظت از جامعه طراحی شدهاند، اما چنانچه در جهت درست استفاده نشوند، میتوانند روی همان جامعه، تأثیر منفی بگذارند.
و بار این قبیل اشتباهات بهراحتی میتواند بر روی دوش افراد رنگین پوست و سایر افرادی که در نهادهای توسعه و نظارت بر چنین فنآوریهایی نمایندگان کمتری دارند، بیفتد.
ایجاد یک نهاد خارجی مختص اخلاق هوش مصنوعی
آکسون[۲]، یک ارائهدهنده قانونی در حوزه فنآوری هوش مصنوعی، برای کمک به مکانیسمهای محافظت از مردم، یک هیأت اخلاق خارجی تأسیس کرد تا کاستیهای این بخش را بهبود دهد. بهطور خاص، این شرکت هیأت مدیرهای ایجاد کرده است که امکان شفافیت، پاسخگویی و بازنمایی بیشتری را در روند توسعه هوش مصنوعی ارائه میدهد. در زیر به برخی آموختههای بهدست آمده از این اقدام پرداخته شده است:
بازنمایی
مشتریان اولیه، خریداران محصولات شما هستند، اما مصرفکنندگان چه کسانی هستند؟
در مورد فنآوریهای وابسته به پلیس، نهادهای انتظامی و اجرایی قانون، ممکن است مشتری شما باشند، اما جوامعی که این افراد به آن خدمت میکنند، مصرفکننده اصلی هستند و مستقیماً تحت تأثیر استفاده از این فنآوریها قرار میگیرند.
چنانچه افرادی در هیأت نظارت انتخاب شوند که مصرف کنندگان اصلی محصولات را درک کرده و بتوانند بینشی نسبت به تأثیر بالقوه فنآوریهای هوش مصنوعی ایجاد کنند، این کار به فیلتر کردن پیشنهادهای ضعیف برای تولید محصولات هوش مصنوعی، پیش از ورود به بازار کمک میکند.
شفافیت
در مورد هر پروژه هوش مصنوعی و نقشه راه آن، کاملاً با هیأت اخلاقی هوش مصنوعی صادق باشید. وجود یک هیأت نظارت ناآگاه و بیاطلاع، مفید نیست. اعضای انتخاب شده، باید تمام جزئیات لازم را داشته باشند تا بتوانند توصیههای مطمئنی در خصوص توسعه پروژهها ارائه دهند. این نوع شفافیت و اعتبار به شما کمک میکند تا اعضای شایستهای را در این هیأت آموزش داده و نگه دارید.
مسئولیت
هنگامیکه هیأتمدیره توصیههای خود را ارائه داد، رهبران ارشد باید بهصورت عمومی، به آنها پاسخ دهند. این امر نشان میدهد که سازمان، متعهد و پاسخگو است.
توانمندسازی هیأت اخلاقی هوش مصنوعی
علاوه بر موارد قبل، آکسون، در راستای توانمندسازی هیأت اخلاقی هوش مصنوعی و اعضای آن، گامهای گوناگونی برداشته است:
- اعضای موثر را انتخاب کنید. علاوه بر تمرکز روی کسانیکه تحت تاثیر فنآوری های هوش مصنوعی شما قرار میگیرند، از مستقل بودن هیأت مدیره نیز اطمینان حاصل کنید. برای اینکار، خود هیأت مدیره را در انتخاب اعضای آینده درگیر کنید و مطمئن شوید که شامل هیچیک از کارمندان سازمان شما نباشد. هیأتمدیره را به اندازه کافی متنوع و واجد شرایط به چالش کشیدن تصمیمات تجاری بسازید. در این حالت، اعضای احتمالی نه تنها متخصصان هوش مصنوعی و یادگیری ماشین، بلکه تنظیمکنندهها، دانشگاهیان و شاغلان فعال در حوزه تجارت شما خواهند بود.
- قابلیت بازخورد مناسب و شفاف ایجاد کنید. برای اطمینان از کارایی هیأتمدیره، از سه قانون اساسی استفاده کنید:
- سازماندهی پاسخگویی. از طریق انتخاب یک نماینده از گروه اخلاق و یک نماینده از گروه توسعه، به تیم توسعه هوش مصنوعی خود اجازه دسترسی نامحدود به هیأت اخلاق بدهید. این امر، اعتماد بین طرفین و شرکتکنندگان را تضمین میکند و ساز و کارهایی را برای رسیدگی به هرگونه نگرانی اخلاقی (مانند شکایت از افشاگران)، بهوجود میآورد.
وجود یک هیأت مدیره خارجی در حوزه اخلاق هوش مصنوعی، میتواند در سازمان، برتری رقابتی و انعطافپذیری بیشتری برای کسب و کار ایجاد کرده و باعث تمایل بیشتر سازمان به جذب استعدادها شود.