آیا هوش مصنوعی قابل اعتماد است؟
آیا میتوان اعتماد به هوش منصوعی داشت؟
ما دوران بی سابقهای از تاریخ انسانها را طی میکنیم. روباتهای مجهز به هوش مصنوی، به زودی به مرحلهای میرسند که قادر خواهند بود تصمیم های حیاتی و مهمی برای ما بگیرند و جنبههای گوناگونی از زندگی ما را تحت تاثیر قرار خواهند داد. این پروسه همین حالا نیز آغاز شده اما آیا واقعا اهمیتی دارد که ماشینهای هوشمند چگونه تصمیم میگیرند؟ آیا نتایج تصمیمات روباتها میتواند سرنوشت ما انسانها را تغییر دهد؟
فرض کنید که برای دریافت بخشی از هزینههای درمان بیماری خود، به شرکت بیمه مراجعه کردهاید اما شرکت بیمه با پرداخت وجه با شما موافقت نمیکند، تنها به این دلیل که الگوریتمهای ارزیابی شرکت، به این نتیجه رسیدهاند که شما مستحق دریافت کمک مالی نیستید و یا وقتی که درخواست وام شما توسط بانک رد میشود و بانک شما نمیتواند بگوید دقیقا چرا با پرداخت وام موافقت نشده است.
اینها نمونههای سادهای از سناریوهای تحمیلی است که با رشد و توسعه هوش مصنوعی، فعالان حوزه تکنولوژی درباره آن ابراز نگرانی کردهاند. بخشهای مختلفی از دنیای تکنولوژی مانند تحقیقات پزشکی، خودروهای خودران، بخشهای نظامی و جنایی در حال تحقیق به روی هوش مصنوعی هستند تا هر بخش به درخور سیستم کاری خود، بتواند بفهمد چگونه میتوان هوش مصنوعی را با حفظ مسائل امنیتی، به بهترین شکل مورد استفاده قرار داد.
طبق گزارش اخیر شرکت مشاوره consultancy PwC، پیشبینی میشود که هوش مصنوعی که تا سال 2030 اقتصاد جهانی را به میزان 15.7 تریلیون دلار افزایش خواهد داد. اما به چه قیمتی؟ این برنامههای الگوریتمیک، آنقدر در حال پیچیده شدن هستند که حتی خالقان آنها نیز گاهی اوقات نمیتوانند بفهمند که این دستاورد با ارزش انسانی، تصمیمات خود را بر چه مبنایی میگیرند!
شبکههای عصبی هوشمند نوظهور که به آنها neural networks میگوییم و طوری طراحی شدهاند تا رفتارهای مغز انسان را تقلید کنند، شامل تعدادی پردازندههای متصل به یکدیگر هستند که میتوانند حجم عظیمی از داده را تحلیل کنند. neural networks با استفاده از تکنولوژی یادگیری ماشینی، میلیونها الگوهای متغیر را تحلیل کرده و یافتههای خود را به مرحله عمل میرسانند. این دستاورد میتواند تغییرات بزرگی در دنیای دیجیتال ایجاد کند مانند پیش بینیهای دقیق آب و هوا یا تشخیص دقیق بیماریهایی مانند سرطان.
Rhodri Davies، رئیس بخش سیاست و برنامه ریزی موسسه خیریه Charities Aid Foundation میگوید: «اگر این سیستمها برای کارهایی مانند رای گیری و یا دسترسی به سرویسهای عمومی مورد استفاده قرار گیرند، علاوه بر انقلابی که همین حالا نیز شروع شده، مشکلات مختص به خود را نیز همراه دارند.»
David Stern، مدیر تحقیقات شرکت تکنولوژیک G-Research– شرکتی که با کمک تکنولوژی یادگیری ماشینی، در زمینه پیشبینی قیمت بازارهای مالی فعالیت دارد، معتقد است که یکی از پرکاربردترین روشهای برنامه ریزی سیستمهای هوش مصنوعی، روش داده کاوی جعبه سیاه نام دارد: «این شیوه یکی از محبوبترین شیوههای برنامه ریزی در زمینه سیستمهای عصبی هوشمند (neural networks) است. در این روش الگوهای قرار گیری میلیونها پارامتر که به شیوههای پیچیدهای با یکدیگر در ارتباط هستند، مشخص میشود. توضیح روابط این پارامترها حتی برای مهندسان و محققان بسیار مشکل است».
یکی دیگر از روشها “deep reinforcement learning” (یادگیری عمیق تقویت شده) است که در آن، طراح به صورت اختصاصی هدفهای رفتاری یک سیستم را مشخص میکند و سیستم به صورت اتوماتیک با کمک تکنولوژی یادگیری ماشینی و تعامل با محیط اطراف، در راستای تحقق هدف عمل میکند.
Stern میگوید که در روش دوم نیز نحوه ادراک دلیل رفتار سیستم توسط انسانها بسیار مشکل است. محققان صنعت تکنولوژی تلاش زیادی میکنند تا راههای جدید برای درک الگوریتمهای دست ساخته خود پیدا کنند و آنها را تحت کنترل خود بگیرند.
Adrian Weller مدیر برنامهنویسی بخش هوش مصنوعی در موسسه The Alan Turing Institute است و معتقد است شیوه فهمیدن اینکه یک سیستم هوش مصنوعی چگونه تصمیم گیری میکند، بستگی به میزان حیاتی بودن تصمیم مورد نظر دارد: «اگر میتوانستیم مطمئن شویم که یک سیستم به درستی عمل میکند و در تصمیمهای خود تبعیض آشکار اعمال نمیکند، حقیقتا دلیلی ندارد که بخواهیم به دنبال دلیل تصمیمات گرفته شده برویم.»
مثلا در مورد تکنولوژی خودروهای خودران یا تشخیصهای پزشکی، داشتن ماشینی که بتواند عمدتا درست وطبق برنامه عمل کرده و جان انسانها را نجات دهد، مهمتر از فهمیدن نحوه عملکرد این سیستمهاست.
Wellerمیگوید: «برای تشخیص پزشکی، اگر سیستمی به صورت متوسط حتی در 95 مواقع تشخیص درست داشته باشد، حقیقتا فرقی نمیکند که چرا و چگونه این نتیجه را اعلام کرده است. مهم این است که جان یک انسان نجات داده شده است».
اما در شرایط دیگر، مانند وقتی که هوش مصنوعی در دنیای اثبات جرم خلافکاران مورد استفاده قرار میگیرد و باید ثابت کند که شخصی جرمی مرتکب شده، ما حتما باید بفهمیم که این تصمیم چرا و بر چه مبنایی گرفته شده است.
Dr Weller عنوان میکند: «مثلا الگوریتمهای طراحی شده در حوزه قضایی، اعلام میکند که شخصی باید برای 6 سال به زندان برود، دلیل آن باید به وضوح مشخص باشد و در صورت احتمال وقوع اشتباه، تصحیح شود. از نظر من سیستم عملکرد الگوریتمهای مورد استفاده در حوزههای مختلف باید هدف مشخصی داشته باشند و روشن باشد این الگوریتمها برای انجام چه کاری برنامه ریزی و طرح ریزی شدهاند. این مسئله در مورد شغلهایی که زمانی اختصاصی انسانها بوده، از حساسیست بیشتری برخوردار است. با اِعمال مسائل امنیتی و شفاف سازی میتوان ریسکهای این صنعت نوین پرخطر را کمتر کرد.»
مسئله شفاف سازی اهداف، به تصویب قوانین جدیدی به نام European Union’s GDPR توسط اتحادیه اروپا منجر شده است اما سوالی که اینجا مطرح میشود این است که آیا ما انسانها از اینکه که برخی از تصمیم گیری های اساسی خود را روی دوش دوستهای ماشینی هوشمند خود بیندازیم و حتی دلیل تصمیم گیری های آنها را نفهمیم خوشحال خواهیم بود؟ و یا اینکه این دستاورد به مرور آزادی انسانها را کمتر کرده و مارا به بردههایی برای اتوماسیون هوشمند دست ساخته خود خواهد کرد؟
David Stern معتقد است:« من مطمئنم تا زمانیکه که با آگاهی و احتیاط جلو میرویم و اصول امنیتی را رعایت میکنیم، هوش مصنوعی قطعا برای ما مشکلی ایجاد نخواهد کرد»
اگر میتوان به قضاوت هوش مصنوعی اعتماد کرد، پس نپرسید چرا.