تکنولوژیهوش مصنوعی

آیا هوش مصنوعی قابل اعتماد است؟

آیا می‌توان اعتماد به هوش منصوعی داشت؟

ما دوران بی سابقه‌ای از تاریخ انسان‌ها را طی می‌کنیم. روبات‌های مجهز به هوش مصنوی، به زودی به مرحله‌ای می‌رسند که قادر خواهند بود تصمیم ‌های حیاتی و مهمی برای ما بگیرند و جنبه‌های گوناگونی از زندگی ما را تحت تاثیر قرار خواهند داد. این پروسه همین حالا نیز آغاز شده اما آیا واقعا اهمیتی دارد که ماشین‌های هوشمند چگونه تصمیم می‌گیرند؟ آیا نتایج تصمیمات روبات‌ها می‌تواند سرنوشت ما انسان‌ها را تغییر دهد؟

فرض کنید که برای دریافت بخشی از هزینه‌های درمان بیماری خود، به شرکت بیمه مراجعه کرده‌اید اما شرکت بیمه با پرداخت وجه با شما موافقت نمی‌کند، تنها به این دلیل که الگوریتم‌های ارزیابی شرکت، به این نتیجه رسیده‌اند که شما مستحق دریافت کمک مالی نیستید و یا وقتی که درخواست وام شما توسط بانک رد می‌شود و بانک شما نمی‌تواند بگوید دقیقا چرا با پرداخت وام موافقت نشده است.

اینها نمونه‌های ساده‌ای از سناریوهای تحمیلی است که با رشد و توسعه هوش مصنوعی، فعالان حوزه تکنولوژی درباره آن ابراز نگرانی کرده‌اند. بخش‌های مختلفی از دنیای تکنولوژی مانند تحقیقات پزشکی، خودروهای خودران، بخش‌های نظامی و جنایی در حال تحقیق به روی هوش مصنوعی هستند تا هر بخش به درخور سیستم کاری خود، بتواند بفهمد چگونه می‌توان هوش مصنوعی را با حفظ مسائل امنیتی، به بهترین شکل مورد استفاده قرار داد.

هوش مصنوعی پتاسیل های زیادی در دنیای پزشکی و دارو سازی دارد.
هوش مصنوعی پتاسیل های زیادی در دنیای پزشکی و دارو سازی دارد.

طبق گزارش اخیر شرکت مشاوره consultancy PwC، پیش‌بینی می‌شود که هوش مصنوعی که تا سال 2030 اقتصاد جهانی را به میزان 15.7 تریلیون دلار افزایش خواهد داد. اما به چه قیمتی؟ این برنامه‌های الگوریتمیک، آنقدر در حال پیچیده شدن هستند که حتی خالقان آنها نیز گاهی اوقات نمی‌توانند بفهمند که این دستاورد با ارزش انسانی، تصمیمات خود را بر چه مبنایی می‌گیرند!

شبکه‌های عصبی هوشمند نوظهور که به آنها neural networks می‌گوییم و طوری طراحی شده‌اند تا رفتارهای مغز انسان را تقلید کنند، شامل تعدادی پردازنده‌های متصل به یکدیگر هستند که می‌توانند حجم عظیمی از داده را تحلیل کنند. neural networks با استفاده از تکنولوژی یادگیری ماشینی، میلیون‌ها الگوهای متغیر را تحلیل کرده و یافته‌های خود را به مرحله عمل می‌رسانند. این دستاورد می‌تواند تغییرات بزرگی در دنیای دیجیتال ایجاد کند مانند پیش بینی‌های دقیق آب و هوا یا تشخیص دقیق بیماری‌هایی مانند سرطان.

Rhodri Davies، رئیس بخش سیاست و برنامه ریزی موسسه خیریه Charities Aid Foundation می‌گوید: «اگر این سیستم‌ها برای کارهایی مانند رای گیری و یا دسترسی به سرویس‌های عمومی مورد استفاده قرار گیرند، علاوه بر انقلابی که همین حالا نیز شروع شده، مشکلات مختص به خود را نیز همراه دارند.»

David Stern، مدیر تحقیقات شرکت تکنولوژیک G-Research– شرکتی که با کمک تکنولوژی یادگیری ماشینی، در زمینه پیش‌بینی قیمت بازارهای مالی فعالیت دارد، معتقد است که یکی از پرکاربردترین روش‌های برنامه ریزی سیستم‌های هوش مصنوعی، روش داده کاوی جعبه سیاه نام دارد: «این شیوه یکی از محبوب‌ترین شیوه‌های برنامه ریزی در زمینه سیستم‌های عصبی هوشمند (neural networks) است. در این روش الگوهای قرار گیری میلیون‌ها پارامتر که به شیوه‌های پیچیده‌ای با یکدیگر در ارتباط هستند، مشخص می‌شود. توضیح روابط این پارامترها حتی برای مهندسان و محققان بسیار مشکل است».

سیستم های مجهز به هوش مصنوعی می تواند در زمینه ترافیک های شهری کارآمد باشد. آیا ممکن است این تکنولوژی روزی بتواند کنترل کامل حمل و نقل را در دست بگیرد؟
سیستم های مجهز به هوش مصنوعی می تواند در زمینه ترافیک های شهری کارآمد باشد. آیا ممکن است این تکنولوژی روزی بتواند کنترل کامل حمل و نقل را در دست بگیرد؟

یکی دیگر از روش‌ها “deep reinforcement learning” (یادگیری عمیق تقویت شده) است که در آن، طراح به صورت اختصاصی هدف‌های رفتاری یک سیستم را مشخص می‌کند و سیستم به صورت اتوماتیک با کمک تکنولوژی یادگیری ماشینی و تعامل با محیط اطراف، در راستای تحقق هدف عمل می‌کند.

Stern می‌گوید که در روش دوم نیز نحوه ادراک دلیل رفتار سیستم توسط انسان‌ها بسیار مشکل است. محققان صنعت تکنولوژی تلاش زیادی می‌کنند تا راه‌های جدید برای درک الگوریتم‌های دست ساخته خود پیدا کنند و آنها را تحت کنترل خود بگیرند.

Adrian Weller مدیر برنامه‌نویسی بخش هوش مصنوعی در موسسه The Alan Turing Institute است و معتقد است شیوه فهمیدن اینکه یک سیستم هوش مصنوعی چگونه تصمیم گیری می‌کند، بستگی به میزان حیاتی بودن تصمیم مورد نظر دارد: «اگر می‌توانستیم مطمئن شویم که یک سیستم به درستی عمل می‌کند و در تصمیم‌های خود تبعیض آشکار اعمال نمی‌کند، حقیقتا دلیلی ندارد که بخواهیم به دنبال دلیل تصمیمات گرفته شده برویم.»

مثلا در مورد تکنولوژی خودروهای خودران یا تشخیص‌های پزشکی، داشتن ماشینی که بتواند عمدتا درست وطبق برنامه عمل کرده و جان انسان‌ها را نجات دهد، مهم‌تر از فهمیدن نحوه عملکرد این سیستم‌هاست.

Wellerمی‌گوید: «برای تشخیص پزشکی، اگر سیستمی به صورت متوسط حتی در 95 مواقع تشخیص درست داشته باشد، حقیقتا فرقی نمی‌کند که چرا و چگونه این نتیجه را اعلام کرده است. مهم این است که جان یک انسان نجات داده شده است».

اما در شرایط دیگر، مانند وقتی که هوش مصنوعی در دنیای اثبات جرم خلافکاران مورد استفاده قرار می‌گیرد و باید ثابت کند که شخصی جرمی مرتکب شده، ما حتما باید بفهمیم که این تصمیم چرا و بر چه مبنایی گرفته شده است.

Dr Weller عنوان می‌کند: «مثلا الگوریتم‌های طراحی شده در حوزه قضایی، اعلام می‌کند که شخصی باید برای 6 سال به زندان برود، دلیل آن باید به وضوح مشخص باشد و در صورت احتمال وقوع اشتباه، تصحیح شود. از نظر من سیستم عملکرد الگوریتم‌های مورد استفاده در حوزه‌های مختلف باید هدف مشخصی داشته باشند و روشن باشد این الگوریتم‌ها برای انجام چه کاری برنامه ریزی و طرح ریزی شده‌اند. این مسئله در مورد شغل‌هایی که زمانی اختصاصی انسان‌ها بوده، از حساسیست بیشتری برخوردار است. با اِعمال مسائل امنیتی و شفاف سازی می‌توان ریسک‌های این صنعت نوین پرخطر را کمتر کرد.»

Adrian Weller معتقد است اگر سیستم های هوشمند به درستی عمل کنند، نیازی نیست همیشه دلیل رفتار آنها را بفمیم.
Adrian Weller معتقد است اگر سیستم های هوشمند به درستی عمل کنند، نیازی نیست همیشه دلیل رفتار آنها را بفمیم.

مسئله شفاف سازی اهداف، به تصویب قوانین جدیدی به نام European Union’s GDPR توسط اتحادیه اروپا  منجر شده است اما سوالی که اینجا مطرح می‌شود این است که آیا ما انسان‌ها از اینکه که برخی از تصمیم گیری های اساسی خود را روی دوش دوست‌های ماشینی هوشمند خود بیندازیم و حتی دلیل تصمیم گیری های آنها را نفهمیم خوشحال خواهیم بود؟ و یا اینکه این دستاورد به مرور آزادی انسان‌ها را کمتر کرده و مارا به برده‌هایی برای اتوماسیون هوشمند دست ساخته خود خواهد کرد؟

David Stern معتقد است:« من مطمئنم تا زمانیکه که با آگاهی و احتیاط جلو می‌رویم و اصول امنیتی را رعایت می‌کنیم، هوش مصنوعی قطعا برای ما مشکلی ایجاد نخواهد کرد»

اگر می‌توان به قضاوت هوش مصنوعی اعتماد کرد، پس نپرسید چرا.

 

منبع
BBCnews

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا