آیا هوش مصنوعی میتواند به مقابله با انتشار اخبار جعلی کمک کند؟
هوش مصنوعی اگرچه با قابلیتهای متنوع خود، نگاههای زیادی را به خود جلب کرده اما در کنار این مزیتها، نگرانیهایی نیز درباره مشکلات و معایب آن وجود دارد که یکی از آنها، گسترش اخبار جعلی یا همان فیک نیوزهاست.
در واقع، ابزارهای هوش مصنوعی میتوانند با دستکاری در مقالات و مطالب منتشرشده و همچنین تغییر اسامی، تاریخها و آمارها، به گسترش فیک نیوزها که این روزها به چالشی لاینحل تبدیل شده، دامن بزند.
همچنین مدلهای پیشرفته هوش مصنوعی میتوانند یک مطلب و یا مقاله را از صفر تا صد تنظیم کنند. به همین جهت، نگرانیهایی درباره تاثیر این فناوری بر انتخابات آینده و همچنین اعتماد به گزارشهای درباره تغییرات اقلیمیشکل گرفته است.
اما به گفته برخی کارشناسان، میتوان از این فناوری برای تحلیل درستی و یا نادرستی برخی اخبار و مقالات منتشرشده نیز بهره برد. بدین معنی که میتوان با کمک ابزارهای هوش مصنوعی، اطلاعات را تحلیل و موارد نادرست و غلط را شناسایی کرد.
با این حال، پدیده اخبار جعلی یا همان فیک نیوز تنها محدود به ماههای اخیر و گسترش ابزارهای هوش مصنوعی نیست و سابقه آن به سالها قبل و ظهور شبکههای اجتماعی برمیگردد. نتایج بررسیهای توییتر در سال ۲۰۱۸ نشان داد که میزان ریتوییت و بازنشر اخبار جعلی حدود ۷۰ درصد بیشتر از اخبار واقعی و حقیقی است.
توییتر همچنین در نتیجه این بررسی اعلام کرد که دسترسی کاربران به اخبار جعلی حدود ۶ برابر سختتر از دسترسی به اخبار جعلی است.
در جریان انتخابات ریاست جمهوری ۲۰۲۰ آمریکا نیز، مطالب جعلی مربوط به واکسنهای کووید-۱۹ و تغییرات اقلیمیبه طور گستردهای در فضای وب و شبکههای اجتماعی منتشر میشد. مسئلهای که طبق برآوردها، روزانه بین ۵۰ تا۳۰۰ میلیون دلار هزینه را روی دست دولت آمریکا میگذاشت. تبعات این پدیده در عرصه سیاست نیز میتواند بینظمییهای مدنی، خشونت و حتی کاهش اعتماد عمومیبه نهادهای دموکراتیک باشد.
حال متخصصان میگویند که میتوان اطلاعات غلط را با ترکیبی از الگوریتمها، مدلهای یادگیری ماشینی، هوش مصنوعی و کمک نیروی انسانی تشخیص داد. اما سوالی که پیش میآید این است که چه کسی مسئول کنترل، اگر نگوییم جلوگیری از انتشار، اخبار جعلی و فیک نیوزهاست. در حال حاضر، تنها شرکتهای مالک شبکههای اجتماعی در موقعیتی هستند که میتوانند بر انتشار اطلاعات غلط در پلتفرمهای خود کنترل داشته باشند.
طبق گفته کارشناسان، یک رویکرد و روش چند وجهی برای شناسایی اطلاعات غلط در فضای آنلاین به منظور کنترل و جلوگیری از انتشار آنها احساس میشود. برای این منظور، میتوان مدلهایی را تغریف کرد به طوری که در آن، پخش کننده اطلاعات نادرست، تمایل دارد ساختارهایی از کاربران به هم پیوسته را برای پخش اطلاعات نادرست خود تشکیل دهد.
بنابراین، باید الگوریتمهایی را برای تشخیص ساختارهای متراکم و به هم فشرده از کاربران که به هم در ارتباط هستند، توسعه داد. این الگوریتمها میتوانند کمپینهای انتشار اطلاعات نادرست را بررسی و شناسایی کنند.
از آنجایی که این الگوریتمها، روی ساختارهای ارتباطی میان کاربران متمرکزند، تجزیه و تحلیل محتوای منتشرشده توسط این گروههای ارتباطی، نیازمند دخالت نیروی انسانی است.
اما شناسایی اطلاعات غلط، تنها نیمیاز راه محسوب میشود و گام بعدی، اقدامات قاطع برای جلوگیری از انتشار است. از جمله راهکارها برای این منظور میتوان به ورود شرکتهای مالک شبکههای اجتماعی به این حوزه و اتخاذ تدابیری برای جلوگیری از انتشار این محتوا و همچنین ایجاد کمپینهایی برای مقابله و خنثی کردن کمپینهای اخبار جعلی اشاره کرد.
مداخلات شبکههای اجتماعی میتواند در اشکال مختلف همانند تعلیق حسابهای کاربری و یا اقدامات ملایمتری همچون برچسب زدن به پستها به عنوان پست مشکوک صورت گیرد. با این حال، کارشناسان میگویند الگوریتمها و شبکههای مبتنی بر هوش مصنوعی به طور ۱۰۰ درصدی قابل اعتماد نیستند و هرگونه تصمیم اشتباه و انتخاب محتوای واقعی به عنوان محتوای جعلی، میتواند تبعات و هزینههایی را به دنبال داشته باشد.