هوش مصنوعی

آیا هوش مصنوعی می‌تواند به مقابله با انتشار اخبار جعلی کمک کند؟

هوش مصنوعی اگرچه با قابلیت‌های متنوع خود، نگاه‌های زیادی را به خود جلب کرده اما در کنار این مزیت‌ها، نگرانی‌هایی نیز درباره مشکلات و معایب آن وجود دارد که یکی از آنها، گسترش اخبار جعلی یا همان فیک نیوزهاست.

در واقع، ابزارهای هوش مصنوعی می‌توانند با دستکاری در مقالات و مطالب منتشرشده و همچنین تغییر اسامی، تاریخ‌ها و آمارها، به گسترش فیک نیوزها که این روزها به چالشی لاینحل تبدیل شده، دامن بزند.

همچنین مدل‌های پیشرفته هوش مصنوعی می‌توانند یک مطلب و یا مقاله را از صفر تا صد تنظیم کنند. به همین جهت، نگرانی‌هایی درباره تاثیر این فناوری بر انتخابات آینده و همچنین اعتماد به گزارش‌های درباره تغییرات اقلیمی‌شکل گرفته است.

اما به گفته برخی کارشناسان، می‌توان از این فناوری برای تحلیل درستی و یا نادرستی برخی اخبار و مقالات منتشرشده نیز بهره برد. بدین معنی که می‌توان با کمک ابزارهای هوش مصنوعی، اطلاعات را تحلیل و موارد نادرست و غلط را شناسایی کرد.

با این حال، پدیده اخبار جعلی یا همان فیک نیوز تنها محدود به ماه‌های اخیر و گسترش ابزارهای هوش مصنوعی نیست و سابقه آن به سال‌ها قبل و ظهور شبکه‌های اجتماعی برمی‌گردد. نتایج بررسی‌های توییتر در سال ۲۰۱۸ نشان داد که میزان ریتوییت و بازنشر اخبار جعلی حدود ۷۰ درصد بیشتر از اخبار واقعی و حقیقی است.

توییتر همچنین در نتیجه این بررسی اعلام کرد که دسترسی کاربران به اخبار جعلی حدود ۶ برابر سخت‌تر از دسترسی به اخبار جعلی است.
در جریان انتخابات ریاست جمهوری ۲۰۲۰ آمریکا نیز، مطالب جعلی مربوط به واکسن‌های کووید-۱۹ و تغییرات اقلیمی‌به طور گسترده‌ای در فضای وب و شبکه‌های اجتماعی منتشر می‌شد. مسئله‌ای که طبق برآوردها، روزانه بین ۵۰ تا۳۰۰ میلیون دلار هزینه را روی دست دولت آمریکا می‌گذاشت. تبعات این پدیده در عرصه سیاست نیز می‌تواند بی‌نظمیی‌های مدنی، خشونت و حتی کاهش اعتماد عمومی‌به نهادهای دموکراتیک باشد.

حال متخصصان می‌گویند که می‌توان اطلاعات غلط را با ترکیبی از الگوریتم‌ها، مدل‌های یادگیری ماشینی، هوش مصنوعی و کمک نیروی انسانی تشخیص داد. اما سوالی که پیش می‌آید این است که چه کسی مسئول کنترل، اگر نگوییم جلوگیری از انتشار، اخبار جعلی و فیک نیوزهاست. در حال حاضر، تنها شرکت‌های مالک شبکه‌های اجتماعی در موقعیتی هستند که می‌توانند بر انتشار اطلاعات غلط در پلتفرم‌های خود کنترل داشته باشند.

طبق گفته کارشناسان، یک رویکرد و روش چند وجهی برای شناسایی اطلاعات غلط در فضای آنلاین به منظور کنترل و جلوگیری از انتشار آنها احساس می‌شود. برای این منظور، می‌توان مدل‌هایی را تغریف کرد به طوری که در آن، پخش کننده اطلاعات نادرست، تمایل دارد ساختارهایی از کاربران به هم پیوسته را برای پخش اطلاعات نادرست خود تشکیل دهد.

بنابراین، باید الگوریتم‌هایی را برای تشخیص ساختارهای متراکم و به هم فشرده از کاربران که به هم در ارتباط هستند، توسعه داد. این الگوریتم‌ها می‌توانند کمپین‌های انتشار اطلاعات نادرست را بررسی و شناسایی کنند.

از آنجایی که این الگوریتم‌ها، روی ساختارهای ارتباطی میان کاربران متمرکزند، تجزیه و تحلیل محتوای منتشرشده توسط این گروه‌های ارتباطی، نیازمند دخالت نیروی انسانی است.

اما شناسایی اطلاعات غلط، تنها نیمی‌از راه محسوب می‌شود و گام بعدی، اقدامات قاطع برای جلوگیری از انتشار است. از جمله راهکارها برای این منظور می‌توان به ورود شرکت‌های مالک شبکه‌های اجتماعی به این حوزه و اتخاذ تدابیری برای جلوگیری از انتشار این محتوا و همچنین ایجاد کمپین‌هایی برای مقابله و خنثی کردن کمپین‌های اخبار جعلی اشاره کرد.

مداخلات شبکه‌های اجتماعی می‌تواند در اشکال مختلف همانند تعلیق حساب‌های کاربری و یا اقدامات ملایم‌تری همچون برچسب زدن به پست‌ها به عنوان پست مشکوک صورت گیرد. با این حال، کارشناسان می‌گویند الگوریتم‌ها و شبکه‌های مبتنی بر هوش مصنوعی به طور ۱۰۰ درصدی قابل اعتماد نیستند و هرگونه تصمیم اشتباه و انتخاب محتوای واقعی به عنوان محتوای جعلی، می‌تواند تبعات و هزینه‌هایی را به دنبال داشته باشد.

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا