نبرد غولهای تکنولوژی با جعل عمیق
با توجه به ابزارهای هوش مصنوعی که حالا تقریبا در دسترس همه هستند، احتمالا اطلاعات ما در فصل انتخابات سال آینده به آینههایی تبدیل میشود که کسی مطمئن نیست کدام محتوا واقعی است و کدام توسط هوش مصنوعی تولید شده. اگر بازیگران عرصه سیاسی در سال ۲۰۱۶ و ۲۰۲۰ به شبکههای اجتماعی مسلح بودند، احتمالا در سال ۲۰۲۳ به ابزارهای جعل عمیق مجهز خواهند شد. آمریکاییها از همین حالا هم نگران چنین احتمالاتی هستند. نظرسنجی یک موسسه تحقیقاتی که در ماه اوت در این زمینه انجام شد، نشان میدهد که بیش از نیمی از مردم آمریکا معتقدند که اطلاعات نادرست به تصمیمگیری درباره برنده انتخابات ریاستجمهوری سال ۲۰۲۴ کمک خواهد کرد و بیش از یکسوم آنها اعلام کردهاند که هوش مصنوعی اعتماد آنها به نتیجه انتخابات ایالات متحده را کاهش خواهد داد.
با رشد انفجاری هوش مصنوعی و همزمان داغ شدن تنور انتخابات سال ۲۰۲۴، فشار روی کنگره و شرکتهای تکنولوژی برای واکنش به این موضوع، افزایش مییابد. کنگره در این هفته یک جلسه دیگر برای رسیدگی به این نگرانیها دارد. دو شرکت متا و مایکروسافت هم از اقدامات جدید خود برای مقابله با جعل عمیق و دیگر اشکال هوش مصنوعی برای دستکاری حقیقت، خبر دادهاند.
متا قوانین تازهای را برای چگونگی تولید محتوای سیاسی (عکس، ویدئو یا محتوای صوتی) برای پلتفرمهای شبکه اجتماعی فیسبوک و اینستاگرام اتخاذ کرده است. این شرکت اعلام کرده است که کمپینهای سیاسی و گروههای هوادار باید روی هر محتوای تبلیغاتی سیاسی یا اجتماعی که با استفاده از ابزارهای هوش مصنوعی تولید شدهاند، برچسب اطلاعرسانی بزنند. به عنوان مثال، اگر کمپین تبلیغاتی ترامپ از یک ابزار هوش مصنوعی تولید عکس برای تولید یک ویدئوی ساختگی از رئیسجمهور جو بایدن استفاده کرده که نشان میدهد او در طول برگزاری یک کمپین میافتد، باید ویدئوی واقعی آن را هم منتشر کند. این سیاست که از ابتدای سال آینده میلادی اجرا میشود، برای تمام تبلیغکنندگان سیاسی در جهان بهکار گرفته خواهد شد. اما متا نخستین شرکت تکنولوژی نیست که در فضای تبلیغات سیاسی اقدامی انجام داده است. گوگل در ماه سپتامبر اعلام کرد که تبلیغکنندگان ملزم به برچسبگذاری روی هر تبلیغاتی خواهند بود که توسط هوش مصنوعی تولید شدهاند و روی یوتیوب و هر کدام از پلتفرمهای گوگل منتشر میشوند.
شرکت متا همچنین تایید کرد که استفاده از ابزارهای هوش مصنوعی مولد خود را برای تولید تبلیغات در دستهبندیهای حساس از قبیل مسکن، استخدام، اعتبارات، سلامت، دارویی یا خدمات مالی برای تبلیغکنندگان ممنوع میکند. تبلیغات در آن دستهبندیها شامل محتوای تولید شده توسط ابزارهای طرف سوم از قبیل DALL-E یا Midjourney، نیازمند برچسب اطلاعرسانی هستند.
پلتفرمهای اجتماعی گزینههای مختلفی برای مقابله با جعل عمیق دارند؛ چالش اصلی یافتن رویکردی است که آسیب برای آزادی بیان و درستی انتخابات را به حداقل برساند. کیت هاربث، مدیر سابق بخش سیاست عمومی فیسبوک، در این مورد میگوید: «یک سوال فلسفی درباره این وجود دارد که آیا این جعلهای عمیق باید از روی پلتفرم حذف شوند یا همین که صحتسنجی شوند، برچسب زده شوند و توزیع آنها محدود و کم شود، کفایت میکند؟ این موضوع، چیزی بیش از یک اصلاحیه اولیه، و زیر سوال بردن ارزش آزادی بیان است. متا رویکردی محافظهکارانه و سطحی را در این زمینه در پیش گرفته است.» همچنین هاربث تاکید میکند که این شرکت تمام محتوای تبلیغاتی تولید شده توسط هوش مصنوعی مولد را ملزم به برچسبگذاری نکرده است. بر این اساس، وقتی محتوایی به صورت دیجیتالی تولید شده یا تغییر ناچیزی یافته، الزامی به برچسبگذاری ندارد.
رابرت ویزمن از گروه حمایت از حقوق مصرفکننده Public Citizen میگوید که سازمان متبوعش ترجیح میدهد که یک ممنوعیت کامل روی تبلیغات جعل عمیق اعمال کند، اما او از تصمیم متا حمایت میکند و میگوید: «برچسبگذاری در این فضا میتواند تا حد زیادی آسیبها را کاهش دهد.» گروه Public Citizen اما از متا به خاطر محدود ساختن این برچسبگذاریها به تبلیغات جعل عمیق انتقاد میکند. این گروه تاکید میکند که ممکن است بعضی از جعلهای عمیق سیاسی تاثیرگذار و حیاتی، ممکن است در پستهای معمولی و عادی نمایش داده شوند. رابرت ویزمن میگوید که جعلهای عمیق ارگانیک به احتمال زیاد، انتخابات را به شکلی دقیقتر تحت تاثیر قرار میدهند، چون حس اعتمادپذیری بیشتری در مخاطبان ایجاد میکنند.
به این ترتیب شناسایی جعلهای عمیق سیاسی از میان میلیاردها پست ارگانیک روی این پلتفرم، چالش مهم دیگری است، چون سیاست مدیریت رسانههای متا تمام محتوای منتشر شده روی فیسبوک و اینستاگرام را پوشش میدهد. کیت هاربث در این مورد میگوید: «سوالی که وجود دارد این است که این تکنولوژی برای شناسایی فعالانه جعلهای عمیق چقدر مناسب است. این تنها مشکل متا نیست، بلکه مشکلی در سطح یک صنعت است که سالها روی آن کار شده.» شرکت متا به طرز چشمگیری به سیستمهای هوش مصنوعی برای شناسایی اطلاعات نادرست و دیگر محتوای مضر تکیه کرده است، اما این سیستمها برای شناسایی اطلاعات نادرست در بعضی فرمتها مانند میمها یا الگوهای رفتاری دچار مشکل هستند. اما متا تا کنون به درخواستها برای مصاحبه در این مورد پاسخ نداده است.
در حالی که متا برای محافظت از رایدهندگان در برابر گمراهی با هوش مصنوعی تلاش میکند، مایکروسافت و دیگر شرکتها روی ارائه ابزارها به کمپینها برای کنترل محتوای آنها متمرکز شدهاند. مایکروسافت از ارائه یک ابزار جدید واترمارک دیجیتالی خبر داده است که به تولیدکنندگان محتوا و طراحان کمپینهای دیجیتالی این امکان را میدهد تا محتوای خود را برچسبگذاری کنند تا زمان، شیوه، چرایی و منبع تولید آنها مشخص شود. به این ترتیب بعضی از افراد حزب مخالف امکان دستکاری آن محتوا و گمراهی مخاطبان را نخواهند داشت. سرویس واترمارک دیجیتالی در بهار سال آینده رونمایی خواهد شد و در دسترس گروه کوچکی از کاربران قرار خواهد گرفت که شامل طراحان کمپینهای سیاسی میشود.
اگر طراحان کمپینهای سیاسی تمایلی به استفاده از ابزار جدید مایکروسافت نداشته باشند، احتمالا به سراغ ابزارهای شرکت ادوبی میروند. این شرکت هم ابزارهای متنباز را با عنوان Content Credentials ارائه کرده است که میتوانند در ابزارهای تولید محتوا و پلتفرمهای مختلف ادغام شوند. نیویورکتایمز و والاستریت ژورنال از این ابزار جدید ادوبی برای تایید درستی اخبار استفاده خواهند کرد. شرکت انویدیا و Stability AI (ارائهدهنده ابزار هوش مصنوعی تولید تصویر) هم از این ابزار ادوبی برای تایید درستی محتوای تولید شده بهره میبرند. شرکتهای تولیدکننده دوربینهای عکاسی از قبیل نیکون و لایکا هم از این ابزار برای تایید تصاویر هویتی استفاده خواهند کرد.