هوش مصنوعی

نبرد غول‌های تکنولوژی با جعل عمیق

با توجه به ابزارهای هوش مصنوعی که حالا تقریبا در دسترس همه هستند، احتمالا اطلاعات ما در فصل انتخابات سال آینده به آینه‌هایی تبدیل می‌شود که کسی مطمئن نیست کدام محتوا واقعی است و کدام توسط هوش مصنوعی تولید شده. اگر بازیگران عرصه سیاسی در سال ۲۰۱۶ و ۲۰۲۰ به شبکه‌های اجتماعی مسلح بودند، احتمالا در سال ۲۰۲۳ به ابزارهای جعل عمیق مجهز خواهند شد. آمریکایی‌ها از همین حالا هم نگران چنین احتمالاتی هستند. نظرسنجی یک موسسه تحقیقاتی که در ماه اوت در این زمینه انجام شد، نشان می‌دهد که بیش از نیمی از مردم آمریکا معتقدند که اطلاعات نادرست به تصمیم‌گیری درباره برنده انتخابات ریاست‌جمهوری سال ۲۰۲۴ کمک خواهد کرد و بیش از یک‌سوم آنها اعلام کرده‌اند که هوش مصنوعی اعتماد آنها به نتیجه انتخابات ایالات متحده را کاهش خواهد داد.

با رشد انفجاری هوش مصنوعی و همزمان داغ شدن تنور انتخابات سال ۲۰۲۴، فشار روی کنگره و شرکت‌های تکنولوژی برای واکنش به این موضوع، افزایش می‌یابد. کنگره در این هفته یک جلسه دیگر برای رسیدگی به این نگرانی‌‌ها دارد. دو شرکت متا و مایکروسافت هم از اقدامات جدید خود برای مقابله با جعل عمیق و دیگر اشکال هوش مصنوعی برای دستکاری حقیقت، خبر داده‌اند.

متا قوانین تازه‌ای را برای چگونگی تولید محتوای سیاسی (عکس، ویدئو یا محتوای صوتی) برای پلتفرم‌های شبکه اجتماعی فیس‌بوک و اینستاگرام اتخاذ کرده است. این شرکت اعلام کرده است که کمپین‌های سیاسی و گروه‌های هوادار باید روی هر محتوای تبلیغاتی سیاسی یا اجتماعی که با استفاده از ابزارهای هوش مصنوعی تولید شده‌اند، برچسب اطلاع‌رسانی بزنند. به عنوان مثال، اگر کمپین تبلیغاتی ترامپ از یک ابزار هوش مصنوعی تولید عکس برای تولید یک ویدئوی ساختگی از رئیس‌جمهور جو بایدن استفاده کرده که نشان می‌دهد او در طول برگزاری یک کمپین می‌افتد، باید ویدئوی واقعی آن را هم منتشر کند. این سیاست که از ابتدای سال آینده میلادی اجرا می‌شود، برای تمام تبلیغ‌کنندگان سیاسی در جهان به‌کار گرفته خواهد شد. اما متا نخستین شرکت تکنولوژی نیست که در فضای تبلیغات سیاسی اقدامی انجام داده است. گوگل در ماه سپتامبر اعلام کرد که تبلیغ‌کنندگان ملزم به برچسب‌گذاری روی هر تبلیغاتی خواهند بود که توسط هوش مصنوعی تولید شده‌اند و روی یوتیوب و هر کدام از پلتفرم‌های گوگل منتشر می‌شوند.

شرکت متا همچنین تایید کرد که استفاده از ابزارهای هوش مصنوعی مولد خود را برای تولید تبلیغات در دسته‌بندی‌های حساس از قبیل مسکن، استخدام، اعتبارات، سلامت، دارویی یا خدمات مالی برای تبلیغ‌کنندگان ممنوع می‌کند. تبلیغات در آن دسته‌بندی‌ها شامل محتوای تولید شده توسط ابزارهای طرف سوم از قبیل DALL-E یا Midjourney، نیازمند برچسب اطلاع‌رسانی هستند.

پلتفرم‌های اجتماعی گزینه‌های مختلفی برای مقابله با جعل عمیق دارند؛ چالش اصلی یافتن رویکردی است که آسیب برای آزادی بیان و درستی انتخابات را به حداقل برساند. کیت هاربث، مدیر سابق بخش سیاست عمومی فیس‌بوک، در این مورد می‌گوید: «یک سوال فلسفی درباره این وجود دارد که آیا این جعل‌های عمیق باید از روی پلتفرم حذف شوند یا همین که صحت‌سنجی شوند، برچسب زده شوند و توزیع آنها محدود و کم شود، کفایت می‌کند؟ این موضوع، چیزی بیش از یک اصلاحیه اولیه، و زیر سوال بردن ارزش آزادی بیان است. متا رویکردی محافظه‌کارانه و سطحی را در این زمینه در پیش گرفته است.» همچنین هاربث تاکید می‌کند که این شرکت تمام محتوای تبلیغاتی تولید شده توسط هوش مصنوعی مولد را ملزم به برچسب‌گذاری نکرده است. بر این اساس، وقتی محتوایی به صورت دیجیتالی تولید شده یا تغییر ناچیزی یافته، الزامی به برچسب‌گذاری ندارد.

رابرت ویزمن از گروه حمایت از حقوق مصرف‌کننده Public Citizen می‌گوید که سازمان متبوعش ترجیح می‌دهد که یک ممنوعیت کامل روی تبلیغات جعل عمیق اعمال کند، اما او از تصمیم متا حمایت می‌کند و می‌گوید: «برچسب‌گذاری در این فضا می‌تواند تا حد زیادی آسیب‌‌ها را کاهش دهد.» گروه Public Citizen اما از متا به خاطر محدود ساختن این برچسب‌گذاری‌ها به تبلیغات جعل عمیق انتقاد می‌کند. این گروه تاکید می‌کند که ممکن است بعضی از جعل‌های عمیق سیاسی تاثیرگذار و حیاتی، ممکن است در پست‌های معمولی و عادی نمایش داده شوند. رابرت ویزمن می‌گوید که جعل‌های عمیق ارگانیک به احتمال زیاد، انتخابات را به شکلی دقیق‌تر تحت تاثیر قرار می‌دهند، چون حس اعتمادپذیری بیشتری در مخاطبان ایجاد می‌کنند.

به این ترتیب شناسایی جعل‌های عمیق سیاسی از میان میلیاردها پست ارگانیک روی این پلتفرم، چالش مهم دیگری است، چون سیاست مدیریت رسانه‌های متا تمام محتوای منتشر شده روی فیس‌بوک و اینستاگرام را پوشش می‌دهد. کیت هاربث در این مورد می‌گوید: «سوالی که وجود دارد این است که این تکنولوژی برای شناسایی فعالانه جعل‌های عمیق چقدر مناسب است. این تنها مشکل متا نیست، بلکه مشکلی در سطح یک صنعت است که سال‌ها روی آن کار شده.» شرکت متا به طرز چشمگیری به سیستم‌های هوش مصنوعی برای شناسایی اطلاعات نادرست و دیگر محتوای مضر تکیه کرده است، اما این سیستم‌ها برای شناسایی اطلاعات نادرست در بعضی فرمت‌ها مانند میم‌ها یا الگوهای رفتاری دچار مشکل هستند. اما متا تا کنون به درخواست‌ها برای مصاحبه در این مورد پاسخ نداده است.

در حالی که متا برای محافظت از رای‌دهندگان در برابر گمراهی با هوش مصنوعی تلاش می‌کند، مایکروسافت و دیگر شرکت‌ها روی ارائه ابزارها به کمپین‌ها برای کنترل محتوای آنها متمرکز شده‌اند. مایکروسافت از ارائه یک ابزار جدید واترمارک دیجیتالی خبر داده است که به تولیدکنندگان محتوا و طراحان کمپین‌های دیجیتالی این امکان را می‌دهد تا محتوای خود را برچسب‌گذاری کنند تا زمان، شیوه، چرایی و منبع تولید آنها مشخص شود. به این ترتیب بعضی از افراد حزب مخالف امکان دستکاری آن محتوا و گمراهی مخاطبان را نخواهند داشت. سرویس واترمارک دیجیتالی در بهار سال آینده رونمایی خواهد شد و در دسترس گروه کوچکی از کاربران قرار خواهد گرفت که شامل طراحان کمپین‌های سیاسی می‌شود.

اگر طراحان کمپین‌های سیاسی تمایلی به استفاده از ابزار جدید مایکروسافت نداشته باشند، احتمالا به سراغ ابزارهای شرکت ادوبی می‌روند. این شرکت هم ابزارهای متن‌باز را با عنوان Content Credentials ارائه کرده است که می‌توانند در ابزارهای تولید محتوا و پلتفرم‌های مختلف ادغام شوند. نیویورک‌تایمز و وال‌استریت ژورنال از این ابزار جدید ادوبی برای تایید درستی اخبار استفاده خواهند کرد. شرکت انویدیا و Stability AI (ارائه‌دهنده ابزار هوش مصنوعی تولید تصویر) هم از این ابزار ادوبی برای تایید درستی محتوای تولید شده بهره می‌برند. شرکت‌های تولیدکننده دوربین‌های عکاسی از قبیل نیکون و لایکا هم از این ابزار برای تایید تصاویر هویتی استفاده خواهند کرد.

 

منبع
دنیای اقتصاد

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا