مایکروسافت از محدودیتهای ابزار هوش مصنوعی بینگ کاست
شرکت مایکروسافت در نخستین گام عرضه ابزار چت هوش مصنوعی خود، تلاش کرد تا با اعمال محدودیتهایی، جلوی پرحرفی این بات و یا ارائه پاسخهای نامناسب را بگیردِ؛ با اینحال استقبال کاربران از این ابزار، مایکروسافت را برآن داشته تا دامنه فعالیت این ربات را بیشتر کند و با سپردن کنترل چت به دست مخاطب، آزادی عمل بیشتری برای ربات هوشمصنوعی خود قائل شود.
مایکروسافت در ابتدا به سرعت ابزار چت هوش مصنوعی بینگ را محدود کرد تا از تنظیم پاسخهای نامناسب توسط آن جلوگیری کند، اما پس از چند روز تصمیم خود را تغییر داد. مایکروسافت میگوید چتهای طولانیتر را ممکن میکند و این کار را با گسترش چتها به شش نوبت در هر جلسه (از پنج نوبت) و ۶۰ چت در روز (از ۵۰ چت) شروع میکند.
این شرکت افزوده است که سقف روزانه تعداد چت ها به زودی به ۱۰۰ چت افزایش مییابد و جستجوهای منظم دیگر در این مجموعه منظور نمیشوند. مایکروسافت امیدوار است بدین شیوه با ممکن شدن مکالمات طولانی مشکلات زیادی ایجاد نشود. در واقع این شرکت در تلاش است بازگشت “مسئولانه” به گپهای طولانی با هوش مصنوعی را ممکن کند.
این غول فناوری همچنین در حال رفع این نگرانی است که هوش مصنوعی بینگ ممکن است در پاسخها بیش از حد پر حرفی کند. یک آزمون آتی در بینگ به شما امکان میدهد لحنی را انتخاب کنید که «دقیق» (یعنی پاسخهای کوتاهتر و دقیقتر)، «خلاقانه» (طولانیتر) یا «متعادل» باشد. بنابراین اگر فقط به حقایق علاقه مند هستید، لازم نیست برای دریافت آنها متن زیادی را مرور کنید.
مایکروسافت قبلاً گفته بود پیشبینی نمیکرد کاربران از چتهای طولانیتر Bing AI به عنوان سرگرمی و ابزاری برای شیطنت استفاده کنند و برخی محدودیتها تلاشی برای ایجاد تعادل و مفید کردن گفتگو با هوش مصنوعی است.