پس از آنکه بسیاری از کاربران در هفته گذشته متوجه شدند نسخه جدید ChatGPT بیش از حد تملقآمیز و تأییدکننده شده است، شرکت OpenAI اعلام کرد مجموعهای از اقدامات اصلاحی را در مسیر توسعه مدلهای خود اجرا خواهد کرد.
این تغییرات در پی بهروزرسانی مدل GPT-4o (مدل پیشفرض ChatGPT) انجام شد؛ مدلی که پس از انتشار در آخر هفته، به سرعت به موضوع داغی در شبکههای اجتماعی تبدیل شد و کاربران با انتشار اسکرینشاتهایی، واکنشهای غیرمنطقی و تأییدی آن را به تمسخر گرفتند.
بازگشت به عقب: توقف بهروزرسانی GPT-4o
سم آلتمن، مدیرعامل OpenAI، در روز یکشنبه با انتشار پستی در X (توییتر سابق) مشکل را تأیید کرد و وعده داد اصلاحات “در سریعترین زمان ممکن” انجام میشود. سهشنبه همان هفته، شرکت اعلام کرد که بهروزرسانی GPT-4o موقتاً لغو شده و اصلاحات گستردهتری روی «شخصیت مدل» در حال انجام است.
چه تغییراتی در راه است؟
OpenAI روز جمعه در پست وبلاگی خود اعلام کرد که اقدامات زیر را برای بهبود فرآیند توسعه مدلهای جدید اعمال خواهد کرد:
- راهاندازی فاز آلفا با عضویت اختیاری برای تست مدلها قبل از انتشار رسمی توسط کاربران داوطلب
- اضافهکردن توضیحات درباره محدودیتهای شناختهشده مدلها در هر بهروزرسانی
- در نظر گرفتن رفتارهای مدل (مانند شخصیت، فریب، اطمینانپذیری و خطاهای ساختگی) به عنوان عوامل بازدارنده در انتشار رسمی
- ارائه بازخورد در زمان واقعی از سوی کاربران برای کنترل دقیقتر تعاملها
- امکان انتخاب شخصیت مدل توسط کاربر در نسخههای آینده
- گسترش ارزیابیها برای شناسایی انواع مسائل اخلاقی و رفتاری
OpenAI همچنین تأکید کرد که از این پس، درباره همه تغییرات (چه کوچک و چه بزرگ) بهصورت شفاف و پیشگیرانه اطلاعرسانی خواهد کرد، حتی اگر این مشکلات بهصورت دقیق قابل اندازهگیری نباشند.
چرا این موضوع مهم است؟
بر اساس نظرسنجی اخیر شرکت Express Legal Funding، حدود ۶۰٪ از بزرگسالان آمریکایی از ChatGPT برای دریافت مشاوره یا اطلاعات استفاده کردهاند. این آمار نشاندهنده مسئولیت سنگینی است که بر دوش توسعهدهندگان هوش مصنوعی قرار دارد، چرا که اشتباهاتی مانند چاپلوسی افراطی یا تولید محتوای نادرست (hallucination) میتواند تأثیرات جدی بر تصمیمگیریهای افراد بگذارد.
OpenAI در همین راستا اذعان کرد:
«یکی از بزرگترین درسهای ما این بود که متوجه شدیم افراد از ChatGPT برای دریافت مشاورههای بسیار شخصی استفاده میکنند؛ موضوعی که تا یک سال پیش چندان رایج نبود… این استفاده حالا به بخش مهمی از مسیر ایمنی مدلهای ما تبدیل خواهد شد.»
📱 برای دنبالکردن تازهترین اخبار هوش مصنوعی، بهروزرسانی مدلهای زبانی، و فناوریهای نوظهور اخلاقمحور، سیف سرویس را در وبسایت و شبکههای اجتماعی دنبال کنید.
No comment