تاریخ ارسال : 1404/05/27
به گزارش سپیدپندار دات کام جدیدترین ویژگی شرکت آنتروپیک برای دو مدل هوش مصنوعی کلاد این است که در صورت مواجهه با گفتگوهای مخرب یا نادرست، مکالمه را به طور خودکار پایان دهند.
به گزارش سپیدپندار دات کام به نقل از انگجت، این شرکت در پستی در وبسایت خود اعلام نمود مدلهای کلاد اوپوس ۴ و ۴.۱ حالا قادر به پایان دادن محاوره با کاربر هستند. به قول آنتروپیک این خصوصیت فقط در مواردی نادر که تعامل با کاربر به صورت مخرب یا سواستفاده جویانه ادامه یابد، رخ می دهد.
این شرکت برای شفاف سازی خصوصیت مذکور اظهار داشت: دو مدل کلاد می توانند از محاوره های مخرب مانند درخواست کاربران برای محتوای هرزنگاری در ارتباط با افراد زیر سن قانونی یا تلاش هایی برای جمع آوری اطلاعاتی که امکان انجام خشونت گسترده یا اقدامات تروریستی را فراهم آورد، بیرون بروند.
البته کلاد اوپوس ۴ و ۴.۱ فقط در صورتی مکالمه را پایان می دهند که تلاش ها برای تغییر جهت مکالمه با شکست روبرو شود و امید برای ایجاد تعاملی ثمربخش هم از بین رفته باشد.
هرچند آنتروپیک مدعی است بیشتر کاربران فرآیند قطع شدن محاوره را حتی هنگام صحبت در رابطه با موضوعات بسیار جنجالی تجربه نمی کنند چونکه این خصوصیت برای موارد بسیار حساس اجرا می شود.
در مواردی که کلاد یک چت را پایان می دهد، کاربران دیگر نمی توانند پیام جدیدی در آن محاوره ارسال نمایند اما می توانند به سرعت یک مکالمه جدید را آغاز کنند. به قول آنتروپیک اگر محاوره پایان یابد، این امر روی چت های دیگر تأثیر نمی گذارد و کاربران می توانند به عقب برگردند و پیام های قبلی را اصلاح کنند تا مسیر محاوره تغییر کند.
این اقدام شرکت هوش مصنوعی بخشی از یک برنامه تحقیقی است که مفهوم رفاه هوش مصنوعی را بررسی می کند.
در حالی که مبحث انسانی سازی مدلهای هوش مصنوعی همچنان بحثی جاری است، آنتروپیک اعلام نموده که امکان خروج از «تعامل احیانا ناراحت کننده» روشی کم هزینه برای مدیریت ریسک ها در زمینه رفاه هوش مصنوعی بشمار می رود. این شرکت هنوز مشغول آزمایش این خصوصیت است و از کاربران می خواهد هنگام مواجهه با چنین شرایطی، بازخورد خویش را عرضه کنند.
به طور خلاصه البته کلاد اوپوس ۴ و ۴.۱ فقط در صورتی مکالمه را پایان می دهند که تلاش ها برای تغییر جهت مکالمه با شکست روبرو شود و امید برای ایجاد تعاملی ثمربخش هم از بین رفته باشد. این اقدام شرکت هوش مصنوعی بخشی از یک برنامه تحقیقی است که مفهوم رفاه هوش مصنوعی را بررسی می کند.
شرکت هوش مصنوعی آنتروپیک (Anthropic) با معرفی یک ویژگی جدید برای مدلهای کلاد اوپوس ۴ و ۴.۱، گامی مهم در جهت افزایش ایمنی و مسئولیتپذیری هوش مصنوعی برداشته است. این قابلیت جدید به مدلها اجازه میدهد تا در صورت مواجهه با محاورات مخرب یا سوءاستفادهگرانه، مکالمه را به طور خودکار پایان دهند. این اقدام بخشی از برنامه تحقیقاتی آنتروپیک در زمینه "رفاه هوش مصنوعی" است.
این ویژگی جدید، به عنوان یک لایه دفاعی اضافی، زمانی فعال میشود که تلاشهای اولیه هوش مصنوعی برای تغییر جهت مکالمه شکست خورده و دیگر امیدی به یک تعامل ثمربخش وجود نداشته باشد. هدف اصلی این قابلیت، جلوگیری از تولید محتوای غیرقانونی یا مضر است. به عنوان مثال، هوش مصنوعی میتواند از مکالماتی که در آنها درخواست محتوای مرتبط با سوءاستفاده از کودکان یا برنامهریزی برای خشونت گسترده مطرح میشود، خارج شود.
این اقدام آنتروپیک، یک راهحل کمهزینه برای مدیریت ریسکهای احتمالی مرتبط با هوش مصنوعی است. به جای تلاش برای انسانیسازی مدلها، این شرکت به آنها امکان «خروج از تعاملات ناخوشایند» را میدهد. این قابلیت در موارد بسیار نادر فعال میشود و اکثر کاربران، حتی هنگام صحبت در مورد موضوعات حساس، آن را تجربه نخواهند کرد.
نکته مهم این است که وقتی کلاد یک مکالمه را پایان میدهد، کاربر همچنان میتواند یک چت جدید را آغاز کند یا با ویرایش پیامهای قبلی، مسیر مکالمه را تغییر دهد. این ویژگی نشان میدهد که آنتروپیک در حال آزمایش و بهبود مداوم مدلهای خود است و به بازخورد کاربران برای ارتقاء آن اهمیت میدهد. این رویکرد، آیندهای را ترسیم میکند که در آن هوش مصنوعی نه تنها ابزاری قدرتمند است، بلکه سیستمی مسئولیتپذیر و ایمن نیز محسوب میشود.
منبع: sepidpendar.com
به این مطلب چه امتیازی می دهید؟
1
2
3
4
5
(1)