انقلاب در هوش مصنوعی: مدل زبانی چینی ۱۰۰ برابر سریع تر از چت جی پی تی

تاریخ ارسال : 1404/06/20

مدل زبانی چینی ۱۰۰ برابر سریع تر از چت جی پی تی

به گزارش سپیدپندار دات کام محققان چینی مدعی شده اند نخستین مدل زبانی بزرگ هوش مصنوعی شبیه مغز  را ابداع کرده اند که به چت جی پی تی شباهت دارد و ۱۰۰ برابر سریع تر از مدل های معمول است.

به گزارش سپیدپندار دات کام به نقل از ایندپندنت، هدف از طراحی این هوش مصنوعی، کاهش مصرف انرژی و کار بدون تراشه های انویدیا عنوان شده است. به قول پژوهشگران آکادمی علوم چین، این مدل هوش مصنوعی که SpikingBrain 1.0 نام دارد، از نحوه ی شلیک سلول های عصبی موردنیاز مغز انسان تقلید می کند.

مدلهای زبانی بزرگی مانند ChatGPT و LLaMA متا که به شکل گسترده استفاده می شوند، به قانون مقیاس بندی وابسته هستند. این قانون نشان داده است که عملکرد یک سیستم هوش مصنوعی استدلالی، با افزایش داده ها و بزرگ تر شدن مدلها بهبود می یابد. این مدلها با استفاده از تکنیکی به نام «توجه» کار می کنند؛ به این صورت که هوش مصنوعی در آن واحد همه ی کلمات یک جمله را بررسی می کند تا بفهمد کدام یک برای پیشبینی کلمه ی بعدی اهمیت بیشتری دارد. به عنوان نمونه، اگر کسی جمله ی «گربه پس از دیدن غریبه زیر تخت رفت برای اینکه آن ترسیده بود» را وارد ChatGPT کند، مدل می تواند کلمات را در آن واحد پردازش کند تا دریابد که واژه ی «آن» به «گربه» اشاره دارد.

این تکنیک موجب می شود مدلهای هوش مصنوعی هر کلمه را با تمام کلمات دیگر مقایسه کنند. به همین دلیل، اگر درخواست کاربر بسیار طولانی باشد، مانند وارد کردن یک کتاب کامل، انرژی بیشتری مصرف خواهد شد. مدلهای رایج هوش مصنوعی به علت تعداد زیاد واژگانی که پردازش می کنند با چند مشکل اساسی روبه رو هستند؛ همچون هزینه های بسیار بالای آموزش و مصرف زیاد انرژی. این مدلها به طور معمول بر روی پردازنده های گرافیکی انویدیا اجرا می شوند، موضوعی که موجب می شود امکان توسعه برای همه ی محققان فراهم نباشد. پژوهشگران در اینباره نوشتند: «علاوه بر ساخت مدلهای بزرگ زبانی، توسعه آنها در پلت فرم های رایانشی غیر انویدیا با چالش های بزرگی هم راه است.» آنها مدعی اند برای غلبه بر این محدودیت ها مدلی تازه ابداع نموده اند که از مکانیسم مغز الهام می گیرد.

به قول محققان، مدل جدید بجای بررسی کل متن، تنها واژه های نزدیک و مرتبط را با دقت پردازش می کند؛ درست مانند مغز انسان که در محاوره روی محتوای جدید تمرکز می کند. چنین تنظیماتی می تواند تعادلی میان کارایی و دقت ایجاد نماید. SpikingBrain 1.0 با استفاده از روش «توجه» می تواند ۲۵ تا ۱۰۰ برابر سریع تر از مدلهای معمول هوش مصنوعی عمل کند. این هوش مصنوعی جدید همینطور بر پایه پلت فرم تراشه چینی MetaX طراحی شده است و بجای محصولات انویدیا کار می کند. محققان می گویند این مدل بجای اتکا بر کل یک شبکه مانند ChatGPT، بصورت انتخابی به درخواست ها پاسخ می دهد و همین مساله مصرف انرژی را کم می کند.

این رویکرد امکان پیش آموزش مداوم با کمتر از دو درصد داده ها را فراهم می آورد و با این حال به عملکردی قابل مقایسه با مدلهای منبع باز متداول دست می یابد. پژوهشگران مدعی هستند که SpikingBrain در تعدادی موارد به سرعتی بیشتر از ۱۰۰ برابر مدلهای سنتی دست پیدا می کند. به اجمال، این مدلها با استفاده از تکنیکی به نام توجه کار می کنند؛ به این صورت که هوش مصنوعی در آن واحد همه ی کلمات یک جمله را بررسی می کند تا بفهمد کدام یک برای پیشبینی کلمه ی بعدی اهمیت بیشتری دارد. به عنوان نمونه، اگر کسی جمله ی گربه بعد از دیدن غریبه زیر تخت رفت به جهت اینکه آن ترسیده بود را وارد ChatGPT کند، مدل می تواند کلمات را در آن واحد پردازش کند تا دریابد که واژه ی آن به گربه اشاره دارد.

الگوریتم الهام‌گرفته از مغز: بزرگترین نوآوری SpikingBrain 1.0، الهام‌گیری از نحوه عملکرد مغز انسان است. به جای پردازش همزمان تمام کلمات یک متن، این مدل تنها روی کلمات نزدیک و مرتبط تمرکز می‌کند. این روش به آن اجازه می‌دهد تا با کارایی و سرعت بیشتری کار کند، دقیقاً مانند مغز انسان که در مکالمه، به جای مرور کل یک جمله، روی مفاهیم جدید و مرتبط تمرکز می‌کند.
 
افزایش سرعت و کاهش مصرف انرژی: با استفاده از این الگوریتم، SpikingBrain 1.0 ادعا می‌کند که می‌تواند تا ۱۰۰ برابر سریع‌تر از مدل‌های سنتی عمل کند. این سرعت فوق‌العاده، به‌ویژه در پردازش متن‌های طولانی، به کاهش چشمگیر مصرف انرژی منجر می‌شود که یکی از بزرگترین چالش‌های مدل‌های هوش مصنوعی کنونی است.
 
استقلال از سخت‌افزار Nvidia: یکی از مشکلات اصلی در توسعه هوش مصنوعی، وابستگی به تراشه‌های گران‌قیمت شرکت Nvidia است. این مدل جدید بر روی پلتفرم تراشه چینی MetaX توسعه یافته است، که وابستگی به Nvidia را کاهش می‌دهد و امکان دسترسی گسترده‌تری برای محققان فراهم می‌کند.
 
تغییر در "قانون مقیاس‌بندی": مدل‌های هوش مصنوعی معمولاً بر اساس قانون مقیاس‌بندی کار می‌کنند، به این معنی که با افزایش داده‌ها و اندازه مدل، عملکرد آن‌ها بهبود می‌یابد. این مدل جدید با رویکرد متفاوت خود، نشان می‌دهد که می‌توان با بهینه‌سازی و الهام‌گیری از مغز، به عملکردی مشابه با مصرف انرژی و سخت‌افزار کمتر دست یافت.
 
 
موضوعی که در این خبر به آن اشاره شده، مربوط به یک حوزه تحقیقاتی فعال و مهم در زمینه هوش مصنوعی است که به آن "هوش مصنوعی نورومورفیک" (Neuromorphic AI) گفته می‌شود. هدف این شاخه از علم، ساخت سیستم‌های هوش مصنوعی است که مانند مغز انسان، با استفاده از الگوهای شبکه‌های عصبی و Spiking Neurons (نورون‌های شلیک‌کننده) عمل کنند.
 

چرا هوش مصنوعی نورومورفیک اهمیت دارد؟

بهره‌وری انرژی: مغز انسان با وجود قدرت پردازش باورنکردنی، تنها حدود ۲۰ وات انرژی مصرف می‌کند. در مقابل، یک مدل زبانی بزرگ مانند ChatGPT برای پاسخ به یک درخواست ساده، ده‌ها یا صدها کیلووات انرژی مصرف می‌کند. هدف هوش مصنوعی نورومورفیک، ساخت سیستم‌هایی با همان کارایی انرژی است.
 
پردازش رویدادمحور: در مغز، نورون‌ها تنها زمانی که یک محرک مشخص به آستانه فعالیت آن‌ها برسد، "شلیک" می‌کنند. این رویکرد رویدادمحور، برخلاف پردازش دائمی و همزمان در سیستم‌های سنتی، بسیار بهینه‌تر است.
 
پیشرفت‌های اخیر: علاوه بر تلاش‌های چینی‌ها، شرکت‌های بزرگی مانند اینتل با تراشه Loihi و شرکت IBM با تراشه TrueNorth، در حال توسعه سخت‌افزارهای نورومورفیک هستند. این پلتفرم‌ها به طور خاص برای اجرای مدل‌های شبیه به مغز طراحی شده‌اند و می‌توانند در آینده جایگزین پردازنده‌های گرافیکی فعلی شوند.
 
خبر مربوط به SpikingBrain 1.0 نشان‌دهنده یک تغییر بزرگ در رویکرد توسعه هوش مصنوعی است؛ از مدل‌های عظیم و پرهزینه، به سمت مدل‌های هوشمند، سریع و کم‌مصرف که از طبیعت الهام گرفته‌اند. این جهش می‌تواند آینده هوش مصنوعی را به سمتی هدایت کند که دیگر وابسته به سخت‌افزارهای گران‌قیمت نباشد و توسعه آن برای همه در دسترس‌تر و پایدارتر شود.
به این مطلب چه امتیازی می دهید؟ 1 2 3 4 5 (1)

نظر شما در مورد انقلاب در هوش مصنوعی: مدل زبانی چینی ۱۰۰ برابر سریع تر از چت جی پی تی چیست؟

سوال: