تتر یک چارچوب چند پلتفرمی معرفی کرده است که هزینه و نیازهای سخت‌افزاری آموزش مدل‌های هوش مصنوعی را کاهش می‌دهد و امکان تنظیم دقیق LLM‌های پیشرفته را فراهم می‌کندتتر یک چارچوب چند پلتفرمی معرفی کرده است که هزینه و نیازهای سخت‌افزاری آموزش مدل‌های هوش مصنوعی را کاهش می‌دهد و امکان تنظیم دقیق LLM‌های پیشرفته را فراهم می‌کند

تتر فریم‌ورک BitNet LoRA چند پلتفرمی را راه‌اندازی می‌کند که آموزش و استنتاج هوش مصنوعی با میلیاردها پارامتر را بر روی دستگاه‌های مصرف‌کننده امکان‌پذیر می‌سازد

2026/03/18 15:00
مدت مطالعه: 4 دقیقه
برای ارائه بازخورد یا طرح هرگونه نگرانی درباره این محتوا، لطفاً با ما از طریق crypto.news@mexc.com تماس بگیرید.
تتر فریمورک BitNet LoRA چند پلتفرمی را راه‌اندازی می‌کند که آموزش و استنتاج هوش مصنوعی با میلیاردها پارامتر را روی دستگاه‌های مصرف‌کننده امکان‌پذیر می‌سازد

تتر، صادرکننده استیبل کوین USDT، راه‌اندازی آنچه را که به عنوان اولین فریمورک تنظیم دقیق LoRA چند پلتفرمی توصیف می‌کند، اعلام کرد که برای مدل‌های Microsoft BitNet طراحی شده است، که بر اساس معماری مدل زبانی بزرگ 1 بیتی هستند. این قابلیت در سیستم QVAC Fabric آن ادغام شده و گزارش شده است که هم استفاده از حافظه و هم نیازهای محاسباتی را به طور قابل توجهی کاهش می‌دهد. طبق گفته شرکت، این توسعه، مدل‌های زبانی در مقیاس بزرگ، از جمله مدل‌هایی با میلیاردها پارامتر، را قادر می‌سازد تا با استفاده از سخت‌افزارهای مصرف‌کننده به طور گسترده در دسترس مانند لپ‌تاپ‌ها، واحدهای پردازش گرافیکی استاندارد و گوشی‌های هوشمند مدرن، تنظیم دقیق شوند.

توسعه و نگهداری سیستم‌های هوش مصنوعی به طور سنتی نیازمند سخت‌افزار سطح سازمانی، به ویژه زیرساخت تخصصی NVIDIA یا محیط‌های مبتنی بر رایانش ابری بوده است. این الزامات به هزینه‌های عملیاتی بالا کمک کرده‌اند و دسترسی به توسعه پیشرفته هوش مصنوعی را عمدتاً به سازمان‌های بزرگ با منابع مالی قابل توجه و دسترسی به سیستم‌های محاسباتی تخصصی محدود کرده‌اند.

تتر اعلام کرد که مدل زبانی بزرگ QVAC Fabric خود، که توسط فریمورک جدید مبتنی بر BitNet تقویت شده است، با پشتیبانی از تنظیم دقیق LoRA چند پلتفرمی و تسریع استنتاج در طیف وسیعی از GPUهای ناهمگون مصرف‌کننده، این محدودیت‌ها را برطرف می‌کند. این موارد شامل سخت‌افزارهایی از Intel، AMD و Apple Silicon و سایر موارد می‌شوند. در نتیجه، کاربران قادر هستند مدل‌های هوش مصنوعی را مستقیماً روی دستگاه‌های مصرف‌کننده معمولی در دسترس آموزش داده و شخصی‌سازی کنند به جای اتکا به زیرساخت متمرکز.

شرکت گزارش داد که تیم مهندسی آن برای اولین بار تنظیم دقیق BitNet را روی واحدهای پردازش گرافیکی موبایل با موفقیت نشان داده است، از جمله پلتفرم‌هایی مانند Adreno، Mali و Apple Bionic GPUs. آزمایش داخلی نشان داد که یک مدل BitNet با 125 میلیون پارامتر می‌تواند در حدود ده دقیقه روی دستگاه Samsung S25 مجهز به GPU Adreno با استفاده از مجموعه داده زیست‌پزشکی متشکل از تقریباً 300 سند، یا حدود 18000 توکن، تنظیم دقیق شود. برای یک مدل 1 میلیارد پارامتری، همان مجموعه داده تقریباً یک ساعت و هجده دقیقه روی Samsung S25 و یک ساعت و چهل و پنج دقیقه روی iPhone 16 نیاز داشت. شرکت همچنین گزارش داد که توانسته است آزمایش را به مدل‌هایی تا 13 میلیارد پارامتر روی iPhone 16 تحت شرایط حداکثر ظرفیت دستگاه گسترش دهد.

پیشرفت‌ها در آموزش هوش مصنوعی مبتنی بر لبه و بهینه‌سازی عملکرد

یافته‌های بیشتر نشان می‌دهد که فریمورک می‌تواند از تنظیم دقیق مدل‌ها تا دو برابر اندازه مدل‌های غیر BitNet قابل مقایسه که تحت کوانتیزاسیون Q4 روی دستگاه‌های لبه عمل می‌کنند، پشتیبانی کند. این نتیجه به ردپای حافظه کاهش یافته مرتبط با معماری BitNet نسبت داده می‌شود.

علاوه بر بهبودها در آموزش، این فریمورک همچنین عملکرد استنتاج بهبود یافته را نشان می‌دهد. آزمایش‌های انجام شده روی دستگاه‌های موبایل نشان داد که مدل‌های BitNet هنگام اجرا روی GPUها به طور قابل توجهی سریع‌تر عمل می‌کنند، با سرعت‌های پردازش که از دو تا یازده برابر بیشتر از اجرای مبتنی بر CPU است. این نتایج نشان می‌دهد که GPUهای موبایل به طور فزاینده‌ای قادر به مدیریت بارهای کاری هستند که قبلاً نیازمند سخت‌افزار تخصصی یا منابع سطح مرکز داده بودند.

این سیستم همچنین دستاوردهای قابل توجهی در کارایی حافظه نشان می‌دهد. داده‌های معیار نشان می‌دهد که یک مدل BitNet-1B با استفاده از پیکربندی TQ1_0 تا 77.8 درصد کمتر VRAM در مقایسه با یک مدل 16 بیتی Gemma-3-1B و 65.6 درصد کمتر از یک مدل 16 بیتی Qwen3-0.6B در طول فرآیندهای استنتاج و تنظیم دقیق LoRA نیاز دارد. این کاهش‌ها ظرفیت اضافی برای اجرای مدل‌های بزرگ‌تر و فعال کردن ویژگی های شخصی سازی شده روی سخت‌افزاری که قبلاً ناکافی در نظر گرفته می‌شد، فراهم می‌کنند.

تتر بیشتر نشان داد که این فریمورک برای اولین بار قابلیت‌های تنظیم دقیق LoRA را برای مدل‌های زبانی بزرگ 1 بیتی روی سخت‌افزارهای غیر NVIDIA معرفی می‌کند و سازگاری را به پلتفرم‌های AMD، Intel، Apple Silicon و GPU موبایل گسترش می‌دهد. با کاهش اتکا به زیرساخت تخصصی و سرویس‌های رایانش ابری، این رویکرد اجازه می‌دهد داده‌های حساس به صورت محلی روی دستگاه‌های کاربر ذخیره شوند. شرکت اشاره کرد که این کارایی همچنین ممکن است از توسعه سیستم‌های یادگیری فدرال پشتیبانی کند، که در آن مدل‌ها می‌توانند به صورت مشارکتی در دستگاه‌های توزیع شده آموزش ببینند در حالی که حریم خصوصی داده‌ها را حفظ کرده و وابستگی به سیستم‌های متمرکز را به حداقل می‌رسانند.

پست تتر فریمورک BitNet LoRA چند پلتفرمی را راه‌اندازی می‌کند که آموزش و استنتاج هوش مصنوعی با میلیاردها پارامتر را روی دستگاه‌های مصرف‌کننده امکان‌پذیر می‌سازد برای اولین بار در Metaverse Post ظاهر شد.

فرصت‌ های بازار
لوگو CROSS
CROSS قیمت لحظه ای(CROSS)
$0.0666
$0.0666$0.0666
-2.88%
USD
نمودار قیمت لحظه ای CROSS (CROSS)
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل crypto.news@mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.