Emitentul stablecoin-ului USDT, Tether, a anunțat lansarea a ceea ce descrie ca fiind primul cadru cross-platform de ajustare fină LoRA conceput pentru modelele Microsoft BitNet, care se bazează pe arhitectura modelului de limbaj mare de 1 bit. Capacitatea este integrată în sistemul său QVAC Fabric și se raportează că reduce semnificativ atât utilizarea memoriei, cât și cerințele de calcul. Conform companiei, această dezvoltare permite modelelor de limbaj la scară largă, inclusiv celor cu miliarde de parametri, să fie ajustate fin folosind hardware de consum disponibil pe scară largă, cum ar fi laptopuri, unități standard de procesare grafică și smartphone-uri moderne.
Dezvoltarea și întreținerea sistemelor de inteligență artificială au necesitat în mod tradițional hardware de nivel enterprise, în special infrastructura specializată NVIDIA sau medii bazate pe cloud. Aceste cerințe au contribuit la costuri operaționale ridicate, limitând accesul la dezvoltarea avansată a AI în principal la organizații mari cu resurse financiare substanțiale și acces la sisteme de calcul specializate.
Tether a declarat că modelul său de limbaj mare QVAC Fabric, îmbunătățit prin cadrul nou introdus bazat pe BitNet, abordează aceste limitări prin sprijinirea ajustării fine LoRA cross-platform și accelerarea inferenței pe o gamă de GPU-uri de consum eterogene. Acestea includ hardware de la Intel, AMD și Apple Silicon, printre altele. Drept urmare, utilizatorii pot antrena și personaliza modelele AI direct pe dispozitive de consum disponibile în mod obișnuit, în loc să se bazeze pe infrastructură centralizată.
Compania a raportat că echipa sa de inginerie a demonstrat cu succes ajustarea fină BitNet pe unități de procesare grafică mobile pentru prima dată, inclusiv platforme precum GPU-uri Adreno, Mali și Apple Bionic. Testarea internă a indicat că un model BitNet cu 125 de milioane de parametri ar putea fi ajustat fin în aproximativ zece minute pe un dispozitiv Samsung S25 echipat cu un GPU Adreno folosind un set de date biomedicale constând în aproximativ 300 de documente, sau aproximativ 18.000 de token-uri. Pentru un model cu 1 miliard de parametri, același set de date a necesitat aproximativ o oră și optsprezece minute pe Samsung S25 și o oră și patruzeci și cinci de minute pe un iPhone 16. Compania a raportat, de asemenea, că a reușit să extindă testarea la modele de până la 13 miliarde de parametri pe iPhone 16 în condiții de capacitate maximă a dispozitivului.
Constatările ulterioare sugerează că cadrul poate susține ajustarea fină a modelelor de până la de două ori mărimea modelelor non-BitNet comparabile care operează sub cuantizarea Q4 pe dispozitive edge. Acest rezultat este atribuit amprentei de memorie reduse asociate cu arhitectura BitNet.
Pe lângă îmbunătățirile în antrenament, cadrul demonstrează, de asemenea, performanțe îmbunătățite de inferență. Testele efectuate pe dispozitive mobile au indicat că modelele BitNet funcționează substanțial mai rapid atunci când sunt executate pe GPU-uri, cu viteze de procesare variind de la de două până la unsprezece ori mai mari decât execuția bazată pe CPU. Aceste rezultate indică faptul că GPU-urile mobile sunt din ce în ce mai capabile să gestioneze sarcini de lucru care anterior necesitau hardware specializat sau resurse la nivel de centru de date.
Sistemul prezintă, de asemenea, câștiguri notabile în eficiența memoriei. Datele de referință sugerează că un model BitNet-1B folosind configurația TQ1_0 necesită cu până la 77,8 la sută mai puțin VRAM în comparație cu un model Gemma-3-1B de 16 biți și cu 65,6 la sută mai puțin decât un model Qwen3-0.6B de 16 biți în timpul proceselor de inferență și ajustare fină LoRA. Aceste reduceri oferă capacitate suplimentară pentru rularea modelelor mai mari și activarea funcțiilor de personalizare pe hardware care anterior ar fi fost considerat insuficient.
Tether a indicat în continuare că cadrul introduce capacități de ajustare fină LoRA pentru modele de limbaj mare de 1 bit pe hardware non-NVIDIA pentru prima dată, extinzând compatibilitatea la platforme AMD, Intel, Apple Silicon și GPU mobile. Prin reducerea dependenței de infrastructura specializată și serviciile cloud, abordarea permite datelor sensibile să rămână stocate local pe dispozitivele utilizatorilor. Compania a menționat că această eficiență poate susține, de asemenea, dezvoltarea sistemelor de învățare federată, în care modelele pot fi antrenate în mod colaborativ pe dispozitive distribuite, menținând în același timp confidențialitatea datelor și minimizând dependența de sistemele centralizate.
Postarea Tether lansează cadrul cross-platform BitNet LoRA care permite antrenarea și inferența AI cu miliarde de parametri pe dispozitive de consum a apărut prima dată pe Metaverse Post.

![TopVox All Music Converter: Descarcă muzică Spotify fără pierderi în format MP3 [Fără Premium]](https://mexc-rainbown-activityimages.s3.ap-northeast-1.amazonaws.com/banner/F20250806143935486uPpOwHh8GBAOFo.png)
