Together AI เพิ่มฟีเจอร์การเรียกใช้เครื่องมือ การติดตามเหตุผล และการปรับแต่งแบบวิชัน-ภาษาลงในแพลตฟอร์ม พร้อมเพิ่มประสิทธิภาพ 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์ 100B+ (อ่านเพิ่มเติมTogether AI เพิ่มฟีเจอร์การเรียกใช้เครื่องมือ การติดตามเหตุผล และการปรับแต่งแบบวิชัน-ภาษาลงในแพลตฟอร์ม พร้อมเพิ่มประสิทธิภาพ 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์ 100B+ (อ่านเพิ่มเติม

Together AI ยกระดับแพลตฟอร์มการปรับแต่งด้วยการรองรับการมองเห็นและการให้เหตุผล

2026/03/19 02:27
2 นาทีในการอ่าน
หากมีข้อเสนอแนะหรือข้อกังวลเกี่ยวกับเนื้อหานี้ โปรดติดต่อเราได้ที่ crypto.news@mexc.com

Together AI อัปเกรดแพลตฟอร์ม Fine-Tuning ด้วยการรองรับ Vision และ Reasoning

Joerg Hiller 18 มี.ค. 2026 18:27

Together AI เพิ่ม tool calling, reasoning traces และ vision-language fine-tuning ลงในแพลตฟอร์ม พร้อมเพิ่ม throughput ถึง 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์มากกว่า 100B

Together AI อัปเกรดแพลตฟอร์ม Fine-Tuning ด้วยการรองรับ Vision และ Reasoning

Together AI เปิดตัวการขยายบริการ fine-tuning อย่างใหญ่โตเมื่อวันที่ 18 มีนาคม โดยเพิ่มการรองรับแบบเนทีฟสำหรับ tool calling, reasoning traces และ vision-language models ซึ่งเป็นความสามารถที่แก้ไขปัญหาที่สำคัญสำหรับทีมที่สร้างระบบ AI สำหรับการใช้งานจริง

การอัปเดตนี้เกิดขึ้นในขณะที่บริษัทรายงานว่ากำลังเจรจารอบการระดมทุนที่จะทำให้มูลค่าอยู่ที่ 7.5 พันล้านดอลลาร์ เพิ่มขึ้นมากกว่าสองเท่าจากมูลค่า 3.3 พันล้านดอลลาร์ในรอบ Series B ของเดือนกุมภาพันธ์ 2025

สิ่งใหม่ที่แท้จริง

แพลตฟอร์มตอนนี้รองรับ fine-tuning สามประเภทที่เคยต้องใช้วิธีแก้ปัญหาแบบกระจัดกระจาย:

Tool calling ได้รับการรองรับแบบครบวงจรโดยใช้ schemas ที่เข้ากันได้กับ OpenAI ระบบตรวจสอบว่าทุก tool call ในข้อมูลการเทรนตรงกับฟังก์ชันที่ประกาศไว้ก่อนการเทรนเริ่มต้น ซึ่งเป็นการป้องกันพารามิเตอร์ที่สร้างขึ้นมาและความไม่ตรงกันของ schema ที่รบกวน agentic workflows

Reasoning fine-tuning ช่วยให้ทีมสามารถเทรนโมเดลบน domain-specific thinking traces โดยใช้ฟิลด์ reasoning_content โดยเฉพาะ นี่สำคัญเพราะรูปแบบ reasoning แตกต่างกันอย่างมากในแต่ละกลุ่มโมเดล ทำให้การเทรนที่สม่ำเสมอเป็นเรื่องยากหากไม่มีมาตรฐาน

Vision-language fine-tuning รองรับชุดข้อมูลผสมที่มีทั้งตัวอย่างรูปภาพ-ข้อความและข้อความเท่านั้น โดยค่าเริ่มต้น vision encoder จะถูกตรึงไว้ในขณะที่ language layers ได้รับการอัปเดต แม้ว่าทีมสามารถเปิดใช้งานการเทรนร่วมกันได้เมื่อการจดจำรูปแบบภาพต้องการการปรับปรุง

การอัปเกรดโครงสร้างพื้นฐาน

นอกเหนือจากความสามารถใหม่ Together AI อ้างว่าได้ผลงานด้านประสิทธิภาพที่สำคัญจากการเพิ่มประสิทธิภาพ training stack สำหรับสถาปัตยกรรม mixture-of-experts บริษัทได้รวม SonicMoE kernels ที่ทับซ้อนการดำเนินการหน่วยความจำกับการคำนวณ รวมถึง CUDA kernels แบบกำหนดเองสำหรับการคำนวณ loss

ผลลัพธ์แตกต่างกันตามขนาดโมเดล: โมเดลขนาดเล็กเห็นการปรับปรุง throughput ประมาณ 2 เท่า ในขณะที่สถาปัตยกรรมขนาดใหญ่เช่น Kimi-K2 เพิ่มขึ้น 6 เท่า แพลตฟอร์มตอนนี้รองรับชุดข้อมูลถึง 100GB และโมเดลที่เกินหนึ่งแสนล้านพารามิเตอร์

โมเดลใหม่ที่พร้อมใช้งานสำหรับ fine-tuning ได้แก่ Qwen 3.5 variants (ถึง 397B พารามิเตอร์), Kimi K2 และ K2.5 และ GLM-4.6 และ 4.7

การเพิ่มเติมที่ใช้งานได้จริง

การอัปเดตรวมถึงการประเมินต้นทุนก่อนการดำเนินงานและการติดตามความคืบหน้าแบบสดด้วยการประมาณการเสร็จสิ้นแบบไดนามิก ซึ่งเป็นฟีเจอร์ที่ฟังดูพื้นฐานแต่ป้องกันความประหลาดใจด้านงบประมาณที่ทำให้การทดลองมีความเสี่ยง

XY.AI Labs ซึ่ง Together AI อ้างถึงเป็นตัวอย่างลูกค้า รายงานว่าเปลี่ยนจากรอบการทำซ้ำรายสัปดาห์เป็นรายวัน ในขณะที่ลดต้นทุน 2-3 เท่าและปรับปรุงความแม่นยำจาก 77% เป็น 87% โดยใช้ fine-tuning และ deployment APIs ของแพลตฟอร์ม

บริบทตลาด

เวลาสอดคล้องกับการเพิ่มขึ้นของการใช้จ่ายด้านโครงสร้างพื้นฐาน AI การระดมทุนสตาร์ทอัพในภาคส่วน AI ถึง 220 พันล้านดอลลาร์ในสองเดือนแรกของปี 2026 ตามรายงานล่าสุด โดยเงินทุนส่วนใหญ่ไหลไปสู่โครงสร้างพื้นฐานการเทรนและ inference

Together AI วางตำแหน่งตัวเองเป็นทางเลือกแทนการสร้างโครงสร้างพื้นฐาน AI ภายในองค์กร โดยเสนอการเข้าถึงโมเดลโอเพนซอร์สกว่า 200 โมเดลผ่านแพลตฟอร์ม ข้อเสนอของบริษัท คือการลดความซับซ้อนของโครงสร้างพื้นฐานเพื่อให้ทีมสามารถมุ่งเน้นไปที่การพัฒนาผลิตภัณฑ์ ตอนนี้ขยายไปสู่ post-training workflows ที่ซับซ้อนมากขึ้น ซึ่งเคยเป็นขอบเขตของห้องปฏิบัติการวิจัยที่มีทรัพยากรมาก

แหล่งที่มาของภาพ: Shutterstock
  • together ai
  • ai infrastructure
  • fine-tuning
  • machine learning
  • enterprise ai
ข้อจำกัดความรับผิดชอบ: บทความที่โพสต์ซ้ำในไซต์นี้มาจากแพลตฟอร์มสาธารณะและมีไว้เพื่อจุดประสงค์ในการให้ข้อมูลเท่านั้น ซึ่งไม่ได้สะท้อนถึงมุมมองของ MEXC แต่อย่างใด ลิขสิทธิ์ทั้งหมดยังคงเป็นของผู้เขียนดั้งเดิม หากคุณเชื่อว่าเนื้อหาใดละเมิดสิทธิของบุคคลที่สาม โปรดติดต่อ crypto.news@mexc.com เพื่อลบออก MEXC ไม่รับประกันความถูกต้อง ความสมบูรณ์ หรือความทันเวลาของเนื้อหาใดๆ และไม่รับผิดชอบต่อการดำเนินการใดๆ ที่เกิดขึ้นตามข้อมูลที่ให้มา เนื้อหานี้ไม่ถือเป็นคำแนะนำทางการเงิน กฎหมาย หรือคำแนะนำจากผู้เชี่ยวชาญอื่นๆ และไม่ถือว่าเป็นคำแนะนำหรือการรับรองจาก MEXC

คุณอาจชอบเช่นกัน

BlackRock ยื่นไฟล์กองทุน Tokenized สองกองทุน ผลักดันแรงโมเมนตัม RWA

BlackRock ยื่นไฟล์กองทุน Tokenized สองกองทุน ผลักดันแรงโมเมนตัม RWA

BlackRock ยื่นคำขอกองทุน Tokenized ใหม่สองรายการต่อสำนักงานคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์สหรัฐฯ เมื่อวันที่ 8 พฤษภาคม 2026 เพื่อเพิ่มเติมจากกองทุนหลัก BUIDL และส่งสัญญาณ
แชร์
CryptoMode2026/05/14 03:00
ติ๊กต็อก-ติ๊กต็อก…

ติ๊กต็อก-ติ๊กต็อก…

เมื่อไม่นานมานี้ยังมีช่วงเวลาหนึ่งที่ใครก็ตามซึ่งเสนอว่าประชากรจำนวนมากเป็นข้อได้เปรียบที่ควรนำมาใช้ประโยชน์ แทนที่จะเป็นภาระที่ต้องลดทอนลง จะถูกต้อนรับด้วย
แชร์
Bworldonline2026/05/14 00:04
ความตึงเครียดในตลาดพลังงานเป็นสาเหตุที่น่ากังวลต่อเสถียรภาพทางการเงิน

ความตึงเครียดในตลาดพลังงานเป็นสาเหตุที่น่ากังวลต่อเสถียรภาพทางการเงิน

โพสต์เรื่อง ความตึงเครียดในตลาดพลังงานเป็นสาเหตุที่น่ากังวลต่อเสถียรภาพทางการเงิน ปรากฏบน BitcoinEthereumNews.com คณะกรรมการบริหารธนาคารกลางยุโรป (ECB)
แชร์
BitcoinEthereumNews2026/04/02 17:46

ข่าวสดตลอด 24/7

มากกว่า

เปิดตัว KAIO ระดับโลก

เปิดตัว KAIO ระดับโลกเปิดตัว KAIO ระดับโลก

เทรด KAIO ค่าธรรมเนียม 0 และเกาะกระแส RWA ที่มาแรง