Together AI เพิ่มฟีเจอร์การเรียกใช้เครื่องมือ การติดตามเหตุผล และการปรับแต่งแบบวิชัน-ภาษาลงในแพลตฟอร์ม พร้อมเพิ่มประสิทธิภาพ 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์ 100B+ (อ่านเพิ่มเติมTogether AI เพิ่มฟีเจอร์การเรียกใช้เครื่องมือ การติดตามเหตุผล และการปรับแต่งแบบวิชัน-ภาษาลงในแพลตฟอร์ม พร้อมเพิ่มประสิทธิภาพ 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์ 100B+ (อ่านเพิ่มเติม

Together AI ยกระดับแพลตฟอร์มการปรับแต่งด้วยการรองรับการมองเห็นและการให้เหตุผล

2026/03/19 02:27
2 นาทีในการอ่าน
หากมีข้อเสนอแนะหรือข้อกังวลเกี่ยวกับเนื้อหานี้ โปรดติดต่อเราได้ที่ crypto.news@mexc.com

Together AI อัปเกรดแพลตฟอร์ม Fine-Tuning ด้วยการรองรับ Vision และ Reasoning

Joerg Hiller 18 มี.ค. 2026 18:27

Together AI เพิ่ม tool calling, reasoning traces และ vision-language fine-tuning ลงในแพลตฟอร์ม พร้อมเพิ่ม throughput ถึง 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์มากกว่า 100B

Together AI อัปเกรดแพลตฟอร์ม Fine-Tuning ด้วยการรองรับ Vision และ Reasoning

Together AI เปิดตัวการขยายบริการ fine-tuning อย่างใหญ่โตเมื่อวันที่ 18 มีนาคม โดยเพิ่มการรองรับแบบเนทีฟสำหรับ tool calling, reasoning traces และ vision-language models ซึ่งเป็นความสามารถที่แก้ไขปัญหาที่สำคัญสำหรับทีมที่สร้างระบบ AI สำหรับการใช้งานจริง

การอัปเดตนี้เกิดขึ้นในขณะที่บริษัทรายงานว่ากำลังเจรจารอบการระดมทุนที่จะทำให้มูลค่าอยู่ที่ 7.5 พันล้านดอลลาร์ เพิ่มขึ้นมากกว่าสองเท่าจากมูลค่า 3.3 พันล้านดอลลาร์ในรอบ Series B ของเดือนกุมภาพันธ์ 2025

สิ่งใหม่ที่แท้จริง

แพลตฟอร์มตอนนี้รองรับ fine-tuning สามประเภทที่เคยต้องใช้วิธีแก้ปัญหาแบบกระจัดกระจาย:

Tool calling ได้รับการรองรับแบบครบวงจรโดยใช้ schemas ที่เข้ากันได้กับ OpenAI ระบบตรวจสอบว่าทุก tool call ในข้อมูลการเทรนตรงกับฟังก์ชันที่ประกาศไว้ก่อนการเทรนเริ่มต้น ซึ่งเป็นการป้องกันพารามิเตอร์ที่สร้างขึ้นมาและความไม่ตรงกันของ schema ที่รบกวน agentic workflows

Reasoning fine-tuning ช่วยให้ทีมสามารถเทรนโมเดลบน domain-specific thinking traces โดยใช้ฟิลด์ reasoning_content โดยเฉพาะ นี่สำคัญเพราะรูปแบบ reasoning แตกต่างกันอย่างมากในแต่ละกลุ่มโมเดล ทำให้การเทรนที่สม่ำเสมอเป็นเรื่องยากหากไม่มีมาตรฐาน

Vision-language fine-tuning รองรับชุดข้อมูลผสมที่มีทั้งตัวอย่างรูปภาพ-ข้อความและข้อความเท่านั้น โดยค่าเริ่มต้น vision encoder จะถูกตรึงไว้ในขณะที่ language layers ได้รับการอัปเดต แม้ว่าทีมสามารถเปิดใช้งานการเทรนร่วมกันได้เมื่อการจดจำรูปแบบภาพต้องการการปรับปรุง

การอัปเกรดโครงสร้างพื้นฐาน

นอกเหนือจากความสามารถใหม่ Together AI อ้างว่าได้ผลงานด้านประสิทธิภาพที่สำคัญจากการเพิ่มประสิทธิภาพ training stack สำหรับสถาปัตยกรรม mixture-of-experts บริษัทได้รวม SonicMoE kernels ที่ทับซ้อนการดำเนินการหน่วยความจำกับการคำนวณ รวมถึง CUDA kernels แบบกำหนดเองสำหรับการคำนวณ loss

ผลลัพธ์แตกต่างกันตามขนาดโมเดล: โมเดลขนาดเล็กเห็นการปรับปรุง throughput ประมาณ 2 เท่า ในขณะที่สถาปัตยกรรมขนาดใหญ่เช่น Kimi-K2 เพิ่มขึ้น 6 เท่า แพลตฟอร์มตอนนี้รองรับชุดข้อมูลถึง 100GB และโมเดลที่เกินหนึ่งแสนล้านพารามิเตอร์

โมเดลใหม่ที่พร้อมใช้งานสำหรับ fine-tuning ได้แก่ Qwen 3.5 variants (ถึง 397B พารามิเตอร์), Kimi K2 และ K2.5 และ GLM-4.6 และ 4.7

การเพิ่มเติมที่ใช้งานได้จริง

การอัปเดตรวมถึงการประเมินต้นทุนก่อนการดำเนินงานและการติดตามความคืบหน้าแบบสดด้วยการประมาณการเสร็จสิ้นแบบไดนามิก ซึ่งเป็นฟีเจอร์ที่ฟังดูพื้นฐานแต่ป้องกันความประหลาดใจด้านงบประมาณที่ทำให้การทดลองมีความเสี่ยง

XY.AI Labs ซึ่ง Together AI อ้างถึงเป็นตัวอย่างลูกค้า รายงานว่าเปลี่ยนจากรอบการทำซ้ำรายสัปดาห์เป็นรายวัน ในขณะที่ลดต้นทุน 2-3 เท่าและปรับปรุงความแม่นยำจาก 77% เป็น 87% โดยใช้ fine-tuning และ deployment APIs ของแพลตฟอร์ม

บริบทตลาด

เวลาสอดคล้องกับการเพิ่มขึ้นของการใช้จ่ายด้านโครงสร้างพื้นฐาน AI การระดมทุนสตาร์ทอัพในภาคส่วน AI ถึง 220 พันล้านดอลลาร์ในสองเดือนแรกของปี 2026 ตามรายงานล่าสุด โดยเงินทุนส่วนใหญ่ไหลไปสู่โครงสร้างพื้นฐานการเทรนและ inference

Together AI วางตำแหน่งตัวเองเป็นทางเลือกแทนการสร้างโครงสร้างพื้นฐาน AI ภายในองค์กร โดยเสนอการเข้าถึงโมเดลโอเพนซอร์สกว่า 200 โมเดลผ่านแพลตฟอร์ม ข้อเสนอของบริษัท คือการลดความซับซ้อนของโครงสร้างพื้นฐานเพื่อให้ทีมสามารถมุ่งเน้นไปที่การพัฒนาผลิตภัณฑ์ ตอนนี้ขยายไปสู่ post-training workflows ที่ซับซ้อนมากขึ้น ซึ่งเคยเป็นขอบเขตของห้องปฏิบัติการวิจัยที่มีทรัพยากรมาก

แหล่งที่มาของภาพ: Shutterstock
  • together ai
  • ai infrastructure
  • fine-tuning
  • machine learning
  • enterprise ai
ข้อจำกัดความรับผิดชอบ: บทความที่โพสต์ซ้ำในไซต์นี้มาจากแพลตฟอร์มสาธารณะและมีไว้เพื่อจุดประสงค์ในการให้ข้อมูลเท่านั้น ซึ่งไม่ได้สะท้อนถึงมุมมองของ MEXC แต่อย่างใด ลิขสิทธิ์ทั้งหมดยังคงเป็นของผู้เขียนดั้งเดิม หากคุณเชื่อว่าเนื้อหาใดละเมิดสิทธิของบุคคลที่สาม โปรดติดต่อ crypto.news@mexc.com เพื่อลบออก MEXC ไม่รับประกันความถูกต้อง ความสมบูรณ์ หรือความทันเวลาของเนื้อหาใดๆ และไม่รับผิดชอบต่อการดำเนินการใดๆ ที่เกิดขึ้นตามข้อมูลที่ให้มา เนื้อหานี้ไม่ถือเป็นคำแนะนำทางการเงิน กฎหมาย หรือคำแนะนำจากผู้เชี่ยวชาญอื่นๆ และไม่ถือว่าเป็นคำแนะนำหรือการรับรองจาก MEXC

คุณอาจชอบเช่นกัน

หุ้น Ernexa Therapeutics (ERNA) พุ่งขึ้น 78% หลังประกาศผลประกอบการไตรมาส 1 และอัปเดตไปป์ไลน์

หุ้น Ernexa Therapeutics (ERNA) พุ่งขึ้น 78% หลังประกาศผลประกอบการไตรมาส 1 และอัปเดตไปป์ไลน์

หุ้น Ernexa Therapeutics (ERNA) พุ่งขึ้น 78% หลังจากผลประกอบการไตรมาส 1 ปี 2026 แสดงให้เห็นการขาดทุนที่ลดลง ผลการทดลอง ERNA-101 ที่เป็นบวก และการจดทะเบียนวางขายหุ้นมูลค่า 50 ล้านดอลลาร์ The
แชร์
Blockonomi2026/05/13 01:11
เฮ็กเซธถูกตรวจสอบข้อเท็จจริงอย่างตรงไปตรงมาในการพิจารณา: 'เราไม่ได้ชนะสงครามนี้'

เฮ็กเซธถูกตรวจสอบข้อเท็จจริงอย่างตรงไปตรงมาในการพิจารณา: 'เราไม่ได้ชนะสงครามนี้'

ส.ว. Jeanne Shaheen (D-NH) ได้ชี้ให้รัฐมนตรีกลาโหม Pete Hegseth ทราบว่า สหรัฐฯ "ไม่ได้ชนะสงครามครั้งนี้" กับอิหร่าน แม้จะมีถ้อยแถลงจากประธานาธิบดี
แชร์
Rawstory2026/05/13 01:21
Ray Dalio ผู้บริหารสินทรัพย์มูลค่า 1.5 หมื่นล้านดอลลาร์ กล่าวว่า "ทองคำดีกว่า Bitcoin"; Michael Saylor ตอบโต้ทันที

Ray Dalio ผู้บริหารสินทรัพย์มูลค่า 1.5 หมื่นล้านดอลลาร์ กล่าวว่า "ทองคำดีกว่า Bitcoin"; Michael Saylor ตอบโต้ทันที

หลังจากที่นักลงทุนชื่อดัง Ray Dalio ได้แสดงความคิดเห็นเกี่ยวกับ Bitcoin นักลงทุนขาขึ้นรายใหญ่ Michael Saylor ได้ออกมาตอบโต้ อ่านต่อ: Ray Dalio ผู้บริหารสินทรัพย์มูลค่า $150
แชร์
Bitcoinsistemi2026/05/13 01:27

ข่าวสดตลอด 24/7

มากกว่า

เปิดตัว KAIO ระดับโลก

เปิดตัว KAIO ระดับโลกเปิดตัว KAIO ระดับโลก

เทรด KAIO ค่าธรรมเนียม 0 และเกาะกระแส RWA ที่มาแรง