29 ส.ค. 2025
InstaLILY: เครื่องมือค้นหาระดับองค์กรแบบ Agent ที่ขับเคลื่อนโดย Gemini

เอเจนต์ AI ระดับองค์กรที่ทำให้เวิร์กโฟลว์ที่ซับซ้อนเป็นอัตโนมัติ เช่น การขายแบบ B2B หรือการบำรุงรักษาอุตสาหกรรม จำเป็นต้องใช้โมเดลที่ได้รับการฝึกจากข้อมูลเฉพาะโดเมนคุณภาพสูงจำนวนมหาศาล การสร้างข้อมูลนี้เป็นคอขวดหลักของหลายๆ บริษัท เนื่องจากการติดป้ายกำกับด้วยตนเองนั้นช้าและมีค่าใช้จ่ายสูง และโมเดลทั่วไปอาจขาดความแตกต่างที่จำเป็น
InstaLILY AI ซึ่งเป็นแพลตฟอร์มระดับองค์กรสำหรับเอเจนต์ AI แบบอัตโนมัติและเฉพาะทาง ช่วยให้บริษัทต่างๆ ปรับเวิร์กโฟลว์ที่ซับซ้อนในฝ่ายขาย บริการ และการปฏิบัติงานให้เป็นระบบอัตโนมัติและเรียกใช้ได้ สำหรับลูกค้าของบริษัทรายหนึ่งอย่าง PartsTown พวกเขาต้องการสร้างเครื่องมือค้นหาแบบเรียลไทม์เพื่อให้ AI Agent จับคู่ช่างเทคนิคภาคสนามกับชิ้นส่วนทดแทนที่เฉพาะเจาะจงจากแคตตาล็อกที่มีสินค้ากว่า 5 ล้านรายการได้ทันที ซึ่งต้องมีวิธีที่ปรับขนาดได้เพื่อสร้างป้ายกำกับคุณภาพสูงนับล้านรายการสำหรับการฝึกโมเดล
เพื่อแก้ปัญหานี้ InstaLILY AI จึงได้พัฒนาไปป์ไลน์การสร้างข้อมูลสังเคราะห์แบบหลายขั้นตอน ไปป์ไลน์นี้ใช้สถาปัตยกรรมแบบครู-นักเรียน โดยมี Gemini 2.5 Pro ทำหน้าที่เป็นโมเดล "ครู" เพื่อสร้างข้อมูลการฝึกที่มีคุณภาพสูงสุด และโมเดล Gemma ที่ปรับแต่งแล้วทำหน้าที่เป็น "นักเรียน" เพื่อให้ติดตั้งใช้งานการผลิตที่ปรับขนาดได้และมีต้นทุนต่ำ
ความท้าทายในการสร้างข้อมูลการฝึกเฉพาะทางในวงกว้าง
หัวใจสำคัญของเครื่องมือค้นหาชิ้นส่วนคือโมเดลความเกี่ยวข้องที่เชื่อมต่อคำค้นหาของช่างเทคนิคบริการ (เช่น "คอมเพรสเซอร์สำหรับตู้เย็น Northland") ไปจนถึงหมายเลขชิ้นส่วนที่แน่นอน การฝึกโมเดลนี้ต้องใช้ชุดข้อมูลขนาดใหญ่ของคู่ส่วนคำค้นหา
AI ของ InstaLILY พบความท้าทายหลายประการเมื่อใช้วิธีการแบบเดิม
- ความสามารถในการปรับขนาด: การติดป้ายกำกับรายการใบสั่งงานหลายล้านรายการด้วยตนเองเป็นไปไม่ได้
- ต้นทุนและคุณภาพ: การใช้โมเดลฟรอนเทียร์อื่นๆ ในการติดป้ายกำกับมีค่าใช้จ่ายมากกว่าถึง 3 เท่า และมีอัตราความสอดคล้องต่ำกว่าโซลูชันสุดท้าย 15%
- ประสิทธิภาพ: การค้นหาที่ทำงานด้วย LLM แบบเรียลไทม์จะช้าเกินไป โดยการทดสอบเบื้องต้นแสดงให้เห็นว่ามีความหน่วง 2 นาที และไม่สามารถจัดการคำค้นหาที่จำเป็นมากกว่า 500 รายการต่อวินาที (QPS) ในการใช้งานจริงได้
พวกเขาต้องการระบบที่สร้างข้อมูลคุณภาพสูงได้อย่างคุ้มค่า ซึ่งจะนำไปสู่โมเดลสุดท้ายที่รวดเร็วและแม่นยำ
ไปป์ไลน์ 3 ขั้นตอนด้วย Gemini และ Gemma
InstaLILY AI ออกแบบไปป์ไลน์ 3 ขั้นตอนที่ใช้การให้เหตุผลขั้นสูงของ Gemini 2.5 Pro เพื่อสร้างป้ายกำกับคุณภาพสูง จากนั้นก็กลั่นกรองความรู้นั้นให้เป็นโมเดลที่มีขนาดเล็กลงและมีประสิทธิภาพมากขึ้นสำหรับการใช้งานจริง
ไปป์ไลน์ทำงานดังนี้
- การสร้างข้อมูลสังเคราะห์ (โมเดลครู): Gemini 2.5 Pro สร้างป้ายกำกับมาตรฐานทองคำสำหรับคู่ส่วนคำค้นหา InstaLILY AI ใช้การให้เหตุผลแบบเชนออฟธ็อตหลายมุมมอง (Multi-CoT) เพื่อให้ได้ความแม่นยำสูง โดยการแจ้งให้โมเดลวิเคราะห์ชิ้นส่วนจากหลายมุมมอง ซึ่งรวมถึงแบรนด์ หมวดหมู่ ข้อมูลจำเพาะ และตรรกะทางธุรกิจที่ซับซ้อนเพื่อความเข้ากันได้ แนวทางนี้มีความสอดคล้องกับผู้เชี่ยวชาญที่เป็นมนุษย์ถึง 94% ในชุดทดสอบแบบปกปิด
- การฝึกโมเดลสำหรับนักเรียน: ใช้ป้ายกำกับคุณภาพสูงจาก Gemini 2.5 Pro เพื่อปรับแต่ง Gemma-7B InstaLILY AI ใช้เทคนิคหลายอย่างเพื่อเพิ่มประสิทธิภาพโมเดลนักเรียน ซึ่งรวมถึงการเพิ่มประสิทธิภาพตามความชอบโดยตรง (DPO) ซึ่งช่วยลดผลบวกลวงได้ 40% นอกจากนี้ ทีมยังได้สร้างกลุ่มตัวแปร Gemma ที่ปรับแต่งแล้ว 3 ตัวแปรซึ่งจะลงคะแนนในแต่ละตัวอย่าง ซึ่งจะเพิ่มความแม่นยำของป้ายกำกับเป็น 96%
- การแสดงผลเวอร์ชันที่ใช้งานจริง: ความรู้จากโมเดล Gemma จะกลั่นออกมาเป็นโมเดล BERT ขนาดเล็ก (พารามิเตอร์ 110 ล้านรายการ) สำหรับสภาพแวดล้อมเวอร์ชันที่ใช้งานจริงขั้นสุดท้าย โมเดลขนาดเล็กนี้ยังคงรักษาความแม่นยำของคะแนน F1 ไว้ที่ 89% ขณะที่ให้บริการคำขอที่ 600 QPS
"หากไม่มีการติดป้ายกำกับแบบ Chain-of-Thought ของ LLM เพื่อเริ่มต้นโมเดลที่กลั่นของเรา เราคงต้องติดแท็กข้อมูลจำนวนมหาศาลด้วยตนเอง" ทีม AI ของ InstaLILY กล่าว "Gemini ช่วยเร่งการเตรียมข้อมูลได้อย่างมาก และช่วยให้เราจัดสรรเวลาของวิศวกรหลายร้อยชั่วโมงไปทำงานที่มีประสิทธิภาพสูงกว่า เช่น การปรับแต่งและการประสานงาน"
ลดเวลาในการตอบสนองลง 99.8% และลดค่าใช้จ่ายลง 98.3%
สถาปัตยกรรมครู-นักเรียนช่วยปรับปรุงความเร็ว ต้นทุน และความแม่นยำได้อย่างมาก
ระบบสุดท้ายที่ได้
- ลดเวลาในการตอบสนองของคำค้นหา: จาก 2 นาทีเป็น 0.2 วินาที (ปรับปรุงขึ้น 99.8%)
- ลดต้นทุนการแสดงโฆษณา: จาก $0.12 เป็น $0.002 ต่อคำค้นหา 1,000 รายการ (ลดลง 98.3%)
- ความแม่นยำสูง: คะแนน F1 ประมาณ 90% ในชุดข้อมูลที่เก็บไว้แบบไม่เปิดเผย
นอกจากนี้ เรายังเร่งกระบวนการพัฒนาด้วย ทีมงานสร้างต้นแบบใน 48 ชั่วโมงและไปป์ไลน์ที่พร้อมใช้งานจริงใน 4 สัปดาห์ ซึ่งเป็นกระบวนการที่คาดว่าจะใช้เวลา 3-4 เดือนหากไม่มีระบบนิเวศของ Gemini และ Gemma
"การได้เข้าร่วม Google Accelerator ทำให้เราได้แนวทางใหม่ๆ ทั้งหมดนี้" Amit Shah ผู้ก่อตั้งและ CEO ของ InstaLILY กล่าว "การสนับสนุนด้านเทคนิคแบบลงมือปฏิบัติจริง สิทธิ์เข้าถึง Gemini และ Gemma ก่อนใคร รวมถึงเครดิตบนระบบคลาวด์ที่ให้มาอย่างเต็มที่ช่วยให้เราเปลี่ยนจากต้นแบบไปสู่การผลิตได้ภายในไม่กี่สัปดาห์ ไม่ใช่หลายเดือน"
การพัฒนาในอนาคตด้วยการเรียนรู้แบบมัลติโมดอลและการเรียนรู้อย่างต่อเนื่อง
InstaLILY AI วางแผนที่จะขยายความสามารถของเอเจนต์ AI โดยการผสานรวมฟีเจอร์มัลติโมดัลของ Gemini ซึ่งจะช่วยให้ช่างเทคนิคอัปโหลดรูปภาพของยูนิตที่เสียเพื่อช่วยในการวินิจฉัยได้ นอกจากนี้ ทีมยังกำลังพัฒนาบริการการเรียนรู้แบบต่อเนื่องที่ใช้งานอยู่ ซึ่งจะแจ้งคำค้นหาแบบเรียลไทม์ที่มีความน่าเชื่อถือต่ำ ส่งไปยัง Gemini เพื่อใส่คำอธิบายประกอบ และฝึกโมเดลเวอร์ชันที่ใช้งานจริงอีกครั้งทุกสัปดาห์
ความสำเร็จของเครื่องมือค้นหา AI ของ InstaLILY AI สำหรับเอเจนต์ AI แสดงให้เห็นว่าสถาปัตยกรรมครู-นักเรียนที่ผสานรวมความสามารถในการให้เหตุผลของ Gemini 2.5 Pro เข้ากับประสิทธิภาพของโมเดล Gemma ที่ได้รับการปรับแต่งอย่างละเอียดสามารถแก้ปัญหาความท้าทายในการสร้างข้อมูลที่ซับซ้อน และเปิดใช้งานแอปพลิเคชัน AI ที่ปรับขนาดได้และมีประสิทธิภาพสูง
หากต้องการเริ่มสร้างด้วยโมเดล Gemini และ Gemma โปรดอ่านเอกสารประกอบเกี่ยวกับ API