Databricks บริษัทชั้นนำด้านโซลูชัน AI สำหรับธุรกิจ ได้พัฒนาเทคนิคใหม่ที่ช่วยให้โมเดล AI สามารถพัฒนาตัวเองได้โดยไม่จำเป็นต้องใช้ข้อมูลที่ติดป้ายกำกับที่มีคุณภาพสูง เทคนิคนี้มีชื่อว่า Test-time Adaptive Optimization (TAO) ซึ่งใช้การเรียนรู้แบบเสริมแรง (reinforcement learning) และข้อมูลสังเคราะห์เพื่อเพิ่มประสิทธิภาพของโมเดล
Jonathan Frankle หัวหน้านักวิทยาศาสตร์ด้าน AI ของ Databricks กล่าวว่า ความท้าทายหลักในการนำ AI ไปใช้งานคือการขาดข้อมูลฝึกฝนที่มีคุณภาพสูง ซึ่ง TAO สามารถแก้ไขปัญหานี้ได้อย่างมีประสิทธิภาพ
TAO ทำงานโดยอาศัยหลักการที่ว่าแม้แต่โมเดลที่อ่อนแอก็สามารถให้ผลลัพธ์ที่น่าประทับใจได้หากมีการลองทำงานหลายๆ ครั้ง โดยใช้กลยุทธ์ “best-of-N” เพื่อเลือกผลลัพธ์ที่ดีที่สุดจากผู้ทดสอบที่เป็นมนุษย์ วิธีนี้ถูกนำมาใช้ร่วมกับการเรียนรู้แบบเสริมแรงเพื่อฝึกฝนโมเดลโดยใช้เพียงตัวอย่างข้อมูลนำเข้าในอดีตเท่านั้น ซึ่งช่วยกำจัดความจำเป็นในการใช้ข้อมูลที่ติดป้ายกำกับ
โดยหลักการแล้ว TAO ใช้การประมวลผลในช่วงเวลาทดสอบไม่เพียงแค่สำหรับการอนุมาน (inference) แต่ยังใช้ฝึกฝนโมเดลให้สามารถทำงานได้อย่างมีประสิทธิภาพโดยไม่ต้องใช้พลังการประมวลผลเพิ่มเติมในขณะทำงานจริง เทคนิคนี้แสดงให้เห็นประสิทธิภาพที่น่าประหลาดใจ ด้วยการยกระดับโมเดลโอเพนซอร์สเช่น Llama ให้มีคุณภาพใกล้เคียงกับโมเดลกรรมสิทธิ์เช่น GPT-4o โดยไม่มีต้นทุนในการติดป้ายกำกับโดยมนุษย์
วิธีการ TAO เป็นส่วนหนึ่งของโปรแกรมที่กว้างขึ้นของ Databricks เพื่อปรับปรุงประสิทธิภาพของ AI ในโดเมนเฉพาะโดยใช้ข้อมูลองค์กรที่มีอยู่แล้ว ด้วยการกำจัดการพึ่งพาข้อมูลที่ติดป้ายกำกับ TAO จึงนำเสนอโซลูชันที่ยืดหยุ่นและคุ้มค่าสำหรับธุรกิจที่ต้องการเพิ่มขีดความสามารถด้าน AI
ความเปิดเผยของ Databricks เกี่ยวกับกระบวนการพัฒนา AI แสดงให้เห็นถึงความมุ่งมั่นในการสร้างโมเดลที่ทรงพลังและเหมาะสมกับความต้องการของลูกค้า แนวทางของบริษัทมีความเกี่ยวข้องอย่างยิ่งในภูมิทัศน์ AI ปัจจุบัน ที่บริษัทอย่าง Google และ Tencent กำลังพัฒนาเทคโนโลยี AI ด้วยวิธีการที่เป็นนวัตกรรมเช่นกัน
ตัวอย่างเช่น Google กำลังสำรวจเทคนิคอย่าง “Long Context” สำหรับการประมวลผลข้อมูลที่ดีขึ้น และ Tencent ได้แนะนำโมเดลอนุมาน T1 เวอร์ชันอัปเกรด ซึ่งแสดงให้เห็นถึงการแข่งขันและนวัตกรรมที่เพิ่มขึ้นในภาคส่วน AI
ที่มา: Kookaburras Kanteen