Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

  • เป็นครั้งแรกที่มีการนำ IBM Granite LLMs เครื่องมือโอเพ่นซอร์ส-ไลเซนส์ (open source-licensed) ที่มาพร้อมการสนับสนุนทางเทคโนโลยีและให้การรับรองการใช้คอนเทนต์ต่าง ๆ มาให้ลูกค้าได้ใช้ผ่าน enterprise subscription model ที่ยืดหยุ่นและได้รับการพิสูจน์แล้วของ Red Hat
  • เสริมด้วยการนำ InstructLab ซึ่งเป็นเครื่องมือ model alignment ที่เป็นโอเพ่นซอร์ส ไปทำงานบน Linux  ซึ่งเป็นแพลตฟอร์มสำหรับใช้งานในองค์กรที่มีประสิทธิภาพระดับแนวหน้าของโลก เพื่อลดความซับซ้อนในการทดสอบ generative AI model และการปรับแต่งให้เหมาะสม
  • Red Hat Enterprise Linux AI มอบสภาพแวดล้อมโมเดลรันไทม์ (model runtime) ที่มาพร้อมการสนับสนุนทางเทคโนโลยี และพร้อมใช้งานในองค์กร บนแพลตฟอร์ม AMD, Intel และ NVIDIA เพื่อขับเคลื่อนนวัตกรรม AI ที่สร้างบนโอเพ่นซอร์ส

Red Hat, Inc. (เร้ดแฮท) ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับแนวหน้าของโลก เปิดตัว Red Hat Enterprise Linux AI (RHEL AI) แพลตฟอร์มโมเดลพื้นฐานที่ช่วยในการพัฒนา ทดสอบ และใช้ generative AI (GenAI)  ได้อย่างราบรื่น RHEL AI เป็นที่รวมของโซลูชันทรงประสิทธิภาพ ประกอบด้วย open source-licensed Granite ซึ่งเป็นตระกูลโมเดลด้านภาษาขนาดใหญ่ (LLM) จาก IBM Research, InstructLab ซึ่งเป็นเครื่องมือในการปรับแต่ง model โดยอาศัยกระบวนการ LAB (Large-scale Alignment for chatBots) และแนวทางการพัฒนาโมเดลที่ขับเคลื่อนโดยคอมมิวนิตี้ผ่าน InstructLab project โซลูชันเหล่านี้แพ็ครวมกันเป็น RHEL image ที่ช่วยให้ติดตั้ง RHEL AI ได้ไม่ยุ่งยากผ่าน bootable container ที่สามารถปรับให้เหมาะกับการใช้งานกับเซิร์ฟเวอร์แต่ละเครื่องบนไฮบริดคลาวด์ และยังบรรจุเป็นส่วนหนึ่งของ OpenShift AI ซึ่งเป็นแพลตฟอร์มการดำเนินงานที่เป็นไฮบริดแมชชีนเลิร์นนิ่ง (MLOps) ของ Red Hat ที่ใช้รันโมเดลต่าง ๆ และ InstructLab ในระดับความต้องการต่าง ๆ บนสภาพแวดล้อมที่เป็น distributed cluster

การเปิดตัว ChatGPT ทำให้ความสนใจ GenAI เพิ่มขึ้นมาก และทำให้กระแสด้านนวัตกรรมเพิ่มขึ้นอย่างรวดเร็วนับแต่นั้นมา องค์กรต่างเริ่มเปลี่ยนโฟกัสจากการประเมินบริการ GenAI ในระยะเริ่มแรก ไปเป็นการสร้างแอปพลิเคชันที่ใช้ AI นอกจากนี้ ระบบนิเวศของโอเพ่นโมเดล เป็นตัวเลือกที่เติบโตอย่างรวดเร็ว เป็นปัจจัยกระตุ้นให้เกิดนวัตกรรมด้าน AI และแสดงให้เห็นว่าจะไม่มีการใช้ “โมเดลเดียวควบคุมทุกอย่าง” อีกต่อไป ลูกค้าจะได้รับประโยชน์จากทางเลือกหลากหลายที่ตอบโจทย์ความต้องการเฉพาะด้านของตน และนวัตกรรมแบบเปิดจะช่วยเร่งสิ่งเหล่านี้ให้เกิดเร็วขึ้น

การนำกลยุทธ์ AI ไปใช้นั้นต้องการมากกว่าการเลือกโมเดล หากจะนำ AI ไปใช้ องค์กรด้านเทคโนโลยีต้องการความเชี่ยวชาญในการปรับแต่งโมเดลที่จะใช้กับงานที่มีลักษณะเฉพาะของตน รวมถึงจัดการกับค่าใช้จ่ายหลัก ๆ การขาดแคลนทักษะด้าน data science ประกอบกับข้อกำหนดทางการเงินที่สำคัญ ได้แก่

  • การจัดซื้อจัดหาโครงสร้างพื้นฐาน AI หรือการใช้บริการด้าน AI ต่าง ๆ
  • กระบวนการที่ซับซ้อนของการปรับแต่ง AI models ให้ตรงตามความต้องการเฉพาะของธุรกิจ
  • การผสานรวม AI เข้ากับแอปพลิเคชันต่าง ๆ ขององค์กร
  • การบริหารจัดการแอปพลิเคชันและไลฟ์ไซเคิลของโมเดล

องค์กรต่าง ๆ ต้องสามารถเพิ่มจำนวนคนที่สามารถทำงานกับโครงการและความคิดริเริ่มด้าน AI ให้มากขึ้น เพื่อลดอุปสรรคในการใช้นวัตกรรมด้าน AI ได้อย่างแท้จริง และต้องควบคุมค่าใช้จ่ายให้ได้ไปพร้อม กันด้วย Red Hat ตั้งเป้านำประโยชน์ของโปรเจกต์ที่เป็นโอเพ่นซอร์สจริง ๆ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้ เช่น InstructLab alignment tools, Granite models และ RHEL AI ซึ่งสามารถเข้าถึงการใช้งานได้ง่าย ใช้ซ้ำได้ โปร่งใส และเปิดกว้างให้มีส่วนร่วม contribute ได้ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้

สร้าง AI แบบโอเพ่น ด้วย InstructLab

IBM Research ได้สร้าง Large-scale Alignment for chatBots (LAB) technique ซึ่งเป็นแนวทางสำหรับ model alignment ที่ใช้ taxonomy-guided synthetic data generation และเฟรมเวิร์กใหม่ที่ใช้ปรับแต่งแบบหลายเฟส  แนวทางนี้ช่วยให้การพัฒนา AI models เปิดกว้างมากขึ้น ให้ผู้ใช้ทุกคนเข้าใช้ได้ โดยไม่ต้องอาศัยคำอธิบายของมนุษย์ที่ต้องเสียค่าใช้จ่ายสูง และลดการพึ่งพาโมเดลที่มีกรรมสิทธิ์ต่าง ๆ การใช้วิธีการของ LAB ช่วยให้โมเดลต่าง ๆ มีประสิทธิภาพเพิ่มขึ้นด้วยการระบุทักษะและความรู้ที่แนบมากับอนุกรมวิธาน และสร้างข้อมูลสังเคราะห์จากข้อมูลเหล่านั้นได้ในวงกว้าง เพื่อวางแนวทางให้กับโมเดล และนำข้อมูลที่สร้างขึ้นนั้นไปใช้เทรนด์โมเดล

หลังจากพบว่าแนวทางของ LAB ช่วยเพิ่มประสิทธิภาพให้กับโมเดลอย่างมาก IBM และ Red Hat จึงตัดสินใจเปิดตัว InstructLab ซึ่งเป็นโอเพ่นซอร์สคอมมิวนิตี้ที่สร้างขึ้นด้วยแนวทางของ LAB และ open source Granite models จาก IBM ทั้งนี้ InstructLab project มีจุดมุ่งหมายเพื่อนำการพัฒนา LLM มาสู่มือของนักพัฒนาซอฟต์แวร์ ด้วยการจัดหา สร้าง และมีส่วนร่วมสนับสนุน LLM ด้วยวิธีง่าย ๆ เหมือนกับการมีส่วนร่วมสนับสนุน open source project อื่น ๆ

ในการเปิดตัว InstructLab นี้ IBM ยังได้เปิดตัว Granite English language and code models in the open โมเดลเหล่านี้เปิดตัวภายใต้ไลเซนส์ของ Apache มีความโปร่งใสของชุดข้อมูลต่าง ๆ ที่ใช้เทรนด์โมเดลเหล่านี้ Granite 7B English language model รวมอยู่ใน InstructLab community ที่ที่ผู้ใช้ปลายทางสามารถมีส่วนร่วม contribute ทักษะและความรู้ต่าง ๆ เพื่อร่วมพัฒนาโมเดลนี้ เหมือนกับที่พวกเขาได้มีส่วนร่วมสนับสนุนโปรเจกต์โอเพ่นซอร์สอื่น ๆ การสนับสนุนลักษณะเดียวกันนี้กับ Granite code models ใน InstructLab จะพร้อมใช้งานเร็ว ๆ นี้

นวัตกรรม Open source AI บน Linux ที่เชื่อถือได้

RHEL AI สร้างแนวทางแบบโอเพ่นให้นวัตกรรมด้าน AI ด้วยการผสาน InstructLab project เวอร์ชันที่พร้อมใช้ในองค์กรและ Granite language and code models เข้ากับแพลตฟอร์ม Linux ชั้นนำของโลกที่ใช้งานระดับองค์กร เพื่อทำให้การใช้งานบนโครงสร้างพื้นฐานไฮบริดไม่ยุ่งยาก เป็นการสร้างแพลตฟอร์มโมเดลพื้นฐานสำหรับการนำ open source-licensed GenAI models มาให้องค์กรได้ใช้ โดย RHEL AI ประกอบด้วย:

  • Open source-licensed Granite language and code models ที่ได้รับการสนับสนุนและรับรองด้านกฎหมายและลิขสิทธิ์โดย Red Hat
  • A supported, lifecycled distribution of InstructLab ที่มอบโซลูชันที่สเกลได้ในราคาที่คุ้มค่าเพื่อเพิ่มความสามารถให้กับ LLM และช่วยให้เกิดการกระจายความรู้และทักษะต่าง ๆ ให้ผู้ใช้ในวงกว้างเข้าถึงได้
  • อินสแตนซ์รันไทม์โมเดลที่ช่วยให้ติดตั้งได้เร็วและปรับให้เหมาะกับการนำไปใช้บนสภาพแวดล้อมต่าง ๆ ได้ ผ่านแพ็คเกจเครื่องมือของ Granite models และ InstructLab รวมถึง Pytorch runtime libraries  และ accelerators สำหรับ AMD Instinct™ MI300X, Intel และ NVIDIA GPUs และ NeMo frameworks
  • คำมั่นของ Red Hat ในการให้การสนับสนุนด้านเทคนิคตลอดไลฟ์ไซเคิล ซึ่งเริ่มจากผลิตภัณฑ์ระดับองค์กร      ที่เชื่อถือได้ การสนับสนุนช่วยเหลือด้านผลิตภัณฑ์ตลอด 24 ชั่วโมงทุกวัน และการสนับสนุนไลฟ์ไซเคิลที่ขยายเพิ่มเติม

เมื่อใดที่องค์กรต่าง ๆ ทำการทดสอบและปรับแต่ง AI models ใหม่ ๆ บน RHEL AI องค์กรเหล่านี้จะมีเส้นทางที่พร้อมใช้ในการสเกลเวิร์กโหลดเหล่านี้ผ่าน Red Hat OpenShift AI ซึ่งจะรวม RHEL AI ไว้ด้วย และยังสามารถใช้ประโยชน์จากเอนจิ้น OpenShift’s Kubernetes เพื่อเทรนด์และให้บริการ AI model ต่าง ๆ ได้ตามต้องการ นอกจากนี้ยังได้ใช้ประโยชน์จากการผสานรวม OpenShift AI เข้ากับความสามารถของ MLOps เพื่อบริหารจัดการไลฟ์ไซเคิลของโมเดลได้อีกด้วย นอกจากนี้ IBM’s watsonx.ai enterprise studio ที่สร้างอยู่บน Red Hat OpenShift AI ในปัจจุบันจะได้รับประโยชน์จากการผสานรวม RHEL AI ไว้ใน OpenShift AI เมื่อพร้อมใช้งาน ซึ่งจะเพิ่มความสามารถในการพัฒนา AI การบริหารจัดการดาต้า การกำกับดูแลโมเดล และเพิ่มความคุ้มค่าการลงทุนให้กับองค์กร

คลาวด์ที่ใช่คือไฮบริด – AI ก็เช่นกัน

เป็นเวลากว่า 30 ปีที่เทคโนโลยีโอเพ่นซอร์สได้จับคู่นวัตกรรมที่เกิดขึ้นอย่างรวดเร็วเข้ากับการลดค่าใช้จ่ายด้านไอทีและลดอุปสรรคต่อการสร้างสรรค์สิ่งใหม่ได้อย่างมีนัยสำคัญ Red Hat เป็นผู้นำด้านนี้มาในเวลาเกือบเท่า ๆ กัน เริ่มตั้งแต่การนำเสนอ RHEL ซึ่งเป็นแพลตฟอร์ม Linux แบบเปิดสำหรับองค์กร ในต้นทศวรรษ 2000 ไปจนถึงการผลักดันให้คอนเทนเนอร์และ Kubernetes เป็นรากฐานให้กับโอเพ่น ไฮบริดคลาวด์ และคลาวด์-เนทีฟ คอมพิวติ้ง ด้วย Red Hat OpenShift

เร้ดแฮทเดินหน้าต่อเนื่องด้วยกลยุทธ์การขับเคลื่อน AI/ML บนโอเพ่นไฮบริดคลาวด์ ที่ช่วยให้เวิร์กโหลด AI รัน ณ ที่ที่ข้อมูลอยู่ ไม่ว่าจะเป็นในดาต้าเซ็นเตอร์ มัลติพับลิคคลาวด์ หรือที่ edge นอกจากเรื่องของเวิร์กโหลด วิสัยทัศน์ด้าน AI ของ Red Hat ยังช่วยนำการเทรนด์โมเดลและปรับให้อยู่ในแนวทางเดียวกัน มาใช้แก้ไขข้อจำกัดด้านสิทธิ์การเป็นเจ้าของข้อมูล (data sovereignty) การปฏิบัติตามกฎระเบียบ และความสมบูรณ์ของการทำงานอีกด้วย ความสอดคล้องที่แพลตฟอร์มของ Red Hat มีให้กับทุกสภาพแวดล้อมเหล่านี้ โดยไม่จำกัดว่าเวิร์กโหลดจะรันอยู่ที่ใด เป็นสิ่งสำคัญมากต่อการทำให้นวัตกรรม AI เดินหน้าต่อไป

RHEL AI และ InstructLab community ยังคงเดินหน้าวิสัยทัศน์นี้ต่อไป เพื่อกำจัดอุปสรรคมากมายที่เกิดกับการทดสอบและสร้าง AI model ต่าง ๆ และจัดหาเครื่องมือ ข้อมูล และคอนเซปต์ต่าง ๆ ที่จำเป็นต่อการขับเคลื่อนเวิร์กโหลดอัจฉริยะระลอกใหม่

ความพร้อมใช้งาน

Red Hat Enterprise Linux AI พร้อมให้ใช้งานในรูปแบบพรีวิวสำหรับนักพัฒนาซอฟต์แวร์ นอกจากโครงสร้างพื้นฐาน GPU ที่พร้อมให้ใช้บน IBM Cloud ซึ่งใช้เทรนด์ Granite models และรองรับ InstructLab แล้ว ปัจจุบัน IBM Cloud จะเพิ่มให้สามารถรองรับ RHEL AI และ OpenShift AI ด้วย ซึ่งจะช่วยให้องค์กรต่าง ๆ ใช้  generative AI กับแอปพลิเคชันสำคัญ ๆ ของตนได้ง่ายมากขึ้น

คำกล่าวสนับสนุน

Ashesh Badani, senior vice president and chief product officer, Red Hat กล่าวว่า “GenAI ปฏิวัติองค์กรแบบก้าวกระโดดก็เฉพาะด้านที่องค์กรเทคโนโลยีสามารถปรับใช้และใช้ AI models ได้จริงในลักษณะที่ตรงกับความต้องการเฉพาะของแต่ละธุรกิจเท่านั้น แต่ RHEL AI และ InstructLab project ที่ทำงานร่วมกับ Red Hat OpenShift AI ออกแบบมาเพื่อลดอุปสรรคจำนวนมากที่ต้องเผชิญเมื่อจะนำ GenAI ไปใช้บนไฮบริดคลาวด์ ไม่ว่าจะเป็นทักษะด้านวิทยาศาสตร์ข้อมูลที่มีจำกัด ไปจนถึงทรัพยากรประสิทธิภาพสูงที่จำเป็นต้องใช้ ในขณะเดียว กันก็ช่วยเป็นพลังขับเคลื่อนนวัตกรรมให้กับการใช้งานในองค์กรและอัปสตรีมคอมมิวนิตี้”

Ramine Roane, corporate vice president, AI Group, AMD กล่าวว่า “AI เป็นหนึ่งในความเปลี่ยนแปลงทางเทคโนโลยีที่สำคัญที่สุดในรอบ 50 ปี ทั้งนี้ องค์กรจะต้องเข้าถึงโมเดลและเครื่องมือที่จำเป็นต้องใช้สร้าง AI applications ได้ เพื่อช่วยเร่งการนำ AI ไปใช้ในวงกว้างได้เร็วขึ้น RHEL AI สร้างบน Linux ที่เชื่อถือได้และมาพร้อมเครื่องมือที่เป็นโอเพ่นซอร์ส และ open source-licensed models ทำให้ RHEL AI เป็นหนึ่งในแพลต ฟอร์มที่สามารถตอบโจทย์นี้ได้ เรารู้สึกยินดีที่ได้สนับสนุนความทุ่มเทของ Red Hat ในการขับเคลื่อนการใช้ AI    ในองค์กร ด้วยเทคโนโลยีของ AMD ที่รวมอยู่ใน Instinct AI accelerators”

Darío Gil, senior vice president and director, Research, IBM กล่าวว่า “การใช้นวัตกรรมโอเพ่นซอร์สกับการพัฒนา AI model และการใช้พลังของคอมมิวนิตี้ที่กว้างใหญ่จะเปลี่ยนวิธีคิดเกี่ยวกับการวางแผนการใช้และสเกล AI ขององค์กรต่าง ๆ IBM เป็นผู้สนับสนุนโอเพ่นซอร์สอย่างแข็งขัน เราให้การสนับสนุนคอมมิวนิตี้ที่แข้มแข็งและมีบทบาทสำคัญต่าง ๆ เช่น Linux, Apache และ Eclipse ความร่วมมือกับ Red Hat นับเป็นก้าวต่อไปของวิถีโอเพ่นของเรา เพื่อสร้างความปลอดภัย ความรับผิดชอบ และสร้าง AI ที่ทรงประสิทธิภาพ เมื่อรวม RHEL AI และ InstructLab เข้ากับโมเดลในตระกูล Granite ของ IBM เราจะมอบคุณค่าและทางเลือกใหม่ให้กับลูกค้าที่กำลังมองหาการสร้างโมเดลที่เหมาะกับจุดประสงค์การใช้งาน ซึ่งตอบโจทย์กับกรณีใช้งานของลูกค้าด้วยดาต้าของลูกค้าเอง ในขณะเดียวกันก็ช่วยลดต้นทุนการใช้สภาพแวดล้อมไฮบริดคลาวด์ที่หลากหลาย”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure กล่าวว่า “องค์กรจำนวนมากต่างมองหาวิธีการนำ AI ไปใช้กับแอปพลิเคชันสำคัญ ๆ ของตน ความพร้อมใช้ของ RHEL AI และ  OpenShift AI บน IBM Cloud จะช่วยทรานส์ฟอร์มวิธีการที่คอมมิวนีตี้และบริษัทต่าง ๆ สร้างและใช้ประโยชน์จาก generative AI เรากำลังเปิดให้มีการทำงานร่วมกันแบบโอเพ่น, ทำให้ปรับแต่งโมเดลได้อย่างไม่ยุ่งยาก รวมถึงมอบโมเดลและเครื่องมือคุณภาพระดับองค์กรที่สนับสนุนการนำ AI ไปใช้กับทุกแอปพลิเคชัน”

Justin Hotard, executive vice president and general manager, Data Center & AI Group, Intel กล่าวว่า “การนำ AI ไปใช้ในวงกว้างจะต้องเป็นโอเพ่นซอร์สอย่างสมบูรณ์ ซึ่งสมาชิกของคอมมิวนิตี้มีส่วนร่วมสนับสนุนและสร้างแอปพลิเคชันและกรณีใช้งานใหม่ ๆ การรวมโมเดลโอเพ่นซอร์ส Granite models และ InstructLab project เข้าด้วยกันทำให้ RHEL AI พร้อมนำการเปลี่ยนแปลงวิธีการโต้ตอบ ปรับแต่ง และการใช้ AI models ในการสร้างผลิตภัณฑ์ได้อย่างมีนัยสำคัญ”

Justin Boitano, vice president, Enterprise Products, NVIDIA กล่าวว่า “Red Hat และ NVIDIA ได้ร่วมมือกันอย่างใกล้ชิดมายาวนาน และ Red Hat Enterprise Linux AI แสดงให้เห็นโฟกัสเดียวกันของเราในการนำคอมพิวติ้งและซอฟต์แวร์ให้นักพัฒนาซอฟต์แวร์และนักวิจัยได้ใช้อย่างเต็มรูปแบบ เป็นการสร้างคลื่นลูกใหม่ให้กับเทคโนโลยี AI และแอปพลิเคชันต่าง ๆ”