ทำความรู้จัก “รีไฟแนนซ์” และ “รีเทนชั่น” ตัวช่วยผ่อนบ้านไม่ให้หนี้บาน ปลดหนี้ไวขึ้น

ทำความรู้จัก “รีไฟแนนซ์” และ “รีเทนชั่น” ตัวช่วยผ่อนบ้านไม่ให้หนี้บาน ปลดหนี้ไวขึ้น

ทำความรู้จัก “รีไฟแนนซ์” และ “รีเทนชั่น” ตัวช่วยผ่อนบ้านไม่ให้หนี้บาน ปลดหนี้ไวขึ้น

ปัจจุบันอัตราดอกเบี้ยมีผลต่อการใช้ชีวิตของผู้บริโภคทั้งทางตรงและทางอ้อม เนื่องจากการปรับอัตราดอกเบี้ยแต่ละครั้งหมายถึงสภาพคล่องทางการเงินของผู้บริโภคที่เปลี่ยนไป รวมไปถึงการจับจ่ายใช้สอยและวางแผนทางการเงินอื่น ๆ เช่นกัน ข้อมูลล่าสุดจากผลการประชุมคณะกรรมการนโยบายการเงิน (กนง.) ธนาคารแห่งประเทศไทย มีมติให้คงอัตราดอกเบี้ยนโยบายไว้ที่ 2.50% ต่อปี ถือเป็นการคงอัตราดอกเบี้ยครั้งที่ 5 นับตั้งแต่วันที่ 29 พฤศจิกายน 2566 ท่ามกลางสภาวะเศรษฐกิจซบเซาและความเชื่อมั่นผู้บริโภคที่ลดลงอย่างต่อเนื่องที่หลายฝ่ายคาดหวังให้มีการปรับลดอัตราดอกเบี้ย เพื่อช่วยให้ผู้บริโภคสามารถประคับประคองกำลังซื้อไปได้ท่ามกลางช่วงเวลาที่ท้าทายเช่นนี้

ข้อมูลจากบริษัท ข้อมูลเครดิตแห่งชาติ จำกัด (เครดิตบูโร) เปิดเผยว่าสถานะหนี้เสีย (NPL) ที่ค้างชำระเกิน 90 วันในไตรมาส 2 ของปี 2567 อยู่ที่กว่า 1.15 ล้านล้านบาท เพิ่มขึ้น 12.2% เมื่อเทียบกับปีก่อน โดยเป็นหนี้เสียจากสินเชื่อที่อยู่อาศัยกว่า 218,670 ล้านบาท เพิ่มขึ้น 23.2% เมื่อเทียบกับปีก่อน จะเห็นได้ว่าภาคอสังหาริมทรัพย์ได้รับผลกระทบอย่างชัดเจนจากการคงอัตราดอกเบี้ยไว้ในระดับสูงสวนทางการฟื้นตัวของเศรษฐกิจ เนื่องด้วยที่อยู่อาศัยเป็นทรัพย์สินที่มีราคาสูง ผู้บริโภคส่วนใหญ่จึงจำเป็นต้องกู้สินเชื่อจากธนาคารเพื่อซื้อบ้าน/คอนโดมิเนียม และด้วยระยะเวลาการผ่อนชำระที่ยาวนาน ทำให้อัตราดอกเบี้ยกลายเป็นตัวแปรสำคัญที่มีผลต่อการตัดสินใจยื่นกู้ ข้อมูลจากแบบสอบถามความคิดเห็นของผู้บริโภคที่มีต่อตลาดที่อยู่อาศัย DDproperty Thailand Consumer Sentiment Study เผยว่า อัตราดอกเบี้ยเป็นปัจจัยสำคัญที่สุดที่ผู้บริโภคพิจารณาเมื่อต้องกู้ซื้อบ้านถึง 78% ดังนั้น การปรับอัตราดอกเบี้ยนโยบายจึงเปรียบเสมือนเข็มทิศที่กำหนดทิศทางการเงินของผู้ที่วางแผนกู้ซื้อบ้านและผู้ที่กำลังผ่อนบ้านอย่างเลี่ยงไม่ได้

การปรับอัตราดอกเบี้ยมีผลอย่างไรเมื่อกู้ซื้อบ้าน

อัตราดอกเบี้ยนโยบายถูกกำหนดโดยธนาคารกลางหรือธนาคารแห่งประเทศไทย (ธปท.) เป็นอัตราที่ธนาคารกลางจ่ายดอกเบี้ยให้กับธนาคารพาณิชย์ที่เอาเงินมาฝาก หรือเป็นอัตราที่ธนาคารกลางเก็บดอกเบี้ยจากธนาคารพาณิชย์ที่มากู้เงิน ซึ่งอัตราดอกเบี้ยนโยบายจะส่งผลกับอัตราดอกเบี้ยที่ธนาคารพาณิชย์คิดกับลูกค้าที่เป็นผู้กู้หรือผู้ฝากเงินต่อไป ดังนั้น อัตราดอกเบี้ยนโยบายจึงเป็นอัตราดอกเบี้ยที่สำคัญที่สุดที่จะส่งผลกับอัตราดอกเบี้ยอื่น ๆ ในระบบเศรษฐกิจรวมทั้งภาคอสังหาริมทรัพย์ โดยเกี่ยวข้องกับผู้ที่วางแผนซื้อบ้านและผู้ที่กำลังผ่อนบ้านโดยตรง เพราะหากมีการปรับลดหรือเพิ่มอัตราดอกเบี้ยนโยบาย ดอกเบี้ยเงินฝากและดอกเบี้ยเงินกู้ของธนาคารพาณิชย์ก็จะปรับลดหรือเพิ่มตามเช่นกัน

หากผู้บริโภคกู้ซื้อบ้านโดยเลือกอัตราดอกเบี้ยเงินกู้แบบคงที่ (Fixed Rate) จะเป็นอัตราดอกเบี้ยที่ไม่มีการปรับขึ้น-ลงในช่วงเวลาที่ธนาคารกำหนด โดยทั่วไปมักจะเป็นช่วงระยะเวลาสั้น ๆ ในช่วงต้นของการผ่อนบ้านเพื่อดึงดูดใจลูกค้า เหมาะสำหรับการกู้ซื้อบ้านในช่วงที่เศรษฐกิจดี ซึ่งอัตราดอกเบี้ยมักมีแนวโน้มปรับขึ้น ซึ่งจะทำให้ผู้ขอสินเชื่อไม่ต้องเสียดอกเบี้ยบ้านเพิ่มขึ้นตามไปด้วย เนื่องจากยังคงถูกคิดอัตราดอกเบี้ยเงินกู้ไปตามสัญญาเดิมนั่นเอง  

ส่วนสินเชื่อดอกเบี้ยเงินกู้แบบลอยตัว (Floating Rate) จะอ้างอิงกับอัตราดอกเบี้ยของเงินกู้ระยะยาวสำหรับลูกหนี้ชั้นดีซึ่งจะเป็นอัตราดอกเบี้ยขั้นต่ำสุดหรือ MLR (Minimum Loan Rate) ซึ่งสามารถขึ้น-ลงได้ตามสถานการณ์เศรษฐกิจ ตลาดเงิน และต้นทุนทางการเงินของธนาคาร และผันแปรตามทิศทางอัตราดอกเบี้ย จึงเหมาะสำหรับการกู้ในช่วงเศรษฐกิจไม่ดีเพราะมักจะมีการปรับลดอัตราดอกเบี้ย แต่หากอยู่ในช่วงที่อัตราดอกเบี้ยปรับขึ้นผู้กู้ก็จะต้องจ่ายค่าดอกเบี้ยเพิ่มขึ้นตามไปด้วย

ทำความรู้จัก “รีเทนชั่น” และ “รีไฟแนนซ์” ผู้ช่วยใกล้ตัวของคนผ่อนบ้าน

ผู้บริโภคที่กู้ซื้อบ้านในช่วงเศรษฐกิจชะลอตัวควรวางแผนทางการเงินอย่างรอบคอบ รวมทั้งหมั่นศึกษาเทคนิคการผ่อนบ้านที่ช่วยลดต้นลดดอกควบคู่ไปด้วย ดีดีพร็อพเพอร์ตี้ (DDproperty) แพลตฟอร์มอสังหาริมทรัพย์อันดับ 1 ของไทย ชวนมาทำความรู้จักกับ “รีเทนชั่น” และ “รีไฟแนนซ์” ทางลัดที่จะช่วยแบ่งเบาภาระดอกเบี้ยเมื่อกู้ซื้อบ้านที่หลายคนอาจไม่เคยรู้มาก่อน โดยการ “รีเทนชั่น” และ “รีไฟแนนซ์” ต่างมีวัตถุประสงค์ในการลดอัตราดอกเบี้ยจากการกู้ซื้อบ้านให้ต่ำลงเหมือนกัน แต่มีความแตกต่างในรายละเอียดการดำเนินการ ดังนี้

  • รีเทนชั่น (Retention) เป็นการต่อรองขอเปลี่ยนอัตราดอกเบี้ยเงินกู้กับธนาคารเดิมที่กำลังผ่อนอยู่ โดยธนาคารจะตรวจสอบประวัติการผ่อนชำระของผู้กู้ก่อนพิจารณาเช่นกัน วิธีนี้มีจุดเด่นอยู่ที่ผู้กู้ไม่เสียเวลาในการจัดเตรียมเอกสารใหม่ เนื่องจากเป็นการทำธุรกรรมกับธนาคารเดิม ธนาคารจะมีเอกสารและข้อมูลของผู้กู้อยู่แล้ว ทำให้ใช้ระยะเวลาในการพิจารณาอนุมัติไม่นาน นอกจากนี้ยังมีข้อดีตรงที่เสียค่าธรรมเนียมน้อยกว่าการรีไฟแนนซ์ จึงได้ประโยชน์ทั้งการประหยัดเวลา ลดความยุ่งยากในการเตรียมเอกสาร และมีค่าใช้จ่ายในการดำเนินการที่ถูกกว่า
  • รีไฟแนนซ์ (Refinance) เป็นการย้ายไปทำสัญญาสินเชื่อกู้ซื้อที่อยู่อาศัยกับธนาคารแห่งใหม่เพื่อให้ได้ดอกเบี้ยที่ต่ำกว่า โดยหลายธนาคารมักจะมีการจัดโปรโมชั่นรีไฟแนนซ์ในอัตราดอกเบี้ยพิเศษเพื่อดึงดูดลูกค้ารายใหม่ จึงทำให้ผู้กู้จะได้อัตราดอกเบี้ยที่ต่ำกว่าการรีเทนชั่น นอกจากนี้บางแห่งยังมีโปรโมชั่นพิเศษเพิ่มเติม เช่น ฟรีค่าประเมินหลักประกัน, ฟรีค่าเบี้ยประกันอัคคีภัย หรือฟรีค่าจดจำนอง เป็นต้น จุดเด่นของการรีไฟแนนซ์คือผู้ขอสินเชื่อสามารถเลือกข้อเสนอที่มองว่าคุ้มค่าที่สุดจากธนาคารต่าง ๆ ได้เอง ถือเป็นวิธีที่ได้รับนิยมเป็นอย่างมากเนื่องจากช่วยลดภาระดอกเบี้ยที่ต้องผ่อนลงได้อย่างชัดเจน หรืออาจได้เงินส่วนต่างมาใช้ในการซ่อมแซมที่อยู่อาศัยได้หากกู้ได้มากกว่าวงเงินเดิม 

เปิดเช็กลิสต์ก่อนตัดสินใจ “รีเทนชั่น” หรือ “รีไฟแนนซ์” แบบไหนเหมาะกับคุณ

ข้อมูลจากแบบสอบถามฯ DDproperty Thailand Consumer Sentiment Study เผยว่า ผู้บริโภคที่มีที่อยู่อาศัยเป็นของตัวเองเกือบ 3 ใน 5 (59%) มีความคุ้นเคยกับการรีไฟแนนซ์อยู่แล้ว โดยมีสัดส่วนที่สูงขึ้นในกลุ่มผู้ที่มีรายได้ปานกลางและมีรายได้สูง (สัดส่วน 68% และ 71% ตามลำดับ) ขณะที่อีก 34% ไม่รู้จักการรีไฟแนนซ์มาก่อน โดยเหตุผลหลักของผู้บริโภคส่วนใหญ่ที่ตั้งใจจะรีไฟแนนซ์ (60%) มองว่าวิธีนี้จะช่วยให้ประหยัดเงินได้มากขึ้น ขณะที่ 52% มองว่าช่วยให้ได้อัตราดอกเบี้ยและการผ่อนจ่ายที่ถูกลง และ 36% รู้สึกว่าตัวเองในปัจจุบันมีความรู้ความเข้าใจเรื่องการเงินมากขึ้นกว่าตอนแรก

อย่างไรก็ดี แม้เป้าหมายในการรีเทนชั่นหรือรีไฟแนนซ์จะมุ่งเน้นไปที่การช่วยลดอัตราดอกเบี้ย แต่มีรายละเอียดและเงื่อนไขที่ต้องทำความเข้าใจอย่างรอบคอบ ดีดีพร็อพเพอร์ตี้รวบรวมเช็กลิสต์ที่ควรพิจารณาก่อนตัดสินใจรีเทนชั่นหรือรีไฟแนนซ์ เพื่อให้ผู้บริโภคสามารถเลือกแนวทางลดดอกเบี้ยที่ตอบโจทย์การเงินได้มากที่สุด ดังนี้

  • ตรวจสอบรายละเอียดสัญญาเดิมให้ชัดเจน ปกติแล้วธนาคารจะมีโปรโมชั่นสินเชื่อที่อยู่อาศัยที่คิดดอกเบี้ยอัตราพิเศษในช่วง 3 ปีแรกเท่านั้น เมื่อพ้นช่วงเวลาดังกล่าวดอกเบี้ยจะขยับเป็นอัตราลอยตัวจึงทำให้ผู้กู้ต้องผ่อนชำระอัตราดอกเบี้ยที่สูงขึ้น ดังนั้น ผู้กู้ควรตรวจสอบรายละเอียดในสัญญาให้ชัดเจนตั้งแต่ต้นว่ามีเงื่อนไขเวลาในการยื่นเรื่องรีเทนชั่นหรือรีไฟแนนซ์ไว้อย่างไร 

โดยส่วนใหญ่ธนาคารจะระบุให้ผู้กู้สามารถรีไฟแนนซ์ได้หลังจากผ่อนไประยะเวลาหนึ่ง ซึ่งหากมีการรีไฟแนนซ์ก่อนครบกำหนด ผู้กู้จะต้องเสียค่าปรับให้ธนาคารเดิมขึ้นอยู่กับนโยบายของแต่ละธนาคาร อย่างไรก็ดี หากผู้กู้มีความจำเป็นต้องรีไฟแนนซ์ก่อนเวลาที่กำหนดในสัญญาเนื่องจากแบกรับภาระดอกเบี้ยไม่ไหว ก็ควรคำนวณยอดค่าปรับมาเปรียบเทียบกับจำนวนดอกเบี้ยที่ต้องจ่ายในแต่ละเดือนว่าคุ้มพอที่จะเสียค่าปรับหรือไม่ วิธีไหนจะแบ่งเบาภาระทางการเงินได้มากกว่ากัน หรือจะเลือกอดทนผ่อนจ่ายไปจนครบกำหนดสัญญาก่อนเพื่อหลีกเลี่ยงการเสียค่าปรับที่ไม่จำเป็นแทน 

  • เวลาในการเตรียมเอกสาร อีกหนึ่งข้อดีของการรีเทนชั่นคือเป็นการดำเนินธุรกรรมกับธนาคารเดิม ซึ่งมีเอกสารและข้อมูลของผู้กู้อยู่แล้ว จึงทำให้ไม่ต้องเสียเวลาเตรียมเอกสารต่าง ๆ มากนัก เนื่องจากธนาคารสามารถใช้เอกสารเดิมหลายฉบับที่ผู้กู้ใช้ยื่นขอสินเชื่อ จึงมีความสะดวกสบายมากกว่า อีกทั้งยังใช้ระยะเวลาในการพิจารณาไม่นาน เพราะธนาคารมีประวัติการผ่อนชำระอยู่แล้ว จึงอนุมัติได้เร็วกว่าการรีไฟแนนซ์ที่ผู้กู้ต้องเตรียมเอกสารใหม่ทั้งหมดเพื่อใช้ประกอบการยื่นกู้ตามเงื่อนไขของธนาคารใหม่ หลังจากนั้นธนาคารจะตรวจสอบประวัติการชำระสินเชื่อ ภาระหนี้ ประเมินสภาพที่อยู่อาศัยที่ต้องการกู้ และดำเนินการตามขั้นตอนตรวจสอบ ซึ่งใช้เวลาการพิจารณาอนุมัติเท่ากับการขอกู้ใหม่
  • คำนวณค่าใช้จ่ายทั้งหมด หลายคนมองว่าการรีไฟแนนซ์คุ้มค่ามากกว่าเนื่องจากธนาคารส่วนใหญ่มักเสนอโปรโมชั่นอัตราดอกเบี้ยพิเศษให้ อย่างไรก็ดี ผู้กู้ต้องไม่ลืมที่จะคำนวณค่าธรรมเนียมในการดำเนินการต่าง ๆ ด้วย เนื่องจากการรีไฟแนนซ์ไปยังธนาคารใหม่จะต้องมีขั้นตอนการจดจำนองใหม่อีกครั้ง จึงมีค่าใช้จ่ายที่มากกว่าการรีเทนชั่นกับธนาคารเดิม โดยค่าใช้จ่ายในการรีไฟแนนซ์ประกอบด้วย 
  • ค่าธรรมเนียมการจัดการสินเชื่อตามสัญญาใหม่ 0-3% 
  • ค่าธรรมเนียมในการจดจำนอง 1% (ปัจจุบันมีมาตรการลดค่าธรรมเนียมจดทะเบียนสิทธิและนิติกรรมสำหรับที่อยู่อาศัย โดยลดค่าจดทะเบียนการจำนองอสังหาฯ จาก 1% เหลือ 01% สำหรับการซื้อขายที่อยู่อาศัยในราคาไม่เกิน 7 ล้านบาท และวงเงินจำนองไม่เกิน 7 ล้านบาทต่อสัญญา จนถึง 31 ธันวาคม 2567)
  • ค่าประเมินราคาหลักประกัน 25-2% 
  • ค่าอากรแสตมป์ 05% ของวงเงินกู้
  • ค่าประกันอัคคีภัย

นอกจากนี้หลังจากได้รับการอนุมัติจากธนาคารใหม่ที่รีไฟแนนซ์แล้ว ผู้กู้จะต้องสอบถามยอดหนี้คงเหลือจากธนาคารเดิมก่อน ซึ่งจะต้องเตรียมเงินส่วนนี้ไปชำระให้กับธนาคารเดิมในวันไถ่ถอนด้วยเช่นกัน ขณะที่การรีเทนชั่นจะมีค่าธรรมเนียมประมาณ 1-2% ของยอดวงเงินกู้เดิมหรือวงเงินที่เหลือแล้วแต่ที่ธนาคารกำหนด ผู้บริโภคจึงควรคำนวณต้นทุนค่าใช้จ่ายเปรียบเทียบกันให้ละเอียด หากอัตราดอกเบี้ยที่ได้รับต่างกันไม่มากนัก การรีเทนชั่นอาจจะคุ้มค่ากว่าเนื่องจากเสียค่าธรรมเนียมในการดำเนินการที่น้อยกว่า

  • ต่อรองเพื่อหาอัตราดอกเบี้ยที่คุ้มค่า เบื้องต้นผู้กู้ควรติดต่อขอทราบตัวเลือกโปรโมชั่นรีไฟแนนซ์จากธนาคารอื่น ๆ เพื่อนำมาเปรียบเทียบอัตราดอกเบี้ยกับการรีเทนชั่นกับธนาคารเดิมว่าที่ใดให้ดอกเบี้ยเฉลี่ยต่ำสุดในช่วง 3 ปีแรก เนื่องจากเมื่อพ้นช่วงเวลาดังกล่าวก็จะสามารถขอยื่นเรื่องรีเทนชั่นหรือรีไฟแนนซ์เพื่อลดดอกเบี้ยได้อีกครั้ง อย่างไรก็ดี ส่วนใหญ่การรีไฟแนนซ์มักจะได้อัตราดอกเบี้ยที่ต่ำกว่าการรีเทนชั่น หากผู้กู้ได้รับโปรโมชั่นรีไฟแนนซ์ในอัตราดอกเบี้ยพิเศษก็สามารถนำไปต่อรองกับธนาคารเดิมเพื่อขอรีเทนชั่นในอัตรานั้นได้ ซึ่งมีโอกาสที่ทางธนาคารเดิมจะปรับลดดอกเบี้ยลงมาให้เป็นกรณีพิเศษ เพื่อแข่งขันกับคู่แข่งและรักษาฐานลูกค้าเดิมไว้เช่นกัน ซึ่งจะช่วยให้ผู้กู้ได้รับดอกเบี้ยที่ต่ำลงและคุ้มค่ากว่า เนื่องจากค่าธรรมเนียมการรีเทนชั่นต่ำกว่าการรีไฟแนนซ์

แม้การรีเทนชั่นและรีไฟแนนซ์จะเป็นผู้ช่วยสำคัญที่ทำให้ทุกคนแบ่งเบาภาระในการผ่อนบ้านได้มากขึ้น ลดจำนวนดอกเบี้ยที่ต้องจ่ายลง รวมทั้งเพิ่มสภาพคล่องทางการเงินให้ดีขึ้นแล้ว แต่หัวใจสำคัญที่ทุกคนไม่ควรมองข้ามตั้งแต่คิดจะซื้อบ้าน/คอนโดฯ คือการวางแผนการเงินให้เป็นระบบก่อนกู้ซื้อที่อยู่อาศัย เพื่อป้องกันการเกิดปัญหาขาดสภาพคล่อง ผ่อนไม่ไหวจนขาดส่งค่างวดและกระทบไปสู่การผิดนัดชำระหนี้ต่าง ๆ ที่อาจตามมาได้ ซึ่งข้อมูลเหล่านี้จะแสดงในประวัติทางการเงินของเครดิตบูโรและจะมีผลในการพิจารณาอนุมัติเมื่อยื่นขอรีเทนชั่นและรีไฟแนนซ์กับธนาคารทุกแห่งเช่นกัน จึงเป็นอีกหนึ่งเรื่องสำคัญที่ไม่ควรมองข้าม 

ทั้งนี้ ดีดีพร็อพเพอร์ตี้ได้รวบรวมข้อมูลอัตราดอกเบี้ยสินเชื่อรีไฟแนนซ์บ้านปี 2567 อัปเดตล่าสุดจากหลากหลายธนาคารเพื่อเป็นข้อมูลประกอบการตัดสินใจให้ผู้บริโภคสามารถเปรียบเทียบอัตราดอกเบี้ยสินเชื่อและเงื่อนไขเบื้องต้นได้ด้วยตนเอง ก่อนดำเนินการติดต่อธนาคารในขั้นตอนต่อไป พร้อมทั้งรวบรวมข้อมูลประกาศซื้อ/ขาย/ให้เช่าโครงการบ้าน/คอนโดฯ ทั้งโครงการใหม่และบ้านมือสองที่น่าสนใจในหลากหลายทำเลทั่วประเทศ เพื่อช่วยให้ทุกคนสามารถเลือกและค้นหาที่อยู่อาศัยที่ตรงใจได้มากที่สุด เตรียมความพร้อมก่อนตัดสินใจซื้อบ้าน/คอนโดฯ ในฝันได้อย่างมั่นใจยิ่งขึ้น

Zero Trust is complex, but getting started doesn’t have to be

กลยุทธ์ Zero Trust ซับซ้อน แต่ไม่ยากถ้าจะเริ่มทำ

Zero Trust is complex, but getting started doesn’t have to be

By: Kenneth Lai, Vice President, ASEAN at Cloudflare

Adopting Zero Trust is often recognized as a complex journey. In many ways, this reputation is well deserved.

Zero Trust requires work that Security and IT are justifiably cautious about. It involves rethinking default-allow policies and perimeter-based network architecture, enabling collaboration between functionally different teams, and trusting new security services.

Understandably, some organizations may postpone this transformation, citing the uncertainty involved in adopting Zero Trust across the organization. The wide variety of available vendor offerings, coupled with many different information sources, and potential disruption to current workflows, all may deter organizations from deploying Zero Trust security.

That said, the evolving threat landscape that businesses are faced with today is ridden with attackers using increasingly sophisticated methods to target unsuspecting victims. Cloudflare’s own data across its network, one of the world’s largest and most interconnected, revealed that an average of 7.7 billion[1] cyber threats per day targeted the Southeast Asia region in Q2 2024. 

In other words, a Zero Trust approach may no longer be an optional strategy in today’s digital age. Security leaders need to rise to the occasion and take charge of their organization’s security posture, or risk being vulnerable to cyber attacks.

Taking the first step towards Zero Trust adoption

What exactly does Zero Trust entail? In a networking context, Zero Trust security requires that every request moving into, out of, or within a corporate network is inspected, authenticated, encrypted, and logged. It’s based on the idea that no request should be implicitly trusted, no matter where it comes from or where it’s going. Every request must be validated.

Making early progress toward Zero Trust means establishing these capabilities where none are currently present. For organizations starting from scratch, this often means extending capabilities beyond a single ‘network perimeter.’

Here are five of the simplest Zero Trust adoption projects that focus on securing users, applications, networks, and Internet traffic. They won’t achieve comprehensive Zero Trust alone, but they do offer immediate benefits, create early momentum and lay the foundation for broader transformation.

  1. Multi-factor authentication for critical applications

In a Zero Trust approach, the network must be extremely confident that requests come from trusted entities. Organizations need to establish safeguards against user credentials being stolen via phishing or data leaks. Multi-factor authentication (MFA) is the best protection against such credential theft. While a complete MFA rollout may take significant time, focusing on the most critical applications is a simpler yet impactful win.

Organizations that already have an identity provider in place can set up MFA directly within that provider, through one-time codes or in-app push notifications sent to employee mobile devices. Even without an identity provider in place, organizations can opt for a different, simple route. Using social platforms such as Google, LinkedIn, and Facebook, or one-time passwords (OTP) sent to a mobile number, can help double-check user identities.

These are common ways to DIY access for third-party contractors without adding them to a corporate identity provider, and can also be applied within the company itself.

  1. Zero Trust policy enforcement for critical applications

Enforcing Zero Trust is more than simply verifying user identities. Applications must also be protected with policies that always verify requests, consider a variety of behavior and contextual factors before authenticating, and continuously monitor activity. As in Project 1, implementing these policies becomes simpler when applied to an initial list of critical applications.

  1. Monitor email applications and filter out phishing attempts

Email is the number one way most organizations communicate, the most-used SaaS application, and the most common entry point for attackers. Organizations need to ensure they apply Zero Trust principles to their email to complement their standard threat filters and inspections.

Additionally, security professionals should consider using an isolated browser to quarantine links that are not suspicious enough to completely block.

  1. Close all inbound ports open to the Internet for application delivery

Open inbound network ports are another common attack vector and should be given Zero Trust protection, only accepting traffic from known, trusted, verified sources.

These ports can be found using scanning technology. Then, A Zero Trust reverse proxy can securely expose a web application to the public Internet without opening any inbound ports. The application’s only publicly visible record is its DNS record — which can be protected with Zero Trust authentication and logging capabilities.

As an added layer of security, internal/private DNS can be leveraged using a Zero Trust Network Access solution.

  1. Block DNS requests to known threats or risky destinations

DNS filtering is the practice of preventing users from accessing websites and other Internet resources that are known or highly suspected to be malicious. It is not always included in the Zero Trust conversation because it does not involve traffic inspection or logging.

However, with DNS filtering in place, organizations can ensure there are safeguards as to where users (or groups of users) can transfer and upload data — which aligns well with the broader Zero Trust philosophy.

Understanding the broader Zero Trust picture

Implementing these five projects can be a relatively straightforward foray into Zero Trust. Any organization that completes these projects will have made significant progress toward better, more modern security, and established a sound foundation while doing so.

That said, broader Zero Trust adoption remains a complex topic for organizations today. Everyone’s journey will be slightly different, depending on business priorities, needs, and future plans.

Importantly, security leaders need to set out clear objectives in a Zero Trust roadmap to regain control of their IT environment. Malicious attacks are getting more creative than ever before, finding effective ways to infiltrate organizations and obfuscate security teams through the many digital touchpoints present today. Only with a clear plan can organizations make their employees, applications, and networks faster and more secure everywhere, while reducing complexity and cost.

กลยุทธ์ Zero Trust ซับซ้อน แต่ไม่ยากถ้าจะเริ่มทำ

กลยุทธ์ Zero Trust ซับซ้อน แต่ไม่ยากถ้าจะเริ่มทำ

กลยุทธ์ Zero Trust ซับซ้อน แต่ไม่ยากถ้าจะเริ่มทำ

โดย: เคนเนธ ไล รองประธาน ประจำภูมิภาคอาเซียน Cloudflare

บ่อยครั้งที่การนำกลยุทธ์ Zero Trust มาใช้ปกป้องความปลอดภัยในองค์กรถูกมองว่าเป็นเรื่องที่ซับซ้อน ซึ่งก็สมควรแล้วหากพิจารณาในหลาย ๆ ด้าน

กลยุทธ์ Zero Trust ต้องอาศัยการทำงานด้านความปลอดภัยและด้านไอทีอย่างระมัดระวังและเหมาะสม กลยุทธ์นี้เกี่ยวข้องกับการคิดใหม่ทำใหม่ของนโยบายเริ่มต้นของการใช้งานและสถาปัตยกรรมเครือข่ายที่พิจารณาขอบเขตเป็นสำคัญ การใช้การทำงานข้ามทีมร่วมกัน และความเชื่อมั่นในบริการใหม่ ๆ ด้านความปลอดภัย

เป็นที่เข้าใจได้ว่าองค์กรบางแห่งอาจเลื่อนการปรับใช้กลยุทธ์ความปลอดภัยนี้ โดยชี้ว่าการนำ Zero Trust มาใช้ทั่วทั้งองค์กรอาจทำให้เกิดความไม่แน่นอนได้ นอกจากนั้น ทั้งข้อเสนอและตัวเลือกมากมายจากผู้ขาย  ประกอบกับแหล่งข้อมูลที่แตกต่างกัน และแนวโน้มที่กระบวนการทำงาน ณ ตอนนั้นอาจหยุดชะงักได้ อาจเป็นประเด็นที่ทำให้องค์กรไม่กล้านำระบบรักษาความปลอดภัย Zero Trust มาปรับใช้

ดังที่กล่าวมาแล้วว่าธุรกิจต้องเผชิญกับภูมิทัศน์ภัยคุกคามที่เปลี่ยนไปอยู่ตลอด ซึ่งปัจจุบันนี้ผู้โจมตีใช้วิธีการที่ซับซ้อนมากขึ้นและพุ่งเป้าไปยังเหยื่อที่ไม่ทันตั้งตัว โดยข้อมูลทั้งหมดในเครือข่ายของ Cloudflare ซึ่งเป็นเครือข่ายที่ใหญ่ที่สุดและเชื่อมต่อกันมากที่สุดในโลกเครือข่ายหนึ่ง เปิดเผยว่าช่วงไตรมาส 2 ของปีนี้ มีภัยคุกคามทางไซเบอร์เกิดขึ้นในภูมิภาคเอเชียตะวันออกเฉียงใต้เฉลี่ย 7.7 พันล้านรายการต่อวัน

หรือกล่าวให้ชัดคือแนวทาง Zero Trust ไม่ใช่ทางเลือกด้านกลยุทธ์อีกต่อไปแล้วในยุคดิจิทัล แต่มันคือทางรอด โดยผู้บริหารด้านความปลอดภัยจำเป็นต้องลุกขึ้นมาและใช้โอกาสนี้จัดการความปลอดภัยขององค์กร มิฉะนั้นอาจเสี่ยงต่อการถูกโจมตีทางไซเบอร์

ก้าวแรกของการนำ Zero Trust มาใช้

แนวทาง Zero Trust ครอบคลุมอะไรบ้าง? ระบบรักษาความปลอดภัยแบบ Zero Trust ในบริบทของเครือข่าย กำหนดให้มีการตรวจสอบ ยืนยันข้อมูล เข้ารหัส และบันทึกทุกคำขอ-คำสั่งที่ป้อนเข้ามาและส่งออกไปภายในเครือข่ายองค์กร โดยแนวคิดที่ถือปฏิบัติคือไม่ควรไว้ใจคำขอหรือคำสั่งใด ๆ ทั้งสิ้น ไม่ว่าจะได้รับมาจากที่ใดหรือกำลังส่งต่อไปที่ใด โดยทุกคำขอจะต้องผ่านการตรวจสอบทั้งหมด

การเริ่มดำเนินการไปสู่ Zero Trust ช่วงเริ่มต้น หมายถึงการกำหนดและตั้งค่าความสามารถเหล่านี้ขึ้นในที่ที่จากเดิมนั้นไม่มีมาก่อน สำหรับองค์กรที่เริ่มต้นกระบวนการนี้จากศูนย์มักจะหมายถึงการขยายความสามารถให้เหนือกว่าขอบเขตของ “เครือข่ายพื้นฐานที่เพิ่มเข้ามาเพื่อความปลอดภัย หรือที่เรียกว่า Network Perimeter” เครือข่ายเดียว

ลองพิจารณา 5 โครงการการนำ Zero Trust มาใช้อย่างง่ายดายที่สุด โครงการเหล่านี้มุ่งเน้นไปที่การรักษาความปลอดภัยของผู้ใช้ แอปพลิเคชัน เครือข่าย และปริมาณการใช้งานอินเทอร์เน็ต โครงการทั้งหมดนี้อาจไม่สามารถบรรลุเป้าหมาย Zero Trust ได้อย่างสมบูรณ์ตามลำพัง แต่สามารถมอบประโยชน์ได้ในทันที พร้อมสร้างแรงขับเคลื่อนช่วงเริ่มต้น และวางรากฐานการเปลี่ยนแปลงให้ขยายครอบคลุมยิ่งขึ้นในลำดับถัดไป

  1. การยืนยันตัวตนแบบหลายปัจจัยสำหรับแอปพลิเคชันสำคัญ ๆ

ตามแนวทาง Zero Trust เครือข่ายจะต้องมั่นใจว่าคำขอหรือคำสั่งใด ๆ นั้นมาจากหน่วยงานที่มีตัวตนเชื่อถือได้ โดยองค์กรจำเป็นต้องสร้างมาตรการป้องกันการขโมยข้อมูลส่วนบุคคลของผู้ใช้ผ่านการฟิชชิ่งหรือการรั่วไหลของข้อมูล การยืนยันตัวตนแบบหลายปัจจัย (Multi-factor authentication หรือ MFA) ถือเป็นการป้องกันที่ดีที่สุดจากการขโมยข้อมูลส่วนบุคคล แม้ว่าการนำ MFA มาใช้อย่างสมบูรณ์แบบอาจใช้เวลานาน แต่การมุ่งเน้นไปที่แอปพลิเคชันสำคัญที่สุดก่อนนั้นถือเป็นวิธีการที่ง่ายกว่าและมีประสิทธิผลสูงกว่า

องค์กรที่มีผู้ให้บริการข้อมูลส่วนบุคคลอยู่แล้วสามารถกำหนดค่า MFA โดยตรงกับผู้ให้บริการนั้น ๆ ได้ โดยใช้รหัสครั้งเดียวหรือการแจ้งเตือนในแอปที่ส่งไปยังอุปกรณ์มือถือของพนักงาน ในกรณีขององค์กรที่ยังไม่มีผู้ให้บริการข้อมูลส่วนบุคคล องค์กรก็ยังสามารถเลือกใช้วิธีอื่นที่ง่ายกว่าได้ เช่น การใช้แพลตฟอร์มโซเชียล อย่าง Google, LinkedIn และ Facebook หรือเลือกรับรหัสผ่านครั้งเดียว (OTP) ที่ส่งไปยังหมายเลขโทรศัพท์มือถือ เพื่อตรวจสอบข้อมูลส่วนบุคคลของผู้ใช้ได้

ทั้งหมดนี้คือวิธีการเข้าถึงแบบ DIY สำหรับหน่วยงานบุคคลที่สามโดยไม่ต้องเพิ่มพวกเขาลงในกลุ่มผู้ให้บริการข้อมูลส่วนบุคคลขององค์กร และยังสามารถนำไปใช้ภายในบริษัทได้อีกด้วย

  1. การบังคับใช้นโยบายZero Trust ในแอปพลิเคชันสำคัญ

การบังคับใช้นโยบาย Zero Trust ไม่ได้หมายถึงการยืนยันตัวตนของผู้ใช้เพียงอย่างเดียว แอปพลิเคชันก็ต้องได้รับการปกป้องด้วยเช่นกันตามหลักการตรวจสอบและยืนยันคำขอเสมอ โดยจะมีการพิจารณาพฤติกรรมและปัจจัยในบริบทต่าง ๆ ก่อนการตรวจสอบและยืนยันความถูกต้องของข้อมูล และเฝ้าตรวจติดตามกิจกรรมอย่างต่อเนื่อง เช่นเดียวกับในโครงการแรก การนำนโยบายนี้ไปปรับใช้จะง่ายขึ้นเมื่อนำไปใช้ร่วมกับรายการเริ่มต้นของแอปพลิเคชันสำคัญ

  1. เฝ้าติดตามแอปพลิเคชันอีเมลและกรองการฟิชชิ่ง

อีเมลคือช่องทางการสื่อสารอันดับหนึ่งขององค์กรส่วนใหญ่ และเป็นแอปพลิเคชัน SaaS ที่ใช้งานมากที่สุด และพบการโจมตีบ่อยที่สุด ดังนั้นองค์กรจำเป็นต้องแน่ใจว่าได้นำหลัก Zero Trust มาใช้ร่วมกับอีเมลเพื่อเพิ่มประสิทธิภาพของการกรองและการตรวจสอบภัยคุกคามที่เป็นมาตรฐาน

นอกจากนี้ ผู้เชี่ยวชาญด้านความปลอดภัยควรพิจารณาการใช้เบราว์เซอร์แบบแยกอิสระหรือ Isolated Browser เพื่อกันลิงก์ที่ไม่น่าสงสัยออกมาไว้เพียงพอที่จะบล็อกได้อย่างสมบูรณ์

  1. ปิดพอร์ตขาเข้าทั้งหมดที่อยู่บนอินเทอร์เน็ตสำหรับการเปิดใช้แอปพลิเคชัน

การเปิดพอร์ตเครือข่ายขาเข้า หรือ Open Inbound Network Ports  เป็นอีกช่องทางการโจมตีโดยทั่วไปและควรได้รับการป้องกันแบบ Zero Trust โดยการยอมรับแค่การรับ-ส่งข้อมูลจากแหล่งที่มาที่รู้จัก เชื่อถือได้ และผ่านการตรวจสอบแล้วเท่านั้น

เทคโนโลยีการสแกนสามารถตรวจพบพอร์ตเหล่านี้ จากนั้นใช้พร็อกซีแบบย้อนกลับของ Zero Trust เปิดแอปพลิเคชันบนเว็บได้อย่างปลอดภัยผ่านอินเทอร์เน็ตสาธารณะโดยไม่ต้องเปิดพอร์ตขาเข้าใด ๆ และบันทึกรายการเดียวที่สาธารณะมองเห็นได้ของแอปพลิเคชันคือบันทึก DNS ที่เป็นคำขอหรือคำสั่งที่เก็บอยู่ในฐานข้อมูลของระบบ Domain Name System ซึ่งสามารถป้องกันได้โดยใช้การยืนยันสิทธิ์และความสามารถในการบันทึกข้อมูลแบบ Zero Trust เพื่อเพิ่มชั้นความปลอดภัยบันทึก DNS แบบภายในและแบบส่วนตัวมีประสิทธิภาพเพิ่มขึ้นได้จากการใช้ Zero Trust Network Access solution

  1. ปิดกั้นคำขอDNS ที่เป็นภัยคุกคามหรือมีความเสี่ยงกับปลายทาง

การกรองข้อมูล DNS หรือ DNS Filtering  คือแนวทางปฏิบัติที่นำมาใช้เพื่อป้องกันไม่ให้ผู้ใช้เข้าถึงเว็บไซต์และแหล่งข้อมูลอินเทอร์เน็ตอื่น ๆ ที่รู้หรือสงสัยว่าเป็นอันตราย โดยการกรอง DNS จะไม่ได้รวมอยู่ในการสื่อสารโต้ตอบของ Zero Trust เสมอไป เนื่องจากไม่เกี่ยวข้องกับการตรวจสอบหรือบันทึกการรับ-ส่งข้อมูล

อย่างไรก็ตาม เมื่อใช้ DNS Filtering แล้ว องค์กรสามารถสร้างความมั่นใจได้ว่ามีมาตรการป้องกันที่ผู้ใช้ (หรือกลุ่มผู้ใช้) สามารถโอนและอัปโหลดข้อมูลได้ สอดคล้องกับปรัชญา Zero Trust ที่กว้างยิ่งขึ้น

เข้าใจภาพ Zero Trust ให้กว้างกว่าเดิม

การนำโครงการทั้ง 5 นี้ไปใช้ถือเป็นการก้าวเข้าสู่โหมด Zero Trust อย่างชัดเจน โดยองค์กรใดก็ตามที่ดำเนินการเหล่านี้จนแล้วเสร็จจะมีความคืบหน้าในด้านการรักษาความปลอดภัยที่ดีขึ้นและทันสมัยยิ่งขึ้นอย่างมีนัยสำคัญ และสร้างรากฐานที่มั่นคงไปด้วยในขณะดำเนินการ

อย่างไรก็ตาม การนำ Zero Trust มาใช้อย่างกว้างขวางยังคงเป็นหัวข้อที่ดูซับซ้อนขององค์กรในยุคปัจจุบัน เนื่องจากเส้นทางของแต่ละองค์กรจะแตกต่างกันเล็กน้อยตามการจัดลำดับความสำคัญ ความต้องการ และแผนธุรกิจในอนาคต

ที่สำคัญก็คือ ผู้บริหารด้านความปลอดภัยจำเป็นต้องกำหนดวัตถุประสงค์ที่ชัดเจนในแผนงาน Zero Trust เพื่อให้สามารถกลับมาควบคุมสภาพแวดล้อมด้านไอทีของตนได้อีกครั้ง การโจมตีทางไซเบอร์ที่เป็นอันตรายมีความสร้างสรรค์มากขึ้นกว่าเดิม และมักหาวิธีที่มีประสิทธิภาพเพื่อแทรกซึมเข้าไปในองค์กรและทำให้ทีมงานด้านความปลอดภัยเกิดการสับสนผ่าน Digital Touchpoints มากมายที่มีอยู่ในปัจจุบัน มีเพียงการวางแผนที่ชัดเจนเท่านั้นที่จะช่วยให้องค์กรทำให้พนักงาน แอปพลิเคชัน และเครือข่ายของตนมีความรวดเร็วและปลอดภัยยิ่งขึ้นในทุกที่ พร้อม ๆ กับช่วยลดความซับซ้อนและต้นทุนค่าใช้จ่าย

Red Hat Delivers Accessible, Open Source Generative AI Innovation with Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat Delivers Accessible, Open Source Generative AI Innovation with Red Hat Enterprise Linux AI

  • The offering is the first to deliver supported, indemnified and open source-licensed IBM Granite LLMs under Red Hat’s flexible and proven enterprise subscription model
  • Adds open source InstructLab model alignment tools to the world’s leading enterprise Linux platform to simplify generative AI model experimentation and alignment tuning
  • Provides a supported, enterprise-ready model runtime environment across AMD, Intel and NVIDIA platforms for fueling AI innovation built on open source

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the launch of Red Hat Enterprise Linux AI (RHEL AI), a foundation model platform that enables users to more seamlessly develop, test and deploy generative AI (GenAI) models. RHEL AI brings together the open source-licensed Granite large language model (LLM) family from IBM Research, InstructLab model alignment tools based on the LAB (Large-scale Alignment for chatBots) methodology and a community-driven approach to model development through the InstructLab project. The entire solution is packaged as an optimized, bootable RHEL image for individual server deployments across the hybrid cloud and is also included as part of OpenShift AI, Red Hat’s hybrid machine learning operations (MLOps) platform, for running models and InstructLab at scale across distributed cluster environments.

The launch of ChatGPT generated tremendous interest in GenAI, with the pace of innovation only accelerating since then. Enterprises have begun moving from early evaluations of GenAI services to building out AI-enabled applications. A rapidly growing ecosystem of open model options has spurred further AI innovation and illustrated that there won’t be “one model to rule them all.” Customers will benefit from an array of choices to address specific requirements, all of which stands to be further accelerated by an open approach to innovation.

Implementing an AI strategy requires more than simply selecting a model; technology organizations need the expertise to tune a given model for their specific use case, as well as deal with the significant costs of AI implementation. The scarcity of data science skills are compounded by substantial financial requirements including:

  • Procuring AI infrastructure or consuming AI services 
  • The complex process of tuning AI models for specific business needs
  • Integrating AI into enterprise applications
  • Managing both the application and model lifecycle.

To truly lower the entry barriers for AI innovation, enterprises need to be able to expand the roster of who can work on AI initiatives while simultaneously getting these costs under control. With InstructLab alignment tools, Granite models and RHEL AI, Red Hat aims to apply the benefits of true open source projects – freely accessible and reusable, transparent and open to contributions – to GenAI in an effort to remove these obstacles.

Building AI in the open with InstructLab

IBM Research created the Large-scale Alignment for chatBots (LAB) technique, an approach for model alignment that uses taxonomy-guided synthetic data generation and a novel multi-phase tuning framework. This approach makes AI model development more open and accessible to all users by reducing reliance on expensive human annotations and proprietary models. Using the LAB method, models can be improved by specifying skills and knowledge attached to a taxonomy, generating synthetic data from that information at scale to influence the model and using the generated data for model training.

After seeing that the LAB method could help significantly improve model performance, IBM and Red Hat decided to launch InstructLab, an open source community built around the LAB method and the open source Granite models from IBM. The InstructLab project aims to put LLM development into the hands of developers by making, building and contributing to an LLM as simple as contributing to any other open source project.

As part of the InstructLab launch, IBM has also released a family of select Granite English language and code models in the open. These models are released under an Apache license with transparency on the datasets used to train these models. The Granite 7B English language model has been integrated into the InstructLab community, where end users can contribute the skills and knowledge to collectively enhance this model, just as they would when contributing to any other open source project. Similar support for Granite code models within InstructLab will be available soon.

Open source AI innovation on a trusted Linux backbone

RHEL AI builds on this open approach to AI innovation, incorporating an enterprise-ready version of the InstructLab project and the Granite language and code models along with the world’s leading enterprise Linux platform to simplify deployment across a hybrid infrastructure environment. This creates a foundation model platform for bringing open source-licensed GenAI models into the enterprise. RHEL AI includes:

  • Open source-licensed Granite language and code models that are supported and indemnified by Red Hat.
  • A supported, lifecycled distribution of InstructLab that provides a scalable, cost-effective solution for enhancing LLM capabilities and making knowledge and skills contributions accessible to a much wider range of users.
  • Optimized bootable model runtime instances with Granite models and InstructLab tooling packages as bootable RHEL images via RHEL image mode, including optimized Pytorch runtime libraries and accelerators for AMD Instinct™ MI300X, Intel and NVIDIA GPUs and NeMo frameworks.
  • Red Hat’s complete enterprise support and lifecycle promise that starts with a trusted enterprise product distribution, 24×7 production support and extended  lifecycle support.

As organizations experiment and tune new AI models on RHEL AI, they have a ready on-ramp for scaling these workflows with Red Hat OpenShift AI, which will include RHEL AI, and where they can leverage OpenShift’s Kubernetes engine to train and serve AI models at scale and OpenShift AI’s integrated MLOps capabilities to manage the model lifecycle.  IBM’s watsonx.ai enterprise studio, which is built on Red Hat OpenShift AI today, will benefit from the inclusion of RHEL AI in OpenShift AI upon availability, bringing additional capabilities for enterprise AI development, data management, model governance and improved price performance.

The cloud is hybrid. So is AI.

For more than 30 years, open source technologies have paired rapid innovation with greatly reduced IT costs and lowered barriers to innovation. Red Hat has been leading this charge for nearly as long, from delivering open enterprise Linux platforms with RHEL in the early 2000s to driving containers and Kubernetes as the foundation for open hybrid cloud and cloud-native computing with Red Hat OpenShift.

This drive continues with Red Hat powering AI/ML strategies across the open hybrid cloud, enabling AI workloads to run where data lives, whether in the datacenter, multiple public clouds or at the edge. More than just the workloads, Red Hat’s vision for AI brings model training and tuning down this same path to better address limitations around data sovereignty, compliance and operational integrity. The consistency delivered by Red Hat’s platforms across these environments, no matter where they run, is crucial in keeping AI innovation flowing.

RHEL AI and the InstructLab community further deliver on this vision, breaking down many of the barriers to experimenting with and building AI models while providing the tools, data and concepts needed to fuel the next wave of intelligent workloads.

Availability

Red Hat Enterprise Linux AI is now available as a developer preview. Building on the GPU infrastructure available on IBM Cloud, which is used to train the Granite models and support InstructLab, IBM Cloud will now be adding support for RHEL AI and OpenShift AI. This integration will allow enterprises to deploy generative AI more easily into their mission critical applications.

Supporting Quotes

Ashesh Badani, senior vice president and chief product officer, Red Hat

“GenAI presents a revolutionary leap forward for enterprises, but only if technology organizations are able to actually deploy and use AI models in a way that matches their specific business needs. RHEL AI and the InstructLab project, coupled with Red Hat OpenShift AI at scale, are designed to lower many of the barriers facing GenAI across the hybrid cloud, from limited data science skills to the sheer resources required, while fueling innovation both in enterprise deployments and in upstream communities.”

Ramine Roane, corporate vice president, AI Group, AMD

“AI is one of the most important shifts in technology in the past 50 years. To help accelerate broader adoption of AI, the models and tools used to build AI applications need to be made accessible to the enterprise. Built on a trusted Linux backbone with open source tooling and open source-licensed models, RHEL AI is one of the platforms that can provide this, and we’re pleased to support Red Hat’s effort in driving AI in the enterprise forward with our AMD technologies including Instinct AI accelerators.”

Jeremy Foster, senior vice President and general manager, Networking – Compute, Cisco

“The AI movement represents a seismic shift for enterprises, and many organizations are grappling with the best path forward. Cisco continues to work closely with Red Hat to advance AI adoption and RHEL AI will accelerate innovation by providing open-source enabled LLM models as part of an enterprise-ready Linux platform.”

Ihab Tarazi, senior vice president and chief technology officer, AI and Compute, Dell Technologies

“Customers are looking to capture the value that generative AI can provide to transform their businesses. Powered by GPU accelerated Dell PowerEdge Servers, RHEL AI combines the open source innovation and transparency of Granite models and the InstructLab project to deliver a foundation model platform that is accessible to a wider range of users and partners.”

Frances Guida, director, Compute Solutions and AI, Hewlett Packard Enterprise

“Hewlett Packard Enterprise has collaborated with Red Hat for two decades to provide industry-leading solutions that combine the HPE Compute platforms with RHEL. An open environment is critical to innovation in fast-growing technology categories like generative AI and we are looking forward to exploring new areas of collaboration with RHEL AI and Red Hat to help HPE customers find success.”

Darío Gil, senior vice president and director, Research, IBM

“Bringing true open source innovation to AI model development and harnessing the power of a broad community will change how enterprises think about their plans for AI adoption and scale. IBM has been a strong supporter of open source, backing influential communities like Linux, Apache, and Eclipse, and our collaboration with Red Hat represents a step forward in our open approach to building safe, responsible, and effective AI. RHEL AI and InstructLab, combined with IBM’s open source Granite family of models, will deliver new value and choice for clients who are looking to build fit for purpose models that address their use cases with their own data while minimizing cost across a diverse hybrid cloud environment.”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“Many enterprises are looking to infuse AI into their mission-critical applications. The availability of RHEL AI and OpenShift AI on IBM Cloud will help transform how the community and companies build and leverage generative AI. We are enabling open collaboration, simplifying model customization and providing enterprise-quality supported models and tools for building AI into every application.”

Justin Hotard, executive vice president and general manager, Data Center & AI Group, Intel

“For AI adoption to scale, it needs to be fully open source, where community members contribute and create new applications and use cases.  By incorporating the open source Granite models and the InstructLab project, RHEL AI is poised to bring a significant change in how we interact with, tune and ultimately use AI models in production.”

Kirk Skaugen, president, Lenovo ISG

“Customers deploying AI-driven applications need to be able to test and experiment with potential models on a trusted and familiar but still innovative platform. Lenovo believes the future of AI is hybrid, and we see RHEL AI as a critical pathway for widespread hybrid AI innovation, and through Red Hat OpenShift AI, production scalability. We’re pleased to work with Red Hat in driving this hybrid AI innovation forward through joint testing on our ThinkSystem 8-GPU servers, providing a trusted hardware foundation for powering open source AI.”

Justin Boitano, vice president, Enterprise Products, NVIDIA

“Red Hat and NVIDIA have a long history of close collaboration, and Red Hat Enterprise Linux AI demonstrates our shared focus on bringing full-stack computing and software to the developers and researchers building the next wave of AI technology and applications.”

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

  • เป็นครั้งแรกที่มีการนำ IBM Granite LLMs เครื่องมือโอเพ่นซอร์ส-ไลเซนส์ (open source-licensed) ที่มาพร้อมการสนับสนุนทางเทคโนโลยีและให้การรับรองการใช้คอนเทนต์ต่าง ๆ มาให้ลูกค้าได้ใช้ผ่าน enterprise subscription model ที่ยืดหยุ่นและได้รับการพิสูจน์แล้วของ Red Hat 
  • เสริมด้วยการนำ InstructLab ซึ่งเป็นเครื่องมือ model alignment ที่เป็นโอเพ่นซอร์ส ไปทำงานบน Linux ซึ่งเป็นแพลตฟอร์มสำหรับใช้งานในองค์กรที่มีประสิทธิภาพระดับแนวหน้าของโลก เพื่อลดความซับซ้อนในการทดสอบ generative AI model และการปรับแต่งให้เหมาะสม
  • Red Hat Enterprise Linux AI มอบสภาพแวดล้อมโมเดลรันไทม์ (model runtime) ที่มาพร้อมการสนับสนุนทางเทคโนโลยี และพร้อมใช้งานในองค์กร บนแพลตฟอร์ม AMD, Intel และ NVIDIA เพื่อขับเคลื่อนนวัตกรรม AI ที่สร้างบนโอเพ่นซอร์ส

Red Hat, Inc. (เร้ดแฮท) ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับแนวหน้าของโลก เปิดตัว Red Hat Enterprise Linux AI (RHEL AI) แพลตฟอร์มโมเดลพื้นฐานที่ช่วยในการพัฒนา ทดสอบ และใช้ generative AI (GenAI) ได้อย่างราบรื่น RHEL AI เป็นที่รวมของโซลูชันทรงประสิทธิภาพ ประกอบด้วย open source-licensed Granite ซึ่งเป็นตระกูลโมเดลด้านภาษาขนาดใหญ่ (LLM) จาก IBM Research, InstructLab ซึ่งเป็นเครื่องมือในการปรับแต่ง model โดยอาศัยกระบวนการ LAB (Large-scale Alignment for chatBots) และแนวทางการพัฒนาโมเดลที่ขับเคลื่อนโดยคอมมิวนิตี้ผ่าน InstructLab project โซลูชันเหล่านี้แพ็ครวมกันเป็น RHEL image ที่ช่วยให้ติดตั้ง RHEL AI ได้ไม่ยุ่งยากผ่าน bootable container ที่สามารถปรับให้เหมาะกับการใช้งานกับเซิร์ฟเวอร์แต่ละเครื่องบนไฮบริดคลาวด์ และยังบรรจุเป็นส่วนหนึ่งของ OpenShift AI ซึ่งเป็นแพลตฟอร์มการดำเนินงานที่เป็นไฮบริดแมชชีนเลิร์นนิ่ง (MLOps) ของ Red Hat ที่ใช้รันโมเดลต่าง ๆ และ InstructLab ในระดับความต้องการต่าง ๆ บนสภาพแวดล้อมที่เป็น distributed cluster  

การเปิดตัว ChatGPT ทำให้ความสนใจ GenAI เพิ่มขึ้นมาก และทำให้กระแสด้านนวัตกรรมเพิ่มขึ้นอย่างรวดเร็วนับแต่นั้นมา องค์กรต่างเริ่มเปลี่ยนโฟกัสจากการประเมินบริการ GenAI ในระยะเริ่มแรก ไปเป็นการสร้างแอปพลิเคชันที่ใช้ AI นอกจากนี้ ระบบนิเวศของโอเพ่นโมเดล เป็นตัวเลือกที่เติบโตอย่างรวดเร็ว เป็นปัจจัยกระตุ้นให้เกิดนวัตกรรมด้าน AI และแสดงให้เห็นว่าจะไม่มีการใช้ “โมเดลเดียวควบคุมทุกอย่าง” อีกต่อไป ลูกค้าจะได้รับประโยชน์จากทางเลือกหลากหลายที่ตอบโจทย์ความต้องการเฉพาะด้านของตน และนวัตกรรมแบบเปิดจะช่วยเร่งสิ่งเหล่านี้ให้เกิดเร็วขึ้น

การนำกลยุทธ์ AI ไปใช้นั้นต้องการมากกว่าการเลือกโมเดล หากจะนำ AI ไปใช้ องค์กรด้านเทคโนโลยีต้องการความเชี่ยวชาญในการปรับแต่งโมเดลที่จะใช้กับงานที่มีลักษณะเฉพาะของตน รวมถึงจัดการกับค่าใช้จ่ายหลัก ๆ การขาดแคลนทักษะด้าน data science ประกอบกับข้อกำหนดทางการเงินที่สำคัญ ได้แก่ 

  • การจัดซื้อจัดหาโครงสร้างพื้นฐาน AI หรือการใช้บริการด้าน AI ต่าง ๆ
  • กระบวนการที่ซับซ้อนของการปรับแต่ง AI models ให้ตรงตามความต้องการเฉพาะของธุรกิจ
  • การผสานรวม AI เข้ากับแอปพลิเคชันต่าง ๆ ขององค์กร
  • การบริหารจัดการแอปพลิเคชันและไลฟ์ไซเคิลของโมเดล

องค์กรต่าง ๆ ต้องสามารถเพิ่มจำนวนคนที่สามารถทำงานกับโครงการและความคิดริเริ่มด้าน AI ให้มากขึ้น เพื่อลดอุปสรรคในการใช้นวัตกรรมด้าน AI ได้อย่างแท้จริง และต้องควบคุมค่าใช้จ่ายให้ได้ไปพร้อม กันด้วย Red Hat ตั้งเป้านำประโยชน์ของโปรเจกต์ที่เป็นโอเพ่นซอร์สจริง ๆ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้ เช่น InstructLab alignment tools, Granite models และ RHEL AI ซึ่งสามารถเข้าถึงการใช้งานได้ง่าย ใช้ซ้ำได้ โปร่งใส และเปิดกว้างให้มีส่วนร่วม contribute ได้ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้

สร้าง AI แบบโอเพ่น ด้วย InstructLab

IBM Research ได้สร้าง Large-scale Alignment for chatBots (LAB) technique ซึ่งเป็นแนวทางสำหรับ model alignment ที่ใช้ taxonomy-guided synthetic data generation และเฟรมเวิร์กใหม่ที่ใช้ปรับแต่งแบบหลายเฟส  แนวทางนี้ช่วยให้การพัฒนา AI models เปิดกว้างมากขึ้น ให้ผู้ใช้ทุกคนเข้าใช้ได้ โดยไม่ต้องอาศัยคำอธิบายของมนุษย์ที่ต้องเสียค่าใช้จ่ายสูง และลดการพึ่งพาโมเดลที่มีกรรมสิทธิ์ต่าง ๆ การใช้วิธีการของ LAB ช่วยให้โมเดลต่าง ๆ มีประสิทธิภาพเพิ่มขึ้นด้วยการระบุทักษะและความรู้ที่แนบมากับอนุกรมวิธาน และสร้างข้อมูลสังเคราะห์จากข้อมูลเหล่านั้นได้ในวงกว้าง เพื่อวางแนวทางให้กับโมเดล และนำข้อมูลที่สร้างขึ้นนั้นไปใช้เทรนด์โมเดล

หลังจากพบว่าแนวทางของ LAB ช่วยเพิ่มประสิทธิภาพให้กับโมเดลอย่างมาก IBM และ Red Hat จึงตัดสินใจเปิดตัว InstructLab ซึ่งเป็นโอเพ่นซอร์สคอมมิวนิตี้ที่สร้างขึ้นด้วยแนวทางของ LAB และ open source Granite models จาก IBM ทั้งนี้ InstructLab project มีจุดมุ่งหมายเพื่อนำการพัฒนา LLM มาสู่มือของนักพัฒนาซอฟต์แวร์ ด้วยการจัดหา สร้าง และมีส่วนร่วมสนับสนุน LLM ด้วยวิธีง่าย ๆ เหมือนกับการมีส่วนร่วมสนับสนุน open source project อื่น ๆ

ในการเปิดตัว InstructLab นี้ IBM ยังได้เปิดตัว Granite English language and code models in the open โมเดลเหล่านี้เปิดตัวภายใต้ไลเซนส์ของ Apache มีความโปร่งใสของชุดข้อมูลต่าง ๆ ที่ใช้เทรนด์โมเดลเหล่านี้ Granite 7B English language model รวมอยู่ใน InstructLab community ที่ที่ผู้ใช้ปลายทางสามารถมีส่วนร่วม contribute ทักษะและความรู้ต่าง ๆ เพื่อร่วมพัฒนาโมเดลนี้ เหมือนกับที่พวกเขาได้มีส่วนร่วมสนับสนุนโปรเจกต์โอเพ่นซอร์สอื่น ๆ การสนับสนุนลักษณะเดียวกันนี้กับ Granite code models ใน InstructLab จะพร้อมใช้งานเร็ว ๆ นี้

นวัตกรรม Open source AI บน Linux ที่เชื่อถือได้

RHEL AI สร้างแนวทางแบบโอเพ่นให้นวัตกรรมด้าน AI ด้วยการผสาน InstructLab project เวอร์ชันที่พร้อมใช้ในองค์กรและ Granite language and code models เข้ากับแพลตฟอร์ม Linux ชั้นนำของโลกที่ใช้งานระดับองค์กร เพื่อทำให้การใช้งานบนโครงสร้างพื้นฐานไฮบริดไม่ยุ่งยาก เป็นการสร้างแพลตฟอร์มโมเดลพื้นฐานสำหรับการนำ open source-licensed GenAI models มาให้องค์กรได้ใช้ โดย RHEL AI ประกอบด้วย:

  • Open source-licensed Granite language and code models ที่ได้รับการสนับสนุนและรับรองด้านกฎหมายและลิขสิทธิ์โดย Red Hat
  • A supported, lifecycled distribution of InstructLab ที่มอบโซลูชันที่สเกลได้ในราคาที่คุ้มค่าเพื่อเพิ่มความสามารถให้กับ LLM และช่วยให้เกิดการกระจายความรู้และทักษะต่าง ๆ ให้ผู้ใช้ในวงกว้างเข้าถึงได้
  • อินสแตนซ์รันไทม์โมเดลที่ช่วยให้ติดตั้งได้เร็วและปรับให้เหมาะกับการนำไปใช้บนสภาพแวดล้อมต่าง ๆ ได้ ผ่านแพ็คเกจเครื่องมือของ Granite models และ InstructLab รวมถึง Pytorch runtime libraries และ accelerators สำหรับ AMD Instinct™ MI300X, Intel และ NVIDIA GPUs และ NeMo frameworks
  • คำมั่นของ Red Hat ในการให้การสนับสนุนด้านเทคนิคตลอดไลฟ์ไซเคิล ซึ่งเริ่มจากผลิตภัณฑ์ระดับองค์กรที่เชื่อถือได้ การสนับสนุนช่วยเหลือด้านผลิตภัณฑ์ตลอด 24 ชั่วโมงทุกวัน และการสนับสนุนไลฟ์ไซเคิลที่ขยายเพิ่มเติม

เมื่อใดที่องค์กรต่าง ๆ ทำการทดสอบและปรับแต่ง AI models ใหม่ ๆ บน RHEL AI องค์กรเหล่านี้จะมีเส้นทางที่พร้อมใช้ในการสเกลเวิร์กโหลดเหล่านี้ผ่าน Red Hat OpenShift AI ซึ่งจะรวม RHEL AI ไว้ด้วย และยังสามารถใช้ประโยชน์จากเอนจิ้น OpenShift’s Kubernetes เพื่อเทรนด์และให้บริการ AI model ต่าง ๆ ได้ตามต้องการ นอกจากนี้ยังได้ใช้ประโยชน์จากการผสานรวม OpenShift AI เข้ากับความสามารถของ MLOps เพื่อบริหารจัดการไลฟ์ไซเคิลของโมเดลได้อีกด้วย นอกจากนี้ IBM’s watsonx.ai enterprise studio ที่สร้างอยู่บน Red Hat OpenShift AI ในปัจจุบันจะได้รับประโยชน์จากการผสานรวม RHEL AI ไว้ใน OpenShift AI เมื่อพร้อมใช้งาน ซึ่งจะเพิ่มความสามารถในการพัฒนา AI การบริหารจัดการดาต้า การกำกับดูแลโมเดล และเพิ่มความคุ้มค่าการลงทุนให้กับองค์กร

คลาวด์ที่ใช่คือไฮบริด – AI ก็เช่นกัน

เป็นเวลากว่า 30 ปีที่เทคโนโลยีโอเพ่นซอร์สได้จับคู่นวัตกรรมที่เกิดขึ้นอย่างรวดเร็วเข้ากับการลดค่าใช้จ่ายด้านไอทีและลดอุปสรรคต่อการสร้างสรรค์สิ่งใหม่ได้อย่างมีนัยสำคัญ Red Hat เป็นผู้นำด้านนี้มาในเวลาเกือบเท่า ๆ กัน เริ่มตั้งแต่การนำเสนอ RHEL ซึ่งเป็นแพลตฟอร์ม Linux แบบเปิดสำหรับองค์กร ในต้นทศวรรษ 2000 ไปจนถึงการผลักดันให้คอนเทนเนอร์และ Kubernetes เป็นรากฐานให้กับโอเพ่น ไฮบริดคลาวด์ และคลาวด์-เนทีฟ คอมพิวติ้ง ด้วย Red Hat OpenShift 

เร้ดแฮทเดินหน้าต่อเนื่องด้วยกลยุทธ์การขับเคลื่อน AI/ML บนโอเพ่นไฮบริดคลาวด์ ที่ช่วยให้เวิร์กโหลด AI รัน ณ ที่ที่ข้อมูลอยู่ ไม่ว่าจะเป็นในดาต้าเซ็นเตอร์ มัลติพับลิคคลาวด์ หรือที่ edge นอกจากเรื่องของเวิร์กโหลด วิสัยทัศน์ด้าน AI ของ Red Hat ยังช่วยนำการเทรนด์โมเดลและปรับให้อยู่ในแนวทางเดียวกัน มาใช้แก้ไขข้อจำกัดด้านสิทธิ์การเป็นเจ้าของข้อมูล (data sovereignty) การปฏิบัติตามกฎระเบียบ และความสมบูรณ์ของการทำงานอีกด้วย ความสอดคล้องที่แพลตฟอร์มของ Red Hat มีให้กับทุกสภาพแวดล้อมเหล่านี้ โดยไม่จำกัดว่าเวิร์กโหลดจะรันอยู่ที่ใด เป็นสิ่งสำคัญมากต่อการทำให้นวัตกรรม AI เดินหน้าต่อไป

RHEL AI และ InstructLab community ยังคงเดินหน้าวิสัยทัศน์นี้ต่อไป เพื่อกำจัดอุปสรรคมากมายที่เกิดกับการทดสอบและสร้าง AI model ต่าง ๆ และจัดหาเครื่องมือ ข้อมูล และคอนเซปต์ต่าง ๆ ที่จำเป็นต่อการขับเคลื่อนเวิร์กโหลดอัจฉริยะระลอกใหม่

ความพร้อมใช้งาน

Red Hat Enterprise Linux AI พร้อมให้ใช้งานในรูปแบบพรีวิวสำหรับนักพัฒนาซอฟต์แวร์ นอกจากโครงสร้างพื้นฐาน GPU ที่พร้อมให้ใช้บน IBM Cloud ซึ่งใช้เทรนด์ Granite models และรองรับ InstructLab แล้ว ปัจจุบัน IBM Cloud จะเพิ่มให้สามารถรองรับ RHEL AI และ OpenShift AI ด้วย ซึ่งจะช่วยให้องค์กรต่าง ๆ ใช้ generative AI กับแอปพลิเคชันสำคัญ ๆ ของตนได้ง่ายมากขึ้น

คำกล่าวสนับสนุน

Ashesh Badani, senior vice president and chief product officer, Red Hat กล่าวว่า “GenAI ปฏิวัติองค์กรแบบก้าวกระโดดก็เฉพาะด้านที่องค์กรเทคโนโลยีสามารถปรับใช้และใช้ AI models ได้จริงในลักษณะที่ตรงกับความต้องการเฉพาะของแต่ละธุรกิจเท่านั้น แต่ RHEL AI และ InstructLab project ที่ทำงานร่วมกับ Red Hat OpenShift AI ออกแบบมาเพื่อลดอุปสรรคจำนวนมากที่ต้องเผชิญเมื่อจะนำ GenAI ไปใช้บนไฮบริดคลาวด์ ไม่ว่าจะเป็นทักษะด้านวิทยาศาสตร์ข้อมูลที่มีจำกัด ไปจนถึงทรัพยากรประสิทธิภาพสูงที่จำเป็นต้องใช้ ในขณะเดียวกันก็ช่วยเป็นพลังขับเคลื่อนนวัตกรรมให้กับการใช้งานในองค์กรและอัปสตรีมคอมมิวนิตี้”

Ramine Roane, corporate vice president, AI Group, AMD กล่าวว่า “AI เป็นหนึ่งในความเปลี่ยนแปลงทางเทคโนโลยีที่สำคัญที่สุดในรอบ 50 ปี ทั้งนี้ องค์กรจะต้องเข้าถึงโมเดลและเครื่องมือที่จำเป็นต้องใช้สร้าง AI applications ได้ เพื่อช่วยเร่งการนำ AI ไปใช้ในวงกว้างได้เร็วขึ้น RHEL AI สร้างบน Linux ที่เชื่อถือได้และมาพร้อมเครื่องมือที่เป็นโอเพ่นซอร์ส และ open source-licensed models ทำให้ RHEL AI เป็นหนึ่งในแพลตฟอร์มที่สามารถตอบโจทย์นี้ได้ เรารู้สึกยินดีที่ได้สนับสนุนความทุ่มเทของ Red Hat ในการขับเคลื่อนการใช้ AI ในองค์กร ด้วยเทคโนโลยีของ AMD ที่รวมอยู่ใน Instinct AI accelerators”

Darío Gil, senior vice president and director, Research, IBM กล่าวว่า “การใช้นวัตกรรมโอเพ่นซอร์สกับการพัฒนา AI model และการใช้พลังของคอมมิวนิตี้ที่กว้างใหญ่จะเปลี่ยนวิธีคิดเกี่ยวกับการวางแผนการใช้และสเกล AI ขององค์กรต่าง ๆ IBM เป็นผู้สนับสนุนโอเพ่นซอร์สอย่างแข็งขัน เราให้การสนับสนุนคอมมิวนิตี้ที่แข้มแข็งและมีบทบาทสำคัญต่าง ๆ เช่น Linux, Apache และ Eclipse ความร่วมมือกับ Red Hat นับเป็นก้าวต่อไปของวิถีโอเพ่นของเรา เพื่อสร้างความปลอดภัย ความรับผิดชอบ และสร้าง AI ที่ทรงประสิทธิภาพ เมื่อรวม RHEL AI และ InstructLab เข้ากับโมเดลในตระกูล Granite ของ IBM เราจะมอบคุณค่าและทางเลือกใหม่ให้กับลูกค้าที่กำลังมองหาการสร้างโมเดลที่เหมาะกับจุดประสงค์การใช้งาน ซึ่งตอบโจทย์กับกรณีใช้งานของลูกค้าด้วยดาต้าของลูกค้าเอง ในขณะเดียวกันก็ช่วยลดต้นทุนการใช้สภาพแวดล้อมไฮบริดคลาวด์ที่หลากหลาย”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure กล่าวว่า “องค์กรจำนวนมากต่างมองหาวิธีการนำ AI ไปใช้กับแอปพลิเคชันสำคัญ ๆ ของตน ความพร้อมใช้ของ RHEL AI และ OpenShift AI บน IBM Cloud จะช่วยทรานส์ฟอร์มวิธีการที่คอมมิวนีตี้และบริษัทต่าง ๆ สร้างและใช้ประโยชน์จาก generative AI เรากำลังเปิดให้มีการทำงานร่วมกันแบบโอเพ่น, ทำให้ปรับแต่งโมเดลได้อย่างไม่ยุ่งยาก รวมถึงมอบโมเดลและเครื่องมือคุณภาพระดับองค์กรที่สนับสนุนการนำ AI ไปใช้กับทุกแอปพลิเคชัน”

Justin Hotard, executive vice president and general manager, Data Center & AI Group, Intel กล่าวว่า “การนำ AI ไปใช้ในวงกว้างจะต้องเป็นโอเพ่นซอร์สอย่างสมบูรณ์ ซึ่งสมาชิกของคอมมิวนิตี้มีส่วนร่วมสนับสนุนและสร้างแอปพลิเคชันและกรณีใช้งานใหม่ ๆ การรวมโมเดลโอเพ่นซอร์ส Granite models และ InstructLab project เข้าด้วยกันทำให้ RHEL AI พร้อมนำการเปลี่ยนแปลงวิธีการโต้ตอบ ปรับแต่ง และการใช้ AI models ในการสร้างผลิตภัณฑ์ได้อย่างมีนัยสำคัญ”

Justin Boitano, vice president, Enterprise Products, NVIDIA กล่าวว่า “Red Hat และ NVIDIA ได้ร่วมมือกันอย่างใกล้ชิดมายาวนาน และ Red Hat Enterprise Linux AI แสดงให้เห็นโฟกัสเดียวกันของเราในการนำคอมพิวติ้งและซอฟต์แวร์ให้นักพัฒนาซอฟต์แวร์และนักวิจัยได้ใช้อย่างเต็มรูปแบบ เป็นการสร้างคลื่นลูกใหม่ให้กับเทคโนโลยี AI และแอปพลิเคชันต่าง ๆ”