บทความโดย เบียทริซ ออร์เตกา ผู้เชี่ยวชาญด้านไฮบริดคลาวด์และผู้นำฝ่ายพัฒนาธุรกิจด้านโทรคมนาคม เร้ดแฮท
หากองค์กรของคุณยังไม่มีการออกแบบสถาปัตยกรรมให้รองรับ AI แสดงว่าองค์กรคุณเป็นหนึ่งในองค์กรกลุ่มน้อยที่กำลังมีจำนวนลดลงอย่างรวดเร็ว ภายในปี พ.ศ. 2569 การเปลี่ยนผ่านสู่ AI จะไม่ได้เป็นเพียงทางเลือก แต่เป็นกลไกหลักในการพลิกโฉมทางดิจิทัลให้กับธุรกิจ ลดความซับซ้อนในการดำเนินงานและขับเคลื่อนการเติบโตของรายได้
ยกระดับสู่ agentic AI และกระบวนการทำงานแบบ zero-touchอุตสาหกรรมโทรคมนาคมกำลังข้ามผ่านยุคแชทบอทแบบตั้งรับ สู่ยุค agentic AI จากเดิมที่ AI ทำหน้าที่ให้ข้อมูลเชิงลึก หรือการที่ generative AI ให้คำแนะนำต่าง ๆ ปัจจุบัน agentic AI ได้ยกระดับสู่ ‘การลงมือปฏิบัติ’ ซึ่งในบริบทของธุรกิจโทรคมนาคมหมายถึงเอเจนต์อัตโนมัติที่สามารถจัดการเวิร์กโฟลว์ที่ซับซ้อนได้ เช่น การระบุจุดที่เป็นคอขวดของโครงข่าย การตรวจสอบข้อตกลงระดับการให้บริการลูกค้า ไปจนถึงการสั่งจัดสรรทรัพยากรใหม่โดยอัตโนมัติผ่าน TM Forum open APIs กล่าวได้ว่าการเปลี่ยนผ่านนี้คือฟันเฟืองสำคัญที่ทำให้เกิดกระบวนการทำงานแบบ zero-touch ที่จำเป็นต่อการสร้างประสิทธิภาพ ความเชื่อถือได้ และการปรับขนาดการทำงานของโครงข่าย 5G และ edge
อุปสรรคสำคัญของการปรับใช้ AI ในระยะแรกคือการเกิด ‘AI islands’ หรือโมเดล AI ที่ถูกตัดขาดจากกัน ซึ่งแม้จะแก้ปัญหาเฉพาะจุดได้แต่ไม่สามารถสื่อสารร่วมกันได้ Red Hat จึงผลักดันกลยุทธ์แบบ modular ที่สื่อสารกันผ่านโปรโตคอลสากลต่าง ๆ เช่น model context protocol (MCP) และเฟรมเวิร์กการสื่อสารระหว่างเอเจนต์ (agent-to-agent หรือ A2A)
ไมโครเอเจนต์เป็นโซลูชันอัตโนมัติที่ออกแบบมาเพื่อภารกิจเฉพาะด้านและเชื่อมต่อถึงกันได้ และเมื่อไมโครเอเจนต์ต่าง ๆ เชื่อมต่อถึงกันจะทำให้เกิดความชาญฉลาดแบบองค์รวม เช่น การนำข้อมูลเชิงลึกจากงานบริการลูกค้ามาปรับปรุงประสิทธิภาพโครงข่ายได้แบบเรียลไทม์ เพื่อให้มั่นใจว่าทุกองคาพยพของ AI จะทำงานไปในทิศทางเดียวกันและมุ่งสู่เป้าหมายทางธุรกิจเดียวกัน
ความกระจัดกระจายของข้อมูลเป็นอุปสรรคสำคัญของความชาญฉลาดที่เชื่อมโยงถึงกัน MCP ทำหน้าที่เป็นเฟรมเวิร์กโอเพ่นซอร์สที่ช่วยให้เข้าถึงระบบอื่น ๆ และข้อมูลภายนอกได้อย่างเป็นระบบและมีมาตรฐาน เพื่อเชื่อมช่องว่างระหว่างความชาญฉลาดกับการลงมือทำโดยเปลี่ยน AI agent จากเดิมที่เป็นเพียงสมองที่ถูกแยกส่วน ให้กลายเป็นกลไกที่ทำงานได้จริงที่สามารถโต้ตอบกับระบบนิเวศของการปฏิบัติงานทั้งหมดได้
ความเหนือกว่าของ Red Hat: รองรับทุกโมเดล ทุกอุปกรณ์เร่งความเร็ว ทุกสภาพแวดล้อม
Red Hat AI นำเสนอโอเพ่นแพลตฟอร์มที่ทำให้การย้าย AI จากการทดลองไปสู่การใช้งานเป็นไปอย่างง่ายดาย ประกอบด้วย
- Red Hat Enterprise Linux AI: มอบรากฐานที่เป็นอิสระในการปรับแต่งโมเดลโอเพ่นซอร์สต่าง ๆ (เช่น Granite) ด้วยข้อมูลเฉพาะที่เป็นกรรมสิทธิ์ขององค์กร เพื่อให้องค์กรเป็นเจ้าขององค์ความรู้ที่เป็นภูมิปัญญาของตนได้อย่างแท้จริง โดยไม่ผูกมัดกับผู้ให้บริการรายใดรายหนึ่ง
- Red Hat OpenShift AI: กลไกการปฏิบัติการที่เป็นเอกภาพสำหรับบริหารจัดการไลฟ์ไซเคิลของ AI ด้วยมาตรฐานความปลอดภัยและความเสถียรระดับสูงสุด โดยบูรณาการ LlamaStack ให้เป็นเลเยอร์ประสานงานมาตรฐานในรูปแบบ Kubernetes-native เพื่อใช้ในการสร้างเวิร์กโฟลว์ที่เป็น agentic AI
- Red Hat AI Inference Server: vLLM ช่วยเสริมแกร่งให้เซิร์ฟเวอร์นี้รองรับการประมวลผลประสิทธิภาพสูง มีระยะเวลาในการตอบสนองต่ำ (low-latency) บนหน่วยประมวลผลทุกรูปแบบ ไม่ว่าจะเป็น CPU หรือ GPU นอกจากนี้เร้ดแฮทยังคงความยืดหยุ่นไว้ด้วยความสามารถในการรองรับชิปประมวลผลที่หลากหลาย (NVIDIA, AMD, Intel) ดังนั้นกลไกการทำงานขององค์กรจะต้องไม่ติดอยู่กับผู้ผลิตฮาร์ดแวร์รายใดรายหนึ่ง ทั้งยังสามารถเลือกใช้ฮาร์ดแวร์ที่มีประสิทธิภาพและคุ้มค่าที่สุดเหมาะกับงานแต่ละประเภท
llm-d เป็นนวัตกรรมที่ทำหน้าที่เป็นทั้งผู้วางกลยุทธ์และผู้ประสานจัดการระบบให้กับ vLLM ช่วยยกระดับความสามารถของโซลูชันให้ทรงพลังมากขึ้น เฟรมเวิร์ก Kubernetes-native นี้ริเริ่มโดยความร่วมมือของ CoreWeave, Google Cloud, IBM Research และ NVIDIA พร้อมด้วยการสนับสนุนจาก AMD, Cisco, Hugging Face, Intel, Lambda และ Mistral AI เพื่อปลดล็อกประสิทธิภาพสูงสุดของการใช้การอนุมานแบบกระจายศูนย์ในสเกลขนาดใหญ่
ความร่วมมือระหว่าง Red Hat และ NVIDIA ในปี พ.ศ. 2569 ได้ยกระดับจากความเข้ากันได้ของซอฟต์แวร์กับฮาร์ดแวร์เพียงหนึ่งเดียว ขึ้นสู่สถาปัตยกรรมที่ควบคุมและจัดการด้วยซอฟต์แวร์อย่างเบ็ดเสร็จ ความร่วมมือนี้นำเสนอระบบ rack-scale AI ที่เปลี่ยน AI factory ต่าง ๆ ที่มีฐานเป็นโอเพ่นซอร์สให้กลายเป็นระบบที่เป็นมาตรฐานอุตสาหกรรม รองรับการประมวลผลเชิงเหตุผลขั้นสูง และเวิร์กโหลด agentic ต่าง ๆ ได้ในระดับกิกะบิต
สี่แนวทางการใช้ AI เพื่อสร้างคุณค่าให้ธุรกิจโทรคมนาคมได้ทันที
1. โครงข่ายที่ทำงานโดยอิสระ (Autonomous Networks): ก้าวข้ามระบบอัตโนมัติทั่วไปสู่การทำงานด้วยตนเองอย่างอิสระ
วิสัยทัศน์เกี่ยวกับโครงข่ายที่ขับเคลื่อนด้วยตัวเองอย่างสมบูรณ์กลายเป็นจริงแล้วในระดับสถาปัตยกรรม โครงข่ายที่ทำงานโดยอิสระนี้ใช้ AI สร้างระบบการทำงานครบวงจร (closed-loop systems) ตั้งแต่การเฝ้าระวังและการเก็บข้อมูล การวิเคราะห์ และการตอบสนองที่เหมาะกับสถานการณ์
แม้เส้นทางสู่การเป็นโครงข่ายอัจฉริยะที่ทำงานเองได้อย่างอิสระเต็มรูปแบบต้องอาศัยความสำเร็จหลายประการร่วมกัน แต่แนวทางการนำไปใช้สองรูปแบบต่อไปนี้ คือจุดเริ่มต้นที่ทำได้จริง และจะสร้างผลตอบแทนจากการลงทุนให้เห็นผลได้ทันที
- การซ่อมแซมตนเอง (self-healing): เมื่อตรวจพบความผิดปกติ agentic AI จะทำการวิเคราะห์หาสาเหตุรากเหง้า (root cause analysis – RCA) แบบข้ามส่วนงาน โดยการใช้ Event-Driven Ansible ที่เป็นส่วนหนึ่งของ Red Hat Ansible Automation Platform เพื่อให้เครือข่ายสามารถสั่งการแก้ไขปัญหาได้โดยอัตโนมัติอย่างอิสระภายในเสี้ยววินาที เช่น การเปลี่ยนเส้นทางทราฟฟิกหรือการปรับมุมก้มเงยของเสาสัญญาณ และหากยังไม่มีขั้นตอนการแก้ไขที่กำหนดไว้ล่วงหน้า Red Hat Ansible Lightspeed จะช่วยสร้างคู่มือ (playbook) ขึ้นมาใหม่เพื่อตอบโต้สถานการณ์ได้ทันที
- การปรับขนาดล่วงหน้าโดยอัตโนมัติจากการคาดการณ์ (predictive zero-touch scaling): AI Agent บน OpenShift AI จะวิเคราะห์ข้อมูลการเชื่อมโยงของกิจกรรมทางสังคม (การขนส่งมวลชน การรวมตัวของฝูงชุน) ร่วมกับข้อมูลการเคลื่อนที่ผ่าน MCP เพื่อทำงานเชิงรุกในการปรับขนาด CNFs ทั่วทั้งพื้นที่เครือข่ายส่วนปลาย (edge) ซึ่งช่วยให้ระบบเพิ่มขีดความสามารถได้อย่างแม่นยำในจุดที่จำเป็น และคืนทรัพยากรกลับสู่ระบบทันทีเมื่อความต้องการใช้งานลดลง เพื่อให้ประสิทธิภาพการทำงานสอดคล้องกับเป้าหมายด้านความยั่งยืน
2. การลดการใช้พลังงานและต้นทุนตามวัตถุประสงค์
แทนที่จะใช้การตั้งเวลาปิดระบบแบบตายตัว ผู้ปฏิบัติงานสามารถระบุเป้าหมายระดับสูงหรือความต้องการเชิงนโยบายได้ เช่น “ลดการปล่อยก๊าซคาร์บอนให้เหลือน้อยที่สุด โดยยังคงรักษามาตรฐานความพร้อมใช้ไว้ที่ 99.9%
AI agent เฉพาะทางต่าง ๆ สามารถเฝ้าติดตามความหนาแน่นของการใช้งานแบบเรียลไทม์ หากพบว่าพื้นที่เครือข่ายส่วนใดมีการใช้งานต่ำ ระบบอัตโนมัติที่ขับเคลื่อนด้วย AI จะสั่งการด้วยตัวเองให้ระบบเข้าสู่โหมดประหยัดพลังงานของสายอากาศอัจฉริยะ (massive MIMO sleep modes) ซึ่งช่วยลดการใช้พลังงานในภาพรวมลงได้อย่างมีนัยสำคัญ
กรณีการใช้งานที่เรียบง่ายนี้ช่วยสร้างสมดุลระหว่างประสิทธิภาพและความยั่งยืน โดยสามารถลดทั้งค่าใช้จ่ายในการดำเนินงาน (OpEx) และการปล่อยก๊าซคาร์บอนได้โดยไม่กระทบต่อประสบการณ์การใช้ของลูกค้า
3. ประสบการณ์ลูกค้าแบบเฉพาะเจาะจงอย่างเหนือระดับ
AI จะเปลี่ยนโฉมทีมสนับสนุนลูกค้าขององค์กร จากการทำงานเชิงรับไปสู่การดำเนินงานเชิงรุกอย่างเต็มรูปแบบ
Predictive AI ทำการระบุสัญญาณที่เริ่มเสื่อมสภาพในตำแหน่งที่ผู้ใช้งานพักอาศัยอยู่ และสั่งการโปรโตคอลซ่อมแซมตัวเอง (เช่น การปรับจูนการส่งต่อสัญญาณระหว่างสถานีฐาน) ให้ทำงานโดยอัตโนมัติ ก่อนที่ผู้ใช้งานจะทันสังเกตเห็นปัญหา
Generative AI ช่วยสนับสนุนเจ้าหน้าที่ด่านหน้า ที่ให้บริการลูกค้า ทั้งพนักงานและแชทบอท ด้วยการสรุปข้อมูลบันทึกระบบ และบริบทการใช้งานที่ครบถ้วน เป็นการเปลี่ยนบทบาทจากผู้ให้บริการเครือข่าย ให้กลายเป็นผู้ส่งมอบประสบการณ์เหนือระดับ
4. การกำกับดูแล SLA และบริหารผู้ให้บริการแบบเรียลไทม์:
AI จะทำหน้าที่เป็นผู้ตรวจสอบดิจิทัล ในการตรวจสอบประสิทธิภาพของผู้ให้บริการหลายราย AI agent จะทำการวิเคราะห์หาสาเหตุรากเหง้า (RCA) เพื่อระบุปัญหาด้านประสิทธิภาพของผู้ให้บริการแต่ละราย ด้วยการรวบรวมข้อมูลทางเทคนิคจากทุกส่วนงาน (cross-domain telemetry) ผ่าน MCP นอกจากนี้ ยังสามารถส่งการแจ้งเตือนหรือคำนวณเงินคืนตามสัญญาได้อัตโนมัติด้วยตนเอง ซึ่งช่วยสร้างระบบนิเวศการทำงานที่มีความชัดเจนและมีความรับผิดชอบสูง
การรับมือกับสามความท้าทายหลักในนำ AI มาใช้
แม้ว่าสัญญาณบ่งชี้ของอุปสรรคพื้นฐานในการใช้ AI ที่พบได้ทั่วไปจะมีลักษณะคล้ายคลึงกัน เช่น การติดตั้งระบบที่ล่าช้าหรือต้นทุนที่สูงเกินควร แต่ความท้าทายเฉพาะด้านในการนำ AI มาใช้ในธุรกิจโทรคมนาคมนั้นมีความแตกต่างกันอย่างมีนัยสำคัญ โดยขึ้นอยู่กับความพร้อมของโครงสร้างทางสถาปัตยกรรม และการจัดลำดับความสำคัญเชิงกลยุทธ์ของแต่ละบริษัท
การใช้ AI ภายในกรอบการทำงานด้านโทรคมนาคมนั้นไม่ได้วัดกันที่ความชาญฉลาดของโมเดลเพียงอย่างเดียว แต่ขึ้นอยู่กับความพร้อมใช้ ความยืดหยุ่น และความโปร่งใสของสถาปัตยกรรมระบบด้วย เร้ดแฮทมีมุมมองว่า การเปลี่ยนผ่านจากโครงการที่อยู่ในขั้นการทดลองไปสู่การนำ agentic AI มาใช้งานจริงนั้น มีอุปสรรคสำคัญสามประการได้แก่ การกระจัดกระจายของข้อมูล ความซับซ้อนของการบริหารจัดการระบบ และ การติดกับดักเทคโนโลยีระบบปิดที่ตรวจสอบไม่ได้และต้องติดอยู่กับผู้ให้บริการรายใดรายหนึ่ง
ความท้าทายจากข้อมูลที่กระจัดกระจายและบริบทที่ไม่ครบถ้วน: ปัจจัยที่ขัดขวางการสร้างผลตอบแทนจากการลงทุนด้าน AI ที่สำคัญที่สุดคือการขาดความเข้าใจบริบทในเชิงลึก โมเดล AI มักเผชิญกับอาการหลอน (hallucinations) ซึ่งนำไปสู่การให้ข้อมูลที่ผิดพลาด เนื่องจากเข้าไม่ถึงข้อมูลด้านโทรคมนาคมที่มีความละเอียดสูงที่มักติดอยู่ตามส่วนงานต่าง ๆ อย่างกระจัดกระจายได้แบบเรียลไทม์ ไม่ว่าจะเป็นบันทึกการทำงานของเครือข่าย ข้อมูลลูกค้า ไปจนถึงดัชนีชี้วัด (KPIs) จากผู้ให้บริการหลายค่ายที่ไม่เชื่อมโยงกัน
ดังที่ได้กล่าวไปแล้ว MCP คือเฟรมเวิร์กแบบโอเพ่นซอร์สที่ช่วยให้ AI agent ต่าง ๆ สามารถเชื่อมต่อกับข้อมูลภายนอกและเครื่องมือรุ่นเก่าได้อย่างราบรื่น เป็นการช่วยให้สถาปัตยกรรมทั้งหมดสามารถทำงานร่วมกันได้อย่างสมบูรณ์
ความซับซ้อนของการดำเนินงานทำให้โครงการนำร่องขยายไม่ได้: ผู้ให้บริการจำนวนมากล้มเหลวในการขยายขอบเขตการใช้งาน AI ในวงกว้าง เพราะพยายามยกเครื่องการใช้ AI แบบองค์รวม ซึ่งมีความซับซ้อนเกินกว่าจะบริหารจัดการได้ การนำพาโมเดลที่พัฒนาอยู่ในแล็ปท็อปของนักวิทยาศาสตร์ข้อมูลไปใช้จริงที่เสาสัญญาณปลายทางที่ edge จะทำให้เกิดปัญหาจากความเข้ากันไม่ได้ของระบบปฏิบัติการและเสี่ยงต่อความล้มเหลวอย่างมาก หากไม่มีสภาพแวดล้อมการทำงานที่เหมือนกันเป็นหนึ่งเดียว
Red Hat AI วางรากฐาน AI factory ที่ครอบคลุมไลฟ์ไซเคิลของทั้งโมเดลและแอปพลิเคชัน AI ทั้งหมด การจัดการเวิร์กโหลด AI ให้เหมือนกับไมโครเซอร์วิสในรูปแบบคอนเทนเนอร์ จะช่วยให้ผู้ให้บริการสามารถใช้มาตรฐานแบบ DevOps ที่ใช้กับฟังก์ชันเครือข่ายหลัก มาประยุกต์ใช้ร่วมกับเครื่องมือ MLOps เพื่อบริหารจัดการไลฟ์ไซเคิลของ AI ได้อย่างมีประสิทธิภาพ เร้ดแฮทสนับสนุนให้เริ่มต้นจาก micro-AI agents ซึ่งเป็นโซลูชันขนาดเล็กที่สร้างขึ้นเฉพาะทางเพื่อตอบโจทย์งานเฉพาะด้าน แล้วจึงค่อยขยายผลนำมาเชื่อมต่อกันเพื่อสร้างโครงข่ายอัจฉริยะที่ครอบคลุมกว้างขวางมากขึ้นในภายหลัง
ความเสี่ยงจากการผูกขาดโดยผู้ผลิตและอธิปไตยดิจิทัล: การพึ่งพาบริการ AI แบบระบบปิดที่ตรวจสอบการทำงานไม่ได้ของผู้ผลิตรายใดรายหนึ่งเพียงอย่างเดียว ถือเป็นความเสี่ยงมหาศาลต่อความยืดหยุ่นในระยะยาวและอธิปไตยทางข้อมูล การฝากความอัจฉริยะของเครือข่ายสำคัญขององค์กรไว้บนระบบคลาวด์ของผู้ผลิตรายเดียวทั้งหมดจะทำให้องค์กรมีความเสี่ยงที่จะสูญเสียการควบคุมทั้งด้านต้นทุนและสิทธิในการควบคุมจัดการข้อมูลของตนเอง
แนวทางของเร้ดแฮทที่เน้นการรองรับทุกโมเดล ทุกตัวเร่งความเร็ว และทุกคลาวด์ คือทางแก้ปัญหาการถูกผูกขาดโดยผู้ให้บริการรายใดรายหนึ่ง เร้ดแฮทมอบการเชื่อมต่อกับโมเดลโอเพ่นซอร์สที่มีให้เลือกมากมาย ซึ่งช่วยให้ผู้ให้บริการสามารถปรับจูนโมเดลที่ต้องการด้วยข้อมูลของตนเองบนโครงสร้างพื้นฐานของตนเอง จึงสามารถควบคุมและถือครองกรรมสิทธิ์ในขุมพลังปัญญาของโมเดล (model weights) และข้อมูลพื้นฐานที่ใช้ได้ โดยมี vLLM ช่วยทำให้มั่นใจว่าการอนุมานจะยังคงประสิทธิภาพสูงไม่ว่าจะใช้ฮาร์ดแวร์ใดก็ตาม นอกจากนี้ Red Hat OpenShift ยังช่วยให้ผู้ให้บริการสามารถบริหารจัดการไลฟ์ไซเคิลของ AI และแอปพลิเคชันได้อย่างครบวงจรบนทุกสภาพแวดล้อม