โปรเซสเซอร์ที่ใหญ่ที่สุดเท่าที่เคยมีมาพร้อมกับทรานซิสเตอร์ 1.2 ล้านล้านชุดโดยทิ้งซีพียูและ GPU ระดับท็อปของ Intel และ AMD ไว้เบื้องหลัง
บริษัท แห่งหนึ่งได้จัดการเพื่อสร้างชิปประมวลผลที่ใหญ่ที่สุดเท่าที่เคยมีมาซึ่งเหนือกว่าทุกสิ่งที่ Intel หรือ AMD เคยผลิตมา ด้วยทรานซิสเตอร์ 1.2 ล้านล้านตัวบนเวเฟอร์ซิลิกอนโปรเซสเซอร์จึงเป็นชิปเซมิคอนดักเตอร์ที่ใหญ่ที่สุดเท่าที่เคยมีมา บริษัท ที่อยู่เบื้องหลังโปรเซสเซอร์กำลังวางแผนที่จะอุทิศชิปเพื่อเพิ่มปัญญาประดิษฐ์ (AI)
Cerebras Wafer Scale Engine ผลิตโดย บริษัท ปัญญาประดิษฐ์แห่งใหม่ Cerebras Systems เป็นชิปเซมิคอนดักเตอร์ที่ใหญ่ที่สุดเท่าที่เคยมีมา หน่วยประมวลผลกลางหรือซีพียูมีทรานซิสเตอร์ 1.2 ล้านล้านตัวซึ่งเป็นสวิตช์อิเล็กทรอนิกส์พื้นฐานและจำเป็นที่สุดในบรรดาชิปซิลิกอน โปรเซสเซอร์ที่เพิ่งผลิตโดยโปรเซสเซอร์ Advanced Micro Devices มีทรานซิสเตอร์ 32 พันล้านตัว ไม่จำเป็นต้องพูดถึงจำนวนทรานซิสเตอร์บน Cerebras Wafer Scale Engine นั้นสูงเกินกว่าซีพียูและ GPU ระดับท็อปของ AMD และ Intel
Cerebras Wafer Scale Engine เป็นโปรเซสเซอร์ชิปเดี่ยวที่ใหญ่ที่สุดเท่าที่เคยมีมา:
Cerebras WSE เป็นเวเฟอร์ซิลิกอนขนาดมหึมาขนาด 46,225 ตารางมิลลิเมตรที่มีการเพิ่มประสิทธิภาพ AI 400,000 ไม่มีแคชไม่มีโอเวอร์เฮดแกนประมวลผลและหน่วยความจำ SRAM แบบกระจายความเร็วสูง 18 กิกะไบต์ในระดับเดียวและระดับเดียวของหน่วยความจำ ลำดับชั้น ในการเปรียบเทียบ NVIDIA GPU ที่ใหญ่ที่สุดมีขนาด 815 ตารางมิลลิเมตรและบรรจุทรานซิสเตอร์ 21.1 พันล้านตัว คณิตศาสตร์อย่างง่ายจะระบุว่า Cerebras WSE มีขนาดใหญ่กว่า NVIDIA GPU ระดับไฮเอนด์ 56.7 เท่า
แบนด์วิดท์หน่วยความจำของ Cerebras WSE คือ 9 เพตะไบต์ต่อวินาที กล่าวอีกนัยหนึ่งโปรเซสเซอร์ที่ใหญ่ที่สุดในโลกมีหน่วยความจำบนชิปความเร็วสูงมากกว่า 3,000 เท่าและแบนด์วิดท์หน่วยความจำเพิ่มขึ้น 10,000 เท่า แกนของโปรเซสเซอร์เชื่อมโยงเข้าด้วยกันด้วยเครือข่ายการสื่อสารที่เชื่อมต่อด้วยตาข่ายบนชิปที่มีการเชื่อมต่อฮาร์ดแวร์ทั้งหมด เนื่องจากสถาปัตยกรรมที่เรียบง่ายและขนาดของแม่พิมพ์ที่ใหญ่รวมกับแบนด์วิดท์ที่สูงเป็นพิเศษโปรเซสเซอร์จึงสามารถส่งมอบแบนด์วิดท์รวม 100 เพตาบิตต่อวินาที พูดง่ายๆก็คือคอร์จำนวนมากของ Cerebras WSE หน่วยความจำในตัวเครื่องที่มากขึ้นและผ้าแบนด์วิธที่มีเวลาแฝงต่ำทำให้เป็นโปรเซสเซอร์ที่เหมาะอย่างยิ่งในการเร่งงานปัญญาประดิษฐ์
เหตุใด Intel และ AMD จึงไม่สร้างซีพียูและ GPU ขนาดใหญ่ที่ออกแบบตามสั่งเช่นนี้
Intel, AMD และ ผู้ผลิตชิปซิลิกอนอื่น ๆ ส่วนใหญ่ ใช้วิธีการแบบดั้งเดิมที่แตกต่างไปจากเดิมอย่างสิ้นเชิง GPU และซีพียูทรงพลังที่มีอยู่ทั่วไปเป็นชุดของชิปที่สร้างขึ้นจากซิลิคอนเวเฟอร์ขนาด 12 นิ้วและได้รับการประมวลผลในโรงงานชิปเป็นชุด ในทางกลับกัน Cerebras WSE เป็นชิปตัวเดียวที่เชื่อมต่อกันบนเวเฟอร์เดียว พูดง่ายๆก็คือทรานซิสเตอร์ 1.2 ล้านล้านตัวบนโปรเซสเซอร์ที่ใหญ่ที่สุดทำงานร่วมกันเป็นชิปซิลิกอนขนาดยักษ์เพียงตัวเดียว
มีเหตุผลง่ายๆว่าทำไม บริษัท อย่าง Intel และ AMD จึงไม่ลงทุนในซิลิคอนเวเฟอร์ขนาดใหญ่อย่างไม่น่าเชื่อ เวเฟอร์ซิลิกอนแผ่นเดียวมีสิ่งสกปรกเล็กน้อยซึ่งอาจมีผลต่อการเรียงซ้อนและทำให้เกิดความล้มเหลวในที่สุด ผู้ผลิตชิปตระหนักดีถึงสิ่งเดียวกันและสร้างโปรเซสเซอร์ตามนั้น ดังนั้นผลผลิตที่แท้จริงของเวเฟอร์ซิลิกอนในแง่ของชิปซิลิกอนที่ทำงานได้อย่างน่าเชื่อถือจึงค่อนข้างต่ำ กล่าวอีกนัยหนึ่งถ้าเวเฟอร์ซิลิกอนมีชิปเพียงตัวเดียวโอกาสที่จะเกิดสิ่งสกปรกและความล้มเหลวค่อนข้างสูง
ที่น่าสนใจคือในขณะที่ บริษัท อื่น ๆ ยังไม่พบวิธีแก้ปัญหาที่ใช้งานได้ แต่มีรายงานว่า Cerebras ได้ออกแบบชิปให้ซ้ำซ้อน กล่าวง่ายๆก็คือสิ่งเจือปนเพียงอย่างเดียวจะไม่ปิดใช้งานชิปทั้งหมดแอนดรูเฟลด์แมนผู้ร่วมก่อตั้ง Cerebras Systems และดำรงตำแหน่งซีอีโอ “Cerebras WSE ได้รับการออกแบบมาจากพื้นฐานสำหรับงาน AI ประกอบด้วยนวัตกรรมพื้นฐานที่ก้าวไปสู่ความล้ำสมัยด้วยการแก้ปัญหาความท้าทายทางเทคนิคที่มีมานานหลายทศวรรษซึ่งมีขนาดชิปที่ จำกัด เช่นการเชื่อมต่อแบบข้ามเส้นเล็งผลผลิตการส่งมอบพลังงานและ บรรจุภัณฑ์ ทุกการตัดสินใจทางสถาปัตยกรรมเกิดขึ้นเพื่อเพิ่มประสิทธิภาพสำหรับงาน AI ผลลัพธ์ก็คือ Cerebras WSE ให้ประสิทธิภาพของโซลูชันที่มีอยู่นับร้อยหรือหลายพันเท่าโดยใช้พลังงานและพื้นที่เพียงเล็กน้อย”
งาน AI จะยังคงต้องการชิปที่ใหญ่ขึ้น:
โปรเซสเซอร์ใหม่ถูกสร้างขึ้นมาเพื่อจัดการงาน AI เป็นหลักเนื่องจากชิปขนาดใหญ่ประมวลผลข้อมูลได้เร็วขึ้นทำให้ได้รับคำตอบในเวลาที่น้อยลง บริษัท เทคโนโลยีส่วนใหญ่อ้างว่าข้อ จำกัด พื้นฐานของ AI ในปัจจุบันคือการฝึกโมเดลใช้เวลานานเกินไป ดังนั้นผู้นำทางเทคโนโลยีบางรายจึงพยายามเพิ่มประสิทธิภาพอัลกอริทึม AI ของตนเพื่อพึ่งพาชุดข้อมูลที่น้อยลง อย่างไรก็ตาม AI ที่ดีใด ๆ จะดีขึ้นอย่างเห็นได้ชัดเมื่อมีชุดข้อมูลขนาดใหญ่ขึ้น การลดเวลาในการฝึกอบรมโดยการเพิ่มขนาด CPU เป็นวิธีหนึ่งในการเพิ่มการประมวลผลและลดเวลาในการฝึกอบรมโดยไม่ส่งผลต่อคุณภาพของ AI ที่เป็นผลลัพธ์
ผ้าการสื่อสารระหว่างโปรเซสเซอร์ที่ติดตั้งบน Cerebras WSE ก็เป็นหนึ่งในชนิดเช่นกัน ความหน่วงแฝงต่ำแบนด์วิดท์สูงตาข่าย 2D เชื่อมโยงคอร์ทั้งหมด 400,000 คอร์บน WSE ด้วยแบนด์วิดท์รวม 100 เพตาบิตต่อวินาที นอกจากนี้คอร์บนโปรเซสเซอร์ยังเป็น Sparse Linear Algebra Cores (SLAC) ซึ่งได้รับการปรับให้เหมาะสมสำหรับไพรมาติกการประมวลผลเครือข่ายประสาทเทียม ทั้งสองด้านทำให้ชิปก้าวไปไกลสำหรับงาน AI ดังนั้นจึงไม่น่าเป็นไปได้ที่นักเล่นเกมจะสามารถซื้อ CPU หรือ GPU ที่ใหญ่และทรงพลังที่สุดสำหรับพีซีของพวกเขาได้