เหตุใดเราจึงต้องการให้นักเรียน 5,000 คนเข้าร่วมชั้นเรียนคอมพิวเตอร์ควอนตัมออนไลน์แบบเร่งรัดระยะเวลาแปดเดือนนี้

เหตุใดเราจึงต้องการให้นักเรียน 5,000 คนเข้าร่วมชั้นเรียนคอมพิวเตอร์ควอนตัมออนไลน์แบบเร่งรัดระยะเวลาแปดเดือนนี้

เครดิตฟรี

การทำให้คอมพิวเตอร์ควอนตัมเข้าถึงได้ทุกคนเป็นหนึ่งในเป้าหมายที่ใหญ่ที่สุดของเราในทีม Qiskit — นั่นคือเหตุผลที่เราร่วมมือกับ The Coding School เพื่อเสนอชั้นเรียนคอมพิวเตอร์ควอนตัมแบบเร่งรัด 8 เดือนสำหรับเครดิตแก่นักเรียน 5,000 คนในโรงเรียนมัธยมและ เกิน.

สล็อต

เมื่อเราวางคอมพิวเตอร์ควอนตัมบนคลาวด์ครั้งแรกในปี 2559 เราหวังว่าผู้ใช้จากทั่วโลกจะได้เห็นวิธีการทำงานของอุปกรณ์เหล่านี้ พัฒนาซอฟต์แวร์สำหรับพวกเขา และเริ่มสร้างชุมชนระดับโลกที่แท้จริงรอบตัวพวกเขา ตั้งแต่นั้นมา เราได้จัด Qiskit Camps แบบเข้มข้นเพื่อมอบประสบการณ์การประมวลผลควอนตัมที่สมจริง การแฮ็กกาธอนสำหรับชุมชนของเราเพื่อทำให้การประมวลผลควอนตัมดียิ่งขึ้น และล่าสุดQiskit Global Summer Schoolของเราการฝึกอบรมสองสัปดาห์ที่นำหลักสูตรคอมพิวเตอร์ควอนตัมระดับพรีเมียม ที่เราเสนอนักศึกษาฝึกงานให้กับนักเรียน 4084 คนจาก 101 ประเทศ ตอนนี้ การเป็นพันธมิตรกับThe Coding Schoolจะช่วยให้เราทำสิ่งที่เราไม่เคยทำมาก่อน: เสนอหลักสูตรเต็มปีสำหรับหน่วยกิตระดับมัธยมศึกษาตอนปลาย
“คอมพิวเตอร์ควอนตัมทั้งสองครอบคลุมความหลงใหลในฟิสิกส์ควอนตัมและความปรารถนาของฉันที่จะช่วยต่อสู้กับวิกฤตสิ่งแวดล้อม” ลีโอนาร์โด คำมณี นักศึกษาชั้นประถมศึกษาปีที่ 12 จากสหราชอาณาจักรกล่าว “การคำนวณด้วยควอนตัม [สามารถเป็น] กุญแจสำคัญในการค้นหาสารเคมีเพื่อเร่งการสลายตัวของก๊าซคาร์บอนไดออกไซด์ในลักษณะที่คอมพิวเตอร์ทั่วไปจะใช้เวลาหลายพันล้านปีในการทำ และหลักสูตรนี้จะช่วยให้ฉันเริ่มต้นเส้นทางในสาขาที่ 1 อยากเข้า. ฉันไม่สามารถหาหลักสูตรที่อื่นเกี่ยวกับการคำนวณควอนตัมที่มุ่งเป้าไปที่ความรู้ระดับมัธยมปลายของฉัน และฉันแทบรอไม่ไหวที่จะเริ่มเรียนรู้”
Coding School เป็นองค์กรไม่แสวงผลกำไรด้านเทคโนโลยี 501(c)(3) ซึ่งสอนนักเรียนไปแล้ว 15,000 คนจากกว่า 60 ประเทศ หลักสูตรนี้เรียกว่า “Qubit by Qubit’s Introduction to Quantum Computing” จะประกอบด้วยการบรรยาย ชุดปัญหา และห้องปฏิบัติการ โดยจะเริ่มตั้งแต่เดือนตุลาคม 2020 ถึงพฤษภาคม 2021 และจะสอนโดยนักวิทยาศาสตร์ควอนตัมของ MIT และ Oxford บทเรียนใช้ชุดพัฒนาซอฟต์แวร์ควอนตัมโอเพนซอร์ส Qiskit สำหรับการเขียนโปรแกรมคอมพิวเตอร์ควอนตัม และ IBM Quantum Experience สำหรับการเข้าถึงคอมพิวเตอร์ควอนตัม
หลักสูตรนี้แตกต่างจาก Qiskit Global Summer School ล่าสุดของเราอย่างไร เป็นหลักสูตรทั้งปีการศึกษาที่สามารถนับเป็นหน่วยกิตระดับมัธยมศึกษาตอนปลายได้ และมุ่งเป้าไปที่ผู้ที่ไม่มีประสบการณ์ด้านฟิสิกส์ควอนตัมหรือการเขียนโปรแกรมเลย ในโรงเรียนมัธยมศึกษาตอนปลายขึ้นไป 96% ของนักเรียนที่เรียนหลักสูตรภาคฤดูร้อน TCS แบบเร่งรัดกล่าวว่าพวกเขาไม่รู้อะไรเลยหรือรู้เพียงเล็กน้อยเกี่ยวกับการคำนวณควอนตัมในตอนเริ่มต้น และสำหรับผู้เข้าร่วมหลายคน หลักสูตรนั้นเปลี่ยนชีวิต
“ในฐานะนักเรียนลาตินอเมริกา ฉันไม่มีโอกาสมากมายที่จะเรียนรู้หัวข้อต่างๆ เช่น การคำนวณควอนตัมหรือกลศาสตร์ควอนตัม” มิเชลล์ ตอร์เรส นักเรียนเกรด 12 จากชิลีกล่าว “ประสบการณ์นี้ยอดเยี่ยมมาก ฉันสนุกกับทุกสิ่ง แน่นอนว่ามันท้าทายในตอนแรก แต่ฉันได้เรียนรู้มากมาย และมันทำให้ฉันรู้ว่าบางทีคอมพิวเตอร์ควอนตัมอาจเป็นสิ่งที่ฉันต้องการทำไปตลอดชีวิต”
นอกจากนี้เรายังรู้สึกตื่นเต้นกับความมุ่งมั่นร่วมกันของ The Coding School ในการนำการศึกษาคอมพิวเตอร์ควอนตัมคุณภาพสูงมาสู่การสร้างผู้ชมที่หลากหลาย ครอบคลุม และทั่วโลกมากที่สุดเท่าที่จะเป็นไปได้ หลักสูตร TCS ก่อนหน้านี้ได้รวมนักเรียนมากกว่า 70% จากภูมิหลังที่มีบทบาทน้อยกว่าในอดีตใน STEM เป็นต้น
“คอมพิวเตอร์ควอนตัมเป็นเทคโนโลยีที่พึ่งเกิดขึ้น เรามีโอกาสอย่างแท้จริงที่นี่เพื่อสร้างจากพื้นฐานในลักษณะที่ครอบคลุม” Abe Asfaw, Global Lead, Quantum Education และ Open Science ที่ IBM Quantum กล่าว “ด้วยการทำให้แน่ใจว่าการศึกษาคอมพิวเตอร์ควอนตัมนั้นเปิดกว้างและทุกคนทั่วโลกสามารถเข้าถึงได้ เรากำลังสร้างเทคโนโลยีที่ได้รับประโยชน์จากมุมมองที่หลากหลายของทุกคนที่เข้าร่วมในสาขานี้ และมีส่วนช่วยในการค้นพบแอปพลิเคชันควอนตัมและอัลกอริทึมใหม่ๆ”
เราหวังว่าคุณจะพิจารณาสมัคร หลักสูตรเริ่มต้นในวันที่ 18 ตุลาคม 2020 และผู้สมัครจะได้รับการยอมรับแบบหมุนเวียนในสองรอบในวันที่ 9 ตุลาคม และ 15 ตุลาคม ผู้สมัครที่ล่าช้าจะได้รับการยอมรับก็ต่อเมื่อความจุของหลักสูตรอนุญาตเท่านั้น บุคคลควรสมัครโดยเร็วที่สุด เรียนรู้เพิ่มเติมเกี่ยวกับโปรแกรมและใช้ที่นี่
แพลตฟอร์มถัดไปสำหรับการฝึกอบรม AI
ในช่วง 5 ปีที่ผ่านมา IBM Research ได้บุกเบิกความก้าวหน้าครั้งสำคัญหลายประการที่ช่วยให้เทคนิคที่มีความแม่นยำลดลงทำงานได้ดีเป็นพิเศษสำหรับการฝึกอบรมการเรียนรู้เชิงลึกและการอนุมาน เปิดตัวครั้งแรกในปี 2015 ที่การประชุมนานาชาติเรื่อง Machine Learning (ICML) เราแสดงให้เห็นว่าความแม่นยำของระบบการฝึกการเรียนรู้เชิงลึกสามารถลดลงจาก 32 บิตเป็น 16 บิต และยังคงรักษาความถูกต้องของแบบจำลองได้อย่างเต็มที่. นอกจากนี้เรายังแสดงให้เห็นว่าสถาปัตยกรรมชิป dataflow สามารถใช้เพื่อใช้ประโยชน์จากความแม่นยำที่ปรับขนาดในฮาร์ดแวร์ได้อย่างเต็มที่ ในปีถัดมา แนวทางความแม่นยำที่ลดลงถูกนำมาใช้อย่างรวดเร็วเป็นมาตรฐานอุตสาหกรรม โดยปัจจุบันการฝึกอบรมแบบ 16 บิตและระบบอนุมาน 8 บิตเป็นเรื่องธรรมดา จากความเป็นผู้นำนี้ นักวิจัยของ IBM ได้ก้าวข้ามอุปสรรคใหญ่ถัดไปสำหรับความแม่นยำต่ำ บรรลุความแม่นยำ 8 บิตสำหรับการฝึกอบรม และความแม่นยำ 4 บิตสำหรับการอนุมาน ทั่วทั้งชุดข้อมูลการเรียนรู้เชิงลึกและเครือข่ายประสาท

สล็อตออนไลน์

ทะลวงผ่านอุปสรรค 16 บิตสำหรับการฝึก
แตกต่างจากการอนุมาน การฝึกด้วยตัวเลขที่แสดงน้อยกว่า 16 บิตนั้นท้าทายมาก เนื่องจากความจำเป็นในการรักษาความเที่ยงตรงของการคำนวณแบบเกรเดียนท์และการอัปเดตน้ำหนักในระหว่างการขยายกลับ
มีความท้าทายหลักสามประการที่ทำให้ปรับขนาดความแม่นยำต่ำกว่า 16 บิตได้ยาก ในขณะที่ยังคงรักษาความแม่นยำของแบบจำลองไว้ได้อย่างเต็มที่ ประการแรก เมื่อตัวถูกดำเนินการทั้งหมด (เช่น น้ำหนัก การเปิดใช้งาน ข้อผิดพลาด และการไล่ระดับสี) สำหรับการคูณเมทริกซ์ทั่วไป (GEMM) และการคำนวณแบบคอนโวลูชันลดลงเหลือเพียง 8 บิต DNN ส่วนใหญ่จะประสบปัญหาความแม่นยำลดลงอย่างเห็นได้ชัด ประการที่สอง การลดความแม่นยำบิตของการสะสมใน GEMM จาก 32 บิตเป็น 16 บิต ส่งผลกระทบต่อการลู่เข้าของการฝึกอบรม DNN อย่างมาก นี่คือเหตุผลที่แพลตฟอร์มฮาร์ดแวร์ที่มีจำหน่ายทั่วไปซึ่งใช้ประโยชน์จากความแม่นยำที่ปรับขนาดสำหรับการฝึกอบรม (รวมถึง GPU) ยังคงใช้ความแม่นยำ 32 บิตในการสะสมต่อไป การลดความแม่นยำของบิตสะสมที่ต่ำกว่า 32 บิตเป็นสิ่งสำคัญอย่างยิ่งในการลดพื้นที่และพลังของฮาร์ดแวร์ 8 บิต ในที่สุด,
แม้ว่าก่อนหน้านี้จะถือว่าเป็นไปไม่ได้ แต่เราได้นำเสนอแนวคิดและเทคนิคใหม่ๆ เพื่อเอาชนะความท้าทายทั้งหมดเหล่านี้ (และดั้งเดิม) ที่เกี่ยวข้องกับการลดความแม่นยำในการฝึกให้ต่ำกว่า 16 บิต:
คิดค้นรูปแบบทศนิยม 8 บิต (FP8) ใหม่ที่เมื่อใช้ร่วมกับข้อมูลเชิงลึกการฝึกอบรม DNN เกี่ยวกับการตั้งค่าความแม่นยำสำหรับเลเยอร์แรกและชั้นสุดท้ายของเครือข่ายลึก ช่วยให้การคำนวณ GEMM และคอนโวลูชันสำหรับการเรียนรู้เชิงลึกทำงานโดยไม่สูญเสียความแม่นยำของแบบจำลอง .
พัฒนาเทคนิคใหม่ที่เรียกว่าการคำนวณแบบกลุ่มซึ่งเมื่อนำไปใช้ตามลำดับชั้นจะอนุญาตให้คำนวณการดำเนินการเมทริกซ์และคอนโวลูชันทั้งหมดโดยใช้การคูณแบบ 8 บิตและการเพิ่มเติมแบบ 16 บิตเท่านั้น (แทนที่จะเป็น 16 และ 32 บิตตามลำดับ)
ใช้การปัดเศษสุ่มแบบทศนิยมในกระบวนการอัปเดตน้ำหนัก ซึ่งช่วยให้สามารถคำนวณการอัปเดตเหล่านี้ด้วยความแม่นยำ 16 บิต (แทนที่จะเป็น 32 บิต)
แสดงให้เห็นถึงความสามารถในการนำไปใช้อย่างกว้างขวางของผลรวมของเทคนิคเหล่านี้ในชุดของแบบจำลองการเรียนรู้เชิงลึกและชุดข้อมูล ในขณะที่ยังคงรักษาความถูกต้องของแบบจำลองไว้อย่างเต็มที่

jumboslot

การสะสมแบบเป็นก้อน
ความท้าทายที่ใหญ่ที่สุดประการหนึ่งในการปรับขนาดความแม่นยำในการสะสมสำหรับระบบการฝึกอบรมคือการสูญเสียข้อมูลที่เกิดขึ้นเมื่อเราสะสมผลิตภัณฑ์ dot ในความแม่นยำที่ปรับขนาด ตัวอย่างเช่น เมื่อเพิ่มจำนวนจุดลอยตัวที่มีค่ามากลงในจำนวนจุดทศนิยมที่มีค่าน้อยในเลขคณิตที่มีความแม่นยำลดลง ผลรวมที่ได้จะไม่เก็บข้อมูลจากจำนวนที่มีค่าน้อยไว้เพียงพอ โดยเฉพาะอย่างยิ่งถ้าอัตราส่วนของ จำนวนมากถึงจำนวนน้อยอยู่นอกเหนือขีดจำกัดการแสดงตัวเลขทศนิยมที่มีความแม่นยำลดลง ตามที่คาดไว้ ปัญหานี้เลวร้ายลงเมื่อความยาวของ dot-product เพิ่มขึ้น
ด้วยการใช้ข้อมูลเชิงลึกนี้ เราได้แบ่งองค์ประกอบการสะสมของ dot-products การเรียนรู้เชิงลึกออกเป็นชิ้นๆ สิ่งนี้ทำให้เราสามารถขับเคลื่อนการปรับขนาดที่แม่นยำเป็น FP8 สำหรับการคูณ แต่ใช้ FP16 ที่มีความแม่นยำสูงกว่าสำหรับการสะสม เมื่อนำไปใช้ตามลำดับชั้น วิธีการนี้จะอนุญาตให้คำนวณการดำเนินการเมทริกซ์และคอนโวลูชันทั้งหมดโดยใช้การคูณแบบ 8 บิตและการเพิ่มจุดทศนิยม 16 บิตเท่านั้น (แทนที่จะเป็น 16 และ 32 บิตตามลำดับ ซึ่งใช้กันอย่างแพร่หลายในปัจจุบัน) ยิ่งกว่านั้น เทคนิคนี้ไม่เหมือนกับเทคนิคการหาผลรวมตามการเรียงลำดับ เทคนิคนี้ต้องการโอเวอร์เฮดในการคำนวณเพิ่มเติมเพียงเล็กน้อย
แสดงให้เห็นอย่างชัดเจนถึงการเพิ่มขึ้นของความแม่นยำของแบบจำลองโดยใช้วิธีการสะสมแบบกลุ่มระหว่างการฝึกโมเดล ResNet50 รูปที่ 4 แสดงให้เห็นเพิ่มเติมว่าเราได้นำเทคนิคอัลกอริธึมเหล่านี้ไปใช้ในฮาร์ดแวร์ (ดังที่แสดงในโครงร่างการทดสอบเทคโนโลยี 14 นาโนเมตรของเรา) ซึ่งแสดงให้เห็นว่าเอ็นจิ้นการรวมกลุ่มสามารถทำงานร่วมกันได้กับเอ็นจิ้น dataflow ที่มีความแม่นยำลดลง เพื่อให้ประสิทธิภาพสูงโดยไม่มีนัยสำคัญ การเพิ่มขึ้นของค่าโสหุ้ยฮาร์ดแวร์ การใช้เทคนิคที่แปลกใหม่เหล่านี้เป็นการวางรากฐานสำหรับแพลตฟอร์มการฝึกอบรมฮาร์ดแวร์รุ่นใหม่ที่มีศักยภาพในการปรับปรุงปริมาณงานมากกว่าระบบในปัจจุบัน 2-4 เท่า นอกจากนี้ การลดความเร็วบิตที่แม่นยำในการฝึกลง 2x และการปรับปรุงพลังงานการฝึก >2-4x ยังช่วยให้โมเดลการเรียนรู้เชิงลึกได้รับการฝึกฝน ปรับแต่ง
เส้นทางข้างหน้าสำหรับการคำนวณโดยประมาณ
นอกเหนือไปจากนวัตกรรมใหม่ในการฝึกอบรมเรามีการตีพิมพ์4 บิตผลความถูกต้องอนุมานอุตสาหกรรมแรกทั่วปริมาณงานการเรียนรู้ลึก เรายังคงขับเคลื่อนนวัตกรรมต่อไปในอัลกอริธึม แอปพลิเคชัน โมเดลการเขียนโปรแกรม และสถาปัตยกรรมเพื่อขยายความสามารถในการปรับขนาดของตัวเร่งหลัก AI ดิจิทัลของเรา โดยใช้วิธีการของเราสถาปัตยกรรมชิปตัวเดียวสามารถดำเนินการฝึกอบรมและการอนุมานในช่วงของปริมาณงานและเครือข่ายขนาดใหญ่และขนาดเล็ก ประสิทธิภาพที่เพิ่มขึ้นและประสิทธิภาพการใช้พลังงานที่เกี่ยวข้องกำลังปูทางสำหรับการแพร่กระจาย AI ในวงกว้างจากคลาวด์ไปยังขอบ
การคำนวณโดยประมาณเป็นหลักการสำคัญในแนวทางของเราในการควบคุมฟิสิกส์ของ AI ซึ่งได้รับการประมวลผลที่ประหยัดพลังงานสูงโดยสถาปัตยกรรมที่สร้างขึ้นตามวัตถุประสงค์ โดยเริ่มแรกโดยใช้การคำนวณแบบดิจิทัลและต่อมารวมถึงการคำนวณแบบแอนะล็อกและในหน่วยความจำ
การตีความและประสิทธิภาพของระบบมักจะขัดแย้งกัน เนื่องจากแบบจำลองที่มีประสิทธิภาพดีที่สุดจำนวนมาก (เช่น โครงข่ายประสาทเทียมเชิงลึก) มีลักษณะเป็นกล่องดำ ในงานของเราการปรับปรุงโมเดลอย่างง่ายเราพยายามเชื่อมช่องว่างนี้โดยเสนอวิธีการถ่ายโอนข้อมูลจากโครงข่ายประสาทเทียมที่มีประสิทธิภาพสูงไปยังอีกรุ่นหนึ่งที่ผู้เชี่ยวชาญโดเมนหรือแอปพลิเคชันอาจต้องการ ตัวอย่างเช่น ในชีววิทยาเชิงคำนวณและเศรษฐศาสตร์ แบบจำลองเชิงเส้นแบบกระจัดกระจายมักเป็นที่ต้องการ ในขณะที่โดเมนเครื่องมือที่ซับซ้อน เช่น การผลิตเซมิคอนดักเตอร์ วิศวกรอาจชอบใช้แผนผังการตัดสินใจ แบบจำลองที่ตีความได้ง่ายกว่าดังกล่าวสามารถสร้างความไว้วางใจกับผู้เชี่ยวชาญและให้ข้อมูลเชิงลึกที่เป็นประโยชน์ซึ่งนำไปสู่การค้นพบนวนิยายและข้อเท็จจริงที่ไม่เคยรู้มาก่อน เป้าหมายของเรามีภาพประกอบด้านล่าง สำหรับกรณีที่เรากำลังพยายามปรับปรุงประสิทธิภาพของผังการตัดสินใจ
[NPC5]สมมติฐานคือเครือข่ายของเราเป็นครูที่มีประสิทธิภาพสูง และเราสามารถใช้ข้อมูลบางส่วนเพื่อสอนรูปแบบนักเรียนที่เรียบง่าย ตีความได้ แต่โดยทั่วไปแล้วมีประสิทธิภาพต่ำ การชั่งน้ำหนักตัวอย่างตามความยากของตัวอย่างสามารถช่วยให้โมเดลแบบง่ายเน้นตัวอย่างที่ง่ายขึ้นซึ่งสามารถสร้างแบบจำลองได้สำเร็จเมื่อทำการฝึก และทำให้ได้ประสิทธิภาพโดยรวมที่ดีขึ้น การตั้งค่าของเราแตกต่างจากการส่งเสริม: ในแนวทางดังกล่าว ตัวอย่างที่ยากเกี่ยวกับผู้เรียนที่ ‘อ่อนแอ’ คนก่อนจะถูกเน้นสำหรับการฝึกอบรมในภายหลังเพื่อสร้างความหลากหลาย ในที่นี้ ตัวอย่างที่ยากจะเกี่ยวข้องกับแบบจำลองที่ซับซ้อนที่แม่นยำ ซึ่งหมายความว่าป้ายกำกับเหล่านี้ใกล้จะสุ่มแล้ว ยิ่งไปกว่านั้น หากโมเดลที่ซับซ้อนไม่สามารถแก้ไขปัญหาเหล่านี้ได้ ก็มีความหวังเพียงเล็กน้อยสำหรับโมเดลที่เรียบง่ายของความซับซ้อนคงที่ เพราะฉะนั้น,