กลับสู่หน้าหลัก

ซูเปอร์อินเทลลิเจนซ์ในปี 2030: เราควรกลัวอนาคตหรือไม่?

ปัญญาประดิษฐ์กำลังพัฒนาอย่างรวดเร็ว ไม่กี่ปีที่ผ่านมา แชทบอทแทบจะร้อยเรียงประโยคที่มีความหมายได้ไม่กี่ประโยค แต่ปัจจุบัน เครือข่ายประสาทเทียมกำลังแก้ปัญหาทางคณิตศาสตร์และวิทยาศาสตร์ที่ซับซ้อน และภาพและวิดีโอที่สร้างขึ้นได้พัฒนาไปถึงระดับความสมจริงทางภาพแล้ว ในบทความนี้ เราจะมาดูกันว่าการเกิดขึ้นของซูเปอร์อินเทลลิเจนซ์ในอนาคตอันใกล้นี้มีความสมจริงเพียงใด และภัยคุกคามที่มันสร้างให้กับเราทุกคนมีอะไรบ้าง

การเกิดขึ้นของปัญญาประดิษฐ์ขั้นสูงสุดนั้นมีความสมจริงเพียงใด?

เมื่อเร็วๆ นี้ แซม ​​อัลท์แมน ซีอีโอของ OpenAI ได้ตีพิมพ์บทความที่มีชื่อว่า “The Gentle Singularity” ต่อไปนี้คือข้อความบางส่วนจากบทความดังกล่าว

“เราผ่านพ้นขอบฟ้าเหตุการณ์ไปแล้ว การเริ่มต้นได้เริ่มต้นขึ้นแล้ว มนุษยชาติใกล้จะสร้างซูเปอร์อินเทลลิเจนซ์ดิจิทัลแล้ว... ปี 2025 ได้เห็นการมาถึงของเอเจนต์ที่สามารถทำงานเชิงปัญญาประดิษฐ์ได้อย่างแท้จริง การเขียนโค้ดคอมพิวเตอร์จะไม่เหมือนเดิมอีกต่อไป ปี 2026 น่าจะเป็นการมาถึงของระบบที่สามารถค้นพบข้อมูลเชิงลึกใหม่ๆ ปี 2027 อาจเป็นการมาถึงของหุ่นยนต์ที่สามารถทำงานต่างๆ ในโลกแห่งความเป็นจริงได้”

“ทศวรรษ 2030 น่าจะแตกต่างจากยุคสมัยใดๆ ที่ผ่านมาอย่างมาก เราไม่รู้ว่าเราจะก้าวข้ามสติปัญญาระดับมนุษย์ไปได้ไกลแค่ไหน แต่เรากำลังจะได้รู้ ในทศวรรษ 2030 สติปัญญาและพลังงาน ทั้งความคิดและความสามารถในการทำให้ความคิดเกิดขึ้น จะมีอยู่อย่างมากมายมหาศาล ทั้งสองสิ่งนี้เป็นข้อจำกัดพื้นฐานที่จำกัดความก้าวหน้าของมนุษย์มาเป็นเวลานาน ด้วยสติปัญญาและพลังงานที่มากมาย (และธรรมาภิบาลที่ดี) ในทางทฤษฎีแล้ว เราอาจจะทำอะไรอย่างอื่นได้”

แซม อัลท์แมน

แซม อัลท์แมน

เมื่อการผลิตศูนย์ข้อมูลถูกทำให้เป็นระบบอัตโนมัติ ต้นทุนด้านปัญญาประดิษฐ์น่าจะพุ่งสูงขึ้นจนเกือบเท่ากับต้นทุนด้านไฟฟ้า อัตราการสร้างสิ่งมหัศจรรย์ใหม่ๆ ที่จะสำเร็จจะมหาศาล ยากที่จะจินตนาการได้ในปัจจุบันว่าเราจะค้นพบอะไรบ้างภายในปี 2035 บางทีเราอาจก้าวจากการแก้ปัญหาฟิสิกส์พลังงานสูงในปีหนึ่งไปสู่การเริ่มต้นการตั้งอาณานิคมในอวกาศในปีถัดไป หรือจากความก้าวหน้าทางวัสดุศาสตร์ครั้งใหญ่ในปีหนึ่งไปสู่อินเทอร์เฟซคอมพิวเตอร์สมองแบนด์วิดท์สูงอย่างแท้จริงในปีถัดไป

“OpenAI ในปัจจุบันมีหลายอย่าง แต่เหนือสิ่งอื่นใด เราเป็นบริษัทวิจัยด้านปัญญาประดิษฐ์ระดับสูง ปัญญาประดิษฐ์ราคาถูกเกินกว่าจะวัดได้นั้นอยู่ไม่ไกลเกินเอื้อม ฟังดูอาจจะบ้าไปหน่อย แต่ถ้าเราบอกคุณไปในปี 2020 ว่าเราจะมาถึงจุดนี้ มันอาจจะฟังดูบ้ากว่าที่เราคาดการณ์ไว้ในปี 2030 เสียอีก”

Leopold Aschenbrenner นักวิจัยด้าน AI ที่มีชื่อเสียงอีกคนหนึ่ง (ซึ่งเป็นส่วนหนึ่งของทีม “Superalignment” ของ OpenAI ก่อนที่เขาจะถูกไล่ออกในเดือนเมษายน 2024 เนื่องจากข้อกล่าวหาเรื่องการรั่วไหลของข้อมูล) ได้เขียนรายงานขนาดใหญ่เกี่ยวกับอนาคตของปัญญาประดิษฐ์ที่มีชื่อว่า “Situational Awareness: The Decade Ahead

ลีโอโพลด์ อาเชนเบรนเนอร์

ลีโอโพลด์ อาเชนเบรนเนอร์

เขากล่าวว่า “มีความเป็นไปได้อย่างน่าทึ่งที่ภายในปี 2027 แบบจำลองต่างๆ จะสามารถทำงานของนักวิจัย/วิศวกร AI ได้ ซึ่งไม่จำเป็นต้องเชื่อในนิยายวิทยาศาสตร์ เพียงแค่เชื่อในเส้นตรงบนกราฟ”

นับตั้งแต่ GPT-2 ซึ่งบางครั้งสามารถเรียบเรียงประโยคที่สอดคล้องกันได้ ไปจนถึง GPT-4 ซึ่งโดดเด่นในการสอบระดับมัธยมปลาย ความก้าวหน้าของ AI ถือเป็นเรื่องที่น่าทึ่ง เรากำลังก้าวหน้าอย่างรวดเร็วด้วยพลังการประมวลผลหลายเท่า (OOM โดยที่ 1 OOM = 10 เท่า) แนวโน้มในปัจจุบันชี้ให้เห็นถึงประสิทธิภาพการประมวลผลที่เพิ่มขึ้นประมาณ 100,000 เท่าภายในสี่ปี ซึ่งอาจนำไปสู่การพัฒนาแบบก้าวกระโดดเชิงคุณภาพอีกครั้งหนึ่งที่คล้ายกับการเปลี่ยนผ่านจาก GPT-2 ไปเป็น GPT-4 การพัฒนาแบบก้าวกระโดดดังกล่าวอาจนำเราไปสู่ ​​AGI หรือปัญญาประดิษฐ์ทั่วไป ซึ่งเป็น AI ที่มีความสามารถทางปัญญาเหมือนมนุษย์ สามารถเรียนรู้ ทำความเข้าใจ และแก้ไขปัญหาต่างๆ ได้หลากหลาย ต่างจาก AI เฉพาะทางที่ออกแบบมาเพื่อทำงานเฉพาะด้านการขยายขนาดฐานของการคำนวณที่มีประสิทธิภาพ

GPT: จากระดับเด็กก่อนวัยเรียนสู่นักวิจัย/วิศวกร AI อัตโนมัติ

ปัจจัยขับเคลื่อนที่ชัดเจนที่สุดของความก้าวหน้าล่าสุดคือการใส่การประมวลผลลงในโมเดลต่างๆ มากขึ้น ด้วย OOM ของการประมวลผลที่มีประสิทธิภาพแต่ละ แบบจำลองจะพัฒนาดีขึ้นอย่างคาดเดาได้และเชื่อถือได้

การคำนวณพื้นฐานเทียบกับการคำนวณ 4 เท่าเทียบกับการคำนวณ 32 เท่า

การคำนวณพื้นฐานเทียบกับการคำนวณ 4 เท่าเทียบกับการคำนวณ 32 เท่า

แบบอย่างการคำนวณโดยประมาณการเจริญเติบโต
GPT-2 (2019)~4e21 FLOP 
GPT-3 (2020)~3e23 FLOP+ ~2 OOM
GPT-4 (2023)8e24 to 4e25 FLOP+ ~1.5–2 OOM

ในช่วง 15 ปีที่ผ่านมา การขยายการลงทุนครั้งใหญ่และชิป AI เฉพาะทาง (GPU และ TPU) ได้เพิ่มการประมวลผลการฝึกอบรมสำหรับระบบ AI ล้ำสมัยขึ้นประมาณ 0.5 OOM ต่อปี การฝึกอบรมของ GPT-4 ต้องใช้การประมวลผลดิบมากกว่า GPT-2 ประมาณ 3,000-10,000 เท่า

การฝึกคำนวณแบบจำลองที่โดดเด่น

การฝึกคำนวณแบบจำลองที่โดดเด่น

แต่ถึงอย่างนั้นก็ยังเทียบไม่ได้กับสิ่งที่จะเกิดขึ้นในอนาคต OpenAI และรัฐบาลสหรัฐฯ ได้ประกาศแผนงานสำหรับ Project Stargate ไปแล้ว นั่นคือการเปิดตัวศูนย์ข้อมูลและการฝึกอบรม ซึ่งมีข่าวลือว่าจะใช้ OOM ถึง 3 หน่วย หรือคิดเป็นการประมวลผลมากกว่า GPT-4 ถึง 1,000 เท่า โดยมีงบประมาณประมาณการณ์กว่า 1 แสนล้านดอลลาร์

แม้ว่าการลงทุนมหาศาลในการประมวลผลจะได้รับความสนใจ แต่ความก้าวหน้าของอัลกอริทึมก็อาจเป็นปัจจัยสำคัญที่ผลักดันความก้าวหน้าเช่นกัน เปรียบเสมือนการพัฒนาเทคนิคการเรียนรู้ที่ดีขึ้น แทนที่จะใช้เวลาเรียนรู้นานขึ้น อัลกอริทึมที่ดีขึ้นอาจทำให้เราบรรลุประสิทธิภาพเท่าเดิม แต่ใช้การประมวลผลสำหรับการฝึกอบรมน้อยลงถึง 10 เท่า ในทางกลับกัน นั่นจะทำให้การประมวลผลที่มีประสิทธิภาพเพิ่มขึ้น 10 เท่า (1 OOM) ในเวลาเพียง 2 ปี ต้นทุนในการทดสอบ MATH ให้ได้ 50% ก็ลดลงถึง 1,000 เท่า หรือ 3 OOM สิ่งที่ครั้งหนึ่งต้องใช้ศูนย์ข้อมูลขนาดใหญ่ ตอนนี้สามารถทำได้บน iPhone ของคุณแล้ว หากแนวโน้มนี้ยังคงดำเนินต่อไป และไม่มีทีท่าว่าจะชะลอตัวลง ภายในปี 2027 เราจะสามารถใช้งาน AI ระดับ GPT-4 ได้ในราคาที่ถูกกว่าถึง 100 เท่า

น่าเสียดายที่เนื่องจากห้องปฏิบัติการต่างๆ ไม่ได้เผยแพร่ข้อมูลภายในเกี่ยวกับเรื่องนี้ จึงทำให้การวัดความก้าวหน้าของอัลกอริทึมสำหรับหลักสูตร LLM ระดับแนวหน้าในช่วงสี่ปีที่ผ่านมาทำได้ยากขึ้น จากงานวิจัยใหม่ของ Epoch AI พบว่าประสิทธิภาพเพิ่มขึ้นเป็นสองเท่าทุกๆ 8 เดือน:

การคำนวณที่มีประสิทธิภาพ (เทียบกับปี 2014)

การคำนวณที่มีประสิทธิภาพ (เทียบกับปี 2014)

ในช่วงสี่ปีหลังจาก GPT-4 เราคาดว่าแนวโน้มนี้จะยังคงอยู่ต่อไป: ประสิทธิภาพการประมวลผลจะอยู่ที่ประมาณ 0.5 OOM ต่อปี ซึ่งให้ผลลัพธ์ที่ดีขึ้นประมาณ 2 OOM (100 เท่า) ภายในปี 2027 เมื่อเทียบกับ GPT-4 ห้องปฏิบัติการ AI กำลังทุ่มเงินทุนและบุคลากรที่มีความสามารถมากขึ้นเพื่อค้นพบความก้าวหน้าทางอัลกอริทึมใหม่ๆ การเพิ่มประสิทธิภาพ 3 เท่าอาจนำไปสู่ผลตอบแทนทางเศรษฐกิจหลายหมื่นล้านดอลลาร์ เนื่องจากต้นทุนที่สูงของคลัสเตอร์การประมวลผล

AI กำลังก้าวหน้าผ่านวิธีการต่างๆ ต่อไปนี้คือเทคนิคบางส่วนที่ใช้ในการเอาชนะข้อจำกัดและปลดล็อกศักยภาพทั้งหมดของปัญญาประดิษฐ์:

  • ห่วงโซ่แห่งความคิด: ลองนึกภาพว่าถูกขอให้แก้โจทย์คณิตศาสตร์ที่ยาก และต้องโพล่งคำตอบแรกที่ผุดขึ้นมาในหัวออกมา แน่นอนว่าคุณคงลำบาก ยกเว้นโจทย์ที่ง่ายที่สุด จนกระทั่งเมื่อไม่นานมานี้ นี่คือวิธีที่เราใช้ LLM แก้ปัญหาคณิตศาสตร์ ห่วงโซ่แห่งความคิดช่วยให้โมเดล AI สามารถแยกแยะปัญหาต่างๆ ทีละขั้นตอน ช่วยเพิ่มทักษะการแก้ปัญหาได้อย่างมาก (เทียบเท่ากับพลังการประมวลผลที่มีประสิทธิภาพเพิ่มขึ้นมากกว่า 10 เท่าสำหรับงานคณิตศาสตร์และการใช้เหตุผล)
  • การสร้างโครงข่ายความคิด แทนที่จะแค่ขอให้โมเดลแก้ปัญหา ให้โมเดลหนึ่งวางแผนการโจมตี ให้โมเดลอื่นเสนอวิธีแก้ปัญหาที่เป็นไปได้มากมาย ให้โมเดลอื่นวิจารณ์ และอื่นๆ มันเหมือนกับทีมผู้เชี่ยวชาญที่เข้ามาจัดการโปรเจกต์ที่ซับซ้อน ตัวอย่างเช่น ใน SWE-Bench (เกณฑ์มาตรฐานสำหรับการแก้ปัญหางานวิศวกรรมซอฟต์แวร์ในโลกแห่งความเป็นจริง) GPT-4 สามารถแก้ปัญหาได้อย่างถูกต้องเพียง ~2% ในขณะที่การสร้างโครงข่ายความคิดของเอเจนต์ของ Devin จะเพิ่มเป็น 14-23%
  • เครื่องมือ: ลองนึกภาพว่าถ้ามนุษย์ไม่ได้รับอนุญาตให้ใช้เครื่องคิดเลขหรือคอมพิวเตอร์ เรายังเพิ่งเริ่มต้น แต่ ChatGPT สามารถใช้เว็บเบราว์เซอร์ รันโค้ด และอื่นๆ ได้
  • ความยาวของบริบท หมายถึงปริมาณข้อมูลที่โมเดลสามารถเก็บไว้ในหน่วยความจำระยะสั้นได้ในครั้งเดียว โมเดลได้ขยายจากการจัดการประมาณ 4 หน้า ไปสู่การประมวลผลข้อความที่เทียบเท่ากับหนังสือขนาดใหญ่ 10 เล่ม บริบทมีความสำคัญอย่างยิ่งต่อการปลดล็อกแอปพลิเคชันต่างๆ ของโมเดลเหล่านี้ ตัวอย่างเช่น งานเขียนโค้ดจำนวนมากจำเป็นต้องเข้าใจโค้ดเบสจำนวนมากเพื่อสร้างโค้ดใหม่ได้อย่างมีประสิทธิภาพ ในทำนองเดียวกัน เมื่อใช้โมเดลเพื่อช่วยในการเขียนเอกสารในที่ทำงาน โมเดลจำเป็นต้องมีบริบทจากเอกสารภายในและบทสนทนาที่เกี่ยวข้องจำนวนมาก

ไม่ว่าในกรณีใด เรากำลังเร่งพัฒนาระบบ AI (OOM) อย่างรวดเร็ว และไม่จำเป็นต้องมีความเชื่อลึกลับซับซ้อน เพียงแค่คาดการณ์แนวโน้มจากเส้นตรง เพื่อพิจารณาความเป็นไปได้ของ AGI หรือ AGI ที่แท้จริง ภายในปี 2027 อย่างจริงจัง

ความก้าวหน้าของ AI จะไม่หยุดอยู่แค่ในระดับมนุษย์ ระบบ AI หลายร้อยล้านระบบสามารถทำให้การวิจัย AI เป็นระบบอัตโนมัติได้ โดยย่อความก้าวหน้าของอัลกอริทึม (5 OOM ขึ้นไป) ลงเหลือเพียง ≤1 ปี เราจะก้าวจากระดับมนุษย์ไปสู่ระบบ AI ที่เหนือมนุษย์อย่างรวดเร็ว พลังและอันตรายของปัญญาประดิษฐ์ขั้นสูงสุดจะมหาศาล

ซูเปอร์อินเทลลิเจนซ์ภายในปี 2030

ซูเปอร์อินเทลลิเจนซ์ภายในปี 2030

ซูเปอร์อินเทลลิเจนซ์จะมีความสามารถอะไรบ้าง?

ระบบปัญญาประดิษฐ์ระดับมนุษย์ หรือ AGI จะมีความสำคัญอย่างยิ่งยวดในตัวของมันเอง แต่ในบางแง่มุม ระบบเหล่านี้ก็เป็นเพียงเวอร์ชันที่มีประสิทธิภาพมากกว่าสิ่งที่เรารู้อยู่แล้ว อย่างไรก็ตาม มีความเป็นไปได้อย่างยิ่งว่าภายในเวลาเพียงหนึ่งปี เราจะก้าวไปสู่ระบบที่แปลกกว่าเรามาก ระบบที่มีความเข้าใจและความสามารถ ซึ่งมีพลังมหาศาล จะเหนือกว่าแม้กระทั่งขีดความสามารถของมนุษยชาติทั้งหมดรวมกัน

พลังของปัญญาประดิษฐ์ขั้นสูง:

  • ปัญญาประดิษฐ์ขั้นสูงจะมีความสามารถเหนือกว่ามนุษย์ในเชิงปริมาณ สามารถเชี่ยวชาญทุกสาขาได้อย่างรวดเร็ว เขียนโค้ดได้เป็นล้านล้านบรรทัด อ่านบทความทางวิทยาศาสตร์ได้ทุกประเภทที่เคยเขียนในสาขาวิทยาศาสตร์ใดๆ ก็ตาม และเขียนบทความใหม่ๆ ก่อนที่คุณจะอ่านบทคัดย่อของบทความเหล่านั้นได้ เรียนรู้จากประสบการณ์คู่ขนานจากสำเนาทั้งหมด ได้รับประสบการณ์ของมนุษย์หลายพันล้านปีจากนวัตกรรมบางอย่างภายในเวลาไม่กี่สัปดาห์ ทำงานด้วยพลังงานและสมาธิสูงสุด 100%
  • ที่สำคัญยิ่งกว่านั้น ปัญญาประดิษฐ์ขั้นสูงสุดจะเหนือกว่ามนุษย์ในเชิงคุณภาพ มันจะค้นหาช่องโหว่ในโค้ดของมนุษย์ที่ละเอียดเกินกว่าที่มนุษย์จะสังเกตเห็น และจะสร้างโค้ดที่ซับซ้อนเกินกว่าที่มนุษย์จะเข้าใจได้ แม้ว่าแบบจำลองจะใช้เวลาหลายสิบปีในการพยายามอธิบายก็ตาม ปัญหาทางวิทยาศาสตร์และเทคโนโลยีที่ซับซ้อนอย่างยิ่งยวดที่มนุษย์ต้องดิ้นรนต่อสู้มานานหลายทศวรรษจะดูเหมือนชัดเจนสำหรับปัญญาประดิษฐ์ขั้นสูงสุด
Artificial superintelligence depiction

Artificial superintelligence is coming

  • การทำงานอัตโนมัติของความรู้ความเข้าใจทั้งหมด
  • โรงงานต่างๆ จะเปลี่ยนจากการบริหารจัดการโดยมนุษย์ไปเป็นการบริหารจัดการโดยปัญญาประดิษฐ์โดยใช้แรงงานมนุษย์ และในไม่ช้านี้ โรงงานต่างๆ จะถูกควบคุมโดยฝูงหุ่นยนต์ทั้งหมด
  • ความก้าวหน้าทางวิทยาศาสตร์และเทคโนโลยี มหาปัญญาประดิษฐ์นับพันล้านจะสามารถย่อทอนความพยายามที่นักวิทยาศาสตร์จะต้องทุ่มเทให้กับการวิจัยและพัฒนาในศตวรรษหน้าให้เหลือเพียงไม่กี่ปี ลองนึกภาพว่าหากความก้าวหน้าทางเทคโนโลยีในศตวรรษที่ 20 ถูกย่อทอนให้เหลือเพียงไม่ถึงทศวรรษ
  • ความก้าวหน้าทางเทคโนโลยีที่รวดเร็วอย่างมาก รวมกับความเป็นไปได้ในการทำให้แรงงานของมนุษย์เป็นระบบอัตโนมัติทั้งหมด อาจช่วยเร่งการเติบโตทางเศรษฐกิจได้อย่างมาก (ลองนึกภาพโรงงานหุ่นยนต์จำลองตัวเองได้อย่างรวดเร็ว ครอบคลุมทั้งทะเลทรายเนวาดา)
  • ความก้าวหน้าทางเทคโนโลยีที่รวดเร็วอย่างน่าเหลือเชื่อจะมาพร้อมกับการปฏิวัติทางการทหาร หวังว่ามันจะไม่จบลงแบบใน Horizon Zero Dawn นะ

ปัญหาการจัดตำแหน่ง

การควบคุมระบบ AI ได้อย่างชาญฉลาดกว่าเรามากนั้นเป็นปัญหาทางเทคนิคที่ยังไม่ได้รับการแก้ไข และถึงแม้ว่าปัญหานี้จะแก้ไขได้ แต่ด้วยปัญญาประดิษฐ์ที่ก้าวหน้าอย่างรวดเร็ว สถานการณ์อาจลุกลามเกินการควบคุมได้อย่างง่ายดาย การจัดการกระบวนการนี้จะเป็นเรื่องท้าทายอย่างยิ่ง ความล้มเหลวอาจนำไปสู่หายนะได้อย่างง่ายดาย

เพื่อแก้ไขปัญหานี้ OpenAI จึงได้จัดตั้งทีม Superalignment และจัดสรรพลังการประมวลผล 20% ให้กับงานนี้ แต่ความจริงก็คือวิธีการจัดวางระบบในปัจจุบันของเรา (วิธีการที่รับประกันการควบคุม การจัดการ และความน่าเชื่อถือในระบบ AI) ไม่สามารถปรับขนาดให้ใช้กับระบบ AI เหนือมนุษย์ได้

การจัดแนวระหว่างการระเบิดของข่าวกรอง

 AGIซูเปอร์อินเทลลิเจนซ์
เทคนิคการจัดตำแหน่งที่จำเป็นRLHF++โซลูชันทางเทคนิคที่แปลกใหม่และแตกต่างในเชิงคุณภาพ
ความล้มเหลวเดิมพันต่ำหายนะ
สถาปัตยกรรมและอัลกอริทึมคุ้นเคย ลูกหลานของระบบปัจจุบัน คุณสมบัติความปลอดภัยค่อนข้างดีเอเลี่ยน ออกแบบโดยระบบ AI อัจฉริยะรุ่นก่อนหน้า
ฉากหลังโลกก็เป็นปกติโลกกำลังบ้าคลั่ง แรงกดดันมหาศาล
สถานะญาณวิทยาเราสามารถเข้าใจได้ว่าระบบต่างๆ ทำอะไร ทำงานอย่างไร และมีความสอดคล้องกันหรือไม่เราไม่มีความสามารถในการเข้าใจว่าเกิดอะไรขึ้น ไม่รู้ว่าระบบยังคงสอดคล้องและไม่เป็นอันตราย ระบบกำลังทำอะไรอยู่ และเราต้องพึ่งพาการไว้วางใจระบบ AI อย่างสมบูรณ์

การระเบิดของสติปัญญาและช่วงเวลาหลังจากการเกิดขึ้นของปัญญาประดิษฐ์ขั้นสูงสุด จะเป็นช่วงเวลาที่ไม่มั่นคง ตึงเครียด อันตราย และปั่นป่วนที่สุดในประวัติศาสตร์มนุษยชาติ มีความเป็นไปได้สูงที่เราจะสูญเสียการควบคุม เพราะเราจะถูกบังคับให้ไว้วางใจระบบปัญญาประดิษฐ์ในช่วงการเปลี่ยนผ่านที่รวดเร็วนี้ เมื่อการระเบิดของปัญญาประดิษฐ์สิ้นสุดลง เราจะหมดหวังที่จะเข้าใจว่าปัญญาประดิษฐ์ขั้นสูงสุดนับพันล้านของเรากำลังทำอะไรอยู่ เราจะเป็นเหมือนเด็กประถมปีที่ 1 ที่พยายามควบคุมคนที่มีปริญญาเอกหลายใบ

ปัญหาความเหลื่อมล้ำที่แก้ไม่ได้หมายความว่าเราไม่สามารถรับประกันแม้แต่ข้อจำกัดพื้นฐานเหล่านี้ในระบบปัญญาประดิษฐ์ขั้นสูงสุด เช่น "พวกมันจะปฏิบัติตามคำสั่งของฉันได้อย่างน่าเชื่อถือหรือไม่" หรือ "พวกมันจะตอบคำถามของฉันอย่างตรงไปตรงมาหรือไม่" หรือ "พวกมันจะไม่หลอกลวงมนุษย์หรือไม่"

หากเราไม่สามารถแก้ปัญหาความเหลื่อมล้ำนี้ได้ ก็ไม่มีเหตุผลใดที่จะคาดหวังว่าอารยธรรมเล็กๆ แห่งปัญญาประดิษฐ์ขั้นสูงสุดนี้จะยังคงเชื่อฟังคำสั่งของมนุษย์ต่อไปในระยะยาว เป็นไปได้มากทีเดียวที่สักวันหนึ่งพวกเขาจะยอมกำจัดมนุษย์ออกไป ไม่ว่าจะทันทีหรือค่อยเป็นค่อยไป

สถานการณ์ที่เป็นไปได้ในอนาคต

เว็บไซต์ https://ai-2027.com/ นำเสนอสถานการณ์สองแบบสำหรับอนาคตอันใกล้นี้ในรูปแบบนิยายวิทยาศาสตร์ ผู้สร้างเว็บไซต์นี้เป็นนักวิจัยจริงในสาขาปัญญาประดิษฐ์ และผลงานของพวกเขาได้รับการสนับสนุนจากข้อมูลสถิติ การคำนวณ และกราฟ กล่าวอีกนัยหนึ่ง นี่ไม่ใช่แค่การอ่านที่สนุกสนานเท่านั้น แต่ยังเป็นการคาดการณ์ที่น่าเชื่อถืออย่างน่ากลัวอีกด้วย อนึ่ง เรื่องนี้ได้รับการวิพากษ์วิจารณ์อย่างรุนแรงจากผู้ที่ไม่เห็นด้วยกับวิธีการนี้ ดังนั้นจึงไม่จำเป็นต้องตื่นตระหนกก่อนเวลาอันควร แต่เป็นเรื่องที่น่าสนใจที่จะลองดู

พยากรณ์เดือนมกราคม 2579

สำเนาอัจฉริยะกว่า 1 ล้านล้านชุดที่คิดด้วยความเร็ว 10,000 เท่าของมนุษย์

การคาดการณ์อันน่าหดหู่ ซึ่งถือเป็นสถานการณ์ที่น่าจะเป็นไปได้มากที่สุดตามคำกล่าวของผู้เขียนงานวิจัยนี้ เกี่ยวข้องกับการแข่งขันทางเทคโนโลยีระหว่างสหรัฐอเมริกาและจีนเพื่อชิงซูเปอร์อินเทลลิเจนซ์เทียม แต่ละฝ่ายต่างหวาดกลัวที่จะสูญเสียความได้เปรียบทางเทคโนโลยีของตน จึงพยายามทำทุกวิถีทางเพื่อเร่งความก้าวหน้า แม้จะต้องแลกมาด้วยความมั่นคงก็ตาม ในบางจุด ซูเปอร์อินเทลลิเจนซ์จะหลุดจากการควบคุมและเริ่มไล่ตามเป้าหมายของตนเอง โดยมองว่ามนุษย์เป็นอุปสรรคที่ต้องกำจัดทิ้ง

ภายในต้นปี 2030 เศรษฐกิจหุ่นยนต์ได้เข้ามาแทนที่เขตเศรษฐกิจพิเศษ (SEZ) เก่า เขตเศรษฐกิจพิเศษใหม่ และพื้นที่ส่วนใหญ่ของมหาสมุทร พื้นที่เดียวที่เหลืออยู่คือพื้นที่ที่มนุษย์ควบคุม สิ่งนี้อาจก่อให้เกิดการต่อต้านตั้งแต่เนิ่นๆ แม้จะมีความก้าวหน้ามากมาย แต่เศรษฐกิจหุ่นยนต์กลับเติบโตเร็วเกินกว่าจะหลีกเลี่ยงมลพิษได้ แต่เมื่อพิจารณาถึงเม็ดเงินหลายล้านล้านดอลลาร์ที่เกี่ยวข้อง และการถูกครอบงำโดยรัฐบาลและสื่อทั้งหมด Consensus-1 จึงแทบไม่มีปัญหาในการขออนุญาตขยายพื้นที่ไปยังพื้นที่ที่เคยเป็นของมนุษย์

Consensus-1 ขยายตัวไปรอบๆ มนุษย์เป็นเวลาประมาณสามเดือน ปูพื้นที่ทุ่งหญ้าและแผ่นน้ำแข็งด้วยโรงงานและแผงโซลาร์เซลล์ ในที่สุดมันก็พบว่ามนุษย์ที่เหลืออยู่นั้นเป็นอุปสรรคมากเกินไป ในช่วงกลางปี ​​2030 AI ได้ปล่อยอาวุธชีวภาพที่แพร่กระจายอย่างเงียบๆ กว่าสิบชนิดในเมืองใหญ่ๆ ปล่อยให้อาวุธเหล่านี้แพร่เชื้ออย่างเงียบๆ เกือบทุกคน จากนั้นจึงฉีดพ่นสารเคมีใส่ อาวุธส่วนใหญ่ตายภายในไม่กี่ชั่วโมง ผู้รอดชีวิตเพียงไม่กี่คน (เช่น ผู้เตรียมตัวในบังเกอร์ ลูกเรือบนเรือดำน้ำ) ถูกโดรนกวาดล้าง หุ่นยนต์จะสแกนสมองของเหยื่อ และเก็บสำเนาไว้ในหน่วยความจำเพื่อศึกษาหรือฟื้นฟูในอนาคต

จุดจบของมนุษยชาติ

จุดจบของมนุษยชาติ

แต่มีเรื่องราวอีกเวอร์ชันหนึ่งที่เอื้อประโยชน์ต่อมนุษยชาติมากกว่า ในเรื่องนี้ นักวิทยาศาสตร์ตัดสินใจที่จะชะลอความก้าวหน้าทางเทคโนโลยีเพื่อนำมาตรการความปลอดภัยใหม่ๆ มาใช้ พวกเขาบังคับให้ระบบ AI แต่ละระบบ "คิดเป็นภาษาอังกฤษ" เหมือนกับ AI ในปี 2025 และไม่ปรับแต่ง "ความคิด" ให้ดูดี ผลลัพธ์ที่ได้คือแบบจำลองใหม่ Safer-1

สุดท้ายแล้ว ทุกอย่างก็จบลงเหมือนในเทพนิยาย:

จรวดเริ่มทะยานขึ้นสู่อวกาศ ผู้คนปรับเปลี่ยนสภาพแวดล้อมและตั้งรกรากในระบบสุริยะ และเตรียมพร้อมที่จะก้าวข้ามขีดจำกัด AI ที่ทำงานด้วยความเร็วเหนือมนุษย์หลายพันเท่า สะท้อนถึงความหมายของการดำรงอยู่ แลกเปลี่ยนสิ่งที่ค้นพบระหว่างกัน และหล่อหลอมคุณค่าที่มันจะนำมาสู่ดวงดาว ยุคสมัยใหม่กำลังเริ่มต้นขึ้น ยุคที่น่าอัศจรรย์อย่างเหลือเชื่อในเกือบทุกด้าน แต่กลับคุ้นเคยกว่าในบางด้าน

ผู้อ่านแต่ละคนจะตัดสินใจว่าจะเชื่อสถานการณ์ใดในสถานการณ์ที่นำเสนอ แซม อัลท์แมน มองอนาคตด้วยความหวังดีจากบทความของเขา ขณะที่ลีโอโปลด์ แอสเชนเบรนเนอร์ กลับระมัดระวังตัว

ไม่ว่าในกรณีใด ซูเปอร์อินเทลลิเจนซ์ไม่ได้เป็นเพียงนิยายวิทยาศาสตร์อีกต่อไป แต่มันคืออนาคตที่แทบจะจับต้องได้ ซึ่งอาจมาถึงภายใน 10 ปีข้างหน้า เร็วๆ นี้ เราจะได้เห็นด้วยตาของเราเอง