fbpx
วิกิพีเดีย

ความเสี่ยงมหันตภัยทั่วโลก

ความเสี่ยงมหันตภัยทั่วโลก (อังกฤษ: global catastrophic risk) เป็นเหตุการณ์สมมุติในอนาคต ที่อาจทำความเสียหายต่อมนุษย์อย่างรุนแรงทั่วโลก เหตุการณ์บางอย่างอาจทำลาย หรือทำความเสียหายแก่ อารยธรรมที่มีในปัจจุบัน หรือเหตุการณ์ที่รุนแรงกว่านั้น อาจทำให้มวลมนุษย์สูญพันธุ์ ซึ่งเรียกได้ว่า เป็นความเสี่ยงต่อการอยู่รอดของมนุษย์ (existential risk)

จินตภาพช่างศิลป์ ของการวิ่งมาชนโลกโดยดาวเคราะห์น้อย ที่มีพลังเท่ากับอาวุธนิวเคลียร์กว่าพันล้านลูก ซึ่งอาจจะเป็นเหตุของการสูญพันธุ์ครั้งใหญ่ระหว่างยุคครีเทเชียส-พาลีโอจีน อันเป็นช่วงที่ไดโนเสาร์หมดสิ้นสูญพันธุ์ไป

ภัยพิบัติตามธรรมชาติ เช่น การระเบิดของซูเปอร์ภูเขาไฟ และการวิ่งชนโลกของดาวเคราะห์น้อย จะเป็นความเสี่ยงในระดับนี้ถ้ารุนแรงเพียงพอ เหตุการณ์ที่มนุษย์เป็นเหตุ ก็อาจจะเป็นความเสี่ยงต่อการอยู่รอดของสัตว์ฉลาดต่าง ๆ ของโลก เช่น ปรากฏการณ์โลกร้อน สงครามนิวเคลียร์ หรือการก่อการร้ายชีวภาพ สถาบันอนาคตของมนุษยชาติ (Future of Humanity Institute) ที่เป็นส่วนของมหาวิทยาลัยออกซฟอร์ด เชื่อว่า การสูญพันธุ์ของมนุษย์ น่าจะมีเหตุมาจากมนุษย์เอง มากกว่าจากเหตุการณ์ทางธรรมชาติ

แต่ว่า เป็นเรื่องยากลำบากที่จะศึกษาการสูญพันธุ์ของมนุษย์ เพราะไม่เคยมีเหตุการณ์นี้จริง ๆ แม้นี่จะไม่ได้หมายความว่า จะไม่เกิดขึ้นในอนาคต แต่ว่า การสร้างแบบจำลองของความเสี่ยงต่อความอยู่รอด เป็นเรื่องยาก โดยส่วนหนึ่งเพราะผู้ศึกษามีความเอนเอียงจากการอยู่รอด คือมีความคิดผิดพลาดที่พุ่งความสนใจไปในสิ่งที่อยู่รอด จนทำให้เหตุผลไม่ตรงกับความจริง

การจัดประเภทความเสี่ยง

 
ตารางขอบเขต/ความรุนแรงของภัยต่าง ๆ ดัดแปลงจากบทความ "Existential Risk Prevention as Global Priority (การป้องกันความเสี่ยงต่อการอยู่รอด โดยเป็นเรื่องสำคัญของโลก)" ของ ดร. บอสตรอม

นักปรัชญาที่มหาวิทยาลัยออกซฟอร์ด ดร. นิก บอสตรอม จัดประเภทความเสี่ยงตามขอบเขตและความรุนแรง เขาพิจารณาความเสี่ยงที่มีขอบเขตอย่างน้อย "ทั่วโลก" (global) และมีความรุนแรงอย่างน้อย "ยังทนได้" (endurable) ว่าเป็นความเสี่ยงมหันตภัยทั่วโลก ส่วนความเสี่ยงที่มีขอบเขตอย่างน้อย "หลายชั่วคน" (trans-generational) และมีความรุนแรงอย่างน้อย "เป็นจุดจบ" (terminal) ว่าเป็นความเสี่ยงต่อการอยู่รอด คือ แม้ว่าความเสี่ยงมหันตภัยทั่วโลก อาจจะฆ่าสิ่งมีชีวิตเป็นจำนวนมาก แต่มนุษย์ก็ยังอาจจะฟื้นคืนได้ แต่ว่า ความเสี่ยงต่อการอยู่รอด จะทำลายมนุษย์ทั้งหมด หรือจะขัดขวางไม่ให้เกิดอารยธรรมได้อีกในอนาคต ดร. บอสตรอม พิจารณาความเสี่ยงต่อการอยู่รอด ว่าเป็นเรื่องสำคัญกว่ามาก

ดร. บอสตรอมแสดงความเสี่ยงต่อการอยู่รอด 4 ประเภท คือ "Bang" (โดยเป็นเสียงระเบิด) เป็นมหันตภัยกระทันหัน ซึ่งอาจจะเป็นอุบัติเหตุ หรืออาจะเป็นเรื่องจงใจ เขาคิดว่า ต้นเหตุของ Bang จะเป็นการใช้นาโนเทคโนโลยีอย่างมุ่งร้าย สงครามนิวเคลียร์ และความเป็นไปได้ว่า จักรวาลเป็นเพียงแค่การจำลอง ซึ่งวันหนึ่งจะหยุดลง ส่วน "Crunch" (โดยเป็นเสียงถูกบด) เป็นสถานการณ์ที่มนุษย์จะอยู่รอด แต่อารยธรรมจะถูกทำลายโดยไม่สามารถฟื้นขึ้นมาได้อีก ดร. บอสตรอมเชื่อว่า เหตุที่เป็นไปได้มากที่สุดในเรื่องนี้ ก็คือ การใช้ทรัพยากรธรรมชาติจนหมดสิ้น หรือรัฐบาลโลกที่เสถียร ที่ป้องกันไม่ให้เกิดความก้าวหน้าทางเทคโนโลยี หรือความกดดันบางอย่างทางกรรมพันธุ์ที่ทำให้ความฉลาดโดยเฉลี่ยลดลง ส่วน "Shriek" (โดยเป็นเสียงกรีดร้อง) เป็นอนาคตที่ไม่พึงปรารถนา ยกตัวอย่างเช่น ถ้ามีเครื่อง/สัตว์/บุคคล ที่เพิ่มกำลังความสามารถทางจิตใจและความคิดของตน โดยอาศัยคอมพิวเตอร์ มันจะสามารถครอบงำอารยธรรมของมนุษย์ ซึ่งอาจจะมีผลเสียหาย ดร. บอสตรอมเชื่อว่า สถานการณ์เช่นนี้เป็นไปได้มากที่สุด ตามมาด้วยสัตว์/เครื่องซูเปอร์ฉลาดที่บกพร่อง แล้วตามมาด้วยการปกครองระบบเผด็จการเบ็ดเสร็จที่รุนแรง ส่วน "Whimper" (โดยเป็นเสียงร้องครวญคราง) เป็นการค่อย ๆ เสื่อมลงของอารยธรรมมนุษย์ หรือค่านิยมในปัจจุบัน ดร. บอสตรอมเชื่อว่า เหตุที่เป็นไปได้ที่สุดในรื่องนี้ก็คือ ความชอบใจทางศีลธรรม/ทางความคิด ที่เปลี่ยนวิวัฒนาการมนุษย์ แล้วตามมาด้วยการบุกรุกของมนุษย์ต่างดาว

โดยนัยเดียวกัน ในหนังสือ Catastrophe: Risk and Response (มหันตภัย ความเสี่ยงและการตอบสนอง) ผู้พิพากษาทรงอิทธิพลของศาลอุทธรณ์ภาค 7 ของสหรัฐอเมริกา ริชาร์ด พอสเนอร์ ได้ชี้เหตุการณ์ต่าง ๆ ที่จะทำความเสียหายทั่วโลก ไม่ใช่เพียงแค่ในพื้นที่ พอสเนอร์แสดงว่า เหตุการณ์เหล่านี้ควรที่จะสนใจเป็นพิเศษ โดยเหตุผลทางต้นทุนกับผลตอบแทน เพราะว่าเหตุการณ์เหล่านี้ สามารถทำอันตรายต่อการอยู่รอดของมนุษย์ทั้งหมดได้ โดยตรงหรือโดยอ้อม เหตุการณ์ที่พอสเนอร์คิดถึงรวมทั้ง ดาวตกวิ่งชนโลก ปรากฏการณ์โลกร้อนที่เพิ่มขึ้นอย่างควบคุมไม่ได้ นาโนเทคโนโลยีที่ใช้ทรัพยากรโลกจนหมดเพื่อสร้างตัวเอง และอุบัติเหตุเกี่ยวกับเครื่องเร่งอนุภาค

ความน่าจะเป็น

ต่อไปนี้เป็นตัวอย่างของบุคคลและสถาบันต่าง ๆ ที่ได้พยากรณ์ความน่าจะเป็นของเหตุการณ์เสี่ยงต่อการอยู่รอด มีความเสี่ยงบางอย่าง เช่นการวิ่งกระทบโลกของดาวเคราะห์น้อย ที่มีโอกาสหนึ่งในล้าน ที่จะทำให้มนุษย์สูญพันธุ์ในช่วงศตวรรษต่อไป แม้เป็นเหตุการณ์ที่มีการทำนายความน่าจะเป็นอย่างละเอียด แต่ถึงอย่างนั้น นักวิชาการบางพวกก็อ้างว่า อัตราการวิ่งชนของวัตถุขนาดใหญ่ จริง ๆ อาจจะมากกว่าที่พยากรณ์ไว้ดั้งเดิม และโดยนัยเดียวกัน ความถี่ของการระเบิดภูเขาไฟที่รุนแรง พอจะเป็นเหตุความเปลี่ยนแปลงของภูมิอากาศอย่างหายนะ เช่นที่เกิดขึ้นที่ทะเลสาบโตบาเมื่อระหว่าง 69,000-77,000 ปีก่อน ซึ่งอาจเป็นเหตุการณ์ให้มนุษย์เกือบสูญพันธุ์ มีการประมาณว่าเกิดขึ้นทุก 50,000 ปี ส่วนภัยอื่น ๆ คำนวณได้ยากกว่า

ในปี ค.ศ. 2008 กลุ่ม "ผู้เชี่ยวชาญเกี่ยวกับความเสี่ยงมหันตภัยระดับโลกประเภทต่าง ๆ" ในงานประชุม "Global Catastrophic Risk" (ความเสี่ยงมหันตภัยทั่วโลก) ที่มหาวิทยาลัยออกซฟอร์ด เสนอว่า มีโอกาส 19% ที่มนุษย์จะสูญพันธุ์ภายในศตวรรษต่อไป แต่ว่า รายงานประชุมเตือนว่า วิธีการเฉลี่ยค่าคำตอบจากงานสำรวจไม่เป็นทางการ เป็นเรื่องน่าสงสัย เนื่องจากวิธีปฏิบัติต่อการไม่ส่งคำตอบ[ต้องการอ้างอิง] ค่าความน่าจะเป็นโดยประมาณสำหรับเหตุต่าง ๆ มีการสรุปดังต่อไปนี้

ความเสี่ยง โอกาสที่มนุษย์จะสูญพันธุ์ก่อนปี ค.ศ. 2100
อาวุธที่ใช้นาโนเทคโนโลยี 5%
ปัญญาประดิษฐ์ซูเปอร์ฉลาด 5%
สงคราม 4%
โรคระบาดทั่วที่สร้างขึ้น 2%
สงครามนิวเคลียร์ 1%
อุบัติเหตุทางนาโนเทคโนโลยี 0.5%
โรคระบาดทั่วตามธรรมชาติ 0.05%
การก่อการร้ายโดยนิวเคลียร์ 0.03%
แหล่งข้อมูล: Future of Humanity Institute, 2008.

แต่ว่า วิธีการในการประเมินค่าเหล่านี้ให้แม่นยำเป็นปัญหา คือ โดยมาก ความสนใจจะเป็นไปในความเสี่ยงต่ออารยธรรมมนุษย์ในช่วง 100 ปีต่อไป แต่การพยากรณ์ในช่วงเวลายาวเช่นนี้ เป็นเรื่องยาก ภัยธรรมชาตินั้น ค่อนข้างที่จะเสถียร แม้ก็ยังสามารถค้นพบความเสี่ยงใหม่ ๆ ได้ แต่ว่าภัยที่เกิดจากมนุษย์ สามารถเปลี่ยนแปลงได้อย่างรวดเร็ว เมื่อมีพัฒนาการทางเทคโนโลยีใหม่ ๆ ยกตัวอย่างเช่น จริง ๆ แล้ว ภูเขาไฟเป็นความเสี่ยง ตั้งแต่ต้นประวัติศาสตร์แล้ว แต่อาวุธนิวเคลียร์พึ่งจะเป็นปัญหา เริ่มตั้งแต่คริสต์ศตวรรษที่ 20 โดยประวัติแล้ว สมรรถภาพของผู้เชี่ยวชาญในการทำนายอนาคตในช่วงเวลายาวเช่นนี้ มีความจำกัดอย่างยิ่ง ภัยจากมนุษย์ เช่น สงครามนิวเคลียร์และนาโนเทคโนโลยี พยากรณ์ได้ยากกว่าภัยธรรมชาติ โดยทั่วไปก็คือ ยากที่จะประมาณความเสี่ยงนี้ เพราะว่า ความสัมพันธ์ระหว่างประเทศและเทคโนโลยี สามารถเปลี่ยนแปลงได้อย่างรวดเร็ว

ความเสี่ยงการรอดชีวิตเป็นเรื่องท้าทายการพยากรณ์ มากกว่าแม้แต่เหตุการณ์ในระยะยาวอื่น ๆ เพราะต้องมีผู้สังเกตการณ์หลังเหตุการณ์ คือ โดยไม่เหมือนกับเหตุการณ์อื่น ๆ โดยมาก การไม่มีการสูญพันธุ์อย่างสิ้นเชิงในอดีต ไม่ใช่หลักฐานว่าจะไม่มีในอนาคต เพราะว่า ในโลกที่มีเหตุการณ์สูญพันธุ์เช่นนั้น ก็จะไม่มีผู้สังเกตการณ์เหลือ ดังนั้น ไม่ว่าเหตุการณ์เช่นนั้นจะเกิดบ่อยครั้งเท่าไร ก็ยังไม่เคยมีอารยธรรมไหน ๆ ที่มีประวัติเหตุการณ์เช่นนั้น ประเด็นปัญหาเกี่ยวกับผู้สังเกตการณ์เช่นนี้ สามารถหลีกเลี่ยงได้โดยสังเกตหาหลักฐานที่ไม่มีปัญหาเช่นเดียวกัน เช่น สังเกตดูการวิ่งกระทบดวงจันทร์ของดาวเคราะห์น้อย หรือในการประเมินผลที่อาจเกิดขึ้นของเทคโนโลยีใหม่ ๆ โดยตรง

ความสำคัญทางศีลธรรม

นักวิชาการบางพวกสนับสนุนอย่างยิ่ง ให้ลดระดับความเสี่ยงต่อการอยู่รอด เพราะเหตุว่า จะเป็นประโยชน์ต่อคนรุ่นต่อ ๆ ไป นักปรัชญาที่มหาวิทยาลัยออกซฟอร์ดผู้หนึ่งอ้างว่า การสูญพันธุ์จะเป็นความสูญเสียอันยิ่งใหญ่ เพราะว่า ลูกหลานของมนุษย์อาจจะสามารถอยู่รอดได้เป็นพันล้านปี ก่อนที่ดวงอาทิตย์จะขยายขนาดจนมนุษย์ไม่สามารถอยู่บนโลกได้ ส่วน ดร. บอสตรอมอ้างว่า จะเป็นความสูญเสียที่ยิ่งใหญ่กว่านั้น ถ้ามนุษย์สามารถตั้งอาณานิคมในอวกาศ เพราะถ้าเป็นเช่นนั้น มนุษย์จำนวนมากจะสามารถอยู่ได้บนดาวเคราะห์อื่น ๆ และสามารถดำรงอยู่ได้เกินกว่า ล้านล้านปี ดังนั้น การลดระดับความเสี่ยงต่อการอยู่รอดแม้เพียงน้อยนิด ก็จะมีผลสำคัญต่อจำนวนมนุษย์ที่คาดหมายว่าจะมีในอนาคตได้

แม้ว่าจะไม่ค่อยมีบทความที่โต้แย้งความคิดเช่นนี้ แต่อาจจะมีนักวิชาการบางพวกที่ไม่เห็นด้วย เพราะว่า อรรถประโยชน์ที่ลดลงโดยฟังก์ชันแบบเลขชี้กำลัง (Exponential discounting) อาจทำให้ประโยชน์ที่คาดหมายมีความสำคัญน้อยมาก แต่ว่าก็มีนักวิชาการที่อ้างว่า การใช้ฟังก์ชันเช่นนั้นไม่เหมาะสม เมื่อประเมินผลที่จะได้จากการลดระดับความเสี่ยงต่อการอยู่รอด

มีนักเศรษฐศาสตร์ที่กล่าวถึงความสำคัญของความเสี่ยงมหันตภัยทั่วโลก แต่ไม่กล่าวถึงความเสี่ยงต่อการอยู่รอด นักเศรษฐศาสตร์ทรงอิทธิพลท่านหนึ่งอ้างว่า ความเสียหายทางเศรษฐกิจมากที่สุด ที่คาดหวังได้จากการเปลี่ยนแปลงสภาพทางภูมิอากาศ อาจจะมาจากโอกาสเล็กน้อย ที่โลกจะร้อนขึ้นเกินระดับกลาง ๆ ที่คาดหมาย มีผลเป็นความเสียหายระดับหายนะ ส่วน ดร. พอสเนอร์อ้างว่า โดยทั่ว ๆ ไป เราเตรียมการน้อยไป เพื่อจะรองรับมหันตภัยที่กว้างขวาง ที่มีโอกาสเพียงเล็กน้อยแต่ว่าประมาณได้ยาก

ความเอนเอียงทางประชานของมนุษย์ ที่ไม่มีการปรับค่าตามขนาด จะมีอิทธิพลต่อการประเมินว่า ปัญหาความสูญพันธุ์ของมนุษย์สำคัญแค่ไหน ยกตัวเช่น เมื่อเราสนใจจะบริจาคเพื่อการกุศล จำนวนที่บริจาคจะไม่เพิ่มตามขนาดของปัญหา คือ เราจะสงสารนก 200,000 ตัวที่ติดอยู่ในน้ำมัน เท่า ๆ กับเมื่อมีนก 2,000 ตัว และโดยนัยเดียวกัน เรามักจะให้ความสนใจกับภัยที่เกิดขึ้นต่อบุคคล มากกว่าที่เกิดขึ้นต่อกลุ่มบุคคล


แหล่งกำเนิดความเสี่ยง

ความเสี่ยงต่อการอยู่รอด และความเสี่ยงต่ออารยธรรม อาจจะมาจากเหตุจากธรรมชาติหรือจากมนุษย์ มีการอ้างว่า ยังมีความเสี่ยงต่อการอยู่รอดอีกมากที่เรายังไม่รู้

ภัยจากมนุษย์

ความเสี่ยงต่อการอยู่รอดที่เป็นไปได้บางอย่าง มีเหตุจากเทคโนโลยีของมนุษย์ ในปี ค.ศ. 2012 มหาวิทยาลัยเคมบริดจ์ตั้งโปรเจ็กต์ The Cambridge Project for Existential Risk (โปรเจ็กต์เคมบริดจ์สำหรับความเสี่ยงต่อการอยู่รอด) ที่ตรวจสอบภัยต่อมนุษยชาติ ที่เกิดจากเทคโนโลยี จุดมุ่งหมายของโปรเจ็กต์ ก็เพื่อจะตั้งศูนย์วิจัยสหศาสตร์ คือ Centre for the Study of Existential Risk (ศูนย์เพื่อการศึกษาความเสี่ยงต่อการอยู่รอด) อุทิศให้กับการศึกษาทางวิทยาศาสตร์ และการบรรเทา ความเสี่ยงต่อการอยู่รอด ที่มาจากเทคโนโลยีมนุษย์

โปรเจ็กต์เคมบริดจ์กล่าวว่า "ภัยที่ยิ่งใหญ่ที่สุด" ต่อมนุษย์เป็นสิ่งที่มนุษย์สร้างขึ้นเอง คือ ปัญญาประดิษฐ์ ปรากฏการณ์โลกร้อน สงครามนิวเคลียร์ และเทคโนโลยีชีวภาพที่ควบคุมไม่ได้

ปัญญาประดิษฐ์

มีการเสนอว่า คอมพิวเตอร์ที่เรียนรู้ได้ ที่กลายเป็นสิ่งชาญฉลาดเหนือมนุษย์ (ซูเปอร์ฉลาด) อาจจะมีพฤติกรรมที่ไม่คาดฝัน หรือว่า มนุษย์อาจจะเก่งสู้หุ่นยนต์ไม่ได้ (ที่เรียกว่า technological singularity หรือภาวะเอกฐานทางเทคโนโลยี) เพราะเหตุที่มันมีสมรรถภาพในการจัดลำดับและการจัดแจงอย่างยอดเยี่ยม และอาจสามารถพัฒนาเทคโนโลยีใหม่ ๆ ได้มากมาย เป็นไปได้ว่า เครื่องคอมพ์ซูเปอร์ฉลาดเครื่องแรกของโลกที่ปรากฏ อาจจะกลายเป็นสิ่งฉลาดที่หาคู่แข่งไม่ได้ และสามารถคิดได้ว่า มันอาจจะสามารถทำเหตุเพื่อสร้างผลอะไรก็ได้ และสามารถที่จะป้องกันความพยายามของสิ่งอื่น ที่จะขัดขวางการถึงเป้าหมายของมัน คือสามารถที่จะกำจัดคู่แข่งที่ชาญฉลาดถ้าเลือกที่จะทำ หรืออาจจะจัดการหรือชักชวน ให้คู่แข่งเปลี่ยนพฤติกรรมเพื่อประโยชน์ของตน หรืออาจจะเพียงขัดขวางความพยายามของผู้อื่น ที่จะมาแทรงแซงการกระทำของตน ในหนังสือ Superintelligence: Paths, Dangers, Strategies (สิ่งซูเปอร์ฉลาด แนวทาง ภัย และกลยุทธ์) ดร. บอสตรอม กำหนดปัญหาแบบนี้ว่า เป็นปัญหาในการควบคุม (control problem)

ศ. คณิตศาสตร์และนักเขียนรางวัลฮิวโก ดร. เวอร์นอน วินจ์ เสนอว่า จะมีวันหนึ่งที่คอมพิวเตอร์และหุ่นยนต์ จะฉลาดกว่ามนุษย์ เขาเรียกเหตุการณ์นี้ว่า "the Singularity (ภาวะเอกฐาน)" และเสนอว่า เหตุการณ์จะเป็นอันตรายหรือเป็นอันตรายอย่างยิ่งต่อมวลมนุษย์ ปัญหาเหล่านี้ เป็นประเด็นในระบบปรัชญาที่เรียกว่า Singularitarianism

นักฟิสิกส์ ดร. สตีเฟน ฮอว์คิง, ผู้จัดตั้งบริษัทไมโครซอฟท์ บิล เกตส์, และผู้จัดตั้งบริษัท SpaceX ล้วนแต่ได้แสดงความเป็นห่วง เกี่ยวกับความเป็นไปได้ว่า ปัญญาประดิษฐ์ (AI) อาจจะพัฒนาการไปจนกระทั่งมนุษย์ไม่สามารถควบคุมได้ ดร. ฮอว์คิงได้สันนิษฐานว่า นี้อาจจะเป็น "จุดจบของของมวลมนุษย์" ในปี ค.ศ. 2009 ผู้เชี่ยวชาญได้มางานประชุมจัดโดย Association for the Advancement of Artificial Intelligence (สมาคมเพื่อการพัฒนาปัญญาประดิษฐ์) เพื่อที่จะปรึกษากันว่า คอมพิวเตอร์และหุ่นยนต์ จะสามารถได้เป็นอิสระหรือไม่ และความสามารถเช่นนี้ จะเป็นภัยอันตรายมากน้อยแค่ไหน พวกเขาตั้งข้อสังเกตว่า หุ่นยนต์ได้มีอิสรภาพโดยส่วนหนึ่งแล้ว เช่นสามารถหาแหล่งพลังงานของตน และเลือกเป้าหมายในการโจมตีด้วยอาวุธ และไวรัสคอมพิวเตอร์สามารถหลีกเลี่ยงการถูกกำจัด และฉลาดเท่ากับแมลงสาบ พวกเขายังตั้งข้อสังเกตอีกด้วยว่า แม้ว่าการสำนึกตนได้ ที่จินตนาการในบันเทิงคดีแนววิทยาศาสตร์ ไม่น่าจะเป็นไปได้ แต่ว่าก็ยังมีปัญหาและอันตรายอย่างอื่น ๆ สื่อและกลุ่มนักวิทยาศาสตร์ต่าง ๆ สังเกตเห็นแนวโน้มพัฒนาการในด้านต่าง ๆ ที่เมื่อมารวมกันแล้ว อาจมีผลเป็นความสามารถและความเป็นอิสระยิ่ง ๆ ขึ้นของหุ่นยนต์ ซึ่งทำให้น่าเป็นห่วง

นักเขียนเกี่ยวกับปัญญาประดิษฐ์ผู้หนึ่งเชื่อว่า ความเสี่ยงจากปัญญาประดิษฐ์ เป็นเรื่องที่พยากรณ์ได้ยากกว่าความเสี่ยงที่รู้จักอื่น ๆ และอ้างว่า งานวิจัยในด้านนี้มีความเอนเอียงจากมานุษยรูปนิยม เพราะว่าเราตัดสินประเมินปัญญาประดิษฐ์ โดยใช้ประสบการณ์ของตน ดังนั้น เราจะประเมินความสามารถที่เป็นไปได้ของปัญญาประดิษฐ์ ต่ำเกินไป เขาแยกแยะความเสี่ยงที่เกิดจากความล้มเหลวทางเทคนิคของ AI ซึ่งหมายความว่า ขั้นตอนวิธีที่บกพร่อง อาจขัดขวาง AI ไม่ให้ทำงานได้ตามเป้าหมายของตน และความล้มเหลวทางด้านปรัชญา (หรือความคิด) ซึ่งหมายความว่า มีการตั้งโปรแกรมให้ AI เข้าถึงคตินิยมที่ผิด ๆ

ผู้เชี่ยวชาญและนักวิชาการบางส่วน ไม่ค่อยเห็นด้วยในการใช้หุ่นยนต์ในการสงคราม โดยเฉพาะเมื่อให้อิสรภาพในการทำงานเป็นบางส่วน นอกจากนั้นแล้ว ยังมีความเป็นห่วงเกี่ยวกับเทคโนโลยี ที่ให้หุ่นยนต์ควบคุมหุ่นยนต์ที่ติดอาวุธด้วยกันเอง กองทัพนาวีสหรัฐอเมริกา ได้ให้ทุนการทำรายงานที่ชี้ว่า เพราะว่า หุ่นยนต์การทหารเริ่มที่จะซับซ้อนขึ้นเรื่อย ๆ ควรที่จะใส่ใจเพิ่มขึ้นเกี่ยวกับผลที่อาจจะมี เนื่องจากสมรรถภาพของหุ่นยนต์ในการตัดสินใจอย่างเป็นอิสระยิ่ง ๆ ขึ้น มีนักวิจัยคนหนึ่งที่กล่าวว่า หุ่นยนต์ที่เป็นอิสระอาจจะมีมนุษยธรรมมากกว่า เพราะว่าจะสามารถตัดสินใจได้ดีกว่า แต่ผู้เชี่ยวชาญอื่น ๆ ไม่เห็นด้วย

โดยนัยตรงกันข้าม ปัญญาประดิษฐ์ที่เป็นมิตร อาจช่วยลดความเสี่ยงต่อการอยู่รอด โดยช่วยสร้างพัฒนาเทคโนโลยีที่แก้ปัญหาภัยต่าง ๆ

ในรายการของสถานีพีบีเอ็ส (สหรัฐอเมริกา) นักจิตวิทยาคนหนึ่งถามว่า "จะเกิดอะไรขึ้น ถ้า AI ตัดสินใจว่า เราไม่มีประโยชน์อีกต่อไป" แต่ก็ยังอ้างด้วยว่า เราไม่สามารถและไม่ควรที่จะห้ามพัฒนาการของ AI ดังนั้น สิ่งที่ควรทำก็คือ เริ่มพิจารณาตั้งแต่บัดนี้ว่า จริยธรรมของ AI ควรจะเป็นอย่างไร

นาโนเทคโนโลยี

มีเทคโนโลยีขนาดนาโนที่กำลังพัฒนาการ หรือที่ใช้อยู่แล้ว หลายอย่าง แต่เทคโนโลยีเดียว ที่อาจจะเสี่ยงเป็นความหายนะของโลกก็คือ กรรมวิธีการผลิตระดับโมเลกุล (molecular manufacturing) ซึ่งเป็นเทคนิคที่สามารถใช้สร้างโครงสร้างซับซ้อน โดยมีความแม่นยำระดับอะตอม กรรมวิธีการผลิตระดับโมเลกุล จะต้องอาศัยความก้าวหน้าเกี่ยวกับนาโนเทคโนโลยีสำคัญอื่น ๆ อีก แต่เมื่อสำเร็จแล้ว อาจจะสามารถสร้างผลิตภัณฑ์ก้าวหน้า ในราคาที่ถูก เป็นจำนวนมาก ในโรงงานนาโน ซึ่งหนักตั้งแต่ 1 กิโลกรัมขึ้นไป เมื่อโรงงานนาโนสามารถสร้างโรงงานอื่น ๆ การผลิตอาจจะจำกัดโดยเพียงปัจจัยที่มีมากมายอย่างอื่น ๆ เช่นวัตถุดิบ พลังงาน และซอฟต์แวร์

กรรมวิธีการผลิตระดับโมเลกุล สามารถใช้ในการสร้างผลิตภัณฑ์ต่าง ๆ เช่น อาวุธทันสมัยที่ทนทาน เพราะว่าประกอบด้วยคอมพิวเตอร์และมอเตอร์ที่เล็ก โรงงานเหล่านี้อาจมีอิสระเพิ่มขึ้นเรื่อย ๆ และสามารถทำงานได้หลายอย่างและอย่างกว้างขวาง

มีการจัดความเสี่ยงของนาโนเทคโนโลยีออกเป็น 3 ประเภท คือ (1) ส่งเสริมพัฒนาการของเทคโนโลยีอื่น ๆ เช่น AI และเทคโนโลยีชีวภาพ (2) ช่วยให้การผลิตมีปริมาณมากสำเร็จ เป็นผลิตภัณฑ์อันตรายที่เพิ่มความเสี่ยง (เช่น การแข่งขันกันทางอาวุธ) (3) ช่วยทำให้สำเร็จกระบวนการที่ขับเคลื่อนด้วยตนเองได้อย่างถาวร โดยมีผลเสียหาย อย่างไรก็ดี นาโนเทคโนโลยีก็อาจจะใช้บรรเทาความเสี่ยงมหันตภัยระดับโลกอย่างอื่น ๆ

นักวิจัยหลายท่านเชื่อว่า ความเสี่ยงส่วนมากของนาโนเทคโนโลยี มาจากโอกาสที่ทำให้เกิดสงคราม การแข่งขันทางอาวุธ และรัฐบาลโลกที่เป็นอันตราย มีเหตุผลหลายอย่างว่า ทำไมการมีอาวุธนาโนเทค จึงมีโอกาสสูงที่จะนำไปสู่การแข่งขันทางอาวุธที่ไม่เสถียร (โดยเทียบกับการแข่งขันทางอาวุธนิวเคลียร์) คือ (1) อาจจะมีกลุ่มบุคคล/ประเทศเป็นจำนวนมาก ที่จะเข้าร่วมการแข่งขันเช่นนี้ เพราะขีดจำกัดต่ำมาก (2) การสร้างอาวุธโดยวิธีการผลิตระดับโมเลกุล มีค่าใช้จ่ายน้อยและซ่อนได้ง่าย (3) ดังนั้น การไม่รู้สมรรถภาพของฝ่ายตรงข้าม อาจจะชวนให้สะสมอาวุธเพื่อกันภัย หรือชวนให้โจมตีศัตรูก่อน (4) วิธีการผลิตระดับโมเลกุล อาจจะลดความต้องพึ่งพิงการค้าระหว่างประเทศ ซึ่งเป็นปัจจัยช่วยสร้างสันติภาพอย่างหนึ่ง (5) สงครามเพื่อแย่งชิง อาจจะมีผลทางเศรษฐกิจน้อยลงต่อกลุ่มที่บุกรุก เพราะว่า การผลิตมีค่าใช้จ่ายน้อย และอาจจะไม่ต้องใช้มนุษย์ในสนามรบ

เนื่องจากการควบคุมตนเอง ทั้งในฝ่ายรัฐและฝ่ายเอกชน ดูจะเป็นไปไม่ได้ มาตรการบรรเทาความเสี่ยงต่อสงคราม มักจะเสนอในระดับให้ร่วมมือกันระหว่างประเทศ องค์กรระหว่างประเทศจะสามารถขยายอำนาจได้ โดยให้อำนาจแก่องค์กรมากขึ้น ซึ่งอาจจะช่วยประสานการควบคุมอาวุธ สถาบันระหว่างประเทศอุทิศให้กับนาโนเทคโนโลยี (อาจจะคล้ายกับองค์การพลังงานปรมาณูระหว่างประเทศ) หรือกฎหมายควบคุมอาวุธโดยทั่วไป อาจตั้งขึ้นได้ และกลุ่มต่าง ๆ สามารถร่วมกันเร่งพัฒนาเทคโนโลยีการป้องกันเป็นหลัก ซึ่งเป็นนโยบายที่กลุ่มต่าง ๆ น่าจะยินดีทำ ศูนย์เพื่อนาโนเทคโนโลยีแบบรับผิดชอบ (The Center for Responsible Nanotechnology) ก็เสนอข้อจำกัดต่าง ๆ ทางเทคนิคด้วย ความโปร่งใสที่ดีขึ้น เกี่ยวกับสมรรถภาพทางเทคโนโลยีของแต่ละประเทศ อาจจะเป็นปัจจัยสำคัญในการควบคุมอาวุธ

grey goo เป็นสถานการณ์มหันตภัยอีกอย่างหนึ่ง ซึ่งเสนอเป็นครั้งแรกโดยเอริค เดร็กซ์เรอร์ ในหนังสือ Engines of Creation (เครื่องสร้าง) ที่พิมพ์ในปี ค.ศ. 1986 ซึ่งได้กลายมาเป็นแนวคิดหลักอย่างหนึ่ง ในสื่อและในบันเทิงคดี เป็นสถานการณ์ที่หุ่นยนต์ที่ขยายพันธุ์เองได้ ใช้ทรัพยากรของทั้งชีวภาค (biosphere) โดยใช้ทั้งเป็นพลังงานและเป็นวัตถุดิบในการสร้าง ผู้เชี่ยวชาญทางด้านนาโนเทครวมทั้งเดร็กซ์เลอร์เอง ปัจจุบันไม่ให้ความเชื่อถือกับสถานการณ์นี้ ตามคำของนักนาโนเทคโนโลยีคนหนึ่ง "สถานการณ์ที่เรียกว่า grey goo จะเกิดขึ้นได้ก็โดยเป็นผลของกระบวนการวิศวกรรมที่จงใจและทำได้ยากเท่านั้น ไม่อาจเป็นผลของเพียงอุบัติเหตุได้"

เทคโนโลยีชีวภาพ

เทคโนโลยีชีวภาพ สามารถเป็นความเสี่ยงมหันตภัยระดับโลก ในรูปแบบของจุลชีพก่อโรคตามธรรมชาติ หรือจุลชีพก่อโรคที่สร้างขึ้น และมหันตภัยอาจเกิดขึ้นเพราะใช้ในการสงคราม การก่อการร้าย หรือเป็นอุบัติเหตุ ยังดีว่า การใช้เทคโนโลยีชีวภาพในการก่อการร้าย เป็นสิ่งที่เกิดขึ้นไม่บ่อยในประวัติศาสตร์ แต่ว่า เป็นเพราะว่าไม่สามารถ หรือเพราะว่าไม่มีแรงจูงใจ ยังเป็นเรื่องที่ไม่ชัดเจนนัก

พัฒนาการแบบเลขชี้กำลังกำลังเป็นไป ในอุตสาหกรรมเทคโนโลยีชีวภาพ ดังนั้น จึงมีนักวิชาการที่พยากรณ์ว่า กลุ่มต่าง ๆ จะมีสมรรถภาพทางเทคโนโลยีชีวภาพเพิ่มขึ้นอย่างสำคัญ ในทศวรรษต่อ ๆ ไป พวกนักวิชาการอ้างว่า ความเสี่ยงจากสงครามชีวภาพ และการก่อการร้ายชีวภาพ เป็นเรื่องต่างหากจากภัยทางสงครามนิวเคลียร์และภัยทางสงครามเคมี เพราะว่า จุลชีพก่อโรคผลิตเป็นจำนวนมากได้ง่ายกว่า และการผลิตนั้นยากที่จะควบคุมได้ (โดยเฉพาะถ้าสมรรถภาพทางเทคโนโลยี สามารถมีได้ในระดับบุคคล)

เนื่องจากแนวโน้มที่เห็นได้ในพัฒนาการปัจจุบัน ภัยที่เพิ่มขึ้นจากจุลชีพใหม่ที่สร้างขึ้น เป็นปัญหาที่หวังได้ในอนาคต มีการสันนิษฐานว่า จุลชีพก่อโรคที่เกิดโดยธรรมชาติจะมีขีดจำกัดสูงสุด ในระดับความร้ายแรงการก่อโรค แต่ว่า เราสามารถเปลี่ยนยีนของจุลชีพ เพื่อเปลี่ยนค่าความร้ายแรงและคุณสมบัติอย่างอื่น ๆ ทั้งโดยตั้งใจ ทั้งโดยอุบัติเหตุ ยกตัวอย่างเช่น กลุ่มนักวิจัยชาวออสเตรเลียได้เปลี่ยนคุณสมบัติของไวรัสฝีดาษหนู (Ectromelia) เมื่อพยายามที่จะพัฒนาไวรัสเพื่อทำหนูให้เป็นหมัน ไวรัสแปรทำให้หนูตาย ทั้งหนูที่ฉีดวัคซีน ทั้งที่มีภูมิต้านทานตามธรรมชาติ เทคโนโลยีที่ใช้เปลี่ยนคุณสมบัติทางกรรมพันธุ์ของไวรัส มีโอกาสที่จะแพร่กระจายไปอย่างกว้างขวางในอนาคต ถ้าไม่ควบคุมให้เหมาะสม

มีการเสนอการบรรเทาความเสี่ยงจากเทคโนโลยีชีวภาพ และโรคระบาดทั่วตามธรรมชาติ โดยใช้มาตรการ 3 ข้อคือ การควบคุมและป้องกันงานวิจัยที่อาจเป็นอันตราย การตรวจจับเหตุการณ์ระบาดที่ดีขึ้น และการตั้งศูนย์เพื่อบรรเทาเหตุการณ์ระบาด (เช่น เพื่อเก็บวัคซีน แบบกระจายไปให้ทั่วถึง)

การสงคราม

สถานการณ์ที่คิดพิจารณาบ่อยครั้งที่สุดก็คือ สงครามนิวเคลียร์ และอาวุธทำลายโลก (doomsday device) แม้ว่า ความน่าจะเป็นของสงครามนิวเคลียร์ต่อปีนั้นน้อยมาก แต่มีนักวิชาการที่เสนอว่า เป็นเรื่องที่หลีกเลี่ยงไม่ได้ในระยะยาว คือยกเว้นถ้าความน่าจะเป็นเข้าไปใกล้ค่าศูนย์ วันหนึ่งโชคดีที่มีมาของมนุษย์จะหมดไป ยกตัวอย่างเช่น ระหว่างวิกฤตการณ์ขีปนาวุธคิวบา ประธานาธิบดี จอห์น เอฟ. เคนเนดี ประเมินโอกาสที่จะเกิดสงครามนิวเคลียร์ "ระหว่างหนึ่งในสาม ถึงครึ่งต่อครึ่ง" ในปี ค.ศ. 2014 สหรัฐอเมริกาและประเทศรัสเซีย มีอาวุธนิวเคลียร์รวม ๆ กัน 15,315 ชิ้น และมีอาวุธทั้งหมดในโลกประมาณ 16,400 ชิ้น

แต่ถึงแม้ว่า จะมีความเห็นที่นิยมว่า สงครามนิวเคลียร์จะเป็น "จุดจบของโลก" ผู้เชี่ยวชาญกลับให้ความน่าจะเป็นที่ต่ำว่า มนุษย์จะสูญพันธุ์เพราะเหตุสงคราม ในปี ค.ศ. 1982 นักวิชาการเชี่ยวชาญทางวิทยาศาสตร์ เทคโนโลยี และสังคมคนหนึ่ง ประเมินว่า สงครามนิวเคลียร์ระหว่าสหรัฐอเมริกาและรัสเซีย จะฆ่าคน 400-450 ล้านคนโดยตรง และอีกหลายร้อยล้านคนเนื่องจากผลที่ตามมา

แต่ว่าสงครามจะฆ่าคนและทำลายที่อยู่อาศัยมนุษย์ เป็นจำนวนมาก อย่างไม่เคยมีมาก่อน และการระเบิดของอาวุธนิวเคลียร์เป็นจำนวนมาก จะมีผลระยะยาวต่อภูมิอากาศ คือจะทำให้อากาศหนาวเย็น และลดการได้แสงอาทิตย์ ซึ่งอาจจะเป็นปัญหาสำคัญต่ออารยธรรมต่าง ๆ:4.2

นอกจากสงครามนิวเคลียร์แล้ว เหตุการณ์ที่เป็นภัยต่อมนุษย์รวมทั้งสงครามชีวภาพ การก่อการร้ายชีวภาพ และสงครามเคมี

ปรากฏการณ์โลกร้อน

ปรากฏการณ์โลกร้อนหมายถึง ภูมิอากาศของโลกที่ร้อนขึ้น เนื่องจากเทคโนโลยีของมนุษย์ ตั้งต้นแต่คริสต์ศตวรรษที่ 19 เป็นความเปลี่ยนแปลงในระดับที่ผิดธรรมดา จากภูมิอากาศตามประวัติของโลก ความเปลี่ยนแปลงที่คาดหวังได้ในอนาคตรวมทั้ง โลกจะร้อนขึ้นอีก ระดับน้ำทะเลจะสูงขึ้น ความถี่และความรุนแรงของลมฟ้าอากาศสุดโต่งจะสูงขึ้น และจะมีเหตุการณ์เกี่ยวกับภูมิอากาศ และภัยพิบัติที่เกิดจากดินฟ้าอากาศต่าง ๆ ผลของโลกร้อนรวมทั้ง การสูญเสียความหลากหลายทางชีวภาพ ปัญหาความกดดันต่อระบบการผลิตอาหารที่มีอยู่ และการแพร่โรคระบาดบางอย่างเช่นมาลาเรีย

มีการเสนอว่า โลกที่ร้อนขึ้นแบบควบคุมไม่ได้ อาจทำให้สิ่งมีชีวิตอยู่ไม่ได้ เหมือนกับดาวศุกร์ ส่วนสถานการณ์ที่ไม่สาหัสถึงขนาดนั้น อาจหมายถึงจุดจบของอารยธรรมแบบที่เคยมีมาก่อน

โดยวิธีการวิเคราะห์เหตุการณ์ที่เกิดขึ้นได้ในอนาคต (scenario analysis) กลุ่มนักวิทยาศาสตร์ขององค์กร Global Scenario Group (GSG) ได้สร้างแบบเหตุการณ์ที่เป็นไปได้ในโลก เมื่ออารยธรรมมนุษย์เข้าสู่ยุค Planetary Phase of Civilization (อารยธรรมช่วงแพร่ทั้งโลก) เหตุการณ์หนึ่งที่เป็นไปได้ ก็คือความล้มเหลวของอารยธรรม เมื่อผลที่เกิดจากโลกร้อนรุนแรงมากขึ้น ทำให้การแข่งขันต่อสู้เพื่อทรัพยากรธรรมชาติเพิ่มขึ้น และช่องว่างระหว่างคนรวยกับคนจนเพิ่มขึ้น GSG ได้คาดหมายเหตุการณ์อื่น ๆ ที่เป็นไปได้ เช่นเหตุการณ์ที่มนุษย์จะไม่ประสบความล้มเหลวทางสังคม และในที่สุดจะไปถึงจุดที่สามารถยั่งยืนอยู่ได้ ทั้งทางสิ่งแวดล้อมและทางสังคม แต่ว่า เหตุการณ์ที่จะเกิดขึ้น ขึ้นอยู่กับสิ่งที่มนุษย์เลือกจะทำ และขึ้นอยู่กับการตั้ง global citizens movement (ขบวนการประชาชนโลก) ที่สนับสนุนความก้าวหน้าทางสังคมที่ยั่งยืนได้ ซึ่งจะมีอิทธิพลต่อพัฒนาการของโลก

ภัยพิบัติทางสิ่งแวดล้อม/นิเวศน์

ภัยพิบัติทางระบบนิเวศ เช่นความล้มเหลวของพืชผล หรือความล้มเหลวของระบบนิเวศที่ทำประโยชน์ให้กับมนุษย์ (ecosystem services) สามารถเกิดขึ้นได้เนื่องจากมีประชากรมากเกินไป หรือเนื่องจากแนวโน้มการพัฒนาทางเศรษฐกิจ และระบบเกษตรกรรมที่ไม่ยั่งยืน เหตุการณ์เช่นนี้อาจจะมีองค์ประกอบต่าง ๆ เหล่านี้ คือ การสูญพันธุ์ยุคโฮโลซีน, วิกฤตการณ์ไม่มีน้ำ ที่อาจทำให้คนครึ่งโลกไม่มีน้ำที่ทานได้อย่างปลอดภัย, พาหะถ่ายเรณูที่ลดลง, การจับสัตว์ทะเลมากเกินไป, การสูญเสียป่าอย่างยิ่งใหญ่, การขยายตัวของเขตทะเลทราย, ความเปลี่ยนแปลงสภาพทางภูมิอากาศ, หรือการก่อมลพิษให้แก่น้ำที่รุนแรงกว้างขวาง ภัยในแนวนี้ที่เกิดขึ้นเร็ว ๆ นี้ก็คือ ปรากฏการณ์รังผึ้งล่มสลาย ซึ่งอาจจะเป็นสัญญาณแสดงว่า จะมีการสูญพันธุ์ในไม่ช้านี้ ของผึ้งพันธุ์ Apias mellifera (อังกฤษ: Western honeybee) และเนื่องจากว่า ผึ้งชนิดนี้มีบทบาทสำคัญยิ่งในการถ่ายเรณู การสูญพันธุ์ของมันจะสร้างปัญหาอย่างรุนแรงในห่วงโซ่อาหาร

วิกฤตประชากรและเกษตรกรรม

ดูบทความหลักที่: มหันตภัยมาลธูเซียน

มีการเพิ่มประชากรโลกอย่างรวดเร็วในช่วงคริสต์ศตวรรษที่ 20 เนื่องจากการพัฒนาทางการแพทย์ และการเพิ่มผลผลิตทางเกษตรกรรม ที่เกิดจากกระบวนการที่เรียกว่า การปฏิวัติสีเขียว (Green Revolution) ระหว่างปี ค.ศ. 1950-1984 การปฏิวัติสีเขียวได้เปลี่ยนแปลงเกษตรกรรมไปทั่วโลก คือ การผลิตธัญพืชทั่วโลกเพิ่มขึ้นถึง 250% ซึ่งช่วยให้การผลิตอาหาร ทันกับการเติบโตของประชากร หรือจริง ๆ แล้วก็คือ ช่วยให้ประชากรเติบโตได้ พลังงานที่ใช้ในการปฏิวัติสีเขียว มาจากเชื้อเพลิงซากดึกดำบรรพ์ ในรูปของปุ๋ย (ผลิตจากแก๊สธรรมชาติ) สารฆ่าศัตรูพืชและสัตว์ (จากน้ำมัน) และชลประทานที่ใช้เชื้อเพลิงไฮโดรคาร์บอน

มีนักวิชาการที่กำหนดในงานศึกษา Food, Land, Population and the U.S. Economy (อาหาร ที่ดิน ประชากร และเศรษฐกิจของสหรัฐอเมริกา) ว่า ระดับประชากรของสหรัฐ ในระบบเศรษฐกิจที่สามารถยั่งยืน ควรอยู่ที่ 200 ล้านคน (อยู่ที่ 320 ล้านคนในปี ค.ศ. 2015) เพื่อที่จะมีเศรษฐกิจที่ยั่งยืน และหลีกเลี่ยงภัยพิบัติ สหรัฐต้องลดประชากรอย่างน้อย 1/3 และประชากรโลกต้องลดลงอย่างน้อย 2/3 (อยู่ที่ 7,000 ล้านคนในปี ค.ศ. 2012) ผู้เขียนงานศึกษาเชื่อว่า วิกฤตการณ์ทางเกษตรกรรมจะเริ่มมีผล หลังปี ค.ศ. 2020 และจะไม่ถึงจุดวิกฤต จนถึงปี ค.ศ. 2050 มีนักธรณีวิทยาที่อ้างว่า ในทศวรรษต่อ ๆ มาที่กำลังมาถึง เราจะเห็นราคาอาหารที่เพิ่มขึ้นอย่างไม่สุดสิ้น และจะมีการอดอยากทั่วโลกในระดับที่ไม่เคยประสบมาก่อน

ข้าวสาลีเป็นธัญพืชที่ปลูกมากที่สุดเป็นอันดับ 3 ของโลก แต่มีเชื้อราที่มีอยู่เช่น Ug99 ที่สามารถทำลายพืชในระดับ 100% ในพันธุ์ปัจจุบันโดยมากที่ปลูกอยู่ และเมื่อเกิดขึ้นแล้ว จะไม่สามารถแก้ไขได้ และราแพร่กระจายได้ไปตามลม ถ้ามีเขตปลูกข้าวสาลีที่สำคัญของโลกเกิดติดเชื้อ ก็จะมีวิกฤตการณ์ข้าวสาลี ซึ่งจะเพิ่มทั้งราคาของข้าว และเกิดความขาดแคลนอาหารที่ทำจากข้าวสาลี

อุบัติเหตุเกี่ยวกับเทคโนโลยีใหม่ ๆ

ดร. นิก บอสตรอม เสนอว่า ในการค้นหาความรู้ใหม่ ๆ มนุษย์อาจจะสร้างอุปกรณ์ ที่สามารถทำลายโลกและระบบสุริยะได้โดยไม่ได้ตั้งใจ:4.8 คือ การทดลองในสาขาฟิสิกส์นิวเคลียร์ และฟิสิกส์พลังงานสูง อาจจะสร้างปัจจัยที่ไม่ปกติ ที่มีผลเป็นมหันตภัย ยกตัวอย่างเช่น นักวิทยาศาสตร์ที่ทดสอบระเบิดนิวเคลียร์เป็นครั้งแรกที่ทรินิตี กังวลว่าการระเบิดอาจจะไหม้บรรยากาศของโลกได้ และเมื่อไม่นานนี้ มีนักวิทยาศาสตร์ที่กังวลว่า เครื่องชนอนุภาค Relativistic Heavy Ion Collider ในรัฐนิวยอร์ก หรือเครื่องชนอนุภาคขนาดใหญ่ใกล้เมืองเจนีวา อาจจะก่อให้เกิดปฏิกิริยาลูกโซ่ เป็นมหันตภัยระดับโลก เกี่ยวเนื่องกับหลุมดำ strangelet หรือสภาวะสุญญากาศเทียม (false vacuum state) แม้ว่าปัญหาโดยเฉพาะเหล่านี้ จะพิสูจน์ว่าเท็จแล้ว

แต่ความวิตกกังวลทั่ว ๆ ไปในแนวทางเดียวกัน ก็ยังไม่สามารถกำจัดได้

เทคโนโลยีชีวภาพอาจนำไปสู่โรคระบาดทั่ว การสงครามเคมีอาจทำแบบสุดรุนแรง นาโนเทคโนโลยีอาจนำไปสู่สถานการณ์ที่หุ่นยนต์สามารถสร้างต้นเอง โดยใช้ทรัพยากรทั้งหมดในโลก ไม่ว่าจะโดยตั้งใจออกแบบ หรือโดยอุบัติเหตุ

ที่ไม่ได้เกิดจากมนุษย์

โรคระบาดทั่วโลก

ดูบทความหลักที่: โรคระบาดทั่ว

จำนวนคนตายจากโรคระบาดทั่ว จะเท่ากับความรุนแรง (virulence) ของจุลชีพก่อโรค คูณด้วยจำนวนคนที่ติดเชื้อทั้งหมด มีการสันนิษฐานว่า จุลชีพตามธรรมชาติ จะมีระดับความรุนแรงสูงสุดที่จำกัด เพราะว่า จุลชีพที่ฆ่าสัตว์ถูกเบียนเร็วเกินไป อาจจะไม่มีเวลาพอที่จะแพร่กระจายไปติดสัตว์อื่น ในขณะที่จุลชีพที่ฆ่าสัตว์ถูกเบียนช้า ๆ หรือไม่ฆ่าเลย จะเปิดโอกาสให้สัตว์พาหะโรคมีเวลาในการกระจายโรค และดังนั้น จึงขยายพันธุ์ได้ดีกว่าจุลชีพพันธุ์ที่รุนแรงกว่า

แบบจำลองที่เรียบง่ายนี้พยากรณ์ว่า ถ้าความรุนแรงและการกระจายโรคไม่สัมพันธ์กัน จุลชีพก่อโรคจะวิวัฒนาการไปเป็นแบบรุนแรงน้อย และกระจายพันธุ์ได้เร็ว แต่ว่า ข้อสมมุตินี้ไม่เป็นจริงเสมอในเหตุการณ์ที่ซับซ้อนจริง ๆ ที่ระดับความรุนแรงและอัตราการแพร่กระจาย จะสัมพันธ์กัน ดังนั้น จุลชีพที่รุนแรง จึงสามารถวิวัฒนาการเกิดขึ้นได้ ระดับความรุนแรงที่เป็นไปได้ ก็จะจำกัดโดยกลุ่มประชากรที่ซับซ้อนของสัตว์ถูกเบียน ที่มีระดับการติดเชื้อต่าง ๆ กัน หรืออาจจะอยู่ในพื้นที่ที่แยกออกจากกัน นอกจากนั้นแล้ว ขนาดของกลุ่มประชากรสัตว์ถูกเบียน และการแข่งขันกันระหว่างสายเชื้อจุลชีพ สามารถเปลี่ยนระดับความรุนแรงของจุลชีพได้

เป็นเรื่องน่าสนใจว่า จุลชีพที่ก่อโรคในมนุษย์โดยเป็นสัตว์ทุติยภูมิ และปกติก่อโรคในสัตว์อื่น โดยเป็นสัตว์ปฐมภูมิ (คือเป็นโรครับจากสัตว์) อาจไม่มีข้อจำกัดในความรุนแรงของโรคที่ก่อในมนุษย์ เพราะว่า การติดโรคของมนุษย์เป็นเพียงอุบัติเหตุ และวิวัฒนาการของจุลชีพ จะขับเคลื่อนโดยเหตุการณ์ที่เกิดในสัตว์อื่น

มีตัวอย่างทางประวัติศาสตร์มากมายเกี่ยวกับโรคระบาดทั่ว ที่มีผลทำลายล้างมนุษย์เป็นจำนวนมาก ซึ่งทำให้โรคระบาดทั่วโลก เป็นความเสี่ยงที่เป็นจริงได้ และเป็นภัยต่ออารยธรรมมนุษย์

การเปลี่ยนแปลงสภาพภูมิอากาศ

การเปลี่ยนแปลงสภาพภูมิอากาศ หมายถึงความต่าง ๆ กันตามธรรมชาติของภูมิอากาศโลก ตามกาลเวา ภูมิอากาศมักจะเปลี่ยนแปลงไปอย่างช้า ๆ เช่นในช่วงยุคน้ำแข็ง และช่วงที่มีอากาศอุ่นจนกระทั่งต้นปาล์มสามารถโตได้ในทวีปแอนตาร์กติกา มีสันนิษฐานว่า มียุคหนึ่งที่เรียกว่า "snowball Earth (โลกลูกหิมะ)" ที่มหาสมุทรทั้งหมดปกคลุมด้วยน้ำแข็ง ภูมิอากาศโลกเช่นนี้ มักจะเปลี่ยนแปลงอย่างช้า ๆ ก่อนที่อารยธรรมมนุษย์จะเกิดขึ้นประมาณหมื่นปีก่อน ในช่วงปลายของยุคน้ำแข็งยุคสุดท้ายที่ภูมิอากาศเริ่มเสถียรมากขึ้น แต่ว่าการเปลี่ยนแปลงสภาพภูมิอากาศอย่างกระทันหัน ในช่วงเวลาเป็นเพียงทศวรรษ ก็มีด้วยแต่จำกัดในบางพื้นที่ แต่เพราะว่า อารยธรรมนุษย์เริ่มขึ้นในช่วงที่ภูมิอากาศเถียร แม้การเปลี่ยนแปลงตามธรรมชาติ ไม่ว่าจะร้อนขึ้นหรือหนาวขึ้น ก็อาจจะเป็นภัยต่อมนุษย์

ยุคน้ำแข็ง
ดูบทความหลักที่: ยุคน้ำแข็ง

เรารู้ตามประวัติของโลกว่า มียุคน้ำแข็ง 12 ยุคที่ได้ผ่านมาแล้ว อาจจะมียุคน้ำแข็งเกิดขึ้นอีกภายใน 40,000-100,000 ปี ซึ่งจะเป็นปัญหารุนแรงกับอารยธรรมเพราะว่า พื้นที่เป็นจำนวนมาก (โดยหลักในอเมริกา ยุโรป และเอเชีย ทางภาคเหนือ) อาจจะไม่สามารถอยู่ได้ การอยู่ในเขตร้อนจะยังเป็นไปได้ แต่อาจจะในระดับความชื้นและระดับน้ำที่ลดลง ในขณะปัจจุบัน โลกอยู่ในช่วงคั่นช่วงเวลาธารน้ำแข็ง (Interglacial) การขยายตัวของธารน้ำแข็งครั้งสุดท้าย หยุดลงเมื่อประมาณหมื่นปีก่อน และอารยธรรมมนุษย์ทั้งหมด เกิดพัฒนาการหลังจากนั้น ถึงอย่างไรก็ดี นักวิทยาศาสตร์ไม่พยากรณ์ว่า ยุคน้ำแข็งตามธรรมชาติจะเกิดขึ้นภายในเร็ว ๆ นี้

ภูเขาไฟ

เหตุการณ์ทางธรณีวิทยา เช่น หินบะซอลต์ท่วม ภูเขาไฟระเบิด และซูเปอร์ภูเขาไฟระเบิด สามารถทำให้เกิดฤดูหนาวภูเขาไฟ คล้ายกับฤดูหนาวนิวเคลียร์ มีเหตุการณ์เช่นนี้ที่ทะเลสาบโตบา ประเทศอินโดนีเซีย เมื่อ 71,500 ปีก่อน และตามทฤษฎีมหันตภัยทะเลสาบโตบา เหตุการณ์นั้นอาจจะลดจำนวนมนุษย์ในเวลานั้น จนเหลือไม่กี่หมื่นคน แอ่งภูเขาไฟรูปกระจาดที่อุทยานแห่งชาติเยลโลว์สโตน เป็นซูเปอร์ภูเขาไฟอีกแห่งหนึ่ง ซึ่งได้ระเบิดขึ้นอย่างน้อย 142 ครั้งใน 17 ล้านปีที่ผ่านมา การระเบิดภูเขาไฟอย่างรุนแรง จะปล่อยฝุ่นภูเขาไฟ แก๊สพิษ และแก๊สเรือนกระจก ไปในบรรยากาศ มีผลสาหัสต่อภูมิอากาศของโลก จะหนาวหรือร้อนก็ดี ถ้าเป็นด้านหนาว จะทำให้หนาวมาก เป็นฤดูหนาวภูเขาไฟในระยะสั้น และยุคน้ำแข็งในระยะยาว หรือถ้าโลกร้อนขึ้น ก็จะเป็นเพราะแก๊สเรือนกระจกมีอิทธิพลต่อภูมิอากาศมากที่สุด

เมื่อซูเปอร์ภูเขาไฟที่เยลโลว์สโตน ระเบิดครั้งสุดท้ายเมื่อ 640,000 ปีก่อน หินหนืดและเถ้าที่ออกมาจากปล่องภูเขาไฟ ปกคลุมประเทศสหรัฐอเมริกาด้านตะวันตกของแม่น้ำมิสซิสซิปปีโดยมาก และส่วนหนึ่งของประเทศเม็กซิโกด้านตะวันออกเฉียงเหนือ การระเบิดเช่นนี้อีก อาจจะเป็นภัยต่ออารยธรรม และอาจปล่อยแก๊สออกมาเป็นจำนวนมาก พอที่จะทำลายความสมดุลของแก๊สคาร์บอนไดออกไซด์ มีผลเป็นปรากฏการณ์แก๊สเรือนกระจกที่คุมไม่อยู่[ไม่แน่ใจ][ต้องการอ้างอิง] หรือปล่อยฝุ่นตะกอนภูเขาไฟหรือวัสดุอื่น ๆ ไปในชั้นบรรยากาศ แล้วบังแสงอาทิตย์ มีผลเป็นฤดูหนาวภูเขาไฟ ดังที่เกิดขึ้นในปี ค.ศ. 1816 ที่ภูเขาไฟตัมโบราระเบิด มีผลเป็นปีไร้ฤดูร้อน การระเบิดเช่นนี้อาจทำให้คนตายทันทีเป็นล้าน ๆ คนแม้อยู่ห่างเป็นหลายร้อยกิโลจากจุดระเบิด และอาจทำให้ตายเป็นพัน ๆ ล้านคนโดยที่สุด ทั่วโลก เนื่องจากการไร้มรสุม[ต้องการอ้างอิง], มีผลเป็นเกษตรกรรมล้มเหลว แล้วทำให้เกิดความอดอยากอย่างที่ไม่เคยมีมาก่อน

ส่วนเหตุการณ์ที่เป็นเรื่องไม่แน่นอนยิ่งกว่านั้น คือ Verneshot ซึ่งเป็นทฤษฎีการระเบิดภูเขาไฟ ที่เกิดจากการสั่งสมแก๊สใต้หินฐานธรณี (craton) การระเบิดภูเขาไฟเช่นนี้อาจแรงพอ ที่จะส่งวัสดุเป็นจำนวนมากจากเปลือกโลกและเนื้อโลก ไปในแนววิถีเกือบถึงวงโคจร

คลื่นเมกะสึนามิ

ภัยอีกอย่างหนึ่งก็คือ คลื่นเมกะสึนามิ เช่น คลื่นที่อาจจะสามารถทำลาย ฝั่งด้านตะวันออกของประเทศสหรัฐอเมริกาทั้งสิ้น เป็นคลื่นที่เกิดจากเกาะภูเขาไฟถล่มลงมาในทะเล แม้ว่า เหตุการณ์เหล่านี้ จะไม่สามารถทำลายเผ่าพันธุ์มนุษย์โดยทั้งหมด แต่ก็สามารถเป็นภัยต่ออารยธรรมในพื้นที่ มีคลื่นสึนามิที่มีคนตายมาก แม้หลังจากที่เกิดเหตุการณ์แผ่นดินไหวและคลื่นสึนามิในโทโฮะกุ พ.ศ. 2554 และในมหาสมุทรอินเดีย พ.ศ. 2547 แต่ก็ยังไม่ใหญ่พอที่จะเรียกว่า คลื่นเมกะสึนามิ เมกะสึนามิ สามารถมีแหล่งกำเนิดจากวัตถุอวกาศได้ด้วย เช่นมีดาวเคราะห์น้อยวิ่งลงมาในทะเล

การสลับขั้วแม่เหล็กโลก

ดูบทความหลักที่: การสลับขั้วแม่เหล็กโลก

ตามประวัติโลก ขั้วแม่เหล็กของโลกได้เปลี่ยนที่มาหลายครั้งแล้ว ระยะเวลาที่เหตุการณ์เหล่านี้เป็นไป ยังไม่ชัดเจน แต่มีทฤษฎีที่ว่า ในช่วงระยะเวลาเหล่านี้ สนามแม่เหล็กโลกจะอ่อนมากหรือไม่มีเลย ซึ่งจะเป็นภัยต่ออารยธรรมที่ใช้ไฟฟ้า หรือต่อสัตว์พืชหลายสปีชีส์ เนื่องจากการแผ่รังสีจากดวงอาทิตย์ โดยเฉพาะก็คือ ลมสุริยะ เปลวสุริยะ และรังสีคอสมิก จะเข้ามาถึงโลกได้ แต่ว่า ทฤษฎีเหล่านี้ พิสูจน์ว่าเท็จเป็นบางส่วนแล้ว เพราะว่า การวิเคราะห์ทางสถิติ ไม่แสดงหลักฐานว่ามีสหสัมพันธ์ระหว่างการสลับขั้วในอดีต กับการสูญพันธุ์ของสัตว์หรือพืช

ทฤษฎีการสลับขั้วแม่เหล็กโลกที่ยอมรับ ไม่ควรสับสนกับสมมุติฐานขั้วโลกเปลี่ยน (Pole shift hypothesis) ซึ่งตั้งขึ้นเมื่อปี ค.ศ. 1872 และมีการอภิปรายช้ำ ๆ ในช่วงปลายคริสต์ศตวรรษ 20 แต่ไม่เป็นที่ยอมรับของนักวิทยาศาสตร์ในปัจจุบัน คือสมมุติฐานเสนอว่า แกนหมุนของโลก สามารถเปลี่ยนตำแหน่งเปรียบเทียบกับเปลือกโลก ได้อย่างรวดเร็ว ทำให้เกิดแผ่นดินไหวและคลื่นสึนามิอย่างรุนแรง แล้วเปลี่ยนแปลงสภาพภูมิอากาศในพื้นที่ ทำความเสียหาย สมมุติฐานนี้ ขัดกับการตีความข้อมูลธรณีวิทยา โดยนักวิทยาศาสตร์ทั่วไป ซึ่งบอกว่า การเปลี่ยนแกนหมุน (true polar wander) สามารถเกิดขึ้นได้ แต่จะเป็นไปอย่างช้า ๆ ในช่วงเวลาเป็นล้าน ๆ ปี

ดาวเคราะห์น้อยวิ่งกระทบโลก

มีดาวเคราะห์น้อยหลายดวง ที่วิ่งมาชนโลกตามประวัติโลกที่ยังไม่นาน ยกตัวอย่างเช่น มีทฤษฎีว่า ดาวเคราะห์น้อยที่สร้างแอ่ง Chicxulub ในรัฐยูกาตัง ประเทศเม็กซิโก เป็นเหตุของการสูญพันธุ์ในยุคครีเทเชียส-พาลิโอจีน ของไดโนเสาร์ที่บินไม่ได้ เมื่อ 66 ล้านปีก่อน ถ้ามีวัตถุใหญ่เช่นนั้นวิ่งมากระทบโลก จะมีผลรุนแรงต่ออารยธรรม เป็นไปได้ว่า มนุษยชาติจะสูญสิ้นไป แต่จะเป็นอย่างนี้ได้ ก็ต่อเมื่อดาวเคราะห์น้อยมีขนาดอย่างน้อย 1 กม. เป็นเส้นผ่าศูนย์กลาง และน่าจะต้องมีขนาด 3-10 กม. โดยเฉลี่ยแล้ว จะมีดาวเคราะห์น้อยขนาด 1 กม. วิ่งมากระทบโลกทุก ๆ 500,000 ปี:4.10 ส่วนดาวเคราะห์น้อยที่ใหญ่กว่านั้นไม่ค่อยสามัญ แต่ว่า เราพบดาวเคราะห์น้อยใกล้โลกที่มีขนาดเล็ก เป็นประจำ

อีก 1.4 ล้านปี ดาวฤกษ์ "Gliese 710" จะทำให้เกิดมีสะเก็ดดาวเพิ่มขึ้นใกล้โลก เมื่อมันเข้ามาในระยะ 1.1 ปีแสงจากดวงอาทิตย์ (ปัจจุบันห่าง 63.8 ปีแสง) และมีผลรบกวนเมฆออร์ตที่อยู่ล้อมรอบระบบสุริยะ แบบจำลองพลวัต (Dynamic model) ของนักวิทยาศาสตร์กลุ่มหนึ่ง พยากรณ์ว่า จะมีสะเก็ดดาววิ่งเข้ามากระทบโลกเพิ่มขึ้น 5% แต่ว่า วัตถุที่มาจากเมฆออร์ต จะใช้เวลาเป็นล้าน ๆ ปี ที่จะวิ่งเข้ามาถึงระบบสุริยะด้านใน ซึ่งเป็นเขตที่โลกอยู่

การบุกรุกของมนุษย์ต่างดาว

มนุษย์ต่างดาวอาจจะมารุกรานโลกhttp://discovermagazine.com/2000/oct/featworld 20 Ways the World Could End Oct 01, 2000 เพื่อที่จะกำจัดหรือทดแทนมนุษย์ ทำมนุษย์ให้เป็นทาส ขโมยทรัพยากรของโลก หรือทำลายโลกทั้งสิ้น

แม้ว่ายังไม่มีหลักฐานว่า มีมนุษย์ต่างดาว นักวิทยาศาสตร์ เช่น ดร. คาร์ล เซแกน เชื่อว่า มนุษย์ต่างดาวน่าจะมีอยู่ ในปี ค.ศ. 1969 รัฐบาลสหรัฐได้ตั้งกฎบังคับเกี่ยวการถูกต้องสัมผัสวัตถุต่างดาว (Extra-Terrestrial Exposure Law) เพราะความเป็นไปได้ที่จะเกิดการปนเปื้อนทางชีวภาพ ของโครงการอะพอลโล แล้วต่อมาจึงได้ยกเลิกกฎนี้ในปี ค.ศ. 1991 ปัจจุบันนี้ นักวิทยาศาสตร์พิจารณาสถานการณ์นี้ว่า เป็นไปได้โดยเทคนิค แต่มีโอกาสน้อย:7.2

พาราด็อกซ์ของแฟร์มี

ในปี ค.ศ. 1950 นักฟิสิกส์ชาวอิตาลี ดร. เอนริโก แฟร์มี ตั้งข้อสงสัยว่า ทำไมมนุษย์จึงยังไม่พบเจออารยธรรมต่างดาว แล้วถามว่า "แล้วทุกคนไปอยู่ไหนหมด" เพราะอายุของเอกภพที่เก่าแก่ และจำนวนดาวฤกษ์ที่มีอยู่มากมาย ถ้าโลกไม่ผิดปกติ สิ่งมีชีวิตต่างดาวก็ควรจะมีอยู่อย่างสามัญ ดังนั้น ทำไมจึงไม่มีหลักฐานว่ามีอารยธรรมต่างดาว คำถามนี้ รู้จักกันว่า พาราด็อกซ์ของแฟร์มี

เหตุผลอย่างหนึ่งที่เสนอที่นอกเหนือจากความเป็นไปได้ว่า ไม่มีสิ่งมีชีวิตอื่น แม้จะไม่ได้รับการยอมรับอย่างทั่วไป ก็คือ มนุษย์ยังไม่พบสิ่งมีชีวิตที่ฉลาดจากดาวเคราะห์อื่น ๆ เป็นเพราะความน่าจะเป็น ที่จะเกิดมหันตภัยที่ทำลายล้างการอยู่รอด ซึ่งก็คือ อารยธรรมของสิ่งมีชีวิตที่ฉลาดอื่น ๆ ถูกทำลายล้างไป ก่อนที่มนุษย์จะสามารถพบเจอ หรือว่า พวกเขาไม่สามารถค้นหาโลกได้

ภัยจากจักรวาล

มีภัยทางดาราศาสตร์ที่เราเริ่มรู้แล้ว วัตถุที่มีมวลมหาศาล เช่น ดาวฤกษ์ ดาวเคราะห์ขนาดใหญ่ หรือหลุมดำ สามารถเป็นมหันตภัยได้ ถ้าเข้ามาใกล้ระบบสุริยะ ในเดือนเมษายน ปี ค.ศ. 2008 มีการประกาศว่า การจำลองการเคลื่อนไหวของดาวเคราะห์ในระยะยาว ที่ทำที่หอสังเกตการณ์ปาริส (Paris Observatory) และที่มหาวิทยาลัยแคลิฟอร์เนีย ซานตาครูซ แสดงว่า มีโอกาส 1% ที่วงโคจรของดาวพุธ จะเกิดความไม่เสถียร เพราะเหตุแรงโน้มถ่วงของดาวพฤหัสบดี ในช่วงอายุขัยของพระอาทิตย์ ถ้านี่เกิดจริง ๆ การจำลองบอกว่า ดาวพุทธจะวิ่งชนโลก ซึ่งเป็นผลที่เป็นไปได้อย่างหนึ่งใน 4 อย่าง โดยที่ผลอย่างอื่นรวมทั้ง วิ่งชนดวงอาทิตย์ วิ่งชนดาวศุกร์ หรืออาจวิ่งออกจากระบบสุริยะโดยสิ้นเชิง ถ้าวิ่งชนโลก สิ่งมีชีวิตทั้งหมดในโลกจะถูกทำลาย ขนาดดาวเคราะห์น้อยขนาด 15 กม. ยังเชื่อว่า เป็นเหตุให้ไดโนเสาร์ที่บินไม่ได้สูญพันธุ์ เทียบกับดาวพุทธ ซึ่งมีขนาด 4,879 กม.

ภัยอีกอย่างอาจจะมาจากแสงวาบรังสีแกมมา ซึ่งจะทำให้สัตว์พืชสูญพันธุ์และทำลายชั้นโอโซนของโลก

แต่ภัยทั้งสองมีโอกาสน้อยที่จะเกิดขึ้นในอนาคตที่ยังพอมองเห็นได้:4.7

ภัยที่คล้าย ๆ กันอีกอย่างหนึ่งคือ ไฮเปอร์โนวา ซึ่งเกิดขึ้นเมื่อดาวไฮเปอร์ไจแอนท์ระเบิดแล้วยุบตัวลง แผ่รังสีเป็นจำนวนมาก ออกไปเป็นระยะทางหลายร้อยปีแสง แม้ว่าจะยังไม่มีใครเคยเห็นไฮเปอร์โนวา แต่ว่ามีการเสนอว่า เป็นเหตุของการสูญพันธุ์ยุคออร์โดวิเชียน-ยุคไซลูเรียน ดาวไฮเปอร์ไจแอนท์ที่ใกล้ที่สุดอยู่ในระบบดาว Eta Carinae ซึ่งอยู่ห่างประมาณ 8,000 ปีแสง

ถ้าระบบสุริยะวิ่งผ่านเนบิวลามืด ซึ่งก็คือกลุ่มฝุ่นคอสมิก การเปลี่ยนแปลงสภาพภูมิอากาศระดับโลกแบบรุนแรง ก็จะเกิดขึ้น

ข้อมูลเพิ่มเติม: พายุสุริยะ และ เปลวสุริยะ

ซูเปอร์พายุสุริยะ ซึ่งเป็นการลดระดับหรือเพิ่มระดับพลังงานแสงอาทิตย์ที่ไม่ปกติ อาจจะมีผลรุนแรงต่อสิ่งมีชีวิตบนโลก

ถ้าเอกภพของเราอยู่ในสุญญากาศเทียม (false vacuum ตามทฤษฎีสนามควอนตัม) ฟองสุญญากาศที่มีพลังงานต่ำกว่า อาจจะมีขึ้นโดยบังเอิญหรือโดยปัจจัยอื่น ๆ ซึ่งจะเร่งปฏิกิริยาการเปลี่ยนเอกภพให้มีพลังงานต่ำลง โดยขยายออกใกล้ความเร็วของแสง ทำลายทุกสิ่งที่เรารู้จัก โดยไม่มีการเตือนล่วงหน้า เหตุการณ์เช่นนี้เรียกว่า vacuum metastability event (เหตุการณ์ความเสถียรเทียมของสุญญากาศ)

สถานการณ์ที่ไม่ได้รับการยอมรับ

ความเชื่อว่า ปฏิทินของอารยธรรมมายาหยุดไปเฉย ๆ ในวันที่ 21 ธันวาคม พ.ศ. 2555 เป็นความเข้าใจผิด เนื่องจากการที่คนมายา จารึกปฏิทินแบบ Long Count ไว้โดยใช้เลข 5 หลักเท่านั้น ในอนุสรณ์บางแห่ง คนมายาได้คำนวณวันที่ไปทั้งในอดีต ไปทั้งในอนาคต เป็นระยะเวลายาวนาน แต่ไม่มีวันที่สุดของโลก

มีระยะเวลาในระดับที่สูงขึ้นแต่ไม่ค่อยได้ใช้ที่เรียกว่า Piktun ซึ่งมีที่สุดช่วงเวลาตรงกับวันที่ 21 ธันวาคม 2555 Piktun เป็นช่วงเวลา 1,872,000 วัน หรือประมาณ 5,125 วัน และเป็นจุดสำคัญอย่างหนึ่งในปฏิทินมายา แต่ว่า ไม่มีหลักฐานทั้งทางประวัติศาสตร์ หรือทางวิทยาศาสตร์ว่า คนมายาเชื่อว่า จะมีจุดจบของโลก ดังนั้น จึงมีคนที่เชื่อว่า จุดเวลานั้น ก็เป็นเพียงแต่จุดเริ่มต้นของ Piktun ระยะใหม่เท่านั้นเอง

การเตรียมตัวและการป้องกัน

การสร้างระบบจัดการสิ่งแวดล้อมทั้งโลก (Planetary management) และการไม่ก้าวล่วงขอบเขตสิ่งแวดล้อม (planetary boundaries) เป็นวิธีการที่เสนอเพื่อป้องกันมหันตภัยทางนิเวศ โดยเป็นส่วนของวิธีการเหล่านี้ ความรู้จากสาขาวิศวกรรมธรณี (geoengineering) สามารถใช้ในการจัดแจงสิ่งแวดล้อมโลก และเพื่อป้องกันและฟื้นฟูความเสียหาย ที่เกิดจากมนุษย์ต่อบรรยากาศของโลก การสร้างอาณานิคมในอวกาศ เป็นวิธีการอีกอย่างหนึ่งเพื่อเพิ่มโอกาสที่มนุษย์จะอยู่รอดได้ ถ้าเกิดเหตุการณ์ที่อาจทำให้สูญพันธุ์ แต่การแก้ปัญหาในระดับนี้ อาจจะต้องใช้วิศวกรรมที่สามารถสร้างสิ่งปลูกสร้างขนาดเป็น 1,000 กม. (megascale engineering)

การเก็บอาหารที่เลี้ยงชีวิตได้เป็นปี เป็นวิธีการที่เสนอใช้ทั่วโลก แต่ว่า เป็นวิธีที่มีค่าใช้จ่ายสูง และยังอาจเป็นปัจจัยกับการขาดอาหารตายเป็นล้าน ๆ คนต่อปี ที่ก็ยังมีในทุกวันนี้ มีการเสนอในหนังสือ "Feeding Everyone No Matter What (การมีอาหารให้ทุกคนไม่ว่าอะไรจะเกิดขึ้น)" ถึงการผลิตอาหารแบบอื่น ๆ เมื่อเกิดภัยระดับโลก เช่น ฤดูหนาวนิวเคลียร์ ฤดูหนาวภูเขาไฟ การวิ่งชนโลกของดาวเคราะห์น้อย/ดาวหาง และการเปลี่ยนแปลงสภาพภูมิอากาศแบบฉับพลัน เช่น การเปลี่ยนเชื้อเพลิงซากดึกดำบรรพ์และมวลชีวภาพ เป็นอาหาร

นอกจากนั้นแล้ว มีการเสนอให้เบนดาวเคราะห์น้อย (Asteroid deflection) เพื่อลดความเสี่ยงต่อการวิ่งชนโลก ให้ลดหรือกำจัดอาวุธนิวเคลียร์ (Nuclear disarmament) เพื่อลดความเสี่ยงต่อฤดูหนาวนิวเคลียร์ ยังมีชนกลุ่มต่าง ๆ ที่เตรียมตัวรับมือสถานการณ์มหันตภัยเหล่านี้ด้วย เช่น

  • กลุ่มชนที่มีความคิดตามแนวขบวนการ survivalism (การเตรียมการเพื่อรอดชีวิต) จะเก็บอาหารที่อยู่ได้เป็นเวลาหลายปี ในสถานที่ที่เตรียมไว้รับมือสถานการณ์ต่าง ๆ
  • ช่องใต้ดินเพื่อเมล็ดพันธุ์พืชแห่งสฟาลบาร์ เป็นช่องใต้ดินใต้ภูเขา 120 ม. ในอาร์กติก ที่ใช้เก็บพันธุ์พืชจากทั่วโลกมากกว่า 10 ตัน มีเมล็ดพืชพันธุ์กว่า 100 ล้านเมล็ด จากประเทศ 100 ประเทศ ที่ได้เก็บไว้ในช่องใต้ดิน เพื่อสงวนพืชผลของโลก กล่องเมล็ดข้าวจากประเทศ 104 ประเทศ เป็นพืชพันธุ์แรกที่เก็บ โดยรักษาไว้ที่ −18 องศาเซลเซียส จะมีการเก็บสปีชีส์ของพืชอื่นอีกเป็นพัน ๆ ตามความพยายามของผู้ประสานงาน ที่จะหาตัวอย่างของพืชเพาะปลูกทุกอย่างในโลก กรรมการบริหารขององค์กร Global Crop Diversity Trust ซึ่งเป็นส่วนหนึ่งของโปรเจ็กต์นี้ กล่าวว่า การเก็บพืชพันธุ์ให้หลายหลากที่สุดเท่าที่จะเป็นไปได้ จะทำให้มีหนทางแก้ปัญหาต่าง ๆ ในระดับสูงสุด เพื่อประโยชน์ต่อเกษตรกร นักวิทยาศาสตร์ และรัฐบาล และว่า "การเปิดช่องใต้ดินสำหรับเมล็ดพันธุ์พืช เป็นประวัติการณ์ในการปกป้องรักษาความหลากลายของพืชผลของโลก" และถึงแม้ว่าชั้นดินเยือกแข็งคงตัวในอาร์กติกจะเริ่มละลาย เมล็ดที่เก็บไว้ก็จะยังปลอดภัยในช่องใต้ดินได้ถึง 200 ปี และเมล็ดบางอย่าง จะสามารถปลูกได้แม้ผ่านไปพันปีหรือเกินกว่านั้น รวมทั้งข้าวบาร์ลีย์ ซึ่งเก็บได้ถึง 2,000 ปี, ข้าวสาลี ซึ่งเก็บได้ถึง 1,700 ปี และข้าวฟ่าง ซึ่งเก็บได้เกือบถึง 20,000 ปี

องค์กรเพื่อลดความเสี่ยงต่อการรอดชีวิต

  • Centre for the Study of Existential Risk (ศูนย์การศึกษาความเสี่ยงต่อการรอดชีวิต) ศึกษาความเสี่ยงของเทคโนโลยีหลัก 4 อย่างคือ ปัญญาประดิษฐ์ เทคโนโลยีชีวภาพ ปรากฏการณ์โลกร้อน และสงคราม
  • Foresight Institute มีจุดมุ่งหมายเพื่อเพิ่มประโยชน์ และลดความเสี่ยง ของนาโนเทคโนโลยี
  • Machine Intelligence Research Institute (สถาบันวิจัยความฉลาดของเครื่อง) ทำงานวิจัยเกี่ยวกับความเสี่ยงของปัญญาประดิษฐ์
  • Future of Humanity Institute (สถาบันอนาคตของมนุษยชาติ) ทำงานวิจัยเกี่ยวกับอนาคตระยะยาวของมนุษย์ โดยเฉพาะในเรื่องความเสี่ยงต่อการอยู่รอด
  • Lifeboat Foundation (มูลนิธิเรือชูชีพ) มีเว็บไซต์เกี่ยวกับความเสี่ยงมหันตภัยระดับโลก และอนาคตศึกษา
  • Future of Life Institute (สถาบันอนาคตของสิ่งมีชีวิต) มีจุดมุ่งหมายเพื่อส่งเสริมงานวิจัย และโครงการในการป้องกันรักษาสิ่งมีชีวิต โดยให้ความสำคัญกับเทคโนโลยีใหม่ ๆ และอุปสรรคที่มนุษย์จะเผชิญหน้า

องค์กรเพื่อลดความเสี่ยงมหันตภัยระดับโลก

  • Global Catastrophic Risk Institute (สถาบันความเสี่ยงมหันตภัยระดับโลก) ศึกษาความเสี่ยงมหันตภัยทุกอย่าง
  • Millennium Alliance for Humanity & The Biosphere (พันธมิตรสหัสวรรษเพื่อมนุษยชาติและชีวภาค) เป็นชุมชนของคนทั่วโลก ที่สนับสนุนวิธีการปฏิบัติที่ยั่งยืน (sustainable practice)
  • X Center ทำงานวิจัยถึงวิธีคิดโดยเหตุผล ถึงเหตุการณ์ที่ไม่คาดหมาย ทั้งเล็กและใหญ่
  • WHO Global Alert and Response (องค์กรการเตือนภัยและการตอบสนองระดับโลก ขององค์การอนามัยโลก) ตรวจตราสอดส่องโรคระบาด
  • Connecting Organizations for Regional Disease Surveillance (องค์กรประสานงานเพื่อการการสอดส่องโรคในพื้นที่) พุ่งจุดสนใจไปที่การลดความเสี่ยงจากอาวุธทำลายล้างทางชีวภาพ และมาตรการบรรเทาควบคุมถ้าเหตุการณ์เช่นนั้นเกิดขึ้น
  • USAID Emerging Pandemic Threats Program (โปรแกรมภัยโรคระบาดทั่วที่กำลังเกิดขึ้นของ USAID ) เป็นโปรแกรมของรัฐบาลสหรัฐอเมริกา เพื่อป้องกันและควบคุมโรคระบาดทั่วที่เกิดโดยธรรมชาติ โดยทำการที่แหล่งกำเนิด
  • Lawrence Livermore National Laboratory - Global Security ทำงานวิจัยเกี่ยวกับความเสี่ยงมหันตภัยระดับโลก เพื่อกระทรวงกลาโหมของสหรัฐอเมริกา
  • Center for International Security and Cooperation (ศูนย์เพื่อความปลอดภัยและความร่วมมือนานาชาติ) พุ่งความสนใจไปที่การร่วมมือกันทางการเมือง ในระดับนานาชาติ เพื่อลดระดับความเสี่ยงมหันตภัยระดับโลก
  • World Institute for Nuclear Security (สถาบันโลกเพื่อความมั่นคงทางนิวเคลียร์) พุ่งความสนใจไปที่ การให้การศึกษาเกี่ยวกับความปลอดภัยและความมั่นคง สำหรับบุคคลที่อยู่ในอุตสาหกรรมนิวเคลียร์
  • Bulletin of the Atomic Scientists เป็นนิตยสารออน์ไลน์ ที่ออกข้อความเกี่ยวกับความมั่นคงของโลก และนโยบายของรัฐ ในเรื่องอันตรายจากอาวุธนิวเคลียร์และอาวุธทำลายล้างอย่างอื่น ๆ จากการเปลี่ยนแปลงสภาพภูมิอากาศ และจากโรค

ดูเพิ่ม

อ้างอิง

  1. doi:10.1126/science.1177265
    This citation will be automatically completed in the next few minutes. You can jump the queue or expand by hand
  2. "catastrophe", ศัพท์บัญญัติอังกฤษ-ไทย, ไทย-อังกฤษ ฉบับราชบัณฑิตยสถาน (คอมพิวเตอร์) รุ่น ๑.๑, มหันตภัย
  3. Bostrom, Nick (2008). Global Catastrophic Risks (PDF). Oxford University Press. p. 1.
  4. Bostrom, Nick (2002). "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". Journal of Evolution and Technology. 9 (1). สืบค้นเมื่อ 2015-06-17. PDF ArticlePDF (276 KB)
  5. Weitzman, Martin (2009). "On modeling and interpreting the economics of catastrophic climate change". The Review of Economics and Statistics. 91 (1): 1–19. doi:10.1162/rest.91.1.1.
  6. "Frequently Asked Questions". Existential Risk. Future of Humanity Institute. สืบค้นเมื่อ 2013-07-26.
  7. Bostrom, Nick. "Existential Risk Prevention as a Global Priority". Existential Risk. Future of Humanity Institute. สืบค้นเมื่อ 2013-07-23.
  8. อ้างอิงผิดพลาด: ป้ายระบุ <ref> ไม่ถูกต้อง ไม่มีการกำหนดข้อความสำหรับอ้างอิงชื่อ observation selection effects cirkovic
  9. Bostrom, N (2013). "Existential Risk Prevention as Global Priority" (PDF). Global Policy. 4. doi:10.1111/1758-5899.12002. สืบค้นเมื่อ 2014-07-07.
  10. Bostrom, Nick (2003). "Astronomical Waste: The opportunity cost of delayed technological development". Utilitas. 15 (3): 308–314. doi:10.1017/s0953820800004076. PDF ArticlePDF (59 KB)
  11. Posner, Richard A. (2006). Catastrophe : risk and response. Oxford: Oxford University Press. ISBN 978-0195306477., Introduction, "What is Catastrophe?"
  12. Matheny, Jason Gaverick (2007). "Reducing the Risk of Human Extinction". Risk Analysis. 27 (5).
  13. Asher, D.J.; Bailey, M.E.; Emel’yanenko, V.; Napier, W.M. (2005). "Earth in the cosmic shooting gallery". The Observatory. 125: 319–322.CS1 maint: multiple names: authors list (link)
  14. Ambrose 1998; Rampino & Ambrose 2000, pp. 71, 80.
  15. Rampino, M.R.; Ambrose, S.H. (2002). "Super eruptions as a threat to civilizations on Earth-like planets". Icarus. 156: 562–569.CS1 maint: multiple names: authors list (link)
  16. Global Catastrophic Risks Survey, Technical Report, Future of Humanity Institute, 2008
  17. Cirkovic, Milan (2008). "Observation Selection Effects and Global Catastrophic Risks" (PDF). nickbostrom.com. สืบค้นเมื่อ 2015-06-17.
  18. Parfit, Derek (1984). Reasons and Persons. Oxford University Press. pp. 453–454.
  19. http://news.bbc.co.uk/2/hi/sci/tech/specials/washington_2000/649913.stm
  20. Posner, Richard (2004). Catastrophe: risk and response. Oxford University Press.
  21. Desvousges, W.H.; Johnson, F.R.; Dunford, R.W.; Boyle, K.J.; Hudson, S.P.; Wilson, N (1993), Hausman, J.A. (บ.ก.), "Measuring natural resource damages with contingent valuation: tests of validity and reliability", Contingent Valuation:A Critical Assessment, Amsterdam, North Holland, pp. 91–159CS1 maint: multiple names: authors list (link)
  22. Yudkowsky, Eliezer (2008). "Cognitive Biases potentially affecting judgments of global risks" (PDF). สืบค้นเมื่อ 2015-06-17.
  23. Karnofsky, Holden. "Possible Global Catastrophic Risks". GiveWell Blog. GiveWell. สืบค้นเมื่อ 2013-07-24.
  24. "The Cambridge Project for Existential Risk". Cambridge University.
  25. "'Terminator center' to open at Cambridge University". Fox News. 2012-11-26.
  26. Joy, Bill. "Why the future doesn't need us". Wired magazine.
  27. Bostrom, Nick (2002). "Ethical Issues in Advanced Artificial Intelligence". สืบค้นเมื่อ 2015-06-17.
  28. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. United Kingdom: Oxford University Press. ISBN 978-0199678112.
  29. "Scientists Worry Machines May Outsmart Man". NY Times. 209-07-26. Check date values in: |date= (help)
  30. Vinge, Vernor (1993). "The Coming Technological Singularity: How to Survive in the Post-Human Era". Department of Mathematical Sciences, San Diego State University. สืบค้นเมื่อ 2015-06-18.
  31. Rawlinson, Kevin. "Microsoft's Bill Gates insists AI is a threat". BBC News. สืบค้นเมื่อ 2015-01-30.
  32. "Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation". slate.com. 2009-05-21.
  33. "Robot takeover". gyre.org.
  34. "robot page". engadget.com.
  35. Yudkowsky, Eliezer. "Artificial Intelligence as a Positive and Negative Factor in Global Risk". สืบค้นเมื่อ 2013-07-26.
  36. "Call for debate on killer robots". BBC News. 2009-03-08.
  37. "Robot Three-Way Portends Autonomous Future". wired.com. 2009-08-13.
  38. "New Navy-funded Report Warns of War Robots Going "Terminator"". dailytech.com. 2009-02-17.
  39. "Navy report warns of robot uprising, suggests a strong moral compass". engadget.com. 2009-02-18.
  40. "New role for robot warriors; Drones are just part of a bid to automate combat. Can virtual ethics make machines decisionmakers?". Christian Science Monitor. 2010-02-17.
  41. "The Rise of Artificial Intelligence". PBS Off Book (Web series). 2013-07-11. เกิดเหตุเมื่อ 6:29-7:26. สืบค้นเมื่อ 2013-10-24. ...what happens if (AIs) decide we are not useful anymore? I think we do need to think about how to build machines that are ethical. The smarter the machines gets, the more important that is... [T]here are so many advantages to AI in terms of human health, in terms of education and so forth that I would be reluctant to stop it. But even if I did think we should stop it, I don't think it's possible... if, let's say, the US Government forbade development in kind of the way they did development of new stem cell lines, that would just mean that the research would go offshore, it wouldn't mean it would stop. The more sensible thing to do is start thinking now about these questions... I don't think we can simply ban it.
  42. Phoenix, Chris; Treder, Mike (2008). "Chapter 21: Nanotechnology as global catastrophic risk". ใน Bostrom, Nick; Cirkovic, Milan M. (บ.ก.). Global catastrophic risks. Oxford: Oxford University Press. ISBN 978-0-19-857050-9.
  43. "Frequently Asked Questions - Molecular Manufacturing". foresight.org. สืบค้นเมื่อ 2014-07-19.
  44. Drexler, Eric. "A Dialog on Dangers". foresight.org. สืบค้นเมื่อ 2014-07-19.
  45. Sandberg, Anders. "The five biggest threats to human existence". http://theconversation.com/. สืบค้นเมื่อ 2014-07-13. External link in |website= (help)
  46. Drexler, Eric. "ENGINES OF DESTRUCTION (Chapter 11)". http://e-drexler.com/. สืบค้นเมื่อ 2014-07-19. External link in |website= (help)
  47. Tomasik, Brian. "Possible Ways to Promote Compromise". http://foundational-research.org/. สืบค้นเมื่อ 2014-07-19. External link in |website= (help)
  48. "Dangers of Molecular Manufacturing". crnano.org. สืบค้นเมื่อ 2014-07-19.
  49. "The Need for International Control". crnano.org. สืบค้นเมื่อ 2014-07-19.
  50. Tomasik, Brian. "International Cooperation vs. AI Arms Race". foundational-research.org. สืบค้นเมื่อ 2014-07-19.
  51. "Technical Restrictions May Make Nanotechnology Safer". crnano.org. สืบค้นเมื่อ 2014-07-19.
  52. Tomasik, Brian. "Possible Ways to Promote Compromise". http://foundational-research.org/. สืบค้นเมื่อ 2014-07-22. External link in |website= (help)
  53. Joseph, Lawrence E. (2007). Apocalypse 2012. New York: Broadway. p. 6. ISBN 978-0-7679-2448-1.
  54. Rincon, Paul (2004-06-09). "Nanotech guru turns back on 'goo'". BBC News. สืบค้นเมื่อ 2012-03-30.
  55. Hapgood, Fred (1986-11). "Nanotechnology: Molecular Machines that Mimic Life" (PDF). Omni. สืบค้นเมื่อ 2014-07-19. Check date values in: |date= (help)
  56. "Leading nanotech experts put 'grey goo' in perspective". crnano.org. สืบค้นเมื่อ 2014-07-19.
  57. Noun, Ali; Chyba, Christopher F. (2008). "Chapter 20: Biotechnology and biosecurity". ใน Bostrom, Nick; Cirkovic, Milan M. (บ.ก.). Global Catastrophic Risks. Oxford University Press.
  58. Frank SA (1996-03). "Models of parasite virulence". Q Rev Biol. 71 (1): 37–78. doi:10.1086/419267. PMID 8919665. Check date values in: |date= (help)
  59. Jackson, Ronald J.; Ramsay, Alistair J.; Christensen, Carina D.; Beaton, Sandra; Hall, Diana F.; Ramshaw, Ian A. (2001). "Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox". Journal of virology. 75 (3): 1205–1210. doi:10.1128/jvi.75.3.1205-1210.2001. สืบค้นเมื่อ 2014-07-13.
  60. Hellman, Martin E. "On the Probability of Nuclear War". สืบค้นเมื่อ 2015-06-09.
  61. Nuclear Weapons and the Future of Humanity: The Fundamental Questions by Avner Cohen, Steven Lee, p. 237, ที่ Google Books
  62. "Federation of American Scientists: Status of World Nuclear Forces". Fas.org. 2014. สืบค้นเมื่อ 2014-05-26.
  63. Martin, Brian (1982). "Critique of nuclear extinction". Journal of Peace Research. 19 (4): 287–300. doi:10.1177/002234338201900401. สืบค้นเมื่อ 2014-10-25.
  64. Shulman, Carl (2012-11-05). "Nuclear winter and human extinction: Q&A with Luke Oman". Overcoming Bias. สืบค้นเมื่อ 2014-10-25.
  65. doi:10.5194/acp-7-1973-2007
    This citation will be automatically completed in the next few minutes. You can jump the queue or expand by hand Full ArticlePDF (2.15 MB)
  66. Held, Isaac M; Soden, Brian J. "Water Vapor Feedback and Global Warming" (PDF). Annu. Rev. Energy Environ 2000. p. 449.CS1 maint: multiple names: authors list (link)
  67. Raskin, Paul (2006). "World Lines: Pathways, Pivots, and the Global Future" (PDF). Boston: Tellus Institute.
  68. Kriegman, Orion (2006). "Dawn of the Cosmopolitan: The Hope of a Global Citizens Movement" (PDF). Boston: Tellus Institute.
  69. Chiarelli, B. (1998). "Overpopulation and the Threat of Ecological Disaster: the Need for Global Bioethics". Mankind Quarterly. 39 (2): 225–230.
  70. Evans-Pritchard, Ambrose (2011-02-06). "Einstein was right - honey bee collapse threatens global food security". The Daily Telegraph. London.
  71. Lovgren, Stefan (2007-02-07). "Mystery Bee Disappearances Sweeping U.S". National Geographic News. สืบค้นเมื่อ 2007-03-10.
  72. "The end of India's green revolution?". BBC News. 2006-05-29. สืบค้นเมื่อ 2012-01-31.
  73. "Food First/Institute for Food and Development Policy". Foodfirst.org. 2000-04-08. สืบค้นเมื่อ 2012-01-31.
  74. "How peak oil could lead to starvation". Web.archive.org. 2009-05-27. สืบค้นเมื่อ 2012-01-31.
  75. "Eating Fossil Fuels". EnergyBulletin.net. 2003-10-02. สืบค้นเมื่อ 2012-01-31.
  76. The Oil Drum: Europe. "Agriculture Meets Peak Oil". Europe.theoildrum.com. สืบค้นเมื่อ 2012-01-31.
  77. "Drawing Momentum from the Crash". Uncommon Thought Journal. 2007-11-08. สืบค้นเมื่อ 2015-06-09.
  78. "Cereal Disease Laboratory : Ug99 an emerging virulent stem rust race". Ars.usda.gov. สืบค้นเมื่อ 2012-01-31.
  79. "Durable Rust Resistance in Wheat". Wheatrust.cornell.edu. สืบค้นเมื่อ 2012-01-31.
  80. Richard Hamming. "Mathematics on a Distant Planet".
  81. "Report LA-602, ''Ignition of the Atmosphere With Nuclear Bombs''" (PDF). สืบค้นเมื่อ 2011-10-19.
  82. New Scientist, 28 August 1999: "A Black Hole Ate My Planet"
  83. Konopinski, E. J; Marvin, C.; Teller, Edward (1946). "Ignition of the Atmosphere with Nuclear Bombs" (PDF) (Declassified February 1973) (LA-602). Los Alamos National Laboratory. สืบค้นเมื่อ 2008-11-23. Cite journal requires |journal= (help)
  84. "Statement by the Executive Committee of the DPF on the Safety of Collisions at the Large Hadron Collider" (PDF). สืบค้นเมื่อ 2015-06-09.
  85. "Safety at the LHC".
  86. "Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC" (PDF). Geneva: CERN Scientific Information Service. 2003-02-28. สืบค้นเมื่อ 2015-06-17.
  87. Drexler, Eric (1986). Engines of Creation: The Coming Era of Nanotechnology. Doubleday. ISBN 0-385-19973-2.
  88. Brown, NF; Wickham, ME; Coombes, BK; Finlay, BB (2006-05). "Crossing the Line: Selection and Evolution of Virulence Traits". PLoS Pathogens. 2 (5): e42. doi:10.1371/journal.ppat.0020042. PMC 1464392. PMID 16733541. Check date values in: |date= (help)CS1 maint: multiple names: authors list (link)
  89. Ebert, D; Bull, JJ (2003-01). "Challenging the trade-off model for the evolution of virulence: is virulence management feasible?". Trends Microbiol. 11 (1): 15–20. doi:10.1016/S0966-842X(02)00003-3. PMID 12526850. Check date values in: |date= (help)CS1 maint: multiple names: authors list (link)
  90. André JB, Hochberg ME (2005-07). "Virulence evolution in emerging infectious diseases". Evolution. 59 (7): 1406–12. doi:10.1554/05-111. PMID 16153027. Check date values in: |date= (help)
  91. Gandon S (2004-03). "Evolution of multihost parasites". Evolution. 58 (3): 455–69. doi:10.1111/j.0014-3820.2004.tb01669.x. PMID 15119430. Check date values in: |date= (help)
  92. "Near Apocalypse Causing Diseases, a Historical Look:". postapocalypticsurvival.com. สืบค้นเมื่อ 2012-05-05.
  93. Kate Ravilious (2005-04-14). "What a way to go". The Guardian.
  94. "Toba Supervolcano". 2012 Final Fantasy. 2008-02-04.
  95. "Toba Catastrophe Theory". Science Daily.
  96. Breining, Greg (2007). Super Volcano: The Ticking Time Bomb Beneath Yellowstone National Park. Voyageur Press. p. 256. ISBN 978-0-7603-2925-2.
  97. Breining, Greg (2007). "Distant Death". Super Volcano: The Ticking Time Bomb Beneath Yellowstone National Park. St. Paul, MN.: Voyageur Press. p. 256 pg. ISBN 978-0-7603-2925-2.
  98. Breining, Greg (2007). "The Next Big Blast". Super Volcano: The Ticking Time Bomb Beneath Yellowstone National Park. St. Paul, MN.: Voyageur Press. p. 256 pg. ISBN 978-0-7603-2925-2.
  99. Pararas-Carayannis, George (2002). "Evaluation of the threat of mega tsunami generation from postulated massive slope failures of island volcanoes on La Palma, Canary Islands, and on the island of Hawaii". drgeorgepc.com. สืบค้นเมื่อ 2008-12-20.
  100. Plotnick, Roy E. (1980-01-01). "Relationship between biological extinctions and geomagnetic reversals". Geology. 8 (12): 578. Bibcode:1980Geo.....8..578P. doi:10.1130/0091-7613(1980)8<578:RBBEAG>2.0.CO;2.
  101. Glassmeier, Karl-Heinz; Vogt, Joachim (2010-05-29). "Magnetic Polarity Transitions and Biospheric Effects". Space Science Reviews. 155 (1–4): 387–410. Bibcode:2010SSRv..155..387G. doi:10.1007/s11214-010-9659-6.
  102. "Threats From Space: a Review of U.S. Government Efforts to Track and mitigate Asteroids and Meteors (Part I and Part II) - Hearing Before the Committee on Science, Space, and Technology House of Representatives One Hundred Thirteenth Congress First Session" (PDF). รัฐสภาแห่งสหรัฐอเมริกา (Hearings held 19 March 2013 and 10 April 2013). Spring 2013. p. 147. สืบค้นเมื่อ 2014-05-03.
  103. García-Sánchez, Joan; และคณะ (1999-02). "Stellar Encounters with the Oort Cloud Based on HIPPARCOS Data". The Astronomical Journal. 117 (2): 1042–1055. Bibcode:1999AJ....117.1042G. doi:10.1086/300723. Check date values in: |date= (help)
  104. Twenty ways the world could end suddenly, Discover Magazine
  105. "Urban Legends Reference Pages: Legal Affairs (E.T. Make Bail)".
  106. Jones, E. M. (1985-03-01). ""Where is everybody?" An account of Fermi's question"". Los Alamos National Laboratory (LANL), United States Department of Energy. สืบค้นเมื่อ 2013-01-12.
  107. Ventrudo, Brian (2009-06-05). "So Where Is ET, Anyway?". Universe Today. สืบค้นเมื่อ 2014-03-10. Some believe [the Fermi Paradox] means advanced extraterrestrial societies are rare or nonexistent. Others suggest they must destroy themselves before they move on to the stars.
  108. Vinn, O (2014). "Potential incompatibility of inherited behavior patterns with civilization". PublishResearch: 1–3. สืบค้นเมื่อ 2014-03-05.
  109. "Will Mercury Hit Earth Someday?". Skyandtelescope.com. 2008-04-24. สืบค้นเมื่อ 2008-04-26.
  110. "Explosions in Space May Have Initiated Ancient Extinction on Earth". นาซา.
  111. Wanjek, Christopher (2005-04-06). "Explosions in Space May Have Initiated Ancient Extinction on Earth". นาซา.
  112. Fraser Cain (2003-08-04). "Local Galactic Dust is on the Rise". Universe Today.
  113. Coleman, Sidney; De Luccia, Frank (1980-06-15). "Gravitational effects on and of vacuum decay" (PDF). Physical Review D. D21 (12): 3305–3315. Bibcode:1980PhRvD..21.3305C. doi:10.1103/PhysRevD.21.3305.
  114. Dunning, Brian. "Apocalypse 2012 - Tall tales that the End of Days is coming in 2012".
  115. "Mankind must abandon earth or face extinction: Hawking", physorg.com, 2010-08-09, สืบค้นเมื่อ 2012-01-23
  116. Denkenberger, D.C.; Pearce, J. M. (2014). Feeding Everyone No Matter What: Managing Food Security After Global Catastrophe. San Francisco: Elsevier. ISBN 978-0-12-802150-7.CS1 maint: multiple names: authors list (link)
  117. Lewis Smith (2008-02-27). "Doomsday vault for world's seeds is opened under Arctic mountain". London: The Times Online.
  118. "About the Lifeboat Foundation". The Lifeboat Foundation. สืบค้นเมื่อ 2013-04-26.
  119. "The Future of Life Institute". สืบค้นเมื่อ 2014-05-05.
  120. "GCR Institute".
  121. "Millennium Alliance for Humanity & The Biosphere".
  122. "X Center".
  123. "WHO Global Alert and Response".
  124. "Connecting Organizations for Regional Disease Surveillance". คลังข้อมูลเก่า เก็บจาก แหล่งเดิม เมื่อ 2012-09-26. Unknown parameter |deadurl= ignored (help)
  125. "USAID Emerging Pandemic Threats Program".
  126. "Lawrence Livermore National Laboratory - Global Security".
  127. "Center for International Security and Cooperation".

อ้างอิงอื่น ๆ

  • Corey S. Powell (2000). "Twenty ways the world could end suddenly", Discover Magazine
  • Martin Rees (2004). OUR FINAL HOUR: A Scientist's warning: How Terror, Error, and Environmental Disaster Threaten Humankind's Future in This Century — On Earth and Beyond. ISBN 0-465-06863-4
  • Jean-Francois Rischard (2003). High Noon 20 Global Problems, 20 Years to Solve Them. ISBN 0-465-07010-8
  • Edward O. Wilson (2003). The Future of Life. ISBN 0-679-76811-4

หนังสือ

  • Derrick Jensen (2006) Endgame. ISBN 1-58322-730-X
  • Jared Diamond (2005). Collapse: How Societies Choose to Fail or Succeed. ISBN 0-670-03337-5
  • Huesemann, Michael H., and Joyce A. Huesemann (2011). Technofix: Why Technology Won’t Save Us or the Environment, Chapter 6, “Sustainability or Collapse”, New Society Publishers, Gabriola Island, British Columbia, Canada, ISBN 0865717044, 464 pp.
  • Joel Garreau, Radical Evolution, 2005
  • John Leslie (1996). The End of the World. ISBN 0-415-14043-9
  • Martin Rees, Our Final Hour (UK title: "Our Final Century"), 2003, ISBN 0-465-06862-6
  • Meadows, Donella H. (1972). The Limits to Growth. ISBN 0-87663-165-0
  • Tainter, Joseph A, (1990). The Collapse of Complex Societies, Cambridge University Press, Cambridge, UK.

เว็บไซต์

  • Last Days On Earth (TV documentary) ABC News 2-hour Special Edition of 20/20 on 7 real end-of-the-world scenarios (Wed. Aug 30 2006)
  • "What a way to go" from The Guardian. Ten scientists name the biggest danger to Earth and assesses the chances of it happening. April 14, 2005.
  • "Confronting the New Misanthropy", by Frank Furedi in Spiked, April 18, 2006
  • Ted.com (video) - Stephen Petranek: 10 ways the world could end
  • Armageddon Online, A collection of doomsday scenarios and daily news
  • Doomsday Guide, a directory devoted to end times theories
  • Top 10 Ways to Destroy Earth
  • Several potential world ending scenarios
  • "Countdown to Doomsday with Today Show Host Matt Lauer". SciFi.com (Syfy). 2006.
  • [1] - A website about existential risk by Nick Bostrom.
  • Cognitive biases potentially affecting judgment of global risks - A paper by Eliezer Yudkowsky discussing how various observed cognitive biases hamper our judgement of existential risk.
  • Why the future doesn't need us, Wired.com, April 2000 - Bill Joy's influential call to relinquish dangerous technologies.
  • Being present in the face of existential threat: The role of trait mindfulness in reducing defensive responses to mortality salience.

ความเส, ยงมห, นตภ, ยท, วโลก, งกฤษ, global, catastrophic, risk, เป, นเหต, การณ, สมม, ในอนาคต, อาจทำความเส, ยหายต, อมน, ษย, อย, างร, นแรงท, วโลก, เหต, การณ, บางอย, างอาจทำลาย, หร, อทำความเส, ยหายแก, อารยธรรมท, ในป, จจ, หร, อเหต, การณ, นแรงกว, าน, อาจทำให, มวลมน,. khwamesiyngmhntphythwolk 2 xngkvs global catastrophic risk epnehtukarnsmmutiinxnakht thixacthakhwamesiyhaytxmnusyxyangrunaerngthwolk 3 ehtukarnbangxyangxacthalay hruxthakhwamesiyhayaek xarythrrmthimiinpccubn hruxehtukarnthirunaerngkwann xacthaihmwlmnusysuyphnthu 4 sungeriykidwa epnkhwamesiyngtxkarxyurxdkhxngmnusy existential risk cintphaphchangsilp khxngkarwingmachnolkodydawekhraahnxy thimiphlngethakbxawuthniwekhliyrkwaphnlanluk sungxaccaepnehtukhxngkarsuyphnthukhrngihyrahwangyukhkhriethechiys phalioxcin xnepnchwngthiidonesarhmdsinsuyphnthuip 1 phyphibtitamthrrmchati echn karraebidkhxngsuepxrphuekhaif aelakarwingchnolkkhxngdawekhraahnxy caepnkhwamesiynginradbnitharunaerngephiyngphx ehtukarnthimnusyepnehtu kxaccaepnkhwamesiyngtxkarxyurxdkhxngstwchladtang khxngolk echn praktkarnolkrxn 5 sngkhramniwekhliyr hruxkarkxkarraychiwphaph sthabnxnakhtkhxngmnusychati Future of Humanity Institute thiepnswnkhxngmhawithyalyxxksfxrd echuxwa karsuyphnthukhxngmnusy nacamiehtumacakmnusyexng makkwacakehtukarnthangthrrmchati 6 7 aetwa epneruxngyaklabakthicasuksakarsuyphnthukhxngmnusy ephraaimekhymiehtukarnnicring 8 aemnicaimidhmaykhwamwa caimekidkhuninxnakht aetwa karsrangaebbcalxngkhxngkhwamesiyngtxkhwamxyurxd epneruxngyak odyswnhnungephraaphusuksamikhwamexnexiyngcakkarxyurxd khuxmikhwamkhidphidphladthiphungkhwamsnicipinsingthixyurxd cnthaihehtuphlimtrngkbkhwamcring enuxha 1 karcdpraephthkhwamesiyng 2 khwamnacaepn 3 khwamsakhythangsilthrrm 4 aehlngkaenidkhwamesiyng 4 1 phycakmnusy 4 1 1 pyyapradisth 4 1 2 naonethkhonolyi 4 1 3 ethkhonolyichiwphaph 4 1 4 karsngkhram 4 1 5 praktkarnolkrxn 4 1 6 phyphibtithangsingaewdlxm niewsn 4 1 7 wikvtprachakraelaekstrkrrm 4 1 8 xubtiehtuekiywkbethkhonolyiihm 4 2 thiimidekidcakmnusy 4 2 1 orkhrabadthwolk 4 2 2 karepliynaeplngsphaphphumixakas 4 2 2 1 yukhnaaekhng 4 2 3 phuekhaif 4 2 4 khlunemkasunami 4 2 5 karslbkhwaemehlkolk 4 2 6 dawekhraahnxywingkrathbolk 4 2 7 karbukrukkhxngmnusytangdaw 4 2 7 1 pharadxkskhxngaefrmi 4 2 8 phycakckrwal 5 sthankarnthiimidrbkaryxmrb 6 karetriymtwaelakarpxngkn 6 1 xngkhkrephuxldkhwamesiyngtxkarrxdchiwit 6 2 xngkhkrephuxldkhwamesiyngmhntphyradbolk 7 duephim 8 xangxing 9 xangxingxun 10 hnngsux 11 ewbistkarcdpraephthkhwamesiyng aekikh tarangkhxbekht khwamrunaerngkhxngphytang ddaeplngcakbthkhwam Existential Risk Prevention as Global Priority karpxngknkhwamesiyngtxkarxyurxd odyepneruxngsakhykhxngolk khxng dr bxstrxm 9 nkprchyathimhawithyalyxxksfxrd dr nik bxstrxm cdpraephthkhwamesiyngtamkhxbekhtaelakhwamrunaerng 7 ekhaphicarnakhwamesiyngthimikhxbekhtxyangnxy thwolk global aelamikhwamrunaerngxyangnxy yngthnid endurable waepnkhwamesiyngmhntphythwolk swnkhwamesiyngthimikhxbekhtxyangnxy hlaychwkhn trans generational aelamikhwamrunaerngxyangnxy epncudcb terminal waepnkhwamesiyngtxkarxyurxd khux aemwakhwamesiyngmhntphythwolk xaccakhasingmichiwitepncanwnmak aetmnusykyngxaccafunkhunid aetwa khwamesiyngtxkarxyurxd cathalaymnusythnghmd hruxcakhdkhwangimihekidxarythrrmidxikinxnakht dr bxstrxm phicarnakhwamesiyngtxkarxyurxd waepneruxngsakhykwamak 10 dr bxstrxmaesdngkhwamesiyngtxkarxyurxd 4 praephth khux Bang odyepnesiyngraebid epnmhntphykrathnhn sungxaccaepnxubtiehtu hruxxacaepneruxngcngic ekhakhidwa tnehtukhxng Bang caepnkarichnaonethkhonolyixyangmungray sngkhramniwekhliyr aelakhwamepnipidwa ckrwalepnephiyngaekhkarcalxng sungwnhnungcahyudlng swn Crunch odyepnesiyngthukbd epnsthankarnthimnusycaxyurxd aetxarythrrmcathukthalayodyimsamarthfunkhunmaidxik dr bxstrxmechuxwa ehtuthiepnipidmakthisudineruxngni kkhux karichthrphyakrthrrmchaticnhmdsin hruxrthbalolkthiesthiyr thipxngknimihekidkhwamkawhnathangethkhonolyi hruxkhwamkddnbangxyangthangkrrmphnthuthithaihkhwamchladodyechliyldlng swn Shriek odyepnesiyngkridrxng epnxnakhtthiimphungprarthna yktwxyangechn thamiekhruxng stw bukhkhl thiephimkalngkhwamsamarththangciticaelakhwamkhidkhxngtn odyxasykhxmphiwetxr mncasamarthkhrxbngaxarythrrmkhxngmnusy sungxaccamiphlesiyhay dr bxstrxmechuxwa sthankarnechnniepnipidmakthisud tammadwystw ekhruxngsuepxrchladthibkphrxng aelwtammadwykarpkkhrxngrabbephdckarebdesrcthirunaerng swn Whimper odyepnesiyngrxngkhrwykhrang epnkarkhxy esuxmlngkhxngxarythrrmmnusy hruxkhaniyminpccubn dr bxstrxmechuxwa ehtuthiepnipidthisudinruxngnikkhux khwamchxbicthangsilthrrm thangkhwamkhid thiepliynwiwthnakarmnusy aelwtammadwykarbukrukkhxngmnusytangdaw 4 odynyediywkn inhnngsux Catastrophe Risk and Response mhntphy khwamesiyngaelakartxbsnxng phuphiphaksathrngxiththiphlkhxngsalxuththrnphakh 7 khxngshrthxemrika richard phxsenxr idchiehtukarntang thicathakhwamesiyhaythwolk imichephiyngaekhinphunthi phxsenxraesdngwa ehtukarnehlanikhwrthicasnicepnphiess odyehtuphlthangtnthunkbphltxbaethn ephraawaehtukarnehlani samarththaxntraytxkarxyurxdkhxngmnusythnghmdid odytrnghruxodyxxm 11 ehtukarnthiphxsenxrkhidthungrwmthng dawtkwingchnolk praktkarnolkrxnthiephimkhunxyangkhwbkhumimid naonethkhonolyithiichthrphyakrolkcnhmdephuxsrangtwexng aelaxubtiehtuekiywkbekhruxngerngxnuphakhkhwamnacaepn aekikhtxipniepntwxyangkhxngbukhkhlaelasthabntang thiidphyakrnkhwamnacaepnkhxngehtukarnesiyngtxkarxyurxd mikhwamesiyngbangxyang echnkarwingkrathbolkkhxngdawekhraahnxy thimioxkashnunginlan thicathaihmnusysuyphnthuinchwngstwrrstxip 12 aemepnehtukarnthimikarthanaykhwamnacaepnxyanglaexiyd aetthungxyangnn nkwichakarbangphwkkxangwa xtrakarwingchnkhxngwtthukhnadihy cring xaccamakkwathiphyakrniwdngedim 13 aelaodynyediywkn khwamthikhxngkarraebidphuekhaifthirunaerng phxcaepnehtukhwamepliynaeplngkhxngphumixakasxyanghayna echnthiekidkhunthithaelsabotbaemuxrahwang 69 000 77 000 pikxn sungxacepnehtukarnihmnusyekuxbsuyphnthu 14 mikarpramanwaekidkhunthuk 50 000 pi 15 swnphyxun khanwnidyakkwainpi kh s 2008 klum phuechiywchayekiywkbkhwamesiyngmhntphyradbolkpraephthtang innganprachum Global Catastrophic Risk khwamesiyngmhntphythwolk thimhawithyalyxxksfxrd esnxwa mioxkas 19 thimnusycasuyphnthuphayinstwrrstxip aetwa raynganprachumetuxnwa withikarechliykhakhatxbcakngansarwcimepnthangkar epneruxngnasngsy enuxngcakwithiptibtitxkarimsngkhatxb txngkarxangxing khakhwamnacaepnodypramansahrbehtutang mikarsrupdngtxipni khwamesiyng oxkasthimnusycasuyphnthukxnpi kh s 2100xawuththiichnaonethkhonolyi 5 pyyapradisthsuepxrchlad 5 sngkhram 4 orkhrabadthwthisrangkhun 2 sngkhramniwekhliyr 1 xubtiehtuthangnaonethkhonolyi 0 5 orkhrabadthwtamthrrmchati 0 05 karkxkarrayodyniwekhliyr 0 03 dd aehlngkhxmul Future of Humanity Institute 2008 16 dd aetwa withikarinkarpraeminkhaehlaniihaemnyaepnpyha khux odymak khwamsniccaepnipinkhwamesiyngtxxarythrrmmnusyinchwng 100 pitxip aetkarphyakrninchwngewlayawechnni epneruxngyak phythrrmchatinn khxnkhangthicaesthiyr aemkyngsamarthkhnphbkhwamesiyngihm id aetwaphythiekidcakmnusy samarthepliynaeplngidxyangrwderw emuxmiphthnakarthangethkhonolyiihm yktwxyangechn cring aelw phuekhaifepnkhwamesiyng tngaettnprawtisastraelw aetxawuthniwekhliyrphungcaepnpyha erimtngaetkhriststwrrsthi 20 odyprawtiaelw smrrthphaphkhxngphuechiywchayinkarthanayxnakhtinchwngewlayawechnni mikhwamcakdxyangying phycakmnusy echn sngkhramniwekhliyraelanaonethkhonolyi phyakrnidyakkwaphythrrmchati odythwipkkhux yakthicapramankhwamesiyngni ephraawa khwamsmphnthrahwangpraethsaelaethkhonolyi samarthepliynaeplngidxyangrwderwkhwamesiyngkarrxdchiwitepneruxngthathaykarphyakrn makkwaaemaetehtukarninrayayawxun ephraatxngmiphusngektkarnhlngehtukarn khux odyimehmuxnkbehtukarnxun odymak karimmikarsuyphnthuxyangsinechinginxdit imichhlkthanwacaimmiinxnakht ephraawa inolkthimiehtukarnsuyphnthuechnnn kcaimmiphusngektkarnehlux dngnn imwaehtukarnechnnncaekidbxykhrngethair kyngimekhymixarythrrmihn thimiprawtiehtukarnechnnn 17 praednpyhaekiywkbphusngektkarnechnni samarthhlikeliyngidodysngekthahlkthanthiimmipyhaechnediywkn echn sngektdukarwingkrathbdwngcnthrkhxngdawekhraahnxy hruxinkarpraeminphlthixacekidkhunkhxngethkhonolyiihm odytrng 9 khwamsakhythangsilthrrm aekikhnkwichakarbangphwksnbsnunxyangying ihldradbkhwamesiyngtxkarxyurxd ephraaehtuwa caepnpraoychntxkhnruntx ip nkprchyathimhawithyalyxxksfxrdphuhnungxangwa karsuyphnthucaepnkhwamsuyesiyxnyingihy ephraawa lukhlankhxngmnusyxaccasamarthxyurxdidepnphnlanpi kxnthidwngxathitycakhyaykhnadcnmnusyimsamarthxyubnolkid 18 19 swn dr bxstrxmxangwa caepnkhwamsuyesiythiyingihykwann thamnusysamarthtngxananikhminxwkas ephraathaepnechnnn mnusycanwnmakcasamarthxyuidbndawekhraahxun aelasamarthdarngxyuidekinkwa lanlanpi 10 dngnn karldradbkhwamesiyngtxkarxyurxdaemephiyngnxynid kcamiphlsakhytxcanwnmnusythikhadhmaywacamiinxnakhtidaemwacaimkhxymibthkhwamthiotaeyngkhwamkhidechnni aetxaccaminkwichakarbangphwkthiimehndwy ephraawa xrrthpraoychnthildlngodyfngkchnaebbelkhchikalng Exponential discounting xacthaihpraoychnthikhadhmaymikhwamsakhynxymak aetwakminkwichakarthixangwa karichfngkchnechnnnimehmaasm emuxpraeminphlthicaidcakkarldradbkhwamesiyngtxkarxyurxd 12 minkesrsthsastrthiklawthungkhwamsakhykhxngkhwamesiyngmhntphythwolk aetimklawthungkhwamesiyngtxkarxyurxd nkesrsthsastrthrngxiththiphlthanhnungxangwa khwamesiyhaythangesrsthkicmakthisud thikhadhwngidcakkarepliynaeplngsphaphthangphumixakas xaccamacakoxkaselknxy thiolkcarxnkhunekinradbklang thikhadhmay miphlepnkhwamesiyhayradbhayna 5 swn dr phxsenxrxangwa odythw ip eraetriymkarnxyip ephuxcarxngrbmhntphythikwangkhwang thimioxkasephiyngelknxyaetwapramanidyak 20 khwamexnexiyngthangprachankhxngmnusy thiimmikarprbkhatamkhnad camixiththiphltxkarpraeminwa pyhakhwamsuyphnthukhxngmnusysakhyaekhihn yktwechn emuxerasniccabricakhephuxkarkusl canwnthibricakhcaimephimtamkhnadkhxngpyha khux eracasngsarnk 200 000 twthitidxyuinnamn etha kbemuxmink 2 000 tw 21 aelaodynyediywkn eramkcaihkhwamsnickbphythiekidkhuntxbukhkhl makkwathiekidkhuntxklumbukhkhl 22 aehlngkaenidkhwamesiyng aekikhkhwamesiyngtxkarxyurxd aelakhwamesiyngtxxarythrrm xaccamacakehtucakthrrmchatihruxcakmnusy mikarxangwa yngmikhwamesiyngtxkarxyurxdxikmakthierayngimru 23 phycakmnusy aekikh khwamesiyngtxkarxyurxdthiepnipidbangxyang miehtucakethkhonolyikhxngmnusy inpi kh s 2012 mhawithyalyekhmbridctngopreckt The Cambridge Project for Existential Risk oprecktekhmbridcsahrbkhwamesiyngtxkarxyurxd thitrwcsxbphytxmnusychati thiekidcakethkhonolyi 24 cudmunghmaykhxngopreckt kephuxcatngsunywicyshsastr khux Centre for the Study of Existential Risk sunyephuxkarsuksakhwamesiyngtxkarxyurxd xuthisihkbkarsuksathangwithyasastr aelakarbrretha khwamesiyngtxkarxyurxd thimacakethkhonolyimnusy 24 oprecktekhmbridcklawwa phythiyingihythisud txmnusyepnsingthimnusysrangkhunexng khux pyyapradisth praktkarnolkrxn sngkhramniwekhliyr aelaethkhonolyichiwphaphthikhwbkhumimid 25 pyyapradisth aekikh mikaresnxwa khxmphiwetxrthieriynruid thiklayepnsingchaychladehnuxmnusy suepxrchlad xaccamiphvtikrrmthiimkhadfn hruxwa mnusyxaccaekngsuhunyntimid thieriykwa technological singularity hruxphawaexkthanthangethkhonolyi 26 27 ephraaehtuthimnmismrrthphaphinkarcdladbaelakarcdaecngxyangyxdeyiym aelaxacsamarthphthnaethkhonolyiihm idmakmay epnipidwa ekhruxngkhxmphsuepxrchladekhruxngaerkkhxngolkthiprakt xaccaklayepnsingchladthihakhuaekhngimid aelasamarthkhididwa mnxaccasamarththaehtuephuxsrangphlxairkid aelasamarththicapxngknkhwamphyayamkhxngsingxun thicakhdkhwangkarthungepahmaykhxngmn 27 khuxsamarththicakacdkhuaekhngthichaychladthaeluxkthicatha hruxxaccacdkarhruxchkchwn ihkhuaekhngepliynphvtikrrmephuxpraoychnkhxngtn hruxxaccaephiyngkhdkhwangkhwamphyayamkhxngphuxun thicamaaethrngaesngkarkrathakhxngtn 27 inhnngsux Superintelligence Paths Dangers Strategies singsuepxrchlad aenwthang phy aelaklyuthth dr bxstrxm kahndpyhaaebbniwa epnpyhainkarkhwbkhum control problem 28 s khnitsastraelankekhiynrangwlhiwok dr ewxrnxn winc esnxwa camiwnhnungthikhxmphiwetxraelahunynt cachladkwamnusy ekhaeriykehtukarnniwa the Singularity phawaexkthan 29 aelaesnxwa ehtukarncaepnxntrayhruxepnxntrayxyangyingtxmwlmnusy 30 pyhaehlani epnpraedninrabbprchyathieriykwa Singularitarianismnkfisiks dr stiefn hxwkhing phucdtngbristhimokhrsxfth bil ekts aelaphucdtngbristh SpaceX lwnaetidaesdngkhwamepnhwng ekiywkbkhwamepnipidwa pyyapradisth AI xaccaphthnakaripcnkrathngmnusyimsamarthkhwbkhumid dr hxwkhingidsnnisthanwa nixaccaepn cudcbkhxngkhxngmwlmnusy 31 inpi kh s 2009 phuechiywchayidmanganprachumcdody Association for the Advancement of Artificial Intelligence smakhmephuxkarphthnapyyapradisth ephuxthicapruksaknwa khxmphiwetxraelahunynt casamarthidepnxisrahruxim aelakhwamsamarthechnni caepnphyxntraymaknxyaekhihn phwkekhatngkhxsngektwa hunyntidmixisrphaphodyswnhnungaelw echnsamarthhaaehlngphlngngankhxngtn aelaeluxkepahmayinkarocmtidwyxawuth aelaiwrskhxmphiwetxrsamarthhlikeliyngkarthukkacd aelachladethakbaemlngsab phwkekhayngtngkhxsngektxikdwywa aemwakarsanuktnid thicintnakarinbnethingkhdiaenwwithyasastr imnacaepnipid aetwakyngmipyhaaelaxntrayxyangxun 29 suxaelaklumnkwithyasastrtang sngektehnaenwonmphthnakarindantang thiemuxmarwmknaelw xacmiphlepnkhwamsamarthaelakhwamepnxisraying khunkhxnghunynt sungthaihnaepnhwng 32 33 34 nkekhiynekiywkbpyyapradisthphuhnungechuxwa khwamesiyngcakpyyapradisth epneruxngthiphyakrnidyakkwakhwamesiyngthiruckxun aelaxangwa nganwicyindannimikhwamexnexiyngcakmanusyrupniym ephraawaeratdsinpraeminpyyapradisth odyichprasbkarnkhxngtn dngnn eracapraeminkhwamsamarththiepnipidkhxngpyyapradisth taekinip ekhaaeykaeyakhwamesiyngthiekidcakkhwamlmehlwthangethkhnikhkhxng AI sunghmaykhwamwa khntxnwithithibkphrxng xackhdkhwang AI imihthanganidtamepahmaykhxngtn aelakhwamlmehlwthangdanprchya hruxkhwamkhid sunghmaykhwamwa mikartngopraekrmih AI ekhathungkhtiniymthiphid 35 phuechiywchayaelankwichakarbangswn imkhxyehndwyinkarichhunyntinkarsngkhram odyechphaaemuxihxisrphaphinkarthanganepnbangswn 36 nxkcaknnaelw yngmikhwamepnhwngekiywkbethkhonolyi thiihhunyntkhwbkhumhunyntthitidxawuthdwyknexng 37 kxngthphnawishrthxemrika idihthunkartharaynganthichiwa ephraawa hunyntkarthharerimthicasbsxnkhuneruxy khwrthicaisicephimkhunekiywkbphlthixaccami enuxngcaksmrrthphaphkhxnghunyntinkartdsinicxyangepnxisraying khun 38 39 minkwicykhnhnungthiklawwa hunyntthiepnxisraxaccamimnusythrrmmakkwa ephraawacasamarthtdsiniciddikwa aetphuechiywchayxun imehndwy 40 odynytrngknkham pyyapradisththiepnmitr xacchwyldkhwamesiyngtxkarxyurxd odychwysrangphthnaethkhonolyithiaekpyhaphytang 35 inraykarkhxngsthaniphibiexs shrthxemrika nkcitwithyakhnhnungthamwa caekidxairkhun tha AI tdsinicwa eraimmipraoychnxiktxip aetkyngxangdwywa eraimsamarthaelaimkhwrthicahamphthnakarkhxng AI dngnn singthikhwrthakkhux erimphicarnatngaetbdniwa criythrrmkhxng AI khwrcaepnxyangir 41 naonethkhonolyi aekikh miethkhonolyikhnadnaonthikalngphthnakar hruxthiichxyuaelw hlayxyang 42 aetethkhonolyiediyw thixaccaesiyngepnkhwamhaynakhxngolkkkhux krrmwithikarphlitradbomelkul molecular manufacturing sungepnethkhnikhthisamarthichsrangokhrngsrangsbsxn odymikhwamaemnyaradbxatxm 43 krrmwithikarphlitradbomelkul catxngxasykhwamkawhnaekiywkbnaonethkhonolyisakhyxun xik aetemuxsaercaelw xaccasamarthsrangphlitphnthkawhna inrakhathithuk epncanwnmak inorngngannaon sunghnktngaet 1 kiolkrmkhunip 42 43 emuxorngngannaonsamarthsrangorngnganxun karphlitxaccacakdodyephiyngpccythimimakmayxyangxun echnwtthudib phlngngan aelasxftaewr 42 krrmwithikarphlitradbomelkul samarthichinkarsrangphlitphnthtang echn xawuththnsmythithnthan 42 ephraawaprakxbdwykhxmphiwetxraelamxetxrthielk orngnganehlanixacmixisraephimkhuneruxy aelasamarththanganidhlayxyangaelaxyangkwangkhwang 42 mikarcdkhwamesiyngkhxngnaonethkhonolyixxkepn 3 praephth khux 1 sngesrimphthnakarkhxngethkhonolyixun echn AI aelaethkhonolyichiwphaph 2 chwyihkarphlitmiprimanmaksaerc epnphlitphnthxntraythiephimkhwamesiyng echn karaekhngkhnknthangxawuth 3 chwythaihsaerckrabwnkarthikhbekhluxndwytnexngidxyangthawr odymiphlesiyhay xyangirkdi naonethkhonolyikxaccaichbrrethakhwamesiyngmhntphyradbolkxyangxun 42 nkwicyhlaythanechuxwa khwamesiyngswnmakkhxngnaonethkhonolyi macakoxkasthithaihekidsngkhram karaekhngkhnthangxawuth aelarthbalolkthiepnxntray 42 44 45 miehtuphlhlayxyangwa thaimkarmixawuthnaonethkh cungmioxkassungthicanaipsukaraekhngkhnthangxawuththiimesthiyr odyethiybkbkaraekhngkhnthangxawuthniwekhliyr khux 1 xaccamiklumbukhkhl praethsepncanwnmak thicaekharwmkaraekhngkhnechnni ephraakhidcakdtamak 2 karsrangxawuthodywithikarphlitradbomelkul mikhaichcaynxyaelasxnidngay 42 3 dngnn karimrusmrrthphaphkhxngfaytrngkham xaccachwnihsasmxawuthephuxknphy hruxchwnihocmtistrukxn 42 46 4 withikarphlitradbomelkul xaccaldkhwamtxngphungphingkarkharahwangpraeths 42 sungepnpccychwysrangsntiphaphxyanghnung 47 5 sngkhramephuxaeyngching xaccamiphlthangesrsthkicnxylngtxklumthibukruk ephraawa karphlitmikhaichcaynxy aelaxaccaimtxngichmnusyinsnamrb 42 enuxngcakkarkhwbkhumtnexng thnginfayrthaelafayexkchn ducaepnipimid 48 matrkarbrrethakhwamesiyngtxsngkhram mkcaesnxinradbihrwmmuxknrahwangpraeths 42 49 xngkhkrrahwangpraethscasamarthkhyayxanacid odyihxanacaekxngkhkrmakkhun sungxaccachwyprasankarkhwbkhumxawuth 50 sthabnrahwangpraethsxuthisihkbnaonethkhonolyi xaccakhlaykbxngkhkarphlngnganprmanurahwangpraeths hruxkdhmaykhwbkhumxawuthodythwip xactngkhunid 49 aelaklumtang samarthrwmknerngphthnaethkhonolyikarpxngknepnhlk sungepnnoybaythiklumtang nacayinditha 42 sunyephuxnaonethkhonolyiaebbrbphidchxb The Center for Responsible Nanotechnology kesnxkhxcakdtang thangethkhnikhdwy 51 khwamoprngisthidikhun ekiywkbsmrrthphaphthangethkhonolyikhxngaetlapraeths xaccaepnpccysakhyinkarkhwbkhumxawuth 52 grey goo epnsthankarnmhntphyxikxyanghnung sungesnxepnkhrngaerkodyexrikh edrkserxr inhnngsux Engines of Creation ekhruxngsrang thiphimphinpi kh s 1986 53 sungidklaymaepnaenwkhidhlkxyanghnung insuxaelainbnethingkhdi 54 55 epnsthankarnthihunyntthikhyayphnthuexngid ichthrphyakrkhxngthngchiwphakh biosphere odyichthngepnphlngnganaelaepnwtthudibinkarsrang phuechiywchaythangdannaonethkhrwmthngedrkselxrexng pccubnimihkhwamechuxthuxkbsthankarnni tamkhakhxngnknaonethkhonolyikhnhnung sthankarnthieriykwa grey goo caekidkhunidkodyepnphlkhxngkrabwnkarwiswkrrmthicngicaelathaidyakethann imxacepnphlkhxngephiyngxubtiehtuid 56 ethkhonolyichiwphaph aekikh ethkhonolyichiwphaph samarthepnkhwamesiyngmhntphyradbolk inrupaebbkhxngculchiphkxorkhtamthrrmchati hruxculchiphkxorkhthisrangkhun aelamhntphyxacekidkhunephraaichinkarsngkhram karkxkarray hruxepnxubtiehtu 57 yngdiwa karichethkhonolyichiwphaphinkarkxkarray epnsingthiekidkhunimbxyinprawtisastr 57 aetwa epnephraawaimsamarth hruxephraawaimmiaerngcungic yngepneruxngthiimchdecnnk 57 phthnakaraebbelkhchikalngkalngepnip inxutsahkrrmethkhonolyichiwphaph dngnn cungminkwichakarthiphyakrnwa klumtang camismrrthphaphthangethkhonolyichiwphaphephimkhunxyangsakhy inthswrrstx ip 57 phwknkwichakarxangwa khwamesiyngcaksngkhramchiwphaph aelakarkxkarraychiwphaph epneruxngtanghakcakphythangsngkhramniwekhliyraelaphythangsngkhramekhmi ephraawa culchiphkxorkhphlitepncanwnmakidngaykwa aelakarphlitnnyakthicakhwbkhumid odyechphaathasmrrthphaphthangethkhonolyi samarthmiidinradbbukhkhl 57 enuxngcakaenwonmthiehnidinphthnakarpccubn phythiephimkhuncakculchiphihmthisrangkhun epnpyhathihwngidinxnakht 57 mikarsnnisthanwa culchiphkxorkhthiekidodythrrmchaticamikhidcakdsungsud inradbkhwamrayaerngkarkxorkh 58 aetwa erasamarthepliynyinkhxngculchiph ephuxepliynkhakhwamrayaerngaelakhunsmbtixyangxun thngodytngic thngodyxubtiehtu 57 yktwxyangechn klumnkwicychawxxsetreliyidepliynkhunsmbtikhxngiwrsfidashnu Ectromelia emuxphyayamthicaphthnaiwrsephuxthahnuihepnhmn 57 iwrsaeprthaihhnutay thnghnuthichidwkhsin thngthimiphumitanthantamthrrmchati 45 59 ethkhonolyithiichepliynkhunsmbtithangkrrmphnthukhxngiwrs mioxkasthicaaephrkracayipxyangkwangkhwanginxnakht thaimkhwbkhumihehmaasm 57 mikaresnxkarbrrethakhwamesiyngcakethkhonolyichiwphaph aelaorkhrabadthwtamthrrmchati odyichmatrkar 3 khxkhux karkhwbkhumaelapxngknnganwicythixacepnxntray kartrwccbehtukarnrabadthidikhun aelakartngsunyephuxbrrethaehtukarnrabad echn ephuxekbwkhsin aebbkracayipihthwthung 57 karsngkhram aekikh sthankarnthikhidphicarnabxykhrngthisudkkhux sngkhramniwekhliyr aelaxawuththalayolk doomsday device aemwa khwamnacaepnkhxngsngkhramniwekhliyrtxpinnnxymak aetminkwichakarthiesnxwa epneruxngthihlikeliyngimidinrayayaw khuxykewnthakhwamnacaepnekhaipiklkhasuny wnhnungochkhdithimimakhxngmnusycahmdip 60 yktwxyangechn rahwangwikvtkarnkhipnawuthkhiwba prathanathibdi cxhn exf ekhnendi praeminoxkasthicaekidsngkhramniwekhliyr rahwanghnunginsam thungkhrungtxkhrung 61 inpi kh s 2014 shrthxemrikaaelapraethsrsesiy mixawuthniwekhliyrrwm kn 15 315 chin 62 aelamixawuththnghmdinolkpraman 16 400 chin 62 aetthungaemwa camikhwamehnthiniymwa sngkhramniwekhliyrcaepn cudcbkhxngolk phuechiywchayklbihkhwamnacaepnthitawa mnusycasuyphnthuephraaehtusngkhram 63 64 inpi kh s 1982 nkwichakarechiywchaythangwithyasastr ethkhonolyi aelasngkhmkhnhnung praeminwa sngkhramniwekhliyrrahwashrthxemrikaaelarsesiy cakhakhn 400 450 lankhnodytrng aelaxikhlayrxylankhnenuxngcakphlthitamma 63 aetwasngkhramcakhakhnaelathalaythixyuxasymnusy epncanwnmak xyangimekhymimakxn aelakarraebidkhxngxawuthniwekhliyrepncanwnmak camiphlrayayawtxphumixakas khuxcathaihxakashnaweyn aelaldkaridaesngxathity 65 sungxaccaepnpyhasakhytxxarythrrmtang 4 4 2nxkcaksngkhramniwekhliyraelw ehtukarnthiepnphytxmnusyrwmthngsngkhramchiwphaph karkxkarraychiwphaph aelasngkhramekhmi praktkarnolkrxn aekikh praktkarnolkrxnhmaythung phumixakaskhxngolkthirxnkhun enuxngcakethkhonolyikhxngmnusy tngtnaetkhriststwrrsthi 19 epnkhwamepliynaeplnginradbthiphidthrrmda cakphumixakastamprawtikhxngolk khwamepliynaeplngthikhadhwngidinxnakhtrwmthng olkcarxnkhunxik radbnathaelcasungkhun khwamthiaelakhwamrunaerngkhxnglmfaxakassudotngcasungkhun aelacamiehtukarnekiywkbphumixakas aelaphyphibtithiekidcakdinfaxakastang phlkhxngolkrxnrwmthng karsuyesiykhwamhlakhlaythangchiwphaph pyhakhwamkddntxrabbkarphlitxaharthimixyu aelakaraephrorkhrabadbangxyangechnmalaeriymikaresnxwa olkthirxnkhunaebbkhwbkhumimid xacthaihsingmichiwitxyuimid ehmuxnkbdawsukr swnsthankarnthiimsahsthungkhnadnn xachmaythungcudcbkhxngxarythrrmaebbthiekhymimakxn 66 odywithikarwiekhraahehtukarnthiekidkhunidinxnakht scenario analysis klumnkwithyasastrkhxngxngkhkr Global Scenario Group GSG idsrangaebbehtukarnthiepnipidinolk emuxxarythrrmmnusyekhasuyukh Planetary Phase of Civilization xarythrrmchwngaephrthngolk ehtukarnhnungthiepnipid kkhuxkhwamlmehlwkhxngxarythrrm emuxphlthiekidcakolkrxnrunaerngmakkhun thaihkaraekhngkhntxsuephuxthrphyakrthrrmchatiephimkhun aelachxngwangrahwangkhnrwykbkhncnephimkhun GSG idkhadhmayehtukarnxun thiepnipid echnehtukarnthimnusycaimprasbkhwamlmehlwthangsngkhm aelainthisudcaipthungcudthisamarthyngyunxyuid thngthangsingaewdlxmaelathangsngkhm aetwa ehtukarnthicaekidkhun khunxyukbsingthimnusyeluxkcatha 67 aelakhunxyukbkartng global citizens movement khbwnkarprachachnolk thisnbsnunkhwamkawhnathangsngkhmthiyngyunid sungcamixiththiphltxphthnakarkhxngolk 68 phyphibtithangsingaewdlxm niewsn aekikh phyphibtithangrabbniews echnkhwamlmehlwkhxngphuchphl hruxkhwamlmehlwkhxngrabbniewsthithapraoychnihkbmnusy ecosystem services samarthekidkhunidenuxngcakmiprachakrmakekinip hruxenuxngcakaenwonmkarphthnathangesrsthkic 69 aelarabbekstrkrrmthiimyngyun ehtukarnechnnixaccamixngkhprakxbtang ehlani khux karsuyphnthuyukhoholsin wikvtkarnimmina thixacthaihkhnkhrungolkimminathithanidxyangplxdphy phahathayernuthildlng karcbstwthaelmakekinip karsuyesiypaxyangyingihy karkhyaytwkhxngekhtthaelthray khwamepliynaeplngsphaphthangphumixakas hruxkarkxmlphisihaeknathirunaerngkwangkhwang phyinaenwnithiekidkhunerw nikkhux praktkarnrngphunglmslay 70 sungxaccaepnsyyanaesdngwa camikarsuyphnthuinimchani 71 khxngphungphnthu Apias mellifera xngkvs Western honeybee aelaenuxngcakwa phungchnidnimibthbathsakhyyinginkarthayernu karsuyphnthukhxngmncasrangpyhaxyangrunaernginhwngosxahar wikvtprachakraelaekstrkrrm aekikh dubthkhwamhlkthi mhntphymalthuesiyn mikarephimprachakrolkxyangrwderwinchwngkhriststwrrsthi 20 enuxngcakkarphthnathangkaraephthy aelakarephimphlphlitthangekstrkrrm 72 thiekidcakkrabwnkarthieriykwa karptiwtisiekhiyw Green Revolution 73 rahwangpi kh s 1950 1984 karptiwtisiekhiywidepliynaeplngekstrkrrmipthwolk khux karphlitthyphuchthwolkephimkhunthung 250 sungchwyihkarphlitxahar thnkbkaretibotkhxngprachakr hruxcring aelwkkhux chwyihprachakretibotid phlngnganthiichinkarptiwtisiekhiyw macakechuxephlingsakdukdabrrph inrupkhxngpuy phlitcakaeksthrrmchati sarkhastruphuchaelastw caknamn aelachlprathanthiichechuxephlingihodrkharbxn 74 minkwichakarthikahndinngansuksa Food Land Population and the U S Economy xahar thidin prachakr aelaesrsthkickhxngshrthxemrika wa radbprachakrkhxngshrth inrabbesrsthkicthisamarthyngyun khwrxyuthi 200 lankhn xyuthi 320 lankhninpi kh s 2015 ephuxthicamiesrsthkicthiyngyun aelahlikeliyngphyphibti shrthtxngldprachakrxyangnxy 1 3 aelaprachakrolktxngldlngxyangnxy 2 3 xyuthi 7 000 lankhninpi kh s 2012 75 phuekhiynngansuksaechuxwa wikvtkarnthangekstrkrrmcaerimmiphl hlngpi kh s 2020 aelacaimthungcudwikvt cnthungpi kh s 2050 minkthrniwithyathixangwa inthswrrstx mathikalngmathung eracaehnrakhaxaharthiephimkhunxyangimsudsin aelacamikarxdxyakthwolkinradbthiimekhyprasbmakxn 76 77 khawsaliepnthyphuchthiplukmakthisudepnxndb 3 khxngolk aetmiechuxrathimixyuechn Ug99 78 thisamarththalayphuchinradb 100 inphnthupccubnodymakthiplukxyu aelaemuxekidkhunaelw caimsamarthaekikhid aelaraaephrkracayidiptamlm thamiekhtplukkhawsalithisakhykhxngolkekidtidechux kcamiwikvtkarnkhawsali sungcaephimthngrakhakhxngkhaw aelaekidkhwamkhadaekhlnxaharthithacakkhawsali 79 xubtiehtuekiywkbethkhonolyiihm aekikh dr nik bxstrxm esnxwa inkarkhnhakhwamruihm mnusyxaccasrangxupkrn thisamarththalayolkaelarabbsuriyaidodyimidtngic 4 4 8 khux karthdlxnginsakhafisiksniwekhliyr aelafisiksphlngngansung xaccasrangpccythiimpkti thimiphlepnmhntphy yktwxyangechn nkwithyasastrthithdsxbraebidniwekhliyrepnkhrngaerkthithriniti kngwlwakarraebidxaccaihmbrryakaskhxngolkid 80 81 aelaemuximnanni minkwithyasastrthikngwlwa ekhruxngchnxnuphakh Relativistic Heavy Ion Collider inrthniwyxrk 82 hruxekhruxngchnxnuphakhkhnadihyiklemuxngecniwa xaccakxihekidptikiriyalukos epnmhntphyradbolk ekiywenuxngkbhlumda strangelet hruxsphawasuyyakasethiym false vacuum state aemwapyhaodyechphaaehlani caphisucnwaethcaelw 83 84 85 86 aetkhwamwitkkngwlthw ipinaenwthangediywkn kyngimsamarthkacdidethkhonolyichiwphaphxacnaipsuorkhrabadthw karsngkhramekhmixacthaaebbsudrunaerng naonethkhonolyixacnaipsusthankarnthihunyntsamarthsrangtnexng odyichthrphyakrthnghmdinolk imwacaodytngicxxkaebb hruxodyxubtiehtu 87 thiimidekidcakmnusy aekikh orkhrabadthwolk aekikh dubthkhwamhlkthi orkhrabadthw canwnkhntaycakorkhrabadthw caethakbkhwamrunaerng virulence khxngculchiphkxorkh khundwycanwnkhnthitidechuxthnghmd mikarsnnisthanwa culchiphtamthrrmchati camiradbkhwamrunaerngsungsudthicakd 58 ephraawa culchiphthikhastwthukebiynerwekinip xaccaimmiewlaphxthicaaephrkracayiptidstwxun inkhnathiculchiphthikhastwthukebiyncha hruximkhaely caepidoxkasihstwphahaorkhmiewlainkarkracayorkh aeladngnn cungkhyayphnthuiddikwaculchiphphnthuthirunaerngkwa 88 aebbcalxngthieriybngayniphyakrnwa thakhwamrunaerngaelakarkracayorkhimsmphnthkn culchiphkxorkhcawiwthnakaripepnaebbrunaerngnxy aelakracayphnthuiderw aetwa khxsmmutiniimepncringesmxinehtukarnthisbsxncring thiradbkhwamrunaerngaelaxtrakaraephrkracay casmphnthkn dngnn culchiphthirunaerng cungsamarthwiwthnakarekidkhunid 89 radbkhwamrunaerngthiepnipid kcacakdodyklumprachakrthisbsxnkhxngstwthukebiyn thimiradbkartidechuxtang kn hruxxaccaxyuinphunthithiaeykxxkcakkn 58 nxkcaknnaelw khnadkhxngklumprachakrstwthukebiyn aelakaraekhngkhnknrahwangsayechuxculchiph samarthepliynradbkhwamrunaerngkhxngculchiphid 90 epneruxngnasnicwa culchiphthikxorkhinmnusyodyepnstwthutiyphumi aelapktikxorkhinstwxun odyepnstwpthmphumi khuxepnorkhrbcakstw xacimmikhxcakdinkhwamrunaerngkhxngorkhthikxinmnusy ephraawa kartidorkhkhxngmnusyepnephiyngxubtiehtu aelawiwthnakarkhxngculchiph cakhbekhluxnodyehtukarnthiekidinstwxun 91 mitwxyangthangprawtisastrmakmayekiywkborkhrabadthw 92 thimiphlthalaylangmnusyepncanwnmak sungthaihorkhrabadthwolk epnkhwamesiyngthiepncringid aelaepnphytxxarythrrmmnusy karepliynaeplngsphaphphumixakas aekikh karepliynaeplngsphaphphumixakas hmaythungkhwamtang kntamthrrmchatikhxngphumixakasolk tamkalewa phumixakasmkcaepliynaeplngipxyangcha echninchwngyukhnaaekhng aelachwngthimixakasxuncnkrathngtnpalmsamarthotidinthwipaexntarktika misnnisthanwa miyukhhnungthieriykwa snowball Earth olklukhima thimhasmuthrthnghmdpkkhlumdwynaaekhng phumixakasolkechnni mkcaepliynaeplngxyangcha kxnthixarythrrmmnusycaekidkhunpramanhmunpikxn inchwngplaykhxngyukhnaaekhngyukhsudthaythiphumixakaserimesthiyrmakkhun aetwakarepliynaeplngsphaphphumixakasxyangkrathnhn inchwngewlaepnephiyngthswrrs kmidwyaetcakdinbangphunthi aetephraawa xarythrrmnusyerimkhuninchwngthiphumixakasethiyr aemkarepliynaeplngtamthrrmchati imwacarxnkhunhruxhnawkhun kxaccaepnphytxmnusy yukhnaaekhng aekikh dubthkhwamhlkthi yukhnaaekhng erarutamprawtikhxngolkwa miyukhnaaekhng 12 yukhthiidphanmaaelw xaccamiyukhnaaekhngekidkhunxikphayin 40 000 100 000 pi sungcaepnpyharunaerngkbxarythrrmephraawa phunthiepncanwnmak odyhlkinxemrika yuorp aelaexechiy thangphakhehnux xaccaimsamarthxyuid karxyuinekhtrxncayngepnipid aetxaccainradbkhwamchunaelaradbnathildlng inkhnapccubn olkxyuinchwngkhnchwngewlatharnaaekhng Interglacial karkhyaytwkhxngtharnaaekhngkhrngsudthay hyudlngemuxpramanhmunpikxn aelaxarythrrmmnusythnghmd ekidphthnakarhlngcaknn thungxyangirkdi nkwithyasastrimphyakrnwa yukhnaaekhngtamthrrmchaticaekidkhunphayinerw ni phuekhaif aekikh ehtukarnthangthrniwithya echn hinbasxltthwm phuekhaifraebid aelasuepxrphuekhaifraebid 93 samarththaihekidvduhnawphuekhaif khlaykbvduhnawniwekhliyr miehtukarnechnnithithaelsabotba praethsxinodniesiy emux 71 500 pikxn 94 aelatamthvsdimhntphythaelsabotba 95 ehtukarnnnxaccaldcanwnmnusyinewlann cnehluximkihmunkhn aexngphuekhaifrupkracadthixuthyanaehngchatieylolwsotn epnsuepxrphuekhaifxikaehnghnung sungidraebidkhunxyangnxy 142 khrngin 17 lanpithiphanma 96 karraebidphuekhaifxyangrunaerng caplxyfunphuekhaif aeksphis aelaaekseruxnkrack ipinbrryakas miphlsahstxphumixakaskhxngolk cahnawhruxrxnkdi thaepndanhnaw cathaihhnawmak epnvduhnawphuekhaifinrayasn aelayukhnaaekhnginrayayaw hruxthaolkrxnkhun kcaepnephraaaekseruxnkrackmixiththiphltxphumixakasmakthisudemuxsuepxrphuekhaifthieylolwsotn raebidkhrngsudthayemux 640 000 pikxn hinhnudaelaethathixxkmacakplxngphuekhaif pkkhlumpraethsshrthxemrikadantawntkkhxngaemnamississippiodymak aelaswnhnungkhxngpraethsemksiokdantawnxxkechiyngehnux 97 karraebidechnnixik xaccaepnphytxxarythrrm aelaxacplxyaeksxxkmaepncanwnmak phxthicathalaykhwamsmdulkhxngaekskharbxnidxxkisd miphlepnpraktkarnaekseruxnkrackthikhumimxyu imaenic phudkhuy txngkarxangxing hruxplxyfuntakxnphuekhaifhruxwsduxun ipinchnbrryakas aelwbngaesngxathity miphlepnvduhnawphuekhaif dngthiekidkhuninpi kh s 1816 thiphuekhaiftmobraraebid miphlepnpiirvdurxn karraebidechnnixacthaihkhntaythnthiepnlan khnaemxyuhangepnhlayrxykiolcakcudraebid aelaxacthaihtayepnphn lankhnodythisud 98 thwolk enuxngcakkarirmrsum txngkarxangxing miphlepnekstrkrrmlmehlw aelwthaihekidkhwamxdxyakxyangthiimekhymimakxn 98 swnehtukarnthiepneruxngimaennxnyingkwann khux Verneshot sungepnthvsdikarraebidphuekhaif thiekidcakkarsngsmaeksithinthanthrni craton karraebidphuekhaifechnnixacaerngphx thicasngwsduepncanwnmakcakepluxkolkaelaenuxolk ipinaenwwithiekuxbthungwngokhcr khlunemkasunami aekikh phyxikxyanghnungkkhux khlunemkasunami echn khlunthixaccasamarththalay fngdantawnxxkkhxngpraethsshrthxemrikathngsin epnkhlunthiekidcakekaaphuekhaifthlmlngmainthael 99 aemwa ehtukarnehlani caimsamarththalayephaphnthumnusyodythnghmd aetksamarthepnphytxxarythrrminphunthi mikhlunsunamithimikhntaymak aemhlngcakthiekidehtukarnaephndinihwaelakhlunsunamiinothohaku ph s 2554 aelainmhasmuthrxinediy ph s 2547 aetkyngimihyphxthicaeriykwa khlunemkasunami emkasunami samarthmiaehlngkaenidcakwtthuxwkasiddwy echnmidawekhraahnxywinglngmainthael karslbkhwaemehlkolk aekikh dubthkhwamhlkthi karslbkhwaemehlkolk tamprawtiolk khwaemehlkkhxngolkidepliynthimahlaykhrngaelw rayaewlathiehtukarnehlaniepnip yngimchdecn aetmithvsdithiwa inchwngrayaewlaehlani snamaemehlkolkcaxxnmakhruximmiely sungcaepnphytxxarythrrmthiichiffa hruxtxstwphuchhlayspichis enuxngcakkaraephrngsicakdwngxathity odyechphaakkhux lmsuriya eplwsuriya aelarngsikhxsmik caekhamathungolkid aetwa thvsdiehlani phisucnwaethcepnbangswnaelw ephraawa karwiekhraahthangsthiti imaesdnghlkthanwamishsmphnthrahwangkarslbkhwinxdit kbkarsuyphnthukhxngstwhruxphuch 100 101 thvsdikarslbkhwaemehlkolkthiyxmrb imkhwrsbsnkbsmmutithankhwolkepliyn Pole shift hypothesis sungtngkhunemuxpi kh s 1872 aelamikarxphipraycha inchwngplaykhriststwrrs 20 aetimepnthiyxmrbkhxngnkwithyasastrinpccubn khuxsmmutithanesnxwa aeknhmunkhxngolk samarthepliyntaaehnngepriybethiybkbepluxkolk idxyangrwderw thaihekidaephndinihwaelakhlunsunamixyangrunaerng aelwepliynaeplngsphaphphumixakasinphunthi thakhwamesiyhay smmutithanni khdkbkartikhwamkhxmulthrniwithya odynkwithyasastrthwip sungbxkwa karepliynaeknhmun true polar wander samarthekidkhunid aetcaepnipxyangcha inchwngewlaepnlan pi dawekhraahnxywingkrathbolk aekikh phuaethnrasdr STEWART eramikhwamsamarththangethkhonolyi thicasngxairipephuxskdkndawekhraahnxyhruxim dr A HEARN imkhrb thaeramiaephnsrangyanxwkasphrxmaelw nnkyngtxngichewlaxikpihnung khux pharkicelkodythwip ichewla 4 pi erimtngaetkarrbxnumti ipthungkarsngyanxwkas rthsphaaehngshrthxemrika 102 midawekhraahnxyhlaydwng thiwingmachnolktamprawtiolkthiyngimnan yktwxyangechn mithvsdiwa dawekhraahnxythisrangaexng Chicxulub inrthyukatng praethsemksiok epnehtukhxngkarsuyphnthuinyukhkhriethechiys phalioxcin khxngidonesarthibinimid emux 66 lanpikxn thamiwtthuihyechnnnwingmakrathbolk camiphlrunaerngtxxarythrrm epnipidwa mnusychaticasuysinip aetcaepnxyangniid ktxemuxdawekhraahnxymikhnadxyangnxy 1 km epnesnphasunyklang aelanacatxngmikhnad 3 10 km odyechliyaelw camidawekhraahnxykhnad 1 km wingmakrathbolkthuk 500 000 pi 4 4 10 swndawekhraahnxythiihykwannimkhxysamy aetwa eraphbdawekhraahnxyiklolkthimikhnadelk epnpracaxik 1 4 lanpi dawvks Gliese 710 cathaihekidmisaekddawephimkhuniklolk emuxmnekhamainraya 1 1 piaesngcakdwngxathity pccubnhang 63 8 piaesng aelamiphlrbkwnemkhxxrtthixyulxmrxbrabbsuriya aebbcalxngphlwt Dynamic model khxngnkwithyasastrklumhnung phyakrnwa camisaekddawwingekhamakrathbolkephimkhun 5 103 aetwa wtthuthimacakemkhxxrt caichewlaepnlan pi thicawingekhamathungrabbsuriyadanin sungepnekhtthiolkxyu karbukrukkhxngmnusytangdaw aekikh mnusytangdawxaccamarukranolk 104 http discovermagazine com 2000 oct featworld 20 Ways the World Could End Oct 01 2000 ephuxthicakacdhruxthdaethnmnusy thamnusyihepnthas khomythrphyakrkhxngolk hruxthalayolkthngsinaemwayngimmihlkthanwa mimnusytangdaw nkwithyasastr echn dr kharl esaekn echuxwa mnusytangdawnacamixyu inpi kh s 1969 rthbalshrthidtngkdbngkhbekiywkarthuktxngsmphswtthutangdaw Extra Terrestrial Exposure Law ephraakhwamepnipidthicaekidkarpnepuxnthangchiwphaph khxngokhrngkarxaphxlol aelwtxmacungidykelikkdniinpi kh s 1991 105 pccubnni nkwithyasastrphicarnasthankarnniwa epnipidodyethkhnikh aetmioxkasnxy 4 7 2 pharadxkskhxngaefrmi aekikh inpi kh s 1950 nkfisikschawxitali dr exnriok aefrmi tngkhxsngsywa thaimmnusycungyngimphbecxxarythrrmtangdaw aelwthamwa aelwthukkhnipxyuihnhmd 106 ephraaxayukhxngexkphphthiekaaek aelacanwndawvksthimixyumakmay thaolkimphidpkti singmichiwittangdawkkhwrcamixyuxyangsamy dngnn thaimcungimmihlkthanwamixarythrrmtangdaw khathamni ruckknwa pharadxkskhxngaefrmiehtuphlxyanghnungthiesnxthinxkehnuxcakkhwamepnipidwa immisingmichiwitxun aemcaimidrbkaryxmrbxyangthwip kkhux mnusyyngimphbsingmichiwitthichladcakdawekhraahxun epnephraakhwamnacaepn thicaekidmhntphythithalaylangkarxyurxd sungkkhux xarythrrmkhxngsingmichiwitthichladxun thukthalaylangip kxnthimnusycasamarthphbecx hruxwa phwkekhaimsamarthkhnhaolkid 8 107 108 phycakckrwal aekikh miphythangdarasastrthieraerimruaelw wtthuthimimwlmhasal echn dawvks dawekhraahkhnadihy hruxhlumda samarthepnmhntphyid thaekhamaiklrabbsuriya ineduxnemsayn pi kh s 2008 mikarprakaswa karcalxngkarekhluxnihwkhxngdawekhraahinrayayaw thithathihxsngektkarnparis Paris Observatory aelathimhawithyalyaekhlifxreniy santakhrus aesdngwa mioxkas 1 thiwngokhcrkhxngdawphuth caekidkhwamimesthiyr ephraaehtuaerngonmthwngkhxngdawphvhsbdi inchwngxayukhykhxngphraxathity thaniekidcring karcalxngbxkwa dawphuththcawingchnolk sungepnphlthiepnipidxyanghnungin 4 xyang odythiphlxyangxunrwmthng wingchndwngxathity wingchndawsukr hruxxacwingxxkcakrabbsuriyaodysineching thawingchnolk singmichiwitthnghmdinolkcathukthalay khnaddawekhraahnxykhnad 15 km yngechuxwa epnehtuihidonesarthibinimidsuyphnthu ethiybkbdawphuthth sungmikhnad 4 879 km 109 phyxikxyangxaccamacakaesngwabrngsiaekmma 110 sungcathaihstwphuchsuyphnthuaelathalaychnoxosnkhxngolkaetphythngsxngmioxkasnxythicaekidkhuninxnakhtthiyngphxmxngehnid 4 4 7phythikhlay knxikxyanghnungkhux ihepxronwa sungekidkhunemuxdawihepxricaexnthraebidaelwyubtwlng aephrngsiepncanwnmak xxkipepnrayathanghlayrxypiaesng aemwacayngimmiikhrekhyehnihepxronwa aetwamikaresnxwa epnehtukhxngkarsuyphnthuyukhxxrodwiechiyn yukhislueriyn dawihepxricaexnththiiklthisudxyuinrabbdaw Eta Carinae sungxyuhangpraman 8 000 piaesng 111 tharabbsuriyawingphanenbiwlamud sungkkhuxklumfunkhxsmik karepliynaeplngsphaphphumixakasradbolkaebbrunaerng kcaekidkhun 112 khxmulephimetim phayusuriya aela eplwsuriya suepxrphayusuriya sungepnkarldradbhruxephimradbphlngnganaesngxathitythiimpkti xaccamiphlrunaerngtxsingmichiwitbnolkthaexkphphkhxngeraxyuinsuyyakasethiym false vacuum tamthvsdisnamkhwxntm fxngsuyyakasthimiphlngngantakwa xaccamikhunodybngexiyhruxodypccyxun sungcaerngptikiriyakarepliynexkphphihmiphlngngantalng odykhyayxxkiklkhwamerwkhxngaesng thalaythuksingthieraruck odyimmikaretuxnlwnghna 113 ehtukarnechnnieriykwa vacuum metastability event ehtukarnkhwamesthiyrethiymkhxngsuyyakas sthankarnthiimidrbkaryxmrb aekikhkhwamechuxwa ptithinkhxngxarythrrmmayahyudipechy inwnthi 21 thnwakhm ph s 2555 epnkhwamekhaicphid enuxngcakkarthikhnmaya carukptithinaebb Long Count iwodyichelkh 5 hlkethann inxnusrnbangaehng khnmayaidkhanwnwnthiipthnginxdit ipthnginxnakht epnrayaewlayawnan aetimmiwnthisudkhxngolkmirayaewlainradbthisungkhunaetimkhxyidichthieriykwa Piktun sungmithisudchwngewlatrngkbwnthi 21 thnwakhm 2555 Piktun epnchwngewla 1 872 000 wn hruxpraman 5 125 wn aelaepncudsakhyxyanghnunginptithinmaya aetwa immihlkthanthngthangprawtisastr hruxthangwithyasastrwa khnmayaechuxwa camicudcbkhxngolk dngnn cungmikhnthiechuxwa cudewlann kepnephiyngaetcuderimtnkhxng Piktun rayaihmethannexng 114 karetriymtwaelakarpxngkn aekikhkarsrangrabbcdkarsingaewdlxmthngolk Planetary management aelakarimkawlwngkhxbekhtsingaewdlxm planetary boundaries epnwithikarthiesnxephuxpxngknmhntphythangniews odyepnswnkhxngwithikarehlani khwamrucaksakhawiswkrrmthrni geoengineering samarthichinkarcdaecngsingaewdlxmolk aelaephuxpxngknaelafunfukhwamesiyhay thiekidcakmnusytxbrryakaskhxngolk karsrangxananikhminxwkas epnwithikarxikxyanghnungephuxephimoxkasthimnusycaxyurxdid thaekidehtukarnthixacthaihsuyphnthu 115 aetkaraekpyhainradbni xaccatxngichwiswkrrmthisamarthsrangsingpluksrangkhnadepn 1 000 km megascale engineering karekbxaharthieliyngchiwitidepnpi epnwithikarthiesnxichthwolk aetwa epnwithithimikhaichcaysung aelayngxacepnpccykbkarkhadxahartayepnlan khntxpi thikyngmiinthukwnni mikaresnxinhnngsux Feeding Everyone No Matter What karmixaharihthukkhnimwaxaircaekidkhun thungkarphlitxaharaebbxun emuxekidphyradbolk echn vduhnawniwekhliyr vduhnawphuekhaif karwingchnolkkhxngdawekhraahnxy dawhang aelakarepliynaeplngsphaphphumixakasaebbchbphln 116 echn karepliynechuxephlingsakdukdabrrphaelamwlchiwphaph epnxaharnxkcaknnaelw mikaresnxihebndawekhraahnxy Asteroid deflection ephuxldkhwamesiyngtxkarwingchnolk ihldhruxkacdxawuthniwekhliyr Nuclear disarmament ephuxldkhwamesiyngtxvduhnawniwekhliyr yngmichnklumtang thietriymtwrbmuxsthankarnmhntphyehlanidwy echn klumchnthimikhwamkhidtamaenwkhbwnkar survivalism karetriymkarephuxrxdchiwit caekbxaharthixyuidepnewlahlaypi insthanthithietriymiwrbmuxsthankarntang chxngitdinephuxemldphnthuphuchaehngsfalbar epnchxngitdinitphuekha 120 m inxarktik thiichekbphnthuphuchcakthwolkmakkwa 10 tn miemldphuchphnthukwa 100 lanemld cakpraeths 100 praeths thiidekbiwinchxngitdin ephuxsngwnphuchphlkhxngolk klxngemldkhawcakpraeths 104 praeths epnphuchphnthuaerkthiekb odyrksaiwthi 18 xngsaeslesiys camikarekbspichiskhxngphuchxunxikepnphn tamkhwamphyayamkhxngphuprasanngan thicahatwxyangkhxngphuchephaaplukthukxyanginolk krrmkarbriharkhxngxngkhkr Global Crop Diversity Trust sungepnswnhnungkhxngoprecktni klawwa karekbphuchphnthuihhlayhlakthisudethathicaepnipid cathaihmihnthangaekpyhatang inradbsungsud ephuxpraoychntxekstrkr nkwithyasastr aelarthbal aelawa karepidchxngitdinsahrbemldphnthuphuch epnprawtikarninkarpkpxngrksakhwamhlaklaykhxngphuchphlkhxngolk aelathungaemwachndineyuxkaekhngkhngtwinxarktikcaerimlalay emldthiekbiwkcayngplxdphyinchxngitdinidthung 200 pi aelaemldbangxyang casamarthplukidaemphanipphnpihruxekinkwann rwmthngkhawbarliy sungekbidthung 2 000 pi khawsali sungekbidthung 1 700 pi aelakhawfang sungekbidekuxbthung 20 000 pi 117 xngkhkrephuxldkhwamesiyngtxkarrxdchiwit aekikh Centre for the Study of Existential Risk sunykarsuksakhwamesiyngtxkarrxdchiwit suksakhwamesiyngkhxngethkhonolyihlk 4 xyangkhux pyyapradisth ethkhonolyichiwphaph praktkarnolkrxn aelasngkhram Foresight Institute micudmunghmayephuxephimpraoychn aelaldkhwamesiyng khxngnaonethkhonolyi Machine Intelligence Research Institute sthabnwicykhwamchladkhxngekhruxng thanganwicyekiywkbkhwamesiyngkhxngpyyapradisth Future of Humanity Institute sthabnxnakhtkhxngmnusychati thanganwicyekiywkbxnakhtrayayawkhxngmnusy odyechphaaineruxngkhwamesiyngtxkarxyurxd Lifeboat Foundation mulnithieruxchuchiph miewbistekiywkbkhwamesiyngmhntphyradbolk aelaxnakhtsuksa 118 Future of Life Institute sthabnxnakhtkhxngsingmichiwit micudmunghmayephuxsngesrimnganwicy aelaokhrngkarinkarpxngknrksasingmichiwit odyihkhwamsakhykbethkhonolyiihm aelaxupsrrkhthimnusycaephchiyhna 119 xngkhkrephuxldkhwamesiyngmhntphyradbolk aekikh Global Catastrophic Risk Institute 120 sthabnkhwamesiyngmhntphyradbolk suksakhwamesiyngmhntphythukxyang Millennium Alliance for Humanity amp The Biosphere phnthmitrshswrrsephuxmnusychatiaelachiwphakh 121 epnchumchnkhxngkhnthwolk thisnbsnunwithikarptibtithiyngyun sustainable practice X Center 122 thanganwicythungwithikhidodyehtuphl thungehtukarnthiimkhadhmay thngelkaelaihy WHO Global Alert and Response xngkhkrkaretuxnphyaelakartxbsnxngradbolk khxngxngkhkarxnamyolk 123 trwctrasxdsxngorkhrabad Connecting Organizations for Regional Disease Surveillance xngkhkrprasannganephuxkarkarsxdsxngorkhinphunthi 124 phungcudsnicipthikarldkhwamesiyngcakxawuththalaylangthangchiwphaph aelamatrkarbrrethakhwbkhumthaehtukarnechnnnekidkhun USAID Emerging Pandemic Threats Program opraekrmphyorkhrabadthwthikalngekidkhunkhxng USAID 125 epnopraekrmkhxngrthbalshrthxemrika ephuxpxngknaelakhwbkhumorkhrabadthwthiekidodythrrmchati odythakarthiaehlngkaenid Lawrence Livermore National Laboratory Global Security 126 thanganwicyekiywkbkhwamesiyngmhntphyradbolk ephuxkrathrwngklaohmkhxngshrthxemrika Center for International Security and Cooperation 127 sunyephuxkhwamplxdphyaelakhwamrwmmuxnanachati phungkhwamsnicipthikarrwmmuxknthangkaremuxng inradbnanachati ephuxldradbkhwamesiyngmhntphyradbolk World Institute for Nuclear Security sthabnolkephuxkhwammnkhngthangniwekhliyr phungkhwamsnicipthi karihkarsuksaekiywkbkhwamplxdphyaelakhwammnkhng sahrbbukhkhlthixyuinxutsahkrrmniwekhliyr Bulletin of the Atomic Scientists epnnitysarxxniln thixxkkhxkhwamekiywkbkhwammnkhngkhxngolk aelanoybaykhxngrth ineruxngxntraycakxawuthniwekhliyraelaxawuththalaylangxyangxun cakkarepliynaeplngsphaphphumixakas aelacakorkhduephim aekikhbnethingkhdiphyakrnaelahlngphyakrn nalikawnsinolk xwsanwithya xnakhtkhxngolk esnewlakhxngxnakhtiklxangxing aekikh doi 10 1126 science 1177265This citation will be automatically completed in the next few minutes You can jump the queue or expand by hand catastrophe sphthbyytixngkvs ithy ithy xngkvs chbbrachbnthitysthan khxmphiwetxr run 1 1 mhntphy Bostrom Nick 2008 Global Catastrophic Risks PDF Oxford University Press p 1 4 0 4 1 4 2 4 3 4 4 4 5 4 6 Bostrom Nick 2002 Existential Risks Analyzing Human Extinction Scenarios and Related Hazards Journal of Evolution and Technology 9 1 subkhnemux 2015 06 17 PDF Article PDF 276 KB 5 0 5 1 Weitzman Martin 2009 On modeling and interpreting the economics of catastrophic climate change The Review of Economics and Statistics 91 1 1 19 doi 10 1162 rest 91 1 1 Frequently Asked Questions Existential Risk Future of Humanity Institute subkhnemux 2013 07 26 7 0 7 1 Bostrom Nick Existential Risk Prevention as a Global Priority Existential Risk Future of Humanity Institute subkhnemux 2013 07 23 8 0 8 1 xangxingphidphlad payrabu lt ref gt imthuktxng immikarkahndkhxkhwamsahrbxangxingchux observation selection effects cirkovic 9 0 9 1 Bostrom N 2013 Existential Risk Prevention as Global Priority PDF Global Policy 4 doi 10 1111 1758 5899 12002 subkhnemux 2014 07 07 10 0 10 1 Bostrom Nick 2003 Astronomical Waste The opportunity cost of delayed technological development Utilitas 15 3 308 314 doi 10 1017 s0953820800004076 PDF Article PDF 59 KB Posner Richard A 2006 Catastrophe risk and response Oxford Oxford University Press ISBN 978 0195306477 Introduction What is Catastrophe 12 0 12 1 Matheny Jason Gaverick 2007 Reducing the Risk of Human Extinction Risk Analysis 27 5 Asher D J Bailey M E Emel yanenko V Napier W M 2005 Earth in the cosmic shooting gallery The Observatory 125 319 322 CS1 maint multiple names authors list link Ambrose 1998 Rampino amp Ambrose 2000 pp 71 80 Rampino M R Ambrose S H 2002 Super eruptions as a threat to civilizations on Earth like planets Icarus 156 562 569 CS1 maint multiple names authors list link Global Catastrophic Risks Survey Technical Report Future of Humanity Institute 2008 Cirkovic Milan 2008 Observation Selection Effects and Global Catastrophic Risks PDF nickbostrom com subkhnemux 2015 06 17 Parfit Derek 1984 Reasons and Persons Oxford University Press pp 453 454 http news bbc co uk 2 hi sci tech specials washington 2000 649913 stm Posner Richard 2004 Catastrophe risk and response Oxford University Press Desvousges W H Johnson F R Dunford R W Boyle K J Hudson S P Wilson N 1993 Hausman J A b k Measuring natural resource damages with contingent valuation tests of validity and reliability Contingent Valuation A Critical Assessment Amsterdam North Holland pp 91 159 CS1 maint multiple names authors list link Yudkowsky Eliezer 2008 Cognitive Biases potentially affecting judgments of global risks PDF subkhnemux 2015 06 17 Karnofsky Holden Possible Global Catastrophic Risks GiveWell Blog GiveWell subkhnemux 2013 07 24 24 0 24 1 The Cambridge Project for Existential Risk Cambridge University Terminator center to open at Cambridge University Fox News 2012 11 26 Joy Bill Why the future doesn t need us Wired magazine 27 0 27 1 27 2 Bostrom Nick 2002 Ethical Issues in Advanced Artificial Intelligence subkhnemux 2015 06 17 Bostrom Nick 2014 Superintelligence Paths Dangers Strategies United Kingdom Oxford University Press ISBN 978 0199678112 29 0 29 1 Scientists Worry Machines May Outsmart Man NY Times 209 07 26 Check date values in date help Vinge Vernor 1993 The Coming Technological Singularity How to Survive in the Post Human Era Department of Mathematical Sciences San Diego State University subkhnemux 2015 06 18 Rawlinson Kevin Microsoft s Bill Gates insists AI is a threat BBC News subkhnemux 2015 01 30 Gaming the Robot Revolution A military technology expert weighs in on Terminator Salvation slate com 2009 05 21 Robot takeover gyre org robot page engadget com 35 0 35 1 Yudkowsky Eliezer Artificial Intelligence as a Positive and Negative Factor in Global Risk subkhnemux 2013 07 26 Call for debate on killer robots BBC News 2009 03 08 Robot Three Way Portends Autonomous Future wired com 2009 08 13 New Navy funded Report Warns of War Robots Going Terminator dailytech com 2009 02 17 Navy report warns of robot uprising suggests a strong moral compass engadget com 2009 02 18 New role for robot warriors Drones are just part of a bid to automate combat Can virtual ethics make machines decisionmakers Christian Science Monitor 2010 02 17 The Rise of Artificial Intelligence PBS Off Book Web series 2013 07 11 ekidehtuemux 6 29 7 26 subkhnemux 2013 10 24 what happens if AIs decide we are not useful anymore I think we do need to think about how to build machines that are ethical The smarter the machines gets the more important that is T here are so many advantages to AI in terms of human health in terms of education and so forth that I would be reluctant to stop it But even if I did think we should stop it I don t think it s possible if let s say the US Government forbade development in kind of the way they did development of new stem cell lines that would just mean that the research would go offshore it wouldn t mean it would stop The more sensible thing to do is start thinking now about these questions I don t think we can simply ban it 42 00 42 01 42 02 42 03 42 04 42 05 42 06 42 07 42 08 42 09 42 10 42 11 42 12 Phoenix Chris Treder Mike 2008 Chapter 21 Nanotechnology as global catastrophic risk in Bostrom Nick Cirkovic Milan M b k Global catastrophic risks Oxford Oxford University Press ISBN 978 0 19 857050 9 43 0 43 1 Frequently Asked Questions Molecular Manufacturing foresight org subkhnemux 2014 07 19 Drexler Eric A Dialog on Dangers foresight org subkhnemux 2014 07 19 45 0 45 1 Sandberg Anders The five biggest threats to human existence http theconversation com subkhnemux 2014 07 13 External link in website help Drexler Eric ENGINES OF DESTRUCTION Chapter 11 http e drexler com subkhnemux 2014 07 19 External link in website help Tomasik Brian Possible Ways to Promote Compromise http foundational research org subkhnemux 2014 07 19 External link in website help Dangers of Molecular Manufacturing crnano org subkhnemux 2014 07 19 49 0 49 1 The Need for International Control crnano org subkhnemux 2014 07 19 Tomasik Brian International Cooperation vs AI Arms Race foundational research org subkhnemux 2014 07 19 Technical Restrictions May Make Nanotechnology Safer crnano org subkhnemux 2014 07 19 Tomasik Brian Possible Ways to Promote Compromise http foundational research org subkhnemux 2014 07 22 External link in website help Joseph Lawrence E 2007 Apocalypse 2012 New York Broadway p 6 ISBN 978 0 7679 2448 1 Rincon Paul 2004 06 09 Nanotech guru turns back on goo BBC News subkhnemux 2012 03 30 Hapgood Fred 1986 11 Nanotechnology Molecular Machines that Mimic Life PDF Omni subkhnemux 2014 07 19 Check date values in date help Leading nanotech experts put grey goo in perspective crnano org subkhnemux 2014 07 19 57 0 57 1 57 2 57 3 57 4 57 5 57 6 57 7 57 8 57 9 Noun Ali Chyba Christopher F 2008 Chapter 20 Biotechnology and biosecurity in Bostrom Nick Cirkovic Milan M b k Global Catastrophic Risks Oxford University Press 58 0 58 1 58 2 Frank SA 1996 03 Models of parasite virulence Q Rev Biol 71 1 37 78 doi 10 1086 419267 PMID 8919665 Check date values in date help Jackson Ronald J Ramsay Alistair J Christensen Carina D Beaton Sandra Hall Diana F Ramshaw Ian A 2001 Expression of Mouse Interleukin 4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox Journal of virology 75 3 1205 1210 doi 10 1128 jvi 75 3 1205 1210 2001 subkhnemux 2014 07 13 Hellman Martin E On the Probability of Nuclear War subkhnemux 2015 06 09 Nuclear Weapons and the Future of Humanity The Fundamental Questions by Avner Cohen Steven Lee p 237 thi Google Books 62 0 62 1 Federation of American Scientists Status of World Nuclear Forces Fas org 2014 subkhnemux 2014 05 26 63 0 63 1 Martin Brian 1982 Critique of nuclear extinction Journal of Peace Research 19 4 287 300 doi 10 1177 002234338201900401 subkhnemux 2014 10 25 Shulman Carl 2012 11 05 Nuclear winter and human extinction Q amp A with Luke Oman Overcoming Bias subkhnemux 2014 10 25 doi 10 5194 acp 7 1973 2007This citation will be automatically completed in the next few minutes You can jump the queue or expand by hand Full Article PDF 2 15 MB Held Isaac M Soden Brian J Water Vapor Feedback and Global Warming PDF Annu Rev Energy Environ 2000 p 449 CS1 maint multiple names authors list link Raskin Paul 2006 World Lines Pathways Pivots and the Global Future PDF Boston Tellus Institute Kriegman Orion 2006 Dawn of the Cosmopolitan The Hope of a Global Citizens Movement PDF Boston Tellus Institute Chiarelli B 1998 Overpopulation and the Threat of Ecological Disaster the Need for Global Bioethics Mankind Quarterly 39 2 225 230 Evans Pritchard Ambrose 2011 02 06 Einstein was right honey bee collapse threatens global food security The Daily Telegraph London Lovgren Stefan 2007 02 07 Mystery Bee Disappearances Sweeping U S National Geographic News subkhnemux 2007 03 10 The end of India s green revolution BBC News 2006 05 29 subkhnemux 2012 01 31 Food First Institute for Food and Development Policy Foodfirst org 2000 04 08 subkhnemux 2012 01 31 How peak oil could lead to starvation Web archive org 2009 05 27 subkhnemux 2012 01 31 Eating Fossil Fuels EnergyBulletin net 2003 10 02 subkhnemux 2012 01 31 The Oil Drum Europe Agriculture Meets Peak Oil Europe theoildrum com subkhnemux 2012 01 31 Drawing Momentum from the Crash Uncommon Thought Journal 2007 11 08 subkhnemux 2015 06 09 Cereal Disease Laboratory Ug99 an emerging virulent stem rust race Ars usda gov subkhnemux 2012 01 31 Durable Rust Resistance in Wheat Wheatrust cornell edu subkhnemux 2012 01 31 Richard Hamming Mathematics on a Distant Planet Report LA 602 Ignition of the Atmosphere With Nuclear Bombs PDF subkhnemux 2011 10 19 New Scientist 28 August 1999 A Black Hole Ate My Planet Konopinski E J Marvin C Teller Edward 1946 Ignition of the Atmosphere with Nuclear Bombs PDF Declassified February 1973 LA 602 Los Alamos National Laboratory subkhnemux 2008 11 23 Cite journal requires journal help Statement by the Executive Committee of the DPF on the Safety of Collisions at the Large Hadron Collider PDF subkhnemux 2015 06 09 Safety at the LHC Study of Potentially Dangerous Events During Heavy Ion Collisions at the LHC PDF Geneva CERN Scientific Information Service 2003 02 28 subkhnemux 2015 06 17 Drexler Eric 1986 Engines of Creation The Coming Era of Nanotechnology Doubleday ISBN 0 385 19973 2 Brown NF Wickham ME Coombes BK Finlay BB 2006 05 Crossing the Line Selection and Evolution of Virulence Traits PLoS Pathogens 2 5 e42 doi 10 1371 journal ppat 0020042 PMC 1464392 PMID 16733541 Check date values in date help CS1 maint multiple names authors list link Ebert D Bull JJ 2003 01 Challenging the trade off model for the evolution of virulence is virulence management feasible Trends Microbiol 11 1 15 20 doi 10 1016 S0966 842X 02 00003 3 PMID 12526850 Check date values in date help CS1 maint multiple names authors list link Andre JB Hochberg ME 2005 07 Virulence evolution in emerging infectious diseases Evolution 59 7 1406 12 doi 10 1554 05 111 PMID 16153027 Check date values in date help Gandon S 2004 03 Evolution of multihost parasites Evolution 58 3 455 69 doi 10 1111 j 0014 3820 2004 tb01669 x PMID 15119430 Check date values in date help Near Apocalypse Causing Diseases a Historical Look postapocalypticsurvival com subkhnemux 2012 05 05 Kate Ravilious 2005 04 14 What a way to go The Guardian Toba Supervolcano 2012 Final Fantasy 2008 02 04 Toba Catastrophe Theory Science Daily Breining Greg 2007 Super Volcano The Ticking Time Bomb Beneath Yellowstone National Park Voyageur Press p 256 ISBN 978 0 7603 2925 2 Breining Greg 2007 Distant Death Super Volcano The Ticking Time Bomb Beneath Yellowstone National Park St Paul MN Voyageur Press p 256 pg ISBN 978 0 7603 2925 2 98 0 98 1 Breining Greg 2007 The Next Big Blast Super Volcano The Ticking Time Bomb Beneath Yellowstone National Park St Paul MN Voyageur Press p 256 pg ISBN 978 0 7603 2925 2 Pararas Carayannis George 2002 Evaluation of the threat of mega tsunami generation from postulated massive slope failures of island volcanoes on La Palma Canary Islands and on the island of Hawaii drgeorgepc com subkhnemux 2008 12 20 Plotnick Roy E 1980 01 01 Relationship between biological extinctions and geomagnetic reversals Geology 8 12 578 Bibcode 1980Geo 8 578P doi 10 1130 0091 7613 1980 8 lt 578 RBBEAG gt 2 0 CO 2 Glassmeier Karl Heinz Vogt Joachim 2010 05 29 Magnetic Polarity Transitions and Biospheric Effects Space Science Reviews 155 1 4 387 410 Bibcode 2010SSRv 155 387G doi 10 1007 s11214 010 9659 6 Threats From Space a Review of U S Government Efforts to Track and mitigate Asteroids and Meteors Part I and Part II Hearing Before the Committee on Science Space and Technology House of Representatives One Hundred Thirteenth Congress First Session PDF rthsphaaehngshrthxemrika Hearings held 19 March 2013 and 10 April 2013 Spring 2013 p 147 subkhnemux 2014 05 03 Garcia Sanchez Joan aelakhna 1999 02 Stellar Encounters with the Oort Cloud Based on HIPPARCOS Data The Astronomical Journal 117 2 1042 1055 Bibcode 1999AJ 117 1042G doi 10 1086 300723 Check date values in date help Twenty ways the world could end suddenly Discover Magazine Urban Legends Reference Pages Legal Affairs E T Make Bail Jones E M 1985 03 01 Where is everybody An account of Fermi s question Los Alamos National Laboratory LANL United States Department of Energy subkhnemux 2013 01 12 Ventrudo Brian 2009 06 05 So Where Is ET Anyway Universe Today subkhnemux 2014 03 10 Some believe the Fermi Paradox means advanced extraterrestrial societies are rare or nonexistent Others suggest they must destroy themselves before they move on to the stars Vinn O 2014 Potential incompatibility of inherited behavior patterns with civilization PublishResearch 1 3 subkhnemux 2014 03 05 Will Mercury Hit Earth Someday Skyandtelescope com 2008 04 24 subkhnemux 2008 04 26 Explosions in Space May Have Initiated Ancient Extinction on Earth nasa Wanjek Christopher 2005 04 06 Explosions in Space May Have Initiated Ancient Extinction on Earth nasa Fraser Cain 2003 08 04 Local Galactic Dust is on the Rise Universe Today Coleman Sidney De Luccia Frank 1980 06 15 Gravitational effects on and of vacuum decay PDF Physical Review D D21 12 3305 3315 Bibcode 1980PhRvD 21 3305C doi 10 1103 PhysRevD 21 3305 Dunning Brian Apocalypse 2012 Tall tales that the End of Days is coming in 2012 Mankind must abandon earth or face extinction Hawking physorg com 2010 08 09 subkhnemux 2012 01 23 Denkenberger D C Pearce J M 2014 Feeding Everyone No Matter What Managing Food Security After Global Catastrophe San Francisco Elsevier ISBN 978 0 12 802150 7 CS1 maint multiple names authors list link Lewis Smith 2008 02 27 Doomsday vault for world s seeds is opened under Arctic mountain London The Times Online About the Lifeboat Foundation The Lifeboat Foundation subkhnemux 2013 04 26 The Future of Life Institute subkhnemux 2014 05 05 GCR Institute Millennium Alliance for Humanity amp The Biosphere X Center WHO Global Alert and Response Connecting Organizations for Regional Disease Surveillance khlngkhxmuleka ekbcak aehlngedim emux 2012 09 26 Unknown parameter deadurl ignored help USAID Emerging Pandemic Threats Program Lawrence Livermore National Laboratory Global Security Center for International Security and Cooperation xangxingxun aekikhCorey S Powell 2000 Twenty ways the world could end suddenly Discover Magazine Martin Rees 2004 OUR FINAL HOUR A Scientist s warning How Terror Error and Environmental Disaster Threaten Humankind s Future in This Century On Earth and Beyond ISBN 0 465 06863 4 Jean Francois Rischard 2003 High Noon 20 Global Problems 20 Years to Solve Them ISBN 0 465 07010 8 Edward O Wilson 2003 The Future of Life ISBN 0 679 76811 4hnngsux aekikhDerrick Jensen 2006 Endgame ISBN 1 58322 730 X Jared Diamond 2005 Collapse How Societies Choose to Fail or Succeed ISBN 0 670 03337 5 Huesemann Michael H and Joyce A Huesemann 2011 Technofix Why Technology Won t Save Us or the Environment Chapter 6 Sustainability or Collapse New Society Publishers Gabriola Island British Columbia Canada ISBN 0865717044 464 pp Joel Garreau Radical Evolution 2005 John Leslie 1996 The End of the World ISBN 0 415 14043 9 Martin Rees Our Final Hour UK title Our Final Century 2003 ISBN 0 465 06862 6 Meadows Donella H 1972 The Limits to Growth ISBN 0 87663 165 0 Tainter Joseph A 1990 The Collapse of Complex Societies Cambridge University Press Cambridge UK ewbist aekikhLast Days On Earth TV documentary ABC News 2 hour Special Edition of 20 20 on 7 real end of the world scenarios Wed Aug 30 2006 What a way to go from The Guardian Ten scientists name the biggest danger to Earth and assesses the chances of it happening April 14 2005 Confronting the New Misanthropy by Frank Furedi in Spiked April 18 2006 Ted com video Stephen Petranek 10 ways the world could end Armageddon Online A collection of doomsday scenarios and daily news Doomsday Guide a directory devoted to end times theories Top 10 Ways to Destroy Earth Several potential world ending scenarios Countdown to Doomsday with Today Show Host Matt Lauer SciFi com Syfy 2006 1 A website about existential risk by Nick Bostrom Cognitive biases potentially affecting judgment of global risks A paper by Eliezer Yudkowsky discussing how various observed cognitive biases hamper our judgement of existential risk Why the future doesn t need us Wired com April 2000 Bill Joy s influential call to relinquish dangerous technologies Being present in the face of existential threat The role of trait mindfulness in reducing defensive responses to mortality salience ekhathungcak https th wikipedia org w index php title khwamesiyngmhntphythwolk amp oldid 7807525, wikipedia, วิกิ หนังสือ, หนังสือ, ห้องสมุด,

บทความ

, อ่าน, ดาวน์โหลด, ฟรี, ดาวน์โหลดฟรี, mp3, วิดีโอ, mp4, 3gp, jpg, jpeg, gif, png, รูปภาพ, เพลง, เพลง, หนัง, หนังสือ, เกม, เกม