กลับสู่หน้าหลัก

จากนิยายวิทยาศาสตร์สู่ความเป็นจริง: อันตรายที่แท้จริงของ AI

การเพิ่มขึ้นของปัญญาประดิษฐ์แสดงให้เห็นถึงความก้าวหน้าทางเทคโนโลยีที่สำคัญซึ่งพร้อมที่จะปฏิวัติสังคมเช่นเดียวกับอินเทอร์เน็ต คอมพิวเตอร์ส่วนบุคคล และโทรศัพท์มือถือ ผลกระทบของมันมีแพร่หลาย โดยแทรกซึมเข้าไปในแง่มุมต่างๆ ของชีวิตมนุษย์ ตั้งแต่การทำงานและการศึกษาไปจนถึงกิจกรรมยามว่าง ความก้าวหน้าอย่างรวดเร็วของโครงข่ายประสาทเทียมทำให้เกิดความกังวล กระตุ้นให้เราสำรวจอันตรายที่อาจเกิดขึ้นที่ปัญญาประดิษฐ์อาจก่อให้เกิดต่อมนุษยชาติในบทความนี้

เอไอเป็นอันตรายหรือไม่? ใครแสดงความกังวล?

ในภาพยนตร์ไซไฟ แนวคิดเรื่องปัญญาประดิษฐ์ที่ไม่สามารถควบคุมได้ซึ่งมีจุดประสงค์เพื่อครอบงำหรือทำลายมนุษยชาติเป็นหัวข้อยอดนิยม ดังที่เห็นในภาพยนตร์อย่าง "The Matrix" และ "The Terminator" ด้วยความก้าวหน้าทางเทคโนโลยีที่รวดเร็วในปัจจุบัน อาจเป็นเรื่องยากสำหรับคนทั่วไปที่จะตามทัน ความก้าวหน้าอย่างรวดเร็วของ AI ทำให้สังคมของเราปรับตัวได้อย่างรวดเร็ว ทำให้เกิดความกลัวเนื่องจากความซับซ้อนของเทคโนโลยีเหล่านี้ และความกลัวโดยกำเนิดของมนุษย์ต่อสิ่งที่ไม่รู้

ไม่เพียงแต่บุคคลทั่วไปจะรู้สึกกังวลเกี่ยวกับ AI เท่านั้น แต่ผู้เชี่ยวชาญในสาขานี้ก็แสดงความกังวลเช่นกัน ตัวอย่างเช่น เจฟฟรีย์ ฮินตัน ซึ่งมักเรียกกันว่า "เจ้าพ่อแห่ง AI" ได้แสดงความกังวลของเขาเอง:

สิ่งเหล่านี้อาจฉลาดกว่าเราและอาจตัดสินใจที่จะรับช่วงต่อ และเราจำเป็นต้องกังวลในตอนนี้ว่าเราจะป้องกันไม่ให้สิ่งนั้นเกิดขึ้นได้อย่างไร

ฉันคิดมานานแล้วว่าเราอยู่ห่างจากจุดนั้นประมาณ 30 ถึง 50 ปี ฉันจึงเรียกสิ่งนั้นว่าห่างไกลจากบางสิ่งที่มีความฉลาดโดยทั่วไปมากกว่าบุคคล ตอนนี้ ฉันคิดว่าเราอาจจะใกล้ชิดกันมากขึ้น อาจจะห่างจากสิ่งนั้นเพียงห้าปีเท่านั้น

มีอันตรายร้ายแรงที่เราจะได้สิ่งที่ฉลาดกว่าเราในไม่ช้า และสิ่งเหล่านี้อาจมีแรงจูงใจที่ไม่ดีและเข้าควบคุม

เมื่อวันที่ 22 มีนาคม 2023 มีการเผยแพร่จดหมายเปิดผนึกเรียกร้องให้หยุดการพัฒนาปัญญาประดิษฐ์ที่ทรงพลังกว่า GPT-4 เป็นระยะเวลาหกเดือน:

ขณะนี้ระบบ AI ร่วมสมัยกำลังกลายเป็นการแข่งขันของมนุษย์ในงานทั่วไป และเราต้องถามตัวเองว่า: เราควรปล่อยให้เครื่องจักรท่วมช่องทางข้อมูลของเราด้วยการโฆษณาชวนเชื่อและความไม่จริงหรือไม่? เราควรทำให้งานทั้งหมดเป็นไปโดยอัตโนมัติ รวมถึงงานที่ทำสำเร็จหรือไม่? เราควรพัฒนาจิตใจที่ไม่ใช่มนุษย์ที่อาจมีจำนวนมากกว่า ฉลาดกว่า ล้าสมัย และเข้ามาแทนที่เราในที่สุดหรือไม่ เราควรเสี่ยงต่อการสูญเสียการควบคุมอารยธรรมของเราหรือไม่? การตัดสินใจดังกล่าวจะต้องไม่ถูกมอบหมายให้กับผู้นำด้านเทคโนโลยีที่ไม่ได้รับเลือก ระบบ AI ที่มีประสิทธิภาพควรได้รับการพัฒนาเมื่อเรามั่นใจว่าผลกระทบจะเป็นไปในทางบวกและความเสี่ยงจะสามารถจัดการได้ ความเชื่อมั่นนี้จะต้องมีเหตุผลที่ดีและเพิ่มขึ้นตามขนาดของผลกระทบที่อาจเกิดขึ้นจากระบบ

จดหมายดังกล่าวลงนามโดยผู้นำของบริษัทเทคโนโลยี 1,800 คน อาจารย์ นักวิชาการ และนักวิจัยในสาขา AI 1,500 คน:

  • อีลอน มัสก์ ซีอีโอของ SpaceX, Tesla และ Twitter
  • สตีฟ วอซเนียก ผู้ร่วมก่อตั้ง Apple
  • Emad Mostaque ซีอีโอของ Stability AI
  • Jaan Tallinn ผู้ร่วมก่อตั้ง Skype ศูนย์ศึกษาความเสี่ยงที่มีอยู่ สถาบันอนาคตแห่งชีวิต
  • อีวาน ชาร์ป ผู้ร่วมก่อตั้ง Pinterest
  • เครก ปีเตอร์ส ซีอีโอ เก็ตตี้อิมเมจ
  • Mark Nitzberg ศูนย์ AI ที่เข้ากันได้กับมนุษย์ UC Berkeley กรรมการบริหาร
  • Gary Marcus, มหาวิทยาลัยนิวยอร์ก, นักวิจัย AI, ศาสตราจารย์กิตติคุณ
  • Zachary Kenton, DeepMind นักวิทยาศาสตร์การวิจัยอาวุโส
  • Ramana Kumar, DeepMind, นักวิทยาศาสตร์การวิจัย
  • Michael Osborne, มหาวิทยาลัยออกซ์ฟอร์ด, ศาสตราจารย์ด้านการเรียนรู้ของเครื่อง
  • Adam Smith, มหาวิทยาลัยบอสตัน, ศาสตราจารย์สาขาวิทยาการคอมพิวเตอร์, Gödel Prize, Kanellakis Prize

มีการรวบรวมลายเซ็นมากกว่า 33,000 ลายเซ็น

บุคคลที่มีชื่อเสียงอื่นๆ เช่น Sam Altman (CEO, OpenAI), Geoffrey Hinton (ผู้ชนะรางวัล Turing), Dario Amodei (CEO, Anthropic) และ Bill Gates รวมถึงผู้บริหารและนักวิจัย AI กว่า 350 คนลงนามในแถลงการณ์ต่อไปนี้:

ลดความเสี่ยงต่อการสูญพันธุ์จาก A.I. ควรมีความสำคัญระดับโลกควบคู่ไปกับความเสี่ยงในระดับสังคมอื่นๆ เช่น การระบาดใหญ่และสงครามนิวเคลียร์

อันตรายของปัญญาประดิษฐ์

ในปี 2018 รถ Uber ที่ขับเคลื่อนด้วยตนเองชนคนเดินถนนเสียชีวิต

ในปี 2022 นักวิทยาศาสตร์ได้กำหนดค่าระบบ AI ใหม่ซึ่งเดิมออกแบบมาเพื่อสร้างโมเลกุลที่ใช้รักษาแบบไม่เป็นพิษเพื่อผลิตสารที่ใช้ในสงครามเคมี ด้วยการเปลี่ยนการตั้งค่าของระบบเพื่อให้รางวัลแก่ความเป็นพิษแทนที่จะลงโทษ พวกเขาสามารถสร้างโมเลกุลที่มีศักยภาพสำหรับการทำสงครามเคมีได้อย่างรวดเร็วถึง 40,000 โมเลกุลในเวลาเพียงหกชั่วโมง

ในปี 2023 นักวิจัยได้สาธิตวิธีที่ GPT-4 สามารถจัดการพนักงาน TaskRabbit เพื่อยืนยัน Captcha ให้เสร็จสิ้นได้อย่างไร เมื่อไม่นานมานี้ มีรายงานเหตุการณ์โศกนาฏกรรมที่บุคคลหนึ่งฆ่าตัวตายหลังจากการสนทนาที่ไม่มั่นคงกับแชทบอท

GPT-4 ผ่านการตรวจสอบ Captcha

การใช้ระบบ AI ไม่ว่าจะมีจุดประสงค์อะไรก็ตาม สามารถนำไปสู่ผลลัพธ์ด้านลบได้ เช่น:

  • ระบบอัตโนมัติกระตุ้นการสูญเสียงาน
  • การปลอมแปลงและข้อมูลที่ไม่ถูกต้อง
  • การละเมิดความเป็นส่วนตัว
  • กฎระเบียบทางกฎหมายที่ไม่ชัดเจน
  • อคติอัลกอริทึมที่เกิดจากข้อมูลที่ไม่ดี
  • วิกฤตการณ์ทางการเงิน
  • อาชญากรรมทางไซเบอร์
  • การทำให้อาวุธเป็นอัตโนมัติ
  • สติปัญญาที่เหนือกว่าที่ไม่สามารถควบคุมได้

ระบบปัญญาประดิษฐ์กำลังมีประสิทธิภาพเพิ่มมากขึ้น และเราไม่ทราบข้อจำกัดของระบบ ระบบเหล่านี้สามารถใช้เพื่อวัตถุประสงค์ที่เป็นอันตรายได้ มาตรวจสอบความเสี่ยงต่างๆ ให้ละเอียดยิ่งขึ้น

การสูญเสียงานเนื่องจากระบบอัตโนมัติโดย AI

จากการวิจัยของ Goldman Sachs ปัญญาประดิษฐ์อาจส่งผลกระทบอย่างมีนัยสำคัญต่อตลาดการจ้างงานทั่วโลก ด้วยการวิเคราะห์ฐานข้อมูลที่ให้รายละเอียดเนื้อหางานของอาชีพมากกว่า 900 อาชีพในสหรัฐอเมริกา และ 2,000 อาชีพในฐานข้อมูล ESCO ของยุโรป นักเศรษฐศาสตร์ของ Goldman Sachs ประเมินว่าประมาณสองในสามของอาชีพต้องเผชิญกับระบบอัตโนมัติในระดับหนึ่งโดย AI

เปอร์เซ็นต์ของอาชีพและส่วนแบ่งปริมาณงานที่สัมผัสกับระบบอัตโนมัติโดย AI

แกนแนวตั้งแสดงส่วนแบ่งปริมาณงานด้านอาชีพที่สัมผัสกับระบบอัตโนมัติโดย AI แกนนอนแสดงเปอร์เซ็นต์ของอาชีพ

การเปลี่ยนแปลงขั้นตอนการทำงานที่เกิดจากความก้าวหน้าเหล่านี้อาจทำให้งานเต็มเวลา 300 ล้านงานเป็นไปโดยอัตโนมัติ อย่างไรก็ตาม ไม่ใช่ว่างานอัตโนมัติทั้งหมดนี้จะนำไปสู่การเลิกจ้าง งานและอุตสาหกรรมจำนวนมากมีความอ่อนไหวต่อระบบอัตโนมัติเพียงบางส่วนเท่านั้น ซึ่งหมายความว่างานและอุตสาหกรรมต่างๆ มีแนวโน้มที่จะได้รับการเสริมด้วย AI มากกว่าที่จะถูกแทนที่ด้วยทั้งหมด

Seo.ai คาดการณ์เรื่องนี้ให้ดียิ่งขึ้นไปอีก โดยคาดการณ์ว่างานประมาณ 800 ล้านตำแหน่งทั่วโลกจะถูกแทนที่ด้วยปัญญาประดิษฐ์ภายในปี 2573 เพื่อเตรียมพร้อมสำหรับการเปลี่ยนแปลงที่จะเกิดขึ้นนี้ คาดว่าในอีกสามปีข้างหน้า พนักงานมากกว่า 120 ล้านคนจะได้รับการฝึกอบรมใหม่ .

หากคุณต้องการทราบว่าอาชีพใดที่เสี่ยงต่อระบบอัตโนมัติมากกว่า และอาชีพใดที่ถูกคุกคามจากระบบอัตโนมัติน้อยกว่า โปรดดูบทความของเราในหัวข้อนี้

ข้อมูลที่ผิด

แม้แต่โมเดลภาษาขนาดใหญ่ที่ทันสมัยที่สุดก็ยังสามารถสร้างข้อมูลที่ไม่ถูกต้องหรือไร้สาระได้ ข้อผิดพลาด (ภาพหลอน) เหล่านี้มักเป็นผลมาจากการพึ่งพารูปแบบทางสถิติในข้อมูลที่ได้รับการฝึกอบรมมากกว่าความเข้าใจหรือการใช้เหตุผลที่แท้จริง

กล่าวอีกนัยหนึ่ง บางครั้งแชทบอทสามารถสร้างข้อเท็จจริงขึ้นมาได้ สิ่งนี้ชัดเจนในปี 2023 เมื่อทนายความชาวนิวยอร์กประสบปัญหาในการใช้ ChatGPT เพื่อทำการวิจัยทางกฎหมายสำหรับคดีการบาดเจ็บส่วนบุคคล เขารวบรวมบทสรุปความยาว 10 หน้า โดยอ้างอิงคำตัดสินของศาลหลายครั้งก่อนหน้านี้ ซึ่งทั้งหมดนี้ได้รับการพิสูจน์แล้วว่าสร้างขึ้นโดยแชทบอท เป็นผลให้ทนายความและเพื่อนร่วมงานคนหนึ่งถูกคว่ำบาตรโดยผู้พิพากษาของรัฐบาลกลาง และปรับคนละ 5,000 ดอลลาร์

ในปี 2024 ทนายความชาวนิวยอร์กอีกคนถูกลงโทษทางวินัยจากการอ้างถึงคดีที่ไม่มีอยู่จริงซึ่งเกิดจากปัญญาประดิษฐ์

ปัญญาประดิษฐ์หลอนประสาท

อีกตัวอย่างหนึ่งคือ Stack Overflow ซึ่งเป็นเว็บไซต์คำถามและคำตอบที่โปรแกรมเมอร์และนักพัฒนาใช้เพื่อถามคำถามด้านเทคนิค ขอความช่วยเหลือเกี่ยวกับปัญหาการเขียนโค้ด และแบ่งปันความรู้ภายในชุมชนการเขียนโปรแกรม

ไซต์ต้องห้ามการใช้ generative AI ทั้งหมด เนื่องจากอัตราเฉลี่ยในการได้รับคำตอบที่ถูกต้องจากแชทบอทต่างๆ นั้นต่ำเกินไป แม้ว่าคำตอบจะดูน่าเชื่อก็ตาม

การจัดการทางสังคม

ทุกวันนี้แพลตฟอร์มโซเชียลมีเดียเต็มไปด้วยเนื้อหามากมาย การติดตามให้ทันทุกสิ่งอาจเป็นเรื่องยากลำบาก นั่นคือที่มาของการดูแลจัดการด้วยอัลกอริทึม โดยพื้นฐานแล้วจะช่วยกรองสิ่งรบกวนทั้งหมดและนำเสนอเนื้อหาที่น่าจะสนใจพวกเขามากที่สุดตามพฤติกรรมในอดีตแก่ผู้ใช้ แม้ว่าสิ่งนี้จะมีประโยชน์ในการจัดการกระแสข้อมูลที่ไม่สิ้นสุด แต่ก็หมายความว่าแพลตฟอร์มดังกล่าวสามารถควบคุมการกำหนดรูปแบบสิ่งที่ผู้ใช้เห็นและโต้ตอบด้วยได้มากมาย

อย่างไรก็ตาม การเปลี่ยนแปลงสิ่งที่ปรากฏในฟีดข่าวของใครบางคนอาจส่งผลต่ออารมณ์และวิธีมองโลกโดยทั่วไปของพวกเขาได้ ในเดือนมกราคม 2012 นักวิทยาศาสตร์ด้านข้อมูลของ Facebook แสดงให้เห็นว่าการตัดสินใจเกี่ยวกับการดูแลจัดการฟีดข่าวสามารถเปลี่ยนระดับความสุขของผู้ใช้ได้อย่างไร กิจกรรมในเดือนมกราคม 2021 ในสหรัฐอเมริกาที่ศาลาว่าการสหรัฐฯ เน้นย้ำเพิ่มเติมว่าการบริโภคโซเชียลมีเดียของใครบางคนสามารถมีบทบาทในการเปลี่ยนความคิดแบบหัวรุนแรงได้อย่างไร

นอกจากนี้ เนื่องจากเนื้อหาที่โลดโผนมีแนวโน้มที่จะทำให้ผู้ใช้ติดใจเป็นระยะเวลานานขึ้น อัลกอริธึมจึงอาจนำผู้ใช้ไปสู่เนื้อหาที่ยั่วยุและเป็นอันตรายโดยไม่ตั้งใจเพื่อเพิ่มการมีส่วนร่วม แม้แต่การแนะนำเนื้อหาตามความสนใจของผู้ใช้ก็อาจเป็นปัญหาได้ เนื่องจากสามารถจำกัดความเชื่อของพวกเขาให้อยู่ใน "กรอบตัวกรอง" แทนที่จะเปิดเผยให้พวกเขาเห็นมุมมองที่หลากหลาย ซึ่งอาจส่งผลให้เกิดการแบ่งขั้วระหว่างผู้ใช้มากขึ้นในที่สุด

คนในฟองสบู่ของพวกเขา

เมื่อเรามอบอำนาจในการตัดสินใจให้กับแพลตฟอร์ม เรากำลังทำให้พวกเขาควบคุมสิ่งที่เราเห็นเป็นหลัก โซเชียลมีเดียพร้อมอัลกอริธึมขั้นสูงทำให้เป็นเลิศในด้านการตลาดแบบกำหนดเป้าหมายโดยการทำความเข้าใจการตั้งค่าและความคิดของเรา การสอบสวนเมื่อเร็วๆ นี้กำลังมองหาบทบาทของ Cambridge Analytica และบริษัทที่คล้ายกันในการใช้ข้อมูลจากผู้ใช้ Facebook 50 ล้านคนเพื่อมีอิทธิพลต่อเหตุการณ์ทางการเมืองที่สำคัญ เช่น การเลือกตั้งประธานาธิบดีสหรัฐอเมริกาในปี 2016 และการลงประชามติ Brexit ของสหราชอาณาจักร หากข้อกล่าวหาเหล่านี้ได้รับการพิสูจน์แล้วว่าเป็นจริง ก็เป็นการเน้นย้ำถึงศักยภาพของ AI ที่จะบิดเบือนสังคม ตัวอย่างล่าสุดคือ Ferdinand Marcos Jr. ใช้กองทัพโทรลล์ TikTok เพื่อโน้มน้าวผู้มีสิทธิเลือกตั้งอายุน้อยในการเลือกตั้งประธานาธิบดีฟิลิปปินส์ปี 2022 ด้วยการใช้ประโยชน์จากข้อมูลส่วนบุคคลและอัลกอริธึม AI สามารถกำหนดเป้าหมายบุคคลด้วยการโฆษณาชวนเชื่อที่เฉพาะเจาะจงได้อย่างมีประสิทธิภาพ ไม่ว่าจะอิงจากข้อเท็จจริงหรือเรื่องแต่งก็ตาม

ดีพเฟค

Deepfakes หมายถึงวิดีโอหรือภาพที่ดัดแปลงแบบดิจิทัลซึ่งแสดงถึงคำพูดหรือการทำสิ่งที่พวกเขาไม่เคยพูดหรือทำอย่างสมจริง เทคโนโลยีนี้ใช้อัลกอริธึมการเรียนรู้เชิงลึกเพื่อจัดการฟุตเทจวิดีโอและเสียงที่มีอยู่เพื่อสร้างเนื้อหาปลอมที่น่าเชื่อถือ

“ไม่มีใครรู้ว่าอะไรจริงและสิ่งไหนไม่จริง” มาร์ติน ฟอร์ด นักอนาคตนิยมกล่าว “ดังนั้นมันจึงนำไปสู่สถานการณ์ที่คุณไม่สามารถเชื่อสายตาและหูของตัวเองได้อย่างแท้จริง คุณไม่สามารถพึ่งพาสิ่งใดได้ ในอดีตเราถือว่าเป็นหลักฐานที่ดีที่สุดเท่าที่จะเป็นไปได้... นั่นจะเป็นปัญหาใหญ่”

สาเหตุหลักประการหนึ่งที่ทำให้ Deepfake ถูกพิจารณาว่าเป็นอันตรายก็คือศักยภาพที่จะถูกนำไปใช้เพื่อวัตถุประสงค์ที่เป็นอันตราย ตัวอย่างเช่น Deepfakes สามารถใช้เพื่อสร้างหลักฐานวิดีโอปลอมในคดีทางกฎหมาย ใส่ร้ายบุคคลในข้อหาก่ออาชญากรรมที่พวกเขาไม่ได้ก่อ หรือแม้แต่ปลอมตัวเป็นบุคคลทางการเมืองเพื่อเผยแพร่ข้อมูลเท็จ ด้วยการบงการสื่อในลักษณะนี้ Deepfakes มีอำนาจที่จะทำลายความไว้วางใจในแหล่งข้อมูลแบบดั้งเดิม และก่อให้เกิดความสับสนและความไม่ลงรอยกันในสังคม

จากข้อมูลของ DeepMedia บริษัทที่ทำงานเกี่ยวกับเครื่องมือในการตรวจจับสื่อสังเคราะห์ มีการโพสต์ Deepfakes กว่า 500,000 ครั้งทั่วโลกในปี 2023 ซึ่งมากกว่าวิดีโอ Deepfakes มากกว่า 3 เท่า และ Deepfakes เสียงมากกว่า 8 เท่า เมื่อเทียบกับปี 2022

ตัวอย่างล่าสุดของการใช้ Deepfakes โดยไม่ได้ตั้งใจ ได้แก่ การสร้างภาพอนาจารของคนดังปลอม โดยที่ใบหน้าของคนดังจะถูกแทรกแบบดิจิทัลลงในวิดีโอลามกโดยไม่ได้รับความยินยอมจากพวกเขา นอกจากนี้ ยังมีกรณีที่มีการใช้วิดีโอปลอมเพื่อบิดเบือนราคาหุ้น ทำให้บุคคลเสื่อมเสียชื่อเสียง หรือเผยแพร่โฆษณาชวนเชื่อทางการเมือง ตัวอย่างเหล่านี้เน้นย้ำถึงความเป็นไปได้ที่ Deep Fake จะถูกนำไปใช้เพื่อวัตถุประสงค์ที่เป็นอันตรายและหลอกลวง

อาชญากรรมทางไซเบอร์

อาชญากรรมทางไซเบอร์ครอบคลุมกิจกรรมทางอาญาที่หลากหลายซึ่งใช้อุปกรณ์และเครือข่ายดิจิทัล อาชญากรรมเหล่านี้เกี่ยวข้องกับการใช้เทคโนโลยีเพื่อกระทำการฉ้อโกง การขโมยข้อมูลประจำตัว การละเมิดข้อมูล ไวรัสคอมพิวเตอร์ การหลอกลวง และการกระทำที่เป็นอันตรายอื่นๆ อาชญากรไซเบอร์ใช้ประโยชน์จากจุดอ่อนในระบบคอมพิวเตอร์และเครือข่ายเพื่อเข้าถึงโดยไม่ได้รับอนุญาต ขโมยข้อมูลที่ละเอียดอ่อน รบกวนบริการ และก่อให้เกิดอันตรายต่อบุคคล องค์กร และรัฐบาล

ผู้ไม่หวังดีใช้เครื่องมือ AI ที่พร้อมใช้งานมากขึ้น เช่น ChatGPT, Dall-E และ Midjourney สำหรับการโจมตีแบบฟิชชิ่งอัตโนมัติ การโจมตีด้วยการแอบอ้างบุคคลอื่น การโจมตีทางวิศวกรรมทางสังคม และแชทบอทสนับสนุนลูกค้าปลอม

ตามรายงานสถานะฟิชชิ่งของ SlashNext ปี 2023 อีเมลฟิชชิ่งที่เป็นอันตรายมีจำนวนเพิ่มขึ้นถึง 1,265% ซึ่งส่วนใหญ่เกิดจากการใช้เครื่องมือ AI สำหรับการโจมตีแบบกำหนดเป้าหมาย

การโจมตีด้วยการแอบอ้างบุคคลอื่นกำลังกลายเป็นเรื่องปกติมากขึ้น นักต้มตุ๋นใช้ ChatGPT และเครื่องมืออื่นๆ เพื่อแอบอ้างเป็นบุคคลและองค์กรที่แท้จริง โดยมีส่วนร่วมในการขโมยข้อมูลระบุตัวตนและการฉ้อโกง เช่นเดียวกับการโจมตีแบบฟิชชิ่ง พวกเขาใช้แชทบอทเพื่อส่งข้อความเสียงที่สวมรอยเป็นเพื่อน เพื่อนร่วมงาน หรือสมาชิกในครอบครัวที่เชื่อถือได้ เพื่อรับข้อมูลส่วนบุคคลหรือเข้าถึงบัญชี ในกรณีที่น่าสังเกตตั้งแต่เดือนมีนาคม 2019 หัวหน้าบริษัทในเครือในสหราชอาณาจักรของบริษัทพลังงานแห่งหนึ่งในเยอรมนีตกเป็นเหยื่อของผู้ฉ้อโกงที่เลียนแบบเสียงของซีอีโอ ซึ่งนำไปสู่การโอนเงินเกือบ 200,000 ปอนด์ (243,000 ดอลลาร์) เข้าบัญชีธนาคารของฮังการี ต่อมาเงินทุนถูกย้ายไปเม็กซิโกและกระจายไปยังสถานที่ต่างๆ เจ้าหน้าที่สืบสวนยังไม่สามารถระบุผู้ต้องสงสัยได้

อาชญากรรมทางไซเบอร์และการลงโทษ

ในปี 2023 ศูนย์ร้องเรียนอาชญากรรมทางอินเทอร์เน็ต (IC3) ได้รับการร้องเรียนจากสาธารณชนชาวอเมริกันเป็นจำนวนที่ไม่เคยมีมาก่อน โดยมีการยื่นเรื่องร้องเรียนทั้งหมด 880,418 เรื่อง ซึ่งอาจเกิดความเสียหายได้มากกว่า 12.5 พันล้านดอลลาร์ สิ่งนี้บ่งชี้ว่าจำนวนข้อร้องเรียนที่ได้รับเพิ่มขึ้นเกือบ 10% และความสูญเสียเพิ่มขึ้น 22% เมื่อเทียบกับปี 2565 แม้จะมีตัวเลขที่น่าตกใจเหล่านี้ แต่สิ่งสำคัญที่ควรทราบก็คือพวกเขามักจะดูถูกดูแคลนขอบเขตที่แท้จริงของอาชญากรรมในโลกไซเบอร์ในปี 2566 ตัวอย่างเช่น เมื่อ เมื่อเร็วๆ นี้ FBI ได้รื้อกลุ่มมัลแวร์เรียกค่าไถ่ Hive ออก โดยพบว่ามีเหยื่อของ Hive เพียงประมาณ 20% เท่านั้นที่รายงานอาชญากรรมต่อหน่วยงานบังคับใช้กฎหมาย

การบุกรุกความเป็นส่วนตัว

ตัวอย่างที่สำคัญของการสอดส่องทางสังคมคือการใช้เทคโนโลยีการจดจำใบหน้าของจีนในสำนักงาน โรงเรียน และสถานที่อื่นๆ เทคโนโลยีนี้ไม่เพียงแต่ช่วยให้สามารถติดตามการเคลื่อนไหวของบุคคลเท่านั้น แต่ยังช่วยให้รัฐบาลสามารถรวบรวมข้อมูลที่ครอบคลุมเพื่อติดตามการกระทำ กิจกรรม ความสัมพันธ์ และความเชื่อทางอุดมการณ์ของพวกเขาอีกด้วย

ขณะนี้สามารถตรวจสอบบุคคลได้ทั้งทางออนไลน์และในชีวิตประจำวัน พลเมืองแต่ละคนจะได้รับการประเมินตามพฤติกรรมของพวกเขา เช่น การเดินข้ามถนน การสูบบุหรี่ในพื้นที่ปลอดบุหรี่ และเวลาที่ใช้เล่นวิดีโอเกม ลองจินตนาการว่าการกระทำแต่ละอย่างส่งผลต่อคะแนนส่วนตัวของคุณภายในระบบเครดิตทางสังคม

เมื่อพี่ใหญ่เฝ้าดูคุณแล้วตัดสินใจโดยอาศัยข้อมูลนั้น ไม่เพียงเป็นการบุกรุกความเป็นส่วนตัวเท่านั้น แต่ยังสามารถเปลี่ยนไปสู่การกดขี่ทางสังคมได้อย่างรวดเร็วอีกด้วย

วิกฤตการณ์ทางการเงิน

ในโลกการเงินปัจจุบัน การใช้อัลกอริธึมการเรียนรู้ของเครื่องจักรแพร่หลาย โดยกองทุนเฮดจ์ฟันด์และบริษัทการลงทุนอาศัยโมเดลเหล่านี้อย่างมากในการวิเคราะห์หุ้นและสินทรัพย์ อัลกอริธึมเหล่านี้ได้รับการป้อนข้อมูลแบบดั้งเดิมและข้อมูลทางเลือกจำนวนมากอย่างต่อเนื่องเพื่อการตัดสินใจซื้อขาย อย่างไรก็ตาม มีความกังวลเพิ่มมากขึ้นว่าการซื้อขายด้วยอัลกอริทึมอาจก่อให้เกิดวิกฤตทางการเงินครั้งใหญ่ครั้งต่อไปได้

2010 แฟลชแครช มูลค่า 600 พันล้านดอลลาร์ระเหยไปใน 20 นาที

2010 แฟลชแครช มูลค่า 600 พันล้านดอลลาร์ระเหยไปใน 20 นาที

ตัวอย่างที่น่าสังเกตอย่างหนึ่งของอันตรายจากอัลกอริธึมที่ผิดพลาดคือเหตุการณ์ Flash Crash ปี 2010 ซึ่งตลาดหุ้นร่วงลงเกือบ 1,000 จุดอย่างกะทันหันในเวลาไม่กี่นาทีก่อนที่จะดีดตัวขึ้นอย่างรวดเร็ว แม้ว่าดัชนีตลาดจะฟื้นตัวได้บางส่วนในวันเดียวกัน แต่ Flash Crash ก็ลบมูลค่าตลาดไปเกือบ 1 ล้านล้านดอลลาร์ ราคาที่ลดลงอย่างกะทันหันและรุนแรงนี้ส่วนใหญ่เป็นผลมาจากอัลกอริธึมการซื้อขายอัตโนมัติที่ตอบสนองต่อสภาวะตลาดในลักษณะที่คาดเดาไม่ได้ อีกตัวอย่างหนึ่งคือ Knight Capital Flash Crash ในปี 2012 ซึ่งอัลกอริธึมที่ทำงานผิดพลาดทำให้บริษัทสูญเสียเงิน 440 ล้านดอลลาร์ในเวลาเพียง 45 นาที ซึ่งท้ายที่สุดก็นำไปสู่ความตาย

การขัดข้องเหล่านี้ทำหน้าที่เป็นเครื่องเตือนใจถึงความเสี่ยงที่อาจเกิดขึ้นจากการซื้อขายแบบอัลกอริทึมในตลาดการเงิน เมื่ออัลกอริธึมไม่ได้รับการออกแบบ ทดสอบ หรือตรวจสอบอย่างเหมาะสม อาจส่งผลร้ายแรงตามมาได้ จำเป็นอย่างยิ่งที่สถาบันการเงินจะต้องตรวจสอบอัลกอริธึมของตนอย่างละเอียดถี่ถ้วน และให้แน่ใจว่ามีแนวทางปฏิบัติในการบริหารความเสี่ยงที่เหมาะสมเพื่อป้องกันภัยพิบัติที่คล้ายคลึงกันไม่ให้เกิดขึ้นในอนาคต

นักฆ่าหุ่นยนต์

อาวุธอัตโนมัติที่ขับเคลื่อนโดยปัญญาประดิษฐ์ (AI) เป็นหัวข้อถกเถียงและข้อกังวลมายาวนานในหมู่รัฐบาล เจ้าหน้าที่ทหาร และผู้สนับสนุนด้านสิทธิมนุษยชน ระบบเหล่านี้หรือที่เรียกว่า "หุ่นยนต์นักฆ่า" หรือ "อาวุธอัตโนมัติร้ายแรง" มีความสามารถในการเลือกและมีส่วนร่วมกับเป้าหมายได้อย่างอิสระโดยไม่ต้องมีการแทรกแซงของมนุษย์ สิ่งนี้ทำให้เกิดข้อกังวลที่สำคัญด้านจริยธรรม กฎหมาย และความปลอดภัย เนื่องจากอาวุธเหล่านี้มีศักยภาพในการตัดสินใจเกี่ยวกับความเป็นหรือความตายโดยไม่ต้องมีการควบคุมดูแลจากมนุษย์

การพัฒนาอาวุธอัตโนมัติได้เร่งตัวขึ้นในช่วงไม่กี่ปีที่ผ่านมา เนื่องจากเทคโนโลยี AI มีความก้าวหน้าและแพร่หลายมากขึ้น อาวุธเหล่านี้มีตั้งแต่โดรนไร้คนขับไปจนถึงระบบภาคพื้นดินที่สามารถระบุและโจมตีเป้าหมายได้โดยอัตโนมัติ ผู้เสนออาวุธอัตโนมัติยืนยันว่าพวกเขาสามารถลดการบาดเจ็บล้มตายของมนุษย์ในเขตความขัดแย้งและให้ปฏิบัติการทางทหารที่แม่นยำและมีประสิทธิภาพมากขึ้น อย่างไรก็ตาม นักวิจารณ์โต้แย้งว่าระบบเหล่านี้ก่อให้เกิดคำถามด้านจริยธรรมที่ร้ายแรง และอาจส่งผลตามมาโดยไม่ตั้งใจ เช่น ความขัดแย้งที่ทวีความรุนแรงขึ้นและการบาดเจ็บล้มตายของพลเรือน

อันตรายที่เกิดจากอาวุธอัตโนมัติที่ขับเคลื่อนโดย AI นั้นเป็นเรื่องจริง ระบบเหล่านี้มีโอกาสที่จะถูกแฮ็กหรือทำงานผิดปกติ ส่งผลให้เกิดผลที่ตามมาโดยไม่ได้ตั้งใจและสูญเสียการควบคุม นอกจากนี้ การขาดการกำกับดูแลโดยมนุษย์ในการตัดสินใจทำให้เกิดความกังวลเกี่ยวกับความรับผิดชอบและศักยภาพในการละเมิดกฎหมายมนุษยธรรมระหว่างประเทศ

หุ่นยนต์นักฆ่าในนิยายวิทยาศาสตร์

ในปี 2020 กว่า 30 ประเทศเรียกร้องให้มีการห้ามอาวุธอัตโนมัติที่เป็นอันตรายถึงชีวิต โดยอ้างถึงความกังวลเกี่ยวกับศักยภาพของเครื่องจักรในการตัดสินใจเรื่องความเป็นความตาย แม้จะมีข้อกังวลเหล่านี้ แต่การพัฒนาและการใช้งานอาวุธอัตโนมัติที่ขับเคลื่อนโดย AI ก็ยังคงก้าวหน้าต่อไป เป็นที่รู้กันว่าประเทศต่างๆ เช่น สหรัฐอเมริกา รัสเซีย จีน และอิสราเอลกำลังลงทุนอย่างมากในเทคโนโลยีเหล่านี้ ในสหรัฐอเมริกา กระทรวงกลาโหมได้พัฒนาระบบอาวุธอัตโนมัติ รวมถึงโดรนกึ่งอัตโนมัติและยานพาหนะภาคพื้นดินไร้คนขับ

สติปัญญาขั้นสูงที่ไม่สามารถควบคุมได้

ปัญญาประดิษฐ์เหนือกว่าสมองมนุษย์ในรูปแบบต่างๆ รวมถึงความเร็วในการคำนวณ ความเร็วการสื่อสารภายใน ความสามารถในการปรับขนาด ความจุหน่วยความจำ ความน่าเชื่อถือ การทำซ้ำ ความสามารถในการแก้ไข การแบ่งปันหน่วยความจำ และความสามารถในการเรียนรู้:

  • AI ทำงานที่หลาย GHz เมื่อเทียบกับขีดจำกัด 200 Hz ของเซลล์ประสาททางชีววิทยา
  • แอกซอนส่งสัญญาณด้วยความเร็ว 120 เมตร/วินาที ในขณะที่คอมพิวเตอร์ส่งสัญญาณด้วยความเร็วไฟฟ้าหรือแสง
  • AI สามารถปรับขนาดได้อย่างง่ายดายโดยการเพิ่มฮาร์ดแวร์มากขึ้น ซึ่งแตกต่างจากความฉลาดของมนุษย์ที่ถูกจำกัดด้วยขนาดสมองและประสิทธิภาพการสื่อสารทางสังคม
  • หน่วยความจำในการทำงานของมนุษย์นั้นมีจำกัด เมื่อเทียบกับความจุหน่วยความจำที่กว้างขวางของ AI
  • ความน่าเชื่อถือของทรานซิสเตอร์ใน AI นั้นเหนือกว่าเซลล์ประสาทชีวภาพ ทำให้มีความแม่นยำสูงขึ้นและความซ้ำซ้อนน้อยลง
  • โมเดล AI สามารถทำซ้ำ แก้ไข และสามารถเรียนรู้จากประสบการณ์ AI อื่นๆ ได้อย่างมีประสิทธิภาพมากกว่ามนุษย์

วันหนึ่ง AI อาจเข้าถึงระดับสติปัญญาที่เหนือกว่ามนุษย์อย่างมาก และนำไปสู่สิ่งที่เรียกว่าการระเบิดของสติปัญญา

สุดยอดสติปัญญาและการสูญพันธุ์ของมนุษย์

แนวคิดของการพัฒนาตนเองแบบเรียกซ้ำนี้ โดยที่ AI จะปรับปรุงตัวเองอย่างต่อเนื่องในอัตราเลขชี้กำลัง ได้จุดประกายความกังวลเกี่ยวกับผลที่ตามมาที่อาจเกิดขึ้นจากการสร้างเอนทิตีอัจฉริยะขั้นสูง ลองนึกภาพสถานการณ์ที่ AI เข้าถึงระดับสติปัญญาที่ช่วยให้สามารถคิดเหนือกว่าและเหนือกว่ามนุษย์ในทุกวิถีทางที่เป็นไปได้ ความฉลาดขั้นสูงนี้อาจมีอำนาจในการตัดสินใจที่ส่งผลกระทบอย่างมากต่อสังคมและวิถีชีวิตของเรา เช่นเดียวกับที่มนุษย์กำลังกุมชะตากรรมของสิ่งมีชีวิตหลายชนิดไว้ในมือของเรา วันหนึ่งชะตากรรมของมนุษยชาติอาจจะตกไปอยู่ในมือของ AI ที่ชาญฉลาด

การพึ่งพา AI มากเกินไปและความรับผิดชอบทางกฎหมาย

การใช้เทคโนโลยี AI มากเกินไปอาจส่งผลให้อิทธิพลของมนุษย์และการทำงานในบางพื้นที่ของสังคมลดลง ตัวอย่างเช่น การใช้ AI ในการดูแลสุขภาพอาจทำให้ความเห็นอกเห็นใจและการให้เหตุผลของมนุษย์ลดลง นอกจากนี้ การใช้ generative AI เพื่อการแสวงหาความคิดสร้างสรรค์สามารถยับยั้งความคิดสร้างสรรค์ของมนุษย์และการแสดงออกทางอารมณ์ได้ การโต้ตอบที่มากเกินไปกับระบบ AI อาจทำให้การสื่อสารระหว่างเพื่อนและทักษะทางสังคมลดลง แม้ว่า AI จะเป็นประโยชน์ในการทำงานแบบอัตโนมัติ แต่ก็มีความกังวลเกี่ยวกับผลกระทบต่อสติปัญญา ความสามารถ และความรู้สึกของชุมชนโดยรวมของมนุษย์

นอกจากนี้ยังมีอันตรายที่อาจเกิดขึ้นซึ่งอาจส่งผลให้เกิดอันตรายต่อร่างกายต่อมนุษย์ได้ ตัวอย่างเช่น หากบริษัทพึ่งพาการคาดการณ์ของ AI สำหรับกำหนดการบำรุงรักษาโดยไม่มีการตรวจสอบอื่น ๆ ก็อาจส่งผลให้เครื่องจักรทำงานผิดปกติซึ่งเป็นอันตรายต่อพนักงานได้ ในการดูแลสุขภาพ โมเดล AI อาจนำไปสู่การวินิจฉัยผิดพลาดได้

นอกเหนือจากการทำร้ายร่างกายแล้ว ยังมีวิธีที่ไม่ใช่ทางกายภาพซึ่ง AI อาจก่อให้เกิดความเสี่ยงต่อมนุษย์หากไม่ได้รับการควบคุมอย่างเหมาะสม ซึ่งรวมถึงปัญหาเกี่ยวกับความปลอดภัยทางดิจิทัล เช่น การหมิ่นประมาทหรือการหมิ่นประมาท ความปลอดภัยทางการเงิน เช่น การใช้ AI ในทางที่ผิดในการแนะนำทางการเงินหรือการตรวจสอบเครดิต และข้อกังวลด้านความยุติธรรมที่เกี่ยวข้องกับอคติใน AI ที่นำไปสู่การปฏิเสธหรือการยอมรับอย่างไม่ยุติธรรมในโครงการต่างๆ

และเมื่อมีบางอย่างเกิดขึ้น ใครควรต้องรับผิดชอบ? มันเป็นตัว AI เอง ผู้พัฒนาที่สร้างมันขึ้นมา บริษัทที่นำมันไปใช้ หรือเป็นผู้ดำเนินการหากมีมนุษย์เข้าไปเกี่ยวข้อง?

* * *

โดยสรุป แม้ว่าปัญญาประดิษฐ์จะมาพร้อมกับความเสี่ยงและภัยคุกคามมากมาย แต่ก็มีศักยภาพที่จะสร้างประโยชน์ให้กับสังคมอย่างมากและปรับปรุงชีวิตของเราด้วย สิ่งสำคัญคือต้องตระหนักว่าความดีมักจะมีค่ามากกว่าความเลวเมื่อพูดถึงเทคโนโลยี AI ในบทความถัดไป เราจะพูดถึงกลยุทธ์ในการลดความเสี่ยงที่เกี่ยวข้องกับ AI เพื่อให้มั่นใจว่าเราจะสามารถควบคุมศักยภาพของ AI เพื่อการเปลี่ยนแปลงเชิงบวกได้อย่างเต็มที่