ลิ้งค์เชื่อมต่อ

จะเป็นอย่างไร หาก 'เอไอ' กลายเป็นภัยคุกคามโลก?


แฟ้มภาพ: หุ่นจิ๋วกับคอมพิวเตอร์และสมาร์ทโฟน ปรากฎด้านหน้าปัญญาประดิษฐ์ ในภาพที่ถ่ายเมื่อ 19 ก.พ. 2024 (REUTERS/Dado Ruvic/Illustration/File Photo)
แฟ้มภาพ: หุ่นจิ๋วกับคอมพิวเตอร์และสมาร์ทโฟน ปรากฎด้านหน้าปัญญาประดิษฐ์ ในภาพที่ถ่ายเมื่อ 19 ก.พ. 2024 (REUTERS/Dado Ruvic/Illustration/File Photo)

เมื่อวันพุธ คณะทำงานของประธานาธิบดีโจ ไบเดน แห่งสหรัฐฯ กางแผนเบื้องต้นในการรับมือกับโมเดลปัญญาประดิษฐ์ หรือ AI ขั้นสูงจากจีนและรัสเซีย โดยนักวิจัยจากภาครัฐและเอกชนต่างกังวลว่าประเทศคู่แข่งสหรัฐฯ อาจใช้ AI เป็นเครื่องมือในการสร้างภัยคุกคามได้หลากหลายรูปแบบ

ซึ่งรอยเตอร์ รวบรวมภัยคุกคามที่อาจเกิดจากน้ำมือของผู้ไม่ประสงค์ดีที่หยิบปัญญาประดิษฐ์ หรือ AI มาใช้เป็นเครื่องมือก่อความไม่สงบ

สื่อลวงลึก: ดีพเฟคและข้อมูลเท็จ

เทคโนโลยีดีพเฟค (Deepfake) หรือวิดีโอปลอมที่สร้างขึ้นโดยปัญญาประดิษฐ์ กลายเป็นอาวุธใหม่ในการเผยแพร่ข่าวปลอมและข้อมูลบิดเบือนในช่วงหลายปีมานี้ ท่ามกลางความเชื่อมั่นในข่าวสารบ้านเมืองปัจจุบันตกต่ำ ประกอบกับการที่ธุรกิจสื่อรับเอาเทคโนโลยีปัญญาประดิษฐ์มาใช้ในงานข่าวจริง พ่วงด้วยขุมพลังใหม่อย่าง generative AI ที่ทำให้การผลิตสื่อทำได้ง่ายขึ้นและต้นทุนต่ำอย่างน่าเหลือใจ

กระทรวงความมั่นคงแห่งมาตุภูมิ (Department of Homeland Security-DHS) ระบุในรายงานประเมินภัยคุกคามในปี 2024 พบว่าเมื่อปีก่อนมีสื่อรัฐบาลจีนใช้ generative AI เผยแพร่ข่าวปลอมที่ว่าสหรัฐฯ มีห้องทดลองเพื่อสร้างอาวุธชีวภาพในคาซัคสถานเพื่อต่อต้านจีน

แม้ว่าสื่อสังคมออนไลน์จะพยายามปิดกั้นและถอดเนื้อหาดีพเฟคเหล่านี้ แต่ประสิทธิภาพของการจัดการสื่อลวงลึกเหล่านี้ก็แตกต่างกันไปในแต่ละแพลตฟอร์ม และวิดีโอเหล่านี้เป็นสิ่งที่ยากสำหรับผู้รับชมในการแยกแยะว่าสิ่งที่เห็นและได้ยินเป็นจริงหรือไม่แค่ไหน

ขณะที่เจค ซัลลิแวน ที่ปรึกษาด้านความมั่นคงประจำทำเนียบขาว ยอมรับว่าไม่มีทางออกที่ง่ายดายในการรับมือกับศักยภาพของ AI ที่ “รัฐหรือผู้ที่ไม่ใช่รัฐ พยายามใช้ข้อมูลบิดเบือนในการขัดขวางประชาธิปไตย และเผยแพร่โฆษณาชวนเชื่อ เพื่อสร้างรูปแบบการรับรู้ในระดับโลก” และว่า “ตอนนี้ฝ่ายโจมตีกำลังเอาชนะฝ่ายตั้งรับอยู่มาก”

อาวุธชีวภาพ

ชุมชนด้านหน่วยข่าวกรอง สถาบันคลังสมอง และนักวิชาการอเมริกัน ออกมาแสดงความกังวลถึงความเสี่ยงของผู้ไม่ประสงค์ดีจากต่างชาติที่เข้าถึงปัญญาประดิษฐ์ขั้นสูง

อย่างนักวิจัยจาก Gryphon Scientific และ Rand Corporation บอกว่า โมเดลภาษาขนาดใหญ่ หรือ LLM ที่เป็น AI ขั้นสูง สามารถให้ข้อมูลที่ช่วยในการสร้างอาวุธชีวภาพได้แล้ว และว่า LLM อาจมอบองค์ความรู้ระดับสูงกว่าปริญญาเอกในการแก้ปัญหาอันซับซ้อน เมื่อต้องจัดการกับไวรัสที่สามารถแพร่เชื้อรุนแรงถึงขั้นการระบาดใหญ่ทั่วโลกได้ อีกทั้งยังพบว่า LLM อาจช่วยในการวางแผนหรือตัดสินใจเรื่องการโจมตีทางชีวภาพ เช่น วิธีการส่งสารละอองแขวนลอยที่มีสารพิษในนั้นได้

อาวุธไซเบอร์

เมื่อเดือนกุมภาพันธ์ บริษัทโอเพ่น เอไอ และหน่วยความปลอดภัยของไมโครซอฟท์ พบว่ากลุ่มแฮกเกอร์ที่มีรัฐบาลรัสเซีย จีน อิหร่าน และเกาหลีเหนือหนุนหลัง กำลังใช้โมเดลภาษาขนาดใหญ่ของโอเพ่น เอไอ ในการยกระดับทักษะในการโจมตีเป้าหมาย เช่น ค้นหาพิกัดดาวเทียมและเรดาร์ในสมรภูมิ สร้างเนื้อหา “ฟิชชิ่ง” การเขียนอีเมลที่ดูน่าเชื่อถือมากขึ้น และการฝึกถามคำถามด้านความปลอดภัยไซเบอร์ต่าง ๆ เพื่อหลอกล่อเป้าหมาย

กระทรวงความมั่นคงแห่งมาตุภูมิสหรัฐฯ ระบุว่า ผู้ไม่ประสงค์ดีบนโลกไซเบอร์อาจใช้ AI “พัฒนาเครื่องมือ” เพื่อ “การโจมตีไซเบอร์ที่ใหญ่ขึ้น เร็วขึ้น มีประสิทธิภาพขึ้น และหลบหนีการจับกุมได้มากขึ้น” กับระบบโครงสร้างพื้นฐานสำคัญ รวมทั้งท่อส่งเชื้อเพลิงและการขนส่งระบบราง

และว่าจีนและประเทศคู่แข่งของสหรัฐฯ รายอื่น ๆ กำลังพัฒนาเทคโนโลยีปัญญาประดิษฐ์ ที่ทำลายระบบป้องกันของสหรัฐฯ เช่น การโจมตีด้วยมัลแวร์

  • ที่มา: รอยเตอร์

กระดานความเห็น

XS
SM
MD
LG