Technology

‘Generative AI’ ยกระดับการโจมตีไซเบอร์ องค์กรควรรับมืออย่างไร เช็กที่นี่

ทุกเทคโนโลยีมีศักยภาพในการใช้งานทั้งในเชิงบวกและเชิงลบ และเป็นเรื่องจริงโดยเฉพาะอย่างยิ่งสำหรับเทคโนโลยี Generative AI เช่น ChatGPT ซึ่งนับเป็นแพลตฟอร์มที่ถูกกล่าวถึงอย่างมากในแวดวง AI 

Sam Altman ประธานเจ้าหน้าที่บริหารของ OpenAI ผู้สร้าง ChatGPT เองได้แสดงความกังวลในแถลงการณ์ฉบับล่าสุด โดยได้เน้นย้ำถึงความสำคัญของ AI และให้นำไปใช้งานอย่างเหมาะสมและโปร่งใส

Generative AI

 

พร้อมกันนี้ ยังได้กล่าวเพิ่มเติมอีกว่า ควรให้ความสำคัญกับเรื่อง AI ประหนึ่งการให้ความสำคัญในเรื่องความท้าทายระดับโลก อย่างเรื่องการจัดการกับโรคระบาดและสงครามนิวเคลียร์ ทั้งนี้เพื่อลดความเสี่ยงที่อาจเกิดขึ้นกับมนุษยชาติ

นายเอกภาวิน สุขอนันต์ ผู้จัดการประจำ วีเอ็มแวร์ประเทศไทย กล่าวว่า ความกังวลและข้อเสนอแนะข้างต้นเป็นการกระตุ้น และเน้นย้ำให้บริษัทต่าง ๆ พิจารณาเชิงรุกถึงผลกระทบด้านความปลอดภัยของเทคโนโลยีดังกล่าว

นอกจากนี้ ยังเป็นโอกาสสำหรับองค์กร ที่จะต้องเริ่มตื่นตัวในเรื่องการปกป้องระบบและข้อมูลของตน เมื่อเผชิญกับเทคโนโลยีที่ก้าวหน้าเหล่านี้

ขณะเดียวกัน ยังพบว่า ผู้ประสงค์ร้ายอาศัยช่องทางเหล่านี้ สร้างประโยชน์แก่ตนเอง ตัวอย่าง ไม่กี่สัปดาห์ หลังจากการเปิดตัว ChatGPT เมื่อเดือนพฤศจิกายนที่ผ่านมา อาชญากรไซเบอร์ได้นำเครื่องมือไปแชร์และใช้บนฟอรัมดาร์กเว็บ โดยเฉพาะอย่างยิ่งเครื่องมือที่สามารถใช้โดยผู้ที่ไม่มีประสบการณ์ในการเขียนโค้ด เพื่อสร้างมัลแวร์ที่ซับซ้อนขึ้นมาใหม่

สำหรับคนหลายล้านคน ChatGPT เป็นเสมือนวิศวกรคนหนึ่งที่บริษัทจ้างทำงาน หรือเปรียบเสมือนพนักงานที่มีศักยภาพคนหนึ่ง ที่เต็มไปด้วยความรู้และสามารถเข้าถึงข้อมูลบนอินเทอร์เน็ต สั่งงานได้ตลอด จัดการข้อมูลที่เราเสนอได้อย่างมหาศาลโดยไม่เสียค่าใช้จ่าย

จะเห็นได้ว่าแม้ว่าขณะนี้ จะยังอยู่ในช่วงเริ่มต้นของการใช้งาน แต่ก็คาดการณ์ได้ไม่ยาก ถึงความเป็นไปได้ที่จะเห็นผู้ไม่หวังดีที่ใช้ประโยชน์จาก AI ในการสร้างความเดือดร้อน

เอกภาวิน สุขอนันต์
เอกภาวิน สุขอนันต์

การระบาดของฟิชชิ่งที่เพิ่มขึ้นและน่ากลัวยิ่งขึ้น

ตัวอย่างข้างต้นที่แสดงให้เห็นว่า ChatGPT สามารถดำเนินการที่ซับซ้อนได้ ตัวอย่าง สามารถเขียนอีเมลฟิชชิ่งได้ง่ายพอ ๆ กับเขียนเพลง และสามารถสร้างเนื้อหาได้อย่างน่าเชื่อถือมากกว่าผู้โจมตีจำนวนมาก

กี่ครั้งแล้วที่คุณถูกล่อลวงให้คลิกอีเมล จนกระทั่งสังเกตเห็นการสะกดผิด หรือข้อผิดพลาดทางไวยากรณ์ที่ทำให้เห็นได้ชัดว่าผู้เขียนเขียนได้ไม่ดี แต่แล้ว ข้อผิดพลาดเหล่านั้นจะหายไปโดยอัตโนมัติโดย ChatGPT

การโจมตีแบบ Deepfake

ผู้โจมตีอาจสร้างโน้ตที่ดูเหมือนว่ามาจากผู้บริหาร หรืออาจสร้างข้อความที่คล้ายมากจนแยกไม่ออก เช่นเดียวกับที่สามารถขอให้ ChatGPT เขียนบทกวีในสไตล์ของ Henry David Thoreau

อีกหนึ่งตัวอย่างคือ บริษัทญี่ปุ่นตกเป็นเหยื่อของการโจมตีด้วย Deepfake Audio ในปี 2564 เมื่อผู้จัดการสาขาถูกหลอกให้โอนเงิน 35 ล้านดอลลาร์ ไปยังบัญชีปลอม หลังจากได้รับโทรศัพท์จากบุคคลที่ฟังดูเหมือนเจ้าหน้าที่ระดับสูงของบริษัท

ระบบออโตเมชัน

การโจมตีทางไซเบอร์ที่มีประสิทธิภาพ จำเป็นต้องทำงานที่น่าเบื่อมากมาย ซึ่งส่วนใหญ่เหมาะสำหรับ generative AI ดังนั้น ผู้ใช้ทั้งที่ประสงค์ดีและประสงค์ร้าย จึงกำลังตรวจสอบวิธีการใช้ generative AI เพื่อทำให้งานเป็นไปโดยอัตโนมัติ

Giovanni Vigna, Sr. Director Threat Intelligence ของ VMware กล่าวว่า เทคนิคดังกล่าวอาจถูกใช้โดยการดำเนินการบิดเบือนข้อมูลอย่างมืออาชีพ แทนการจ้างผู้เขียนเพื่อโพสต์หลอกลวง

การโจมตีแบบ Live off the land

ในช่วงไม่กี่ปีที่ผ่านมา เป้าหมายของการโจมตีคือ การเจาะเข้าไปในเครือข่าย และหลบเลี่ยงการตรวจจับ เนื่องจากพวกเขามองหาเป้าหมายที่มีค่า

ตามปกติแล้ว การโจมตีจะใช้โปรโตคอลเดียวกันกับที่ผู้ดูแลระบบเครือข่ายใช้ในการทำงาน เช่น Remote Desktop Protocol (RDP) ที่พวกเขาใช้เพื่อแก้ไขปัญหาของผู้ใช้มักถูกใช้ในการโจมตีซึ่งนับเป็นหนึ่งในพฤติกรรมเครือข่ายที่สังเกตบ่อยที่สุด ที่เกี่ยวข้องกับการเคลื่อนไหวจากเครื่องนึงไปยังอีกเครื่องนึงไปเรื่อยแบบ lateral จนกว่าจะเจอเป้าหมายที่แท้จริง

ความเป็นส่วนตัวเกี่ยวกับทรัพย์สินทางปัญญา

ChatGPT เชื่อมโยงกับการรั่วไหลของข้อมูลที่ถูกกล่าวหา โดยพนักงานแชร์ข้อมูลลับขององค์กรกับ ChatGPT ซึ่งเป็นการเปิดข้อมูลให้กับผู้ใช้ OpenAI แหล่งที่มา ระบุว่าสิ่งนี้ รวมถึงซอร์สโค้ดของซอฟต์แวร์ที่รับผิดชอบในการวัดอุปกรณ์เซมิคอนดักเตอร์

Pic2

แล้วบริษัทต่าง ๆ จะทำอะไรได้บ้าง เพื่อเตรียมพร้อมสำหรับการโจมตีที่เสริมประสิทธิภาพด้วย AI

สำหรับผู้เริ่มต้น พวกเขาจำเป็นต้องมีระบบการรักษาความปลอดภัยที่ดี ในการสำรวจเมื่อเร็ว ๆ นี้ พบว่า 71% ของผู้ตอบแบบสอบถาม กล่าวว่า การโจมตีเปิดเผยช่องโหว่ที่พวกเขาไม่รู้ตัวด้วยซ้ำว่ามี

 

ดังนั้น การมองเห็นและการรับรู้ ถือเป็นเรื่องพื้นฐานสำหรับการรักษาความปลอดภัยที่ดี แม้ว่าคุณจะหลีกเลี่ยงการโจมตีมาได้หลายต่อหลายครั้งแล้วก็ตาม แต่เมื่อ generative AI มีมากขึ้น โอกาสในการตกเป็นเป้าหมายของคุณก็จะเพิ่มขึ้น

นอกจากนี้ ในองค์กรควรจะพูดคุยอย่างเปิดเผย ในเรื่องภัยคุกคามต่าง ๆ ต่อกันและกันมากขึ้น เพื่อให้สามารถรวบรวมความรู้ร่วมกัน และป้องกันการโจมตีครั้งใหม่ได้ ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ จะพร้อมมากขึ้นหากองค์กรและภาคส่วนต่าง ๆ แบ่งปันข่าวกรองภัยคุกคาม

สุดท้าย ตรวจสอบให้แน่ใจว่าได้ใช้ generative AI ให้เกิดประโยชน์สูงสุด นอกจากนี้ ยังสามารถใช้ AI รูปแบบอื่น ๆ เพื่อตรวจจับร่องรอยเล็กน้อยที่ผู้โจมตีที่มีความสามารถทิ้งไว้ และช่วยตรวจสอบระบบสำคัญต่าง ๆ เพื่อหาช่องโหว่โดยอัตโนมัติ ส่งสัญญาณเตือน และดำเนินการที่เหมาะสม

อ่านข่าวเพิ่มเติม

Avatar photo