Deepfakes จากวิดีโอขำขัน สู่ภัยคุกคามระดับโลก

การพยายามสร้างผลงานที่การลอกเลียนแบบตัวตนของบุคคล เราคงเคยเห็นผ่านตามาบ้างตามงานศิลปะต่างๆ ไม่ว่าจะเป็นการวาดภาพเหมือนของจิตรกร การปั้นดินเหนียวรูปมนุษย์ หรือแม้แต่ผลงานหุ่นขี้ผึ้งของมาดามทุสโซ โดยการสร้างดังกล่าวเป็นเพียงการจำลองความเหมือนของรูปลักษณ์ภายนอกให้อยู่ในกรอบที่จำกัด ไม่ได้แสดงท่าทางเคลื่อนไหว รวมไปถึงการพูดเพื่อให้เกิดการปฎิสัมพันธ์ใดใด จึงเป็นเรื่องง่ายที่มนุษย์อย่างเราจะสามารถแยกแยะได้ว่าอันไหนจริง อันไหนจำลองขึ้น

ผิดกับ Deepfakes ที่ไม่เพียงสร้างความเข้าใจผิดในเรื่องของรูปลักษณ์ แต่ยังส่งผลกระทบไปถึงการบิดเบือนข้อมูลจนนำไปสู่ความโกลาหล อีกทั้งตัวมนุษย์เองยังต้องใช้ระยะเวลาที่นานพอสมควรกว่าจะรับรู้ได้ว่านี่ไม่ใช่ตัวจริง ข้อมูลที่สื่อสารอยู่ก็ไม่ใช่เรื่องจริง แต่ก็ไม่ใช่ทุกคนที่จะสามารถแยกแยะสิ่งเหล่านี้ได้อย่างเด็ดขาด กว่าจะรู้ตัวผลกระทบที่เกิดขึ้นก็อาจจะบานปลายเกินควบคุม

credit:timeforkids

วันนี้เราจะมาทำความรู้จักกับเจ้า Deepfakes ว่าคืออะไร จุดเริ่มต้นการใช้เทคโนโลยีนี้มาจากไหน ทำไมเทคโนโลยีนี้ที่ดูเหมือนจะเป็นเพียงเรื่องขำขัน กลับสามารถสร้างแรงกดดันถึงขั้น Google , Twitter Facebook รวมถึงองค์กรเจ้าใหญ่อื่นๆ ต้องลงมาจัดการควบคุมเรื่องนี้ด้วยตัวเอง เราจะมาหาคำตอบกันในบทความนี้

จุดกำเนิด Deepfakes 

คำว่า Deepfakes นั้นถูกนำมาใช้จำกัดความให้กับวิดีโอที่ถูกปลอมขึ้นมาโดยใช้เทคโนโลยี A.I. ซึ่งคำจำกัดความนี้เกิดจากการผสานรวมกันสองคำระหว่างคำว่า “Deep” ซึ่งหมายถึง “Deep Learning” หนึ่งในรูปแบบการทำงานของ A.I. ที่ถูกนำไปใช้อย่างแพร่หลายในปัจจุบันเพื่อใช้ในการแยกแยะข้อมูลที่ซับซ้อนให้แม่นยำขึ้นกว่าวิธีการปกติ เช่น การแยกแยะภาพนิ่งตามอัตลักษณ์ , การแยกแยะบุคคลในวิดีโอ , การจำแนกเสียงของตัวบุคคล , การวิเคราะห์โรคทางการแพทย์ต่าง ๆ  ฯลฯ และ “Fake” ที่แปลว่าปลอมนั่นเอง โดยการปลอมที่ว่ามีหลายรูปแบบไม่ว่าจะเป็นการนำใบหน้าบุคคลไปซ้อนทับแทนที่บนตัวของบุคคลจริง จนไปถึงการสวมบทบาทเป็นบุคคลในวิดีโอนั้น ซึ่งเรากำลังจะได้ชมผ่านวิดีโอต่อไปนี้

จากวิดีโอจะเห็นได้ว่าการลอกเลียนแบบไม่ได้เป็นรูปแบบที่เราสามารถแยกแยะออกได้ในทันที เพราะแม้แต่ภาพการขยับอวัยวะต่างๆ บนใบหน้า รวมถึงเสียงมีความคล้ายคลึงกับต้นฉบับ หากมิใช่คนใกล้ชิดบุคคลในวิดีโอ หรือสนิทสนมแล้วล่ะก็ บุคคลทั่วไปแทบจะไม่สามรถแยกได้เลยว่าข้อมูลที่พูดออกมาเป็นของปลอม

จากรายงาน The State of Deepfakes : Reality Under Attack ที่ถูกรวบรวมโดย Deeptrace Labs ได้เรียบเรียงต้นกำเนิดของ Deepfakes ไว้ เราจะมาทำการสรุปให้ฟังคร่าว ๆ ว่าจุดเริ่มต้นมีความเป็นมาอย่างไรบ้าง

ปี 2012 มีการแข่งขันการจำแนกรูปภาพโดยใช้ชุดข้อมูลที่ชื่อว่า ImageNet ที่รวบรวมข้อมูลรูปภาพพร้อมเฉลยว่ารูปภาพนั้นคืออะไร ไว้มากกว่า 1,500,000 ภาพ ซึ่งในการแข่งขันครั้งนั้นอัลกอริทึม Deep Learning ได้ถูกนำมาใช้ และเอาชนะอัลกอริทึมเดิม ๆ ไปอย่างขาดลอย นับว่าเป็นยุคกำเนิด Deep Learning ตั้งแต่นั้นมา

ปี 2016 กลุ่มนักวิจัยด้านคอมพิวเตอร์วิทัศน์ได้เผยแพร่ผลงานงานวิจัยชื่อว่า Face2Face เป็นการจับเอาท่าทีการแสดงสีหน้าของใครก็ได้ แล้วนำไปซ้อนทับใส่ในวิดีโอเพื่อเปลี่ยนริมฝีปากและการแสดงสีหน้าของคนในวิดีโอนั้น ซึ่งการประมวลผลการซ้อนทับสามารถประมวลผลได้แบบเรียลไทม์ (Real-time Processing) แต่ยังทำได้เพียงการประมวลผลภาพ ไม่สามารถปลอมเสียงได้

วิดีโอสาธิตการทำงานของ Face2Face

ปี 2017 มหาวิทยาลัยวอชิงตันได้เผยแพร่ผลงานวิจัย Synthesizing Obama: Learning Lip Sync from Audio ที่เกี่ยวกับการปลอมการขยับใบหน้าและริมฝีปากจากเสียง โดยรูปแบบแตกต่างจาก Face2Face เพราะต้องใช้คนจริงด้านนอกเป็นตัวแปรตั้งต้น แต่สำหรับ Learning Lip Sync ตัวแปรต้นเป็นแหล่งกำเนิดเสียงพูดจากแหล่งใดก็ได้ เมื่อป้อนเข้าไปภาพเคลื่อนก็จะขยับตามคำพูดที่ถูกป้อนทันที

วิดีโอสาธิตการทำงานของ Learning Lip Sync from Audio

ในช่วงเดือนพฤศจิกายนในปีเดียวกันนั้นเอง ผู้ใช้ reddit นิรนามที่ใช้ชื่อว่า “deepfakes” ได้สร้าง subreddit ภายใต้หัวข้อ “r/deepfakes” เพื่อใช้ในการแชร์วิดีโอผู้ใหญ่โดยนักแสดงถูกเปลี่ยนใบหน้าให้เป็นหน้าของดารา หรือคนดังแทนที่ตัวจริง และวิดีโอดังกล่าวก็ถูกแพร่กระจายลงเว็บไซต์สำหรับชมหนังผู้ใหญ่อย่างรวดเร็ว ซึ่งต่อมาไม่นาน Motherboard (Vice) เว็บไซต์นิตยสารเทคโนโลยีและสื่อวิดีโอออนไลน์ เป็นสื่อรายแรกที่เล่นเรื่องของ r/deepfakes  ทำให้ตลอดปี 2018 Deepfakes กลายเป็นที่กล่าวถึงกว่าร้อยบทความผ่านสื่ออื่นๆ อีกมากมาย ไม่ว่าจะเป็น The New York Times ,Washington Post ,The Guardian,The Economist , The Time และ BBC

ปี 2018 การขยายตัวของ Deepfakes ยังคงโตอย่างต่อเนื่อง มีการสร้างแอพลิเคชัน FakeApp ที่ทำงานบนเดสก์ท็อป โดยบุคคลทั่วไปสามารถสร้างวิดีโอปลอมขึ้นได้เองด้วยวิธีการที่แสนง่าย รวมถึงหลายเว็บไซต์เริ่มเปิดให้มีการลงผลงานวิดีโอที่เกิดจาก Deepfakes ได้อย่างอิสระพร้อมทั้งเปิดให้ผู้ใช้งานอื่น ๆ สามารถโดเนท  (Donations) ให้กับวิดีโอนั้นได้ 

การขยายตัวข้างต้นส่งผลให้หลายแพลทฟอร์มเริ่มเล็งเห็นอันตรายที่กำลังจะมา และไม่เห็นด้วยกับการสร้างวิดีโอจากเทคโนโลยีนี้ จึงเริ่มประกาศนโยบายเฝ้าระวัง ตรวจสอบ และระงับการแพร่วิดีโอปลอมที่เกิดจาก Deepfakes พร้อมทั้งลบวิดีโอนั้นออกจากแพลตฟอร์มทันทีที่ตรวจพบ ไม่ว่าจะเป็น Discord, PornHub, Twitter ไม่เว้นแม้แต่ Reddit ซึ่งก็ประกาศแบน subreddit ภายใต้ชื่อ r/deepfakes ด้วยเหตุผลการละเมิดสิทธิส่วนบุคคลที่ถูกนำเข้าไปอยู่ในสื่อลามกโดยไม่สมัครใจ แต่ก็มิได้ทำให้ Deepfakes ขยายตัวน้อยลงมากนัก 

ด้านสื่อออนไลน์ไวรัลเจ้าดังอย่าง BuzzFeed ได้สร้างวิดีโอปลอมขึ้นมาคลิปหนึ่งโดยให้ Jordan Peele สวมรอยเป็นอดีตประธานาธิบดี Barack Obama ทวีตลงบน Twitter จนกลายเป็นไวรัลทันที โดยมีคนรีทวีตกว่า 13,000 ครั้ง ,ไลก์ 29,000 ครั้ง และยอดวิวบน Youtube กว่า 100,000 ครั้งภายในวันเดียว ซึ่งเป็นตัววัดผลการแพร่กระจายอย่างรวดเร็วของ Deepfakes ได้อย่างดีเยี่ยม หากไม่ได้มีการเฉลยในตอนท้ายคลิปว่าเป็นของปลอม ข่าวสารดังกล่าวอาจเป็นตัวสร้างความแตกแยกให้ผู้คนได้ง่าย ถึงขนาดที่ The Warshington Times ออกมาเตือน พร้อมทั้งเพิ่มเสริมอีกว่าศัตรูของชนชาติอเมริกาอาจใช้เทคโนโลยีนี้ปลุกระดมในการเลือกตั้งประธานาธิบดีปี 2020 ที่กำลังจะมา จนสร้างความโกลาหลและทำลายกันเองในที่สุด