svasdssvasds

Deepfake คลิปปลอมสุดเนียนที่สร้างจาก A.I. จะแยกแยะยังไงว่าเป็น "ข่าวปลอม"

Deepfake คลิปปลอมสุดเนียนที่สร้างจาก A.I. จะแยกแยะยังไงว่าเป็น "ข่าวปลอม"

"ข่าวปลอม" สร้างปัญหาสารพัดให้ประชากรในหลายประเทศ แต่ในวันข้างหน้า เราต้องคิดวิเคราะห์เชิงลึกให้รู้เท่าทันมากขึ้น เพราะจะไม่ได้เจอแค่ข่าวปลอม แต่เป็น "Deepfake" หรือ คลิปปลอมที่เนียนสุดๆ เพราะใช้ A.I. หรือ เทคโนโลยีปัญญาประดิษฐ์​ (Artificial Intelligence) สร้างขึ้น

พูดเรื่องข่าวสารในช่วงโควิด-19 ระบาด "ข่าวปลอม" ก็ระบาดในไทยไม่แพ้กัน โดยเฉพาะในโซเชียลมีเดีย พบว่ามีทั้งภาพและข้อความที่แชร์กันเป็นวงกว้าง ขณะที่ต่างประเทศพัฒนาเทคโนโลยีดิจิทัลไปถึงขั้นทำ Deepfake หรือ คลิปปลอม ที่มีความแนบเนียนและสมจริงจนทำให้คนดูหลงเชื่อได้ง่ายๆ เราคนไทยจึงต้องรู้ทันความก้าวหน้าทางเทคโนโลยีและรู้จักการคิดเชิงวิเคราะห์ ก่อนที่สิ่งเหล่านี้จะมาประชิดตัว 

เพราะไม่รู้ จึงต้องขอความรู้จากคนทำงานด้าน Data

SPRiNG มีโอกาสได้พบ ดร.มนต์ศักดิ์ โซ่เจริญธรรม ผู้อำนวยการฝ่ายเดตาโซลูชันส์ภาครัฐ สำนักงานพัฒนารัฐบาลดิจิทัล (DGA) ซึ่งคลุกคลีอยู่กับงานส่งเสริมและสนับสนุนด้านการบริหารจัดการ Data ของประเทศ 3 ด้าน

  1. Open Data หรือ ข้อมูลเปิดภาครัฐ : ส่งเสริมและสนับสนุนให้หน่วยงานภาครัฐนำข้อมูลที่มีอยู่มาเปิดเผย เพื่อให้ภาครัฐ ภาคเอกชน ประชาชนนำข้อมูลไปใช้ประโยชน์ 
  2. Data Governance หรือ ธรรมาภิบาลข้อมูล : ส่งเสริมให้ภาครัฐสร้างฐานข้อมูลและจัดเก็บอย่างมีระบบระเบียบและใช้กระบวนการทางดิจิทัลมาควบคุมดูแลการใช้งานข้อมูลให้เป็นปกติ
  3. PDPA หรือ กฎหมายคุ้มครองข้อมูลส่วนบุคคล โดยมีตำแหน่งเป็น DPO (Data Protection Officer) เจ้าหน้าที่คุ้มครองข้อมูลส่วนบุคคล มีหน้าที่ให้คำปรึกษา ดูแลการเก็บข้อมูลส่วนบุคคลของหน่วยงานต่างๆ ให้เป็นไปตามกฎหมาย

โดยหัวใจสำคัญที่ต้องว่ากันด้วยเรื่องข่าวกับ Data เพราะในยุคดิจิทัล เราจะรู้หรือตรวจสอบได้ว่า ข่าวไหนเป็น "ข่าวจริง" (Truth News) หรือ "ข่าวปลอม" (Fake News) ก็ด้วยการตรวจสอบ Data จากแหล่งข้อมูลต้นทางนั่นเอง

มนต์ศักดิ์ โซ่เจริญธรรม ได้ยินคำว่า Deepfake มาพักใหญ่ นิยามของมันคือ?

Deepfake มันเป็นชื่อเทคโนโลยี Deep แปลว่า ลึก Fake แปลว่า ปลอม คือ ปลอมอย่างลึกซึ้ง แปลไทยเป็นไทยคือ มองไม่ออกว่าของปลอม 

มันเป็นเทคโนโลยีที่ทำเกี่ยวกับภาพ ถ้าจะมีเอฟเฟ็กต์มากที่สุดก็คือ ภาพของคน เรานำภาพของนาย A แล้วนำภาพของนาย B มาซ้อนกับนาย A ทำให้นาย A ทำท่าหรือพูดจาตามที่นาย B ต้องการได้ เหมือนชักใยหุ่นกระบอก เพียงแต่ว่าเราต้องใช้วิดีโอในการทำ

ปลอมอะไร แบบไหน จึงเป็น Deepfake?

เช่น คลิปปลอมที่มีคนทำในอเมริกา เอาวิดีโอ Barack Obama มา แล้วก็เอาวิดีโอของตัวเองมา ซึ่งเป็นพิธีกรคนหนึ่ง ทำปากพูดในเรื่องที่อยากให้ Obama พูด อะไรก็ได้พูดไปเลย แล้วมันก็จะกลืนภาพเข้าไปกับ Barack Obama จะให้เขาแถลงนโยบายอะไรก็ได้ตามที่ใจชอบ

พอสร้างวิดีโอ Deepfake อันนี้ขึ้นมา ก็ปล่อยตัวนี้ออกไป ซึ่งตัวเทคโนโลยีเองก็ไม่ได้ผิดอะไรนะ มันไม่ได้ทำอะไรให้ใครเดือดร้อน ยกเว้น คอนเทนต์ที่คุณสร้างมันเป็น Fake เช่น คุณสร้างเป็น Fake News คือแถลงเรื่องที่ไม่เป็นจริง หรือพูดเรื่องที่ทำให้เสียหายร้ายแรง 

คิดดูจู่ๆ มีคนทำ Deepfake วิดีโอขึ้นมา ประกาศปล่อยออกมาตอนตี 2 เราขอประกาศลาออก ขอประกาศยุบสภา ขอประกาศการปฏิวัติ ภาวะฉุกเฉินตอนตี 2 กระจายไปทั่ว ทุกคนแตกตื่น เห็นวิดีโอนึกว่าจริง เพราะว่าเอาผู้นำประเทศมาทำเป็น Fake วิดีโอ แก้ข่าวกันไม่ทัน เกิดความเสียหายได้นะครับ

ต้องมีองค์ประกอบอะไร ถ้าจะทำ Deepfake ให้สมบูรณ์?

ก็จะต้องมีเทคโนโลยี A.I. ที่เรียกว่า Generative Adversarial Network (GAN) การสอนให้เครื่องจักรประมวลผลเชิงลึก (Deep Learning) แปลง่ายๆ ก็คือ มันจะสามารถ merge สองวิดีโอเข้าด้วยกัน คือวิดีโอต้นฉบับหรือวิดีโอของภาพจริง คนจริง กับวิดีโออีกอันนึงที่คุณอยากจะเป็นต้นทาง เพื่อทำให้มันไปเปลี่ยนปลายทาง

เมื่อก่อนดูภาพอาจจะหลอนๆ นิดหน่อย เพราะมันไม่ละเอียดมาก เดี๋ยวนี้ภาพมีความคมชัด ชัดเจนมากจนแทบจะมองไม่ออก แล้วก็สามารถสร้างสิ่งที่เรียกว่า เป็นไปไม่ได้ในโลกความเป็นจริง เช่น ทำให้ Barack Obama หนุ่มขึ้นอีก 20 ปี 

อยากให้ยกตัวอย่างคลิปที่เห็นชัดๆ

มีแชนแนลของ TikTok อันนึงนะที่ Fake วิดีโออย่างเดียวเลย แล้ว Fake วิดีโอของ Tom Cruise ด้วย เช่น มาเป็นคนทำความสะอาด เป็นพนักงานล้างจาน มาพูดจาโน่นนี่นั่นที่ Tom Cruise คงไม่พูด ที่เห็นน่ะเป็น Tom Cruise นะ แต่จริงๆ เป็นอีกคนนึงที่ทำ TikTok เป็น Deepfake ขึ้นมา ทำเป็นไวรัลให้ดูสนุกๆ ไปเรื่อยๆ อย่างนี้ก็มี

@deeptomcruise

Keep your hands clean.

♬ original sound - Tom

อีกเคสก็ Linda Carter คนนี้เคยเป็นนางงามอเมริกา เมื่อประมาณปี 1976 นะ 40 กว่าปีแล้วที่เล่นหนังเรื่อง Wonder Woman ไว้ อายุ 70 ปีละ ก็มีคนเอาภาพตอนสาวมา merge เข้าไปใน Wonder Woman เวอร์ชัน 2021 แล้วก็ไวรัลไปทั้งอินเทอร์เน็ต

ถ้าเป็นเคสในสถานการณ์โควิด-19

สมมุติว่า มีการแถลงว่ายอดเสียชีวิตวันนี้ 5 แสนคน A.I. ก็ไปเช็กได้ว่า จริงๆ ที่ผ่านมามันแค่ 20,000 / 20,000 / 20,000 นะครับ แล้วก็เช็กจากแหล่งต่างๆ เช่น กรมควบคุมโรค เอ๊ะ...วิดีโอบอกว่า 5 แสน แต่พอไปเช็กกับฐานข้อมูลของกรมควบคุมโรค มันแค่ 25,000 ไม่จริงก็รู้ได้ทันที A.I. ก็สามารถที่จะไปควานหา Data ในอินเทอร์เน็ตมาเอง คิดเอง วิเคราะห์เอง และพยายามชี้ว่า น่าจะผิด น่าจะถูก

รู้เพิ่มเกี่ยวกับ "ข่าวปลอม"

ถ้าแชร์ลงโซเชียล การตรวจจับละเอียดแค่ไหนจึงอยู่กับแพลตฟอร์มนั้นๆ?

ใช่ เขาเป็นคนแรกที่เข้าถึงข้อมูล ถูกมั้ย เพราะคนโพสต์เข้าไปหาเขา เขาเป็นคนแรกที่เข้าถึง เขาก็ควรต้องตรวจสอบเป็นคนแรก ก่อนจะปล่อย

อย่างผมโพสต์วิดีโอ อัปโหลดไป เฟซบุ๊กบอก โปรดรอสักครู่หนึ่ง เสร็จแล้วเราจะบอก เรากำลัง process วิดีโอคุณนะ ก็คือตรวจพวกนี้ พอเสร็จก็บอก เสร็จแล้วนะ วิดีโอคุณพร้อมเผยแพร่ แล้วมันก็จะออนไลน์

พอจะทราบหรือไม่ว่ามี Deepfake บนเครือข่ายอินเทอร์เน็ตเยอะแค่ไหน?

คงต้องทำรีเสิร์ชสักหน่อย เพราะดูยาก ใช้เวลาพิสูจน์ ตอนนี้อย่างมากก็อ่านข่าวเอา ถ้าไม่เป็นข่าวก็ไม่รู้อีก ตัวเลขจริงหายาก ตรวจสอบยากนะครับ

ดูยากแล้วมีเครื่องมือช่วยตรวจสอบไหม?

มันก็มีเทคโนโลยีที่มาป้องกันนะ เช่น ปีที่แล้ว เฟซบุ๊กตั้งคล้ายๆ กลุ่มขึ้นมา แล้วก็ร่วมมือกันในการที่จะสร้างเทคโนโลยีที่จะมาตรวจสอบ หรือ detect ว่าวิดีโอนี้ Fake หรือไม่ Fake

ที่เล่าไปเมื่อกี้นี้คือ ใช้ A.I. ในการสร้าง คราวนี้สร้างวิดีโอ A.I. ขึ้นมา detect วิดีโอตัวที่สร้างด้วย A.I. ว่าปลอมหรือไม่ปลอม Fake หรือไม่ Fake โดยเฟซบุ๊กสามารถใช้ A.I. ตรวจสอบกันแบบเดี๋ยวนั้น แล้วก็ฟ้องได้เลยว่า มีโอกาส Fake 90%

หมายถึงวิดีโอ Fake นะ แต่ข่าว Fake หรือเปล่าไม่รู้ สิ่งที่คุณพูดอาจจะเป็นความจริงก็ได้ แต่วิดีโอตรวจสอบได้ว่ามัน Fake

tom deep fake AI tom cruise deepfake ข่าวปลอม A.I. ทำหน้าที่ตรวจพร้อมกันทั้งภาพและเสียงนั่นเอง

มันจะฟังเสียงว่า คอนเทนต์เหมาะสมหรือไม่เหมาะสม เช่น ถ้าพูดคำว่า ตาย ตาย ตาย หรือคำว่า ฆ่า เยอะๆ แสดงว่าวิดีโอนี้ส่อถึงความรุนแรง หรือถ้าเป็นภาพลามกอนาจาร ก็มี A.I. เข้ามาตรวจ เช่นใน youtube เจอแล้วบล็อกเลย

การตรวจจับ Deepfake แบบนี้มีคนไทยทำหรือยัง?

เท่าที่ผมรู้ คนไทยที่จะสร้างซอฟต์แวร์เพื่อทำ Deepfake เอง ผมยังไม่เห็นนะ แต่ในเมืองนอกเห็นแล้ว ซึ่งไอเดียพวก Deepfake เริ่มตั้งแต่ปี 2014 โดยนักวิจัยในต่างประเทศสร้าง Generative Adversarial Networks (GANs) พอเริ่มมีอัลกอริทึม (อัลกอริทึม หมายถึง สูตร) มีการปล่อยสูตรออกมา คนก็สร้างซอฟต์แวร์ให้ผลิตสิ่งต่างๆ ตามสูตร แล้วก็พัฒนาเทคโนโลยีให้แอดวานซ์ขึ้นเรื่อยๆ อย่างที่เห็น เราก็สะดวกมากขึ้น และตอนนี้ก็เริ่มมีการเผยแพร่วิธีสร้างซอฟต์แวร์ตรวจจับพวกนี้มากขึ้น 

DGA Data Governance ฟังดูแล้ว Deepfake ถูกนำไปใช้ประโยชน์ในแง่ลบ มองในแง่บวกบ้างได้ไหม?

Deepfake มันเป็นดาบสองคม มีประโยชน์และอาจจะมีโทษ ประโยชน์คือ ถ้าคุณมี Skill สร้าง Fake วิดีโออะไรก็ได้ ค่าตัวคุณแพงมากนะ อย่างน้อยก็ในวงการมีเดีย วงการสื่อ แทนที่ผมจะจ้างดารา 10 คน จ้างคุณคนเดียว ค่าตัวคุ้มมั้ยล่ะ ผมจ่ายค่าตัว 3 คนให้คุณคนเดียวในการสร้างหนังเรื่องหนึ่งได้ แล้วก็ลดเวลาการสร้างคอนเทนต์ลง 10 เท่า 

นี่เป็นโอกาสของพวกที่เป็นแรงงานรุ่นใหม่ รีบๆ ปรับตัวแล้วก็รีบๆ ศึกษาหาความรู้นะครับ ใคร Fake เก่ง ทำเรื่องเนียน น่าติดตาม หมายถึงว่า เอาตัวเอง Fake เข้าไปนะ ไม่ต้องมานั่ง Live แล้ว อาจจะหมดยุค นี่คือโอกาส เป็นอาชีพได้ ใครครีเอทีฟมากๆ ครีเอทีฟเก่งๆ คน follow เยอะ โฆษณาก็เยอะ

ส่วนในมุมลบ พวกเราก็ต้องฉลาดขึ้น รู้จักคิดวิเคราะห์มากขึ้น พวกเราผู้ใหญ่ ใช้เทคโนโลยีอาจจะไม่ทันเด็ก เราก็ต้องใช้ประสบการณ์ของเราวิเคราะห์ อย่าเชื่ออะไรง่าย คิดวิเคราะห์ตรวจสอบให้ดีครับ แล้วก็อย่าตกเป็นเหยื่อ 

มีคนตกเป็นเหยื่อของ "ข่าวปลอม" มากมายในปัจจุบัน อีกหน่อยเป็น "คลิปปลอม" แนบเนียนและน่าเชื่อกว่าเดิมมาก เราจะรู้เท่าทันเรื่องเหล่านี้อย่างไร?

สังคมจะต้องถูก educate ว่าแม้กระทั่งเห็นวิดีโอ ไลฟ์ กันออกมา พูดออกมา เห็นนายกฯ พูด เห็นนักการเมือง เห็นรัฐมนตรีพูด อย่าเพิ่งรีบปักใจเชื่อ เขาเรียกว่าต้องมี ความเข้มแข็งทางสติปัญญา

คนในยุคหน้าก็คงจะต้องปรับตัวเยอะนะครับ ต้องมีความสามารถในการคิดวิเคราะห์เห็นปุ๊บต้องถามก่อนเลยว่า จริงหรือเปล่า สมเหตุผลมั้ย แล้วก็ตรวจสอบให้ดีก่อนที่จะรีบเชื่อ เพราะ Fake News จะน่าเชื่อ จะเนียนยิ่งขึ้น จะดูไฮเทคยิ่งขึ้น

กรณีที่เป็นสื่อมวลชน มีวิธีตรวจสอบข่าวปลอม คลิปปลอมแบบ Deepfake อย่างไร?

ถ้าทำแบบอนาล็อก ก็คือใช้คนตรวจดูว่า คอนเทนต์นั้นเป็นเรื่องอะไร หากเป็นข่าวจากรัฐบาลก็ต้องตรวจจากแหล่งข่าวรัฐบาล อะไรที่มันเผยแพร่แล้วสุ่มเสี่ยงก็ควรจะต้องตรวจสอบก่อน ในขณะเดียวกันก็เข้าใจว่า สื่อแข่งขันกันนำเสนอข่าว อยากจะเป็นคนแรกที่เผยแพร่ แต่ผมว่าสื่อจะอยู่ยากขึ้น ต้องพยายามป้องกันตัวเองมากขึ้นเพื่อไม่ให้เสียหายหรือเสียชื่อเสียง

ผมแนะนำอย่างนี้ครับ สื่ออาจจะต้องลงทุนด้านเทคโนโลยีด้าน A.I. คือคุณตรวจสอบไม่ไหวหรอก แต่ก็มีเทคโนโลยีหรือซอฟต์แวร์ที่มาแก้กัน อย่างน้อยๆ มันมีพวกนี้ช่วยฟิลเตอร์ระดับนึง คือซอฟต์แวร์บอกว่า น่าจะ Fake 90% คือซอฟต์แวร์มันไม่สามารถ make final decision เด็ดขาดแทนเราได้ สุดท้ายคนก็ต้องตัดสินใจว่า ตกลงจะปล่อยหรือไม่ปล่อย 

และแทนที่จะเผยแพร่ข่าวแบบเป็นยังไง เผยแพร่อย่างนั้น สื่อต้องพยายาม disrupt ตัวเอง เผยแพร่ข่าวในเชิงลึกมากขึ้น และทำการบ้าน เช่น การวิเคราะห์ การสังเคราะห์ การเชื่อมโยงข้อมูล การเล่าเป็นสตอรี่ นำข้อมูลจากหลายแหล่งมารวมกัน อันนี้มัน copy ยาก แล้วก็ซ้ำกันยาก หรืออาจเชื่อมโยงข้อมูลวิชาการ ข้อมูลต่างประเทศ ในประเทศ เมื่อบริบทมันสอดคล้องกันไปหมด ทำแล้วนำเสนอเป็นคนแรกแน่นอน เพราะเรา control ทุกอย่างเอง ลักษณะนี้จะทำให้ Value ของสื่อมีมากขึ้น

.................................

Deepfake คลิปปลอมสุดเนียนที่สร้างจาก A.I. ความแนบเนียนที่ไปไกลกว่า Fake news

Chris Ume Chris Ume, VFX & A.I. Artist

เบื้องหลัง Deepfake ของ Tom Cruise ที่เห็นบน TikTok มาจากแอ็คติงของนักแสดงชาย Miles Fisher ซึ่งมีหน้าตาละม้ายคล้าย Tom เป็นทุนเดิม ยิ่งเมื่อ Chris Ume ครีเอเตอร์ด้าน Visual Effect มือฉมัง มาร่วมสร้างสรรค์งาน Deepfake โดยตั้งใจสื่อสารกับสังคมว่า นี่คือ Deepfake เป็นคลิปปลอมที่ใช้เทคโนโลยี A.I. สร้างขึ้น ซึ่งมันเนียนมาก จึงอยากให้ทุกคนรู้เท่าทัน อย่าหลงเชื่ออะไรง่ายๆ

และที่สำคัญ ต้องมีฝ่ายที่ออกกฎมากำกับดูแลหรือควบคุมการใช้เทคโนโลยีนี้ตั้งแต่เนิ่นๆ เพราะเชื่อว่าจะมีผู้ไม่ประสงค์ดี นำเทคโนโลยีไปใช้ในทางที่ผิด เช่น สร้างคลิปปลอมเพื่อบิดเบือนข้อมูล สร้างกระแสทำให้สังคมเข้าใจผิด นำไปหาเสียง ทำลายชื่อเสียง หรือนำไปใช้ประโยชน์ทางการเมือง ฯลฯ

อย่างไรก็ดี Chris Ume กับ Miles Fisher ตอบผ่านสื่อที่ให้สัมภาษณ์ว่า พวกเขาทำคลิปปลอมเพื่อความบันเทิงเท่านั้น โดย Chris ไม่เผยกระบวนการผลิตเชิงลึก บอกแต่เพียงว่า Data ภาพถ่ายใบหน้าของ Tom ที่ใช้ประมวลผลมีมากถึง 13,000 รูป 

ที่มา  

related