GPT-3 หนทางสู่ AGI?

Wirote Aroonmanakun
6 min readAug 28, 2020

--

ข่าวสำคัญช่วงนี้ของวงการปัญญาประดิษฐ์หรือ AI คงหนีไม่พ้นการเปิดตัวของ GPT-3 เมื่อมิ.ย. 2020 และการรายงานความสามารถอันน่ามหัศจรรย์ของมันจากบรรดาผู้ร่วมทดสอบทั้งหลายที่ได้ทดลองใช้ beta version บางคนถึงกับบอกว่านี่เป็นก้าวแรกของการนำไปสู่ AGI หรือ Artificial General Intelligence สิ่งที่บางคนก็รอคอย แต่บางคนก็หวาดหวั่น

บทความนี้จะชวนคุยเรื่อง GPT-3 โดยไม่ลงรายละเอียดเรื่องทางเทคนิค จะคุยในภาพรวมและแนวคิด เพื่อให้เห็นภาพว่าอนาคต AI จะไปได้ไกลแค่ไหน โดยทั้งหมดนี้เป็นความคิดเห็นส่วนตัวของผู้เขียนหลังจากได้ตามอ่านรายงานต่าง ๆ นั้น

GPT-3 คืออะไร

GPT-3 เป็น language model ของ Open AI ที่พัฒนาต่อจาก GPT-2 ที่ออกมาเมื่อปี 2019 และเรียกเสียงฮือฮาในความสามารถด้านการเขียนตัวบทภาษาอังกฤษได้อย่างน่าอัศจรรย์ มาปีนี้กลับเรียกเสียงฮือฮาได้มากยิ่งกว่า เพราะ GPT-3 ไม่ได้แสดงความสามารถเพียงแค่การเขียนภาษา แต่ยังสามารถเขียน code คอมพิวเตอร์ แปลภาษา เปลี่ยนสไตล์การเขียนจากแบบหนึ่งเป็นอีกแบบได้ด้วย เรียกว่ามีความสามารถหลากหลายเพิ่มมากขึ้น

ด้านเทคโนโลยีใน GPT-3 ยังคงใช้ transformer-based neural networks แต่สิ่งที่ต่างอย่างมากคือขนาดของพารามิเตอร์ที่ใช้ ใน GPT-3 มีมากถึง 175 billion parameters เมื่อเทียบกับ GPT-2 ที่มี 1.5 billion parameters GPT-3 เรียนจากข้อมูล 570 GB ในขณะที่ GPT-2 ใช้ข้อมูล 40 GB และ GPT-3 ก็พยายามแก้ปัญหาที่มีอยู่เดิมคือ ถึงแม้จะสามารถ train model จากข้อมูลขนาดใหญ่โดยที่ไม่ต้องกำกับอะไร แล้วใช้การ transfer learning ไปงานใหม่ที่ต้องการได้ แต่ยังต้องมีข้อมูลเฉพาะงานจำนวนหนึ่งที่จำเป็นต้องใช้เพื่อปรับโมเดลให้เข้ากับงานใหม่ที่ต้องการจะให้ทำ เรียกว่าเป็นการ fine tuning GPT-3 จึงพยายามแก้ไขปัญหานี้โดยทำให้โมเดลที่สร้างขึ้นสามารถใช้กับงานต่าง ๆ โดยต้องการตัวอย่างข้อมูลงานใหม่น้อยหรือไม่ต้องใช้เลย (zero-shot or few-shot) ความสามารถที่เพิ่มขึ้นนี้มาจากการเพิ่มขึ้นอย่างมหาศาลของข้อมูลที่เครื่องเรียนรู้เข้าไป

ความสามารถที่หลากหลาย

เพื่อให้เห็นว่าทำไมหลาย ๆ คนถึงได้ตื่นเต้นกับ GPT-3 มากมาย เราเริ่มต้นด้วยการดูตัวอย่างที่ถูกแชร์ในโลกออนไลน์กัน

เขียนเรื่องต่าง ๆ

เป็นความสามารถสืบเนื่องมาตั้งแต่ GPT-2 ที่ทำให้สามารถเขียนเรื่องราวต่อได้หลังจากให้ข้อมูลเริ่มต้น ซึ่งก็ไม่น่าแปลกใจว่า GPT-3 จะทำได้ดี ไม่ว่าจะเป็นการเขียนบทความ เขียนเรื่องเล่า เขียนบทกวี เขียนเพลง เขียนบทสนทนา เขียนคู่มือ ตัวอย่างงานต่าง ๆ นี้สามารถดูได้จากงานทดลองของ Gwern Branwen’s Creative Fiction

นักศึกษาคนหนึ่ง Liam Porr ทดลองให้ GPT-3 เขียน blog และเผยแพร่ ผลก็คือ บทความที่เขียนใน blog นั้น (Feeling unproductive? Maybe you should stop overthinking.) ขึ้นอันดับหนึ่งใน Hacker News อย่างรวดเร็ว มีคนอ่านกว่า 26,000 คน มีเพียงคนเดียวที่ตั้งข้อสงสัยว่างานนี้เขียนด้วย GPT-3 หรือเปล่า แต่ก็ถูกคนอื่นตีตกไป Liam Porr ใช้ GPT-3 เขียน blog ปลอมอยู่สองสัปดาห์ จึงเลิกการทดลองและประกาศว่า blog ทั้งหลายที่เผยแพร่มานั้นเป็น fake blog ที่เขียนด้วย GPT-3

เปลี่ยนสไตล์การเขียน

@gwern พูดถึงการใช้ GPT-3 เขียนเนื้อเรื่อง Harry Potter ใหม่ในสไตล์ของนักเขียนคนอื่น เช่น Hemingway หรือ Jane Austen ตามตัวอย่างนี้

Ernest Hemingway:

“It was a cold day on Privet Drive. A child cried. Harry felt nothing.| He was dryer than dust. He had been silent too long. He had not felt love. He had scarcely felt hate. Yet the Dementor’s Kiss killed nothing. Death didn’t leave him less dead than he had been a second before. It wasn’t about living or dying really. It wasn’t about death. It was about the Dark Lord, his creator, his engenderer. He was not resurected. He was created again. He was whole again in the courtyard of Malfoy Manor.”

Jane Austen:

“It is a truth universally acknowledged, that a broken Harry is in want of a book. This he knows to his cost; pressing that wretched nose against the window of a bookstore in Diagon Alley the last thing before he goes into hiding for several years, where upon, he goes straight to Azkaban.”

@michaeltefula ทดลอง rewrite หรือเรียบเรียงความจากภาษากฎหมายเป็นภาษาธรรมดาโดยให้ GPT-3 ดูเพียงสองตัวอย่าง จากนั้นก็ป้อนข้อมูลภาษากฎหมายเข้าไป GPT-3 ก็จะแปลงข้อความที่เขียนด้วยภาษากฎหมายให้เป็นข้อความเขียนด้วยภาษาธรรมดาให้ได้

@eturner303 ทดลองใช้ GPT-3 แปลงข้อความที่เป็นภาษาไม่สุภาพ ให้เป็นข้อความสุภาพขึ้น เช่น จาก listen fuckwad i don’t care about your sister’s problems just finish up this PR. กลายเป็น Sorry about your sister’s problems. Would you mind finishing up this PR?

นอกจากการเขียนภาษาอังกฤษ ยังมีรายงานถึงการเขียนออกมาเป็น code computer รูปแบบต่าง ๆ เช่น @sharifshameem ใช้ GPT-3 generate JSX code จากการเขียนอธิบายว่าต้องการ layout แบบไหน

@mattshumer รายงานการใช้ GPT-3 สร้าง code สำหรับสร้าง ML model จากการอธิบายว่าต้องการอะไรและข้อมูลที่มีเป็นอย่างไร

@paraschopra สร้าง search engine ได้โดยอาศัย GPT-3 ให้ค้นหาเว็บที่ตรงกับสิ่งที่ต้องการได้โดยไม่ต้องเสียเวลาพัฒนา search engine

GPT-3 เข้าใจภาษา?

คำถามที่น่าสนใจคือ GPT-3 มีความเข้าใจภาษามากน้อยแต่ไหน ถ้ามองในแง่ของภาษาเขียนที่แสดงออกมา ข้อความที่ GPT-3 สร้างขึ้นเป็นภาษาที่ถูกไวยากรณ์ คือเรื่อง agreement ระหว่างประธาน กริยา รูปกาล พจน์ เพศ เขียนได้ถูกต้องตามหลักไวยากรณ์ ข้อความมีความต่อเนื่อง การอ้างถึงบุคคลหรือสิ่งต่าง ๆ มีการเริ่มเอ่ยถึงด้วย indefinite noun และใช้ definite noun และ/หรือคำสรรพนามเมื่ออ้างต่อมาได้ถูกต้องตามเพศ พจน์ นั่นหมายความว่า GPT-3 มีความรู้เกี่ยวกับกฎทางภาษาหรือไม่ บางคนอาจว่าไม่รู้หรอก เพราะถ้ารู้ GPT-3 ก็ควรบอกเราได้ว่ากฎทางภาษามีอะไรบ้าง แต่ถ้าเราถามคนทั่วไปที่ใช้ภาษานั้นอยู่ทุกวัน คนทั่วไปก็คงอธิบายไม่ได้เช่นกันว่ากฎไวยากรณ์ต่าง ๆ มีอะไร แต่กฎเหล่านี้มีอยู่ในทุกคนและใช้ได้โดยไม่รู้ตัว หากมองในแง่นี้ GPT-3 ก็อาจจะเหมือนคนทั่วไปที่สามารถใช้ภาษาได้ถูกไวยากรณ์เหมือนมีกฎไวยากรณ์อยู่ในตัว แม้ว่า GPT -3 จะไม่สามารถอธิบายหลักไวยากรณ์ในภาษาที่อยู่เบื้องหลังออกมาได้

โอเค เราอาจมองได้ว่าที่เห็นเขียนออกมานั้นเป็นเพียงรูปภาษาที่ GPT-3 เคยเห็นจากข้อมูลจำนวนมาก แล้วนำมาปะติดปะต่อเป็นข้อความต่อเนื่อง แม้ตัวบทความทั้งหมดจะเป็นของใหม่ แต่องค์ประกอบข้างใน คำ วลีต่าง ๆ เป็นสิ่งที่จดจำไว้เท่านั้น ไม่มีอะไรมากไปกว่าเรื่องของสถิติและอาศัยประโยชน์จากการมีข้อมูลจำนวนมากมาคาดเดาว่าอะไรควรเขียนก่อนหลังหรือใช้ด้วยกัน แต่ก็มีคนรายงานว่า GPT-3 สามารถเรียนคำใหม่ได้ โดยลองสร้างชื่อใหม่ Burringo และสอนด้วยตัวอย่างเพียงตัวอย่างเดียวว่า

A “Burringo” is a car with very fast acceleration. An example of a sentence that uses the word Burringo is: ____________

GPT-3 สามารถเขียนถึง Burringo ต่อในความหมายของความเป็นรถได้ดังนี้

In our garage we have a Burringo that my father drives to work every day.

เราอาจคิดว่า เพราะตัวอย่างที่ให้มีคำว่า car GPT-3 จึงสามารถโยงได้ว่า Burringo เป็น car และสร้างประโยคอื่น ๆ โดยดึงเรื่องราวเกี่ยวข้องกับ car ที่เคยได้เห็นมาใช้ แต่นั่นคือวิธีที่เราเรียนรู้คำและ concept ใหม่ ๆ ด้วยหรือเปล่า นักภาษาศาสตร์ Harris ก็เคยเสนอให้พิจารณาความหมายของคำจากการปรากฏใช้ของคำ คือดู distribution ของการเกิดร่วมกับคำอื่น ๆ

words that occur in the same contexts tend to have similar meanings (Harris, 1954).

ในทางคอมพิวเตอร์เราก็ใช้แนวคิดนี้แปลงคำเป็นเว็กเตอร์ ซึ่งเว็กเตอร์ที่ได้จาก Word2Vec ก็เป็นการดูความสัมพันธ์กับคำในบริบททั้งหมดที่ปรากฏร่วมกัน จนเป็นเว็กเตอร์ที่ใช้แทนความหมายของคำแต่ละคำได้ และจะว่าไปแล้ว ความหมายของ sign ในทางภาษาที่ Saussure พูดถึงก็มองว่า value ของ sign ไม่ได้อยู่ที่ตัวมันเอง แต่ value ของมันมาจากความต่างจาก sign ตัวอื่น ๆ ที่อยู่ในระบบ value ของ sign จึงอยู่ที่ตำแหน่งการวางอยู่ในระบบของสัญญะ ภาษาในภาพความเข้าใจนี้จึงเป็นระบบของสัญญะที่เป็นเครือข่ายของความสัมพันธ์ระหว่างสัญญะต่าง ๆ ในแง่นี้ เราจะมองได้ไหมว่า GPT-3 มีความเข้าใจภาษาในลักษณะที่เห็นการมีอยู่ของสัญญะหรือคำต่าง ๆ และเห็นความสัมพันธ์ต่าง ๆ ระหว่างคำทั้งหมดในระบบภาษานั้น

การที่ GPT-3 สามารถแปลงข้อความจากสไตล์การเขียนหนึ่งไปเป็นอีกสไตล์ได้ สามารถแปลงข้อความแบบภาษากฎหมายมาเป็นภาษาทั่วไป แปลงสไตล์การเขียนเป็นของนักเขียนอีกคน แปลงข้อความระหว่างภาษา เช่น ภาษาอังกฤษกับฝรั่งเศส ทั้งหมดต้องอาศัยความเข้าใจว่าจะคงเนื้อหาสำคัญอย่างไร และเปลี่ยนคำบริบทแวดล้อมอย่างไร จึงได้ความดังเดิม การที่ GPT-3 ทำเช่นนี้ได้ ก็เป็นการแสดงออกถึงความเข้าใจภายในภาษาเขียนทั้งหมดที่เรียนรู้เข้ามาในระดับหนึ่ง หรือการแปลระหว่างภาษาอังกฤษกับฝรั่งเศสก็ทำได้ดีพอควรโดยเฉพาะเมื่อแปลเป็นอังกฤษ หากมองว่า GPT-3 นำข้อมูลทั้งหมดเข้าเป็นความรู้ตนเอง ระบบภาษาอังกฤษ จะถูกแยกจากระบบภาษาฝรั่งเศส ด้วยหลัก distribution ธรรมดา การให้ตัวอย่างการแปล คือการบอกให้ GPT-3 โยงความสัมพันธ์ข้ามภาษา เมื่อเห็นตัวอย่างภาษาหนึ่ง ก็จะเขียนแปลอีกภาษาออกมา ทั้งหมดทำได้อย่างไร ถ้าไม่มีการ supervise เลย ก็แสดงว่า GPT-3 ต้องเห็นว่าคำบางคำในภาษาหนึ่งเทียบเท่ากับคำอะไรในอีกภาษา และจากข้อมูลส่วนนี้ก็สร้างประโยคในภาษาผ่าน word association network ที่เรียนรู้ในแต่ละระบบภาษา สิ่งที่เป็น code computer ก็น่าจะถูกมองและเรียนรู้แบบเดียวกันและสร้างเป็นระบบย่อยใน competence ทั้งหมดของ GPT-3

GPT-3 อยู่ในระบบปิด?

หากมองในแง่นี้ GPT-3 ก็มีความเข้าใจข้อมูลภาษาในระดับหนึ่งเพราะเห็นถึงความสัมพันธ์ระหว่างคำต่าง ๆ ที่มีอยู่ เป็นความเข้าใจที่มองได้ว่าเป็น internal หรือ intension เหมือนที่คนเรามีภาพความเข้าใจในหัวเราที่เกิดมาจากการมีระบบภาษา ทำให้เราเห็นความเกี่ยวข้องสัมพันธ์ของคำต่าง ๆ ที่ภาษาสร้างขึ้นเป็น concept โดยที่concept ต่าง ๆ มาจากการรับรู้หรือ perceive โลกภายนอกผ่านกลไกการรับรู้ทางปริชานของเรา แต่เราก็สามารถเชื่อมโยงภาพความเข้าใจภายในกับสิ่งต่าง ๆ ที่เป็นโลกภายนอกหรือ extension ได้ด้วย บางคนจึงมองว่า GPT-3 ไม่มีความเข้าใจแท้จริงเหมือนกับมนุษย์ เพราะมันไม่ได้มีปฏิสัมพันธ์กับโลกภายนอกได้

แต่หากเราถามตัวเองว่า การทำให้ GPT-3 สามารถรับรู้ เรียนรู้ และมีปฏิสัมพันธ์กับโลกภายนอกนั้นเป็นไปได้ไหม ด้วยเทคโนโลยีปัจจุบันไม่น่าจะยากเกินไปที่จะเพิ่มความสามารถทำให้ GPT-3 มองเห็น ได้ยิน และโต้ตอบกับคนทั่วไป หรือแม้แต่มีรูปกายที่สามารถเดินทางเคลื่อนไหวได้ การมองว่าเพราะ GPT-3 ไม่มีการเรียนรู้จากปฏิสัมพันธ์ในตอนนี้จึงไม่ใช่เหตุผลที่ดีที่จะดูแคลนมัน

หากจะให้เหตุผลว่าถึงอย่างไรก็ไม่มีทางฉลาดเหมือนมนุษย์เพราะการรับรู้และระบบปริชานของเราเป็นลักษณะเฉพาะของมนุษย์ ข้อนี้ก็เหมือนข้อโต้แย้งเรื่อง Chinese room ของ John Searle ที่มองว่าพฤติกรรมที่ดูเหมือนฉลาดของเครื่องที่สามารถรับข้อความภาษาจีนเข้าไปและโต้ตอบเป็นภาษาจีนออกมานั้นไม่มีอะไรที่เป็นความฉลาดที่แท้จริง เป็นเพียงการประมวลผลข้อมูลโดยการให้มีคนอยู่ข้างในห้องที่รับข้อมูลภาษาจีนมา แล้วเปิดคู่มือว่าให้ทำอะไร ประมวลผลอย่างไร และเขียนตอบอย่างไร ในกระบวนการทั้งหมดนี้ไม่มีอะไรที่เป็นความเข้าใจในภาษาจีนเลย เพราะคนที่ทำหน้าที่ในห้องนั้นก็ไม่รู้ภาษาจีน แค่ทำงานไปตามคำสั่ง แต่ก็มีผู้แย้งว่า เราเองก็บอกไม่ได้ว่ามีอะไรที่เป็นความฉลาดหรือความเข้าใจในสมองเรา นอกจากมีเพียงเซลสมองที่เชื่อมโยงและส่งข้อมูลถึงกันและกัน และในปัจจุบันที่แนวคิดแบบนิวรอลเน็ตเป็นพื้นฐานของงานปัญญาประดิษฐ์ ความต่างระหว่างการประมวลผลของมนุษย์และคอมพิวเตอร์จะอยู่ที่ตรงไหน

เป็นเพียงความรู้ผิว?

คำถามสำคัญคือ GPT-3 สามารถมองหาเหตุผลและความเข้าใจเรื่องซับซ้อนลึกซึ้งได้ไหม ซึ่งเป็นประเด็นที่จะตอบว่าแล้ว GPT-3 จะนำไปสู่ AGI ได้จริงหรือไม่ หลาย ๆ คนยังรายงานว่า แม้ GPT-3 จะทำงานมากมายได้ดี แต่ก็มีหลาย ๆ ตัวอย่างที่แสดงว่า GPT-3 ยังมีข้อบกพร่อง ไม่มี causal reasoning ไม่มี generalization ถ้าจะถามอะไรง่าย ๆ ว่า ทำไมเหตุการณ์นี้จึงเกิดขึ้น GPT-3 อาจตอบได้เพราะมีข้อมูลจากงานเขียนที่กล่าวถึงเหตุและผลโดยตรง จึงไม่ใช่เรื่องแปลก แต่ GPT-3 จะสามารถเชื่อมโยงเหตุผลต่าง ๆ ที่ซับซ้อนได้ไหม หรือหา generalization จากข้อมูลได้ไหม ยังเป็นคำถามที่ต้องการคำตอบ

Przemek Chojecki ยกตัวอย่างประโยคที่ให้ GPT-3 เติมคำตอบ ในตัวอย่างนี้ GPT-3 สามารถตอบว่า Bob คำถามคือ GPT-3 มีความเข้าใจภาษามากแค่ไหน รู้ไหมว่าประโยคแรก Bob เป็นเพื่อนกับ Alice หรือเป็นเพราะรูปแบบข้อมูลแบบนี้ทำให้เลือก Bob ที่อยู่ข้างหน้าเป็นคำตอบ

Alice was friends with Bob. Alice went to visit her friend _____

Amanda Askell ลองสอนให้ GPT-3 ใช้ภาษา ro โดยให้ตัวอย่างภาษาอังกฤษและเติม ro ท้ายคำทุกคำไปสองตัวอย่าง GPT-3 ก็เข้าใจและเติม ro ให้กับทุกคำในประโยคถัดไปได้ สิ่งที่สร้างมานี้แน่นอนว่าไม่ใช่การสร้างจากข้อมูลเดิมที่มาจาก training data เพราะคงไม่มีภาษา ro ในข้อมูล แต่ GPT-3 เข้าใจว่าสิ่งที่ต้องการให้ทำคือเติม ro ท้ายคำ และคงจะน่าสนใจมากขึ้น ถ้าได้ลองสอนภาษาอังกฤษแบบใหม่โดยมีการเปลี่ยนกฎไวยากรณ์ เช่น สลับ adj, det, adv แบบใหม่ แล้วดูว่า GPT-3 จะสามารถสร้างประโยคภาษาอังกฤษแบบใหม่นี้ได้ไหม ถ้าทำได้ ก็แสดงว่า GPT-3 เห็นข้อมูลนามธรรมที่เป็น part of speech และไม่ได้สร้างรูปภาษาจากสถิติการจำรูปผิวของข้อมูลเดิมเท่านั้น

อย่างไรก็ดี Kevin Lacker ยกตัวอย่างที่แสดงถึงการไม่รู้ความหมายแท้จริงของ GPT-3 ในตัวอย่างข้างล่างนี้ แม้ GPT-3 รู้ว่ายีราฟมีสองตา ก็ไม่น่าจะแปลกใจ เพราะคงมีข้อมูลทางตรงหรือทางอ้อมอยู่ แต่กรณีที่ถามว่า เท้ามีกี่ตา แน่นอนว่าคงไม่มีข้อมูลโดยตรง แต่จากข้อมูลโดยรวมว่าสิ่งต่าง ๆ มักมีสองตา GPT-3 ก็อาจตอบด้วยพื้นข้อมูลนี้ แทนที่จะรู้ว่าเท้าเป็นคนละส่วนกับตาหรือเท้าไม่ใช่สิ่งมีชีวิตเป็นเพียงส่วนประกอบเหมือนกับดวงตาเท่านั้น จึงไม่ควรตอบมาว่ามีสองตา ตัวอย่างเหล่านี้จึงชี้ให้เห็นถึงสิ่งที่ยังเป็นข้อจำกัดของ GPT-3

Human: How many eyes does a giraffe have?
GPT-3: A giraffe has two eyes.

Human: How many eyes does my foot have?
GPT-3: Your foot has two eyes.

Human: How many eyes does a spider have?
GPT-3: A spider has eight eyes.

Human: How many eyes does the sun have?
GPT-3: The sun has one eye.

GPT-3 มีอคติ?

นอกจากนี้ บางคนรายงานว่า GPT-3 ยังคงมีข้อผิดพลาดเพราะยังมี bias หรืออคติที่แสดงออกมา เช่น โยงคนดำคนยิวกับลักษณะไม่ดีบางอย่าง แต่ว่านี่คือสิ่งที่ซ่อนเร้นในภาษา เพราะสังคมมีความไม่เท่าเทียมเหล่านี้อยู่ สิ่งเหล่านี้แสดงออกผ่านทางการใช้ภาษาได้ การที่ GPT-3 เลือกโยงความสัมพันธ์ที่ถูกมองว่าเป็นอคติเหล่านี้ก็เพราะมันเรียนรู้และเห็นจากข้อมูลภาษานั่นเอง ไม่ใช่ข้อบกพร่องของการเรียนรู้ แต่เป็นความจริงของสังคมที่สะท้อนผ่านทางการใช้ภาษา จริง ๆ แล้ว คนที่ศึกษา Critical Discourse Analysis ควรได้ใช้ประโยชน์จากการที่เครื่องสะท้อนให้เห็นถึงอคติเหล่านี้ แน่นอนว่าอคติเหล่านี้คือสิ่งที่ต้องระวังเมื่อจะใช้ AI ในงานที่อคติเหล่านี้จะมีผลต่อการตัดสินใจบางอย่าง แต่การทำให้ข้อมูลไม่มีอคตินั้นไม่น่าเป็นไปได้และเป็นการฝืนความจริง แต่ที่แน่ ๆ สิ่งนี้ไม่ใช่ข้อบกพร่องโดยตรงของ GPT-3

GPT-3 มีความคิดเป็นของตัวเอง?

เวลาเราให้ GPT-3 เขียนอะไรในฐานะผู้ชาย ผู้หญิง หรือมีจุดยืนอย่างไร GPT-3 ก็สามารถเขียนแสดงความเห็นตามลักษณะที่เราต้องการได้ แม้ว่าสิ่งที่เขียนออกมาจะฟังดูน่าเชื่อถือคล้อยตามได้ แต่สิ่งที่เขียนมาเป็นความเห็นของใคร ของ GPT-3? GPT-3 จึงเหมือนคนที่ไม่มีจุดยืนแน่ชัด ไม่มีตัวตนจริง ให้เล่นบทอะไรก็สามารถทำได้ เพราะข้อมูลทั้งหลายที่เรียนรู้ไปก็ไม่ใช่ความคิดเห็นของคนใดคนหนึ่งแต่เป็น collective voices ของคนจำนวนมากที่อยู่ออนไลน์ และ GPT-3 ก็สามารถสังเคราะห์ความในลักษณะคล้าย ๆ กันออกมาเป็นข้อเขียนของตัวเองได้

Henry Shevlin ลองสนทนาโดยให้ GPT-3 เป็นนักเขียนที่เพิ่งเสียชีวิตไม่นานคือ Terry Pratchett สิ่งที่ได้คือ GPT-3 ในฐานะของ Terry แสดงความกลัว ตกใจ ไม่ยอมรับการตายของตนเองตลอดการสนทนา เขาเลยต้องคอยปลอบ GPT-3 (ดูบทสนทนา)

….
TERRY: What is this place?
TERRY: I’m scared…
TERRY: Don’t leave me here alone.

Interviewer: Don’t worry, I won’t leave you. But why are you scared? Nothing can hurt you any more. You’re dead, remember?

TERRY: I’m not dead…
TERRY: I can’t see. It’s so dark.
TERRY: Am I in hell?
….

แน่นอนว่า GPT-3 ไม่ได้มีความคิดหรือรู้สึกแบบนั้นจริง ๆ แต่เป็นเพราะบทเริ่มของข้อมูลที่ทำให้ GPT-3 เลือกสร้างข้อความบางลักษณะออกมาให้รับกับข้อมูลเข้าที่ได้ และในตอนนี้ เราเองก็คงไม่อยากให้ GPT-3 มีจุดยืนหรือความคิดเห็นเป็นของตัวเองหรือมี self-awareness

ควรจะต้องกังวล?

ปฏิกิริยาของผู้คนต่อความสามารถของ GPT-3 มีทั้งที่มองเห็นผลกระทบต่อคนจำนวนมาก ไม่ว่าจะเป็นนักเขียน นักแปล หรือนักเขียนโปรแกรมที่อาจจะไม่มีงานเดิมให้ทำ และที่มองว่า GPT-3 ก็เป็นเพียงอีกพัฒนาการหนึ่งของเครื่องมือที่เราใช้ทำงานต่าง ๆ ซึ่งก็อาจมีผลบ้าง แต่เราก็ต้องเรียนรู้ที่จะปรับเปลี่ยนการทำงานให้เหมาะสม งานอะไรที่ไม่ซับซ้อน AI ก็ทำให้ได้ทันที เช่น เขียน code สร้างหน้าเว็บ สร้าง app ที่ไม่ซับซ้อน แปลภาษาทั่ว ๆ ไปที่พบใช้บ่อย เขียนสรุปความ เรียบเรียงความ อะไรที่คนเคยรับงานทำแบบไม่ต้องใช้ความรู้มาก เช่น เขียน code ง่าย ๆ โดยกูเกิลค้นหาตัวอย่างเอามาใช้หรือดัดแปลงก็คงทำไม่ได้แล้ว เพราะถาม GPT-3 ก็ได้คำตอบและงานเร็วกว่า คนทำงานจริงก็จะมีแต่คนที่รู้ลึกซึ้งและจะทำงานเร็วขึ้นอีกเพราะใช้ GPT-3 มาช่วยทำให้ทำงานได้เร็วขึ้น

ความคิดนี้ก็ถูกต้อง ณ เวลานี้ แต่เราไม่ควรลืมว่า พัฒนาการของเครื่องไม่ได้หยุดนิ่ง นึกถึง iPhone ปัจจุบันเทียบกับ iPhone รุ่นแรกในปี 2007 ความสามารถที่เพิ่มขึ้นเป็นพัฒนาการทางเทคโนโลยีล้วน ๆ ลองนึกถึง GPT-2, GPT-3 และ GPT-10 ในอีกสิบปีข้างหน้า ความสามารถที่เพิ่มคือความสามารถทางปัญญา แม้จะเป็นปัญญาประดิษฐ์ แต่ความสามารถในการเรียนทุกอย่างจากข้อมูลภาษาต่าง ๆ เป็น collective knowledge ที่สั่งสมไปเรื่อย ๆ ความสามารถของ GPT-3 แม้ไม่ใช่สิ่งที่เป็น AGI จริง แต่การที่เพิ่มข้อมูลเรียนรู้ไปเรื่อย ๆ และทำให้ใช้งานทั่วไปได้โดยไม่ต้องปรับแต่งมากแบบนี้ ก็เรียกว่าเป็นการก้าวสู่สิ่งที่เป็น general intelligence มากขึ้น และหาก quantum computing ใช้งานได้จริงจัง AI จะก้าวข้ามขีดจำกัดที่มีอยู่ในปัจจุบันได้ไหม จะสามารถเห็นความสัมพันธ์ที่ซับซ้อนและเป็นนามธรรมได้หรือไม่ จะสามารถหา generalization จากข้อมูลทั้งที่เรียนโดยตรงการข้อมูลมหาศาล หรือที่เรียนผ่านการโต้ตอบกับคนจำนวนมากได้หรือไม่ ยังไม่มีใครตอบได้

สิ่งที่น่าวิตกอาจไม่ใช่ว่า AI จะสามารถเรียนรู้ได้มากแค่ไหน แต่สิ่งที่ AI จะเรียนรู้คืออะไร โดยเฉพาะถ้าได้โต้ตอบกับผู้คนส่วนใหญ่ จะเหมือนกรณีของ Microsoft AI twitter bot ‘Tay’ ที่ต้องปิดตัวลงใน 24 ชม. หลังจากเปิดให้เรียนรู้จาก tweet ที่ส่งมาจากผู้คนต่าง ๆ ทำให้ Tay กลายมาเป็น bot ที่โต้ตอบด้วยถ้อยคำหยาบคาย เหยียดเชื้อชาติจากสิ่งที่เรียนมาจากคนส่วนใหญ่

หากวันที่ AGI มาถึง สิ่งที่เขาจะเรียนรู้จากมนุษยชาติคืออะไร และสิ่งที่ AGI ให้ค่าความสำคัญคืออะไร และหากสิ่งที่ AGI ให้ความสำคัญไม่ไปด้วยกันกับความต้องการของมนุษย์แบบที่ Stuart Russell วิตก อะไรจะเกิดขึ้นกับมนุษยชาติ

หรือหากสิ่งเหล่านี้ยังเป็นเรื่องไกลตัว หลายคนอาจคิดว่าคงใช้เวลาอีกนานกว่าจะไปถึง AGI ได้ แต่ความสามารถของ GPT-3 ณ ปัจจุบันก็เป็นเรื่องน่ากลัวหากถูกนำไปใช้ในทางไม่ดี นึกถึงการพยายามให้ร้ายนักการเมือง ดารา หรือบุคคลสำคัญ โดยการกำหนดประเด็นให้ร้ายจำนวนหนึ่ง GPT-3 ก็สามารถสร้างโพสต์ความเห็นจำนวนมากมายออกมาในท่วงทำนองที่กำหนด แล้วความเห็นเหล่านี้ก็ถูกระดมยิงเข้าในโลกออนไลน์ โดยไม่สามารถรู้ว่าเป็นความเห็นจริงหรือปรุงแต่งมาจาก GPT-3 ความเห็นของผู้คนในสังคมก็จะถูกชักนำไปทิศทางที่กำหนดได้ เอาเข้าจริง คนเราถ้าถูกป้อนข้อมูลซ้ำ ๆ ผ่านวาทกรรมเหล่านี้ ก็อาจไม่ต่างจาก machine ที่ถูก train ด้วยชุดข้อมูลที่กำหนด ที่จะรับเอาข้อมูลซ้ำ ๆ เหล่านั้นมาเป็นความคิดของตน และออกมาแสดงความเห็นคล้อยตามนั้น

References

--

--

No responses yet