GPT-4 แสงแรกแห่ง AGI
หลังการเปิดตัวของ GPT-3 ในปี 2020 ผู้คนได้รับรู้ถึงความสามารถทางภาษาอันหลากหลายของ AI. แต่ GPT-3 ก็ยังมีข้อจำกัด ไม่เข้าใจเหตุผล ไม่เข้าใจว่าอะไรจริงไม่จริง. ต่อมา OpenAI ได้เปิดตัว ChatGPT ในวันที่ 30 พ.ย. 2022 โดยใช้ GPT-3.5 มาปรับแต่งให้เรียนรู้จากบทสนทนาที่เตรียมไว้ด้วยวิธีการที่เรียกว่า reinforcement learning from human feedback เพื่อให้ ChatGPT ทำหน้าที่เป็น chatbot ที่ตอบคำถามหรือโต้ตอบกับผู้ใช้ในแนวทางที่เหมาะสมและตอบความต้องการผู้ใช้มากที่สุด. ซึ่ง ChatGPT ก็ได้สร้างกระแสความตื่นตัวและตกตะลึงในความสามารถที่เพิ่มมากขึ้นของ AI. แต่ปัญหาเรื่องที่ ChatGPT แยกไม่ออกระหว่างความจริงกับจินตนาการก็เป็นเรื่องที่ทำให้เห็นความไม่สมบูรณ์พร้อมของ ChatGPT. แต่หลังจากนั้นอีกไม่นาน OpenAI ก็ได้เปิดตัว GPT-4 ในวันที่ 14 มีนาคม 2023. เป็น large language model ที่ใหญ่มากขึ้น แต่ไม่ได้ให้ข้อมูลคุณสมบัติของ GPT-4 ว่ามีพารามิเตอร์เพิ่มเท่าไร ฝึกจากข้อมูลเพิ่มขึ้นเท่าไร และเป็นข้อมูลอะไรบ้าง. สิ่งที่นำเสนอมีเพียงความสามารถเด่นที่เพิ่มขึ้นมา
ศักยภาพของ GPT-4
OpenAI ได้ทดสอบความสามารถของ GPT-4 เทียบกับ GPT-3.5 ที่ใช้ใน ChatGPT โดยให้ทำแบบทดสอบประเภทต่าง ๆ และแสดงผลในรูปข้างล่าง (Bubeck et al., 2023). ซึ่งจะเห็นว่า GPT-4 ทำได้ดีกว่าทั้งหมด โดยเฉพาะในหลายสาขาที่เห็นพัฒนาการแบบก้าวกระโดดใน GPT-4 เช่น คณิตศาสตร์ กฎหมาย การแพทย์ จิตวิทยา รวมถึงการคิดวิเคราะห์ การใช้เหตุผล อย่างเช่น LSAT (Law School Admission Test) ซึ่งเป็นข้อสอบวัด critical reading, analytical reasoning, logical reasoning, และ persuasive writing skills GPT-4 ก็ทำคะแนนได้ดีกว่า GPT-3.5 มาก ผลการสอบเหล่านี้แสดงว่า GPT-4 มีพัฒนาการด้านการคำนวณ การคิดและใช้เหตุผลในการตอบคำถามต่าง ๆ มากขึ้นอย่างชัดเจน
แต่คณะผู้วิจัยก็พบว่าแม้ GPT-4 จะทำคะแนนได้มากขึ้น ก็ยังมีปัญหากับข้อสอบบางข้อที่เป็นตัวเลขและสูตรซับซ้อนมาก. ในตัวอย่างข้างล่าง ถึง GPT-4 จะเลือกแนวทางวิเคราะห์ได้ถูกแต่การคำนวณตัวเลขยังผิดอยู่ (โจทย์ข้อนี้ ChatGPT ตอบผิดตั้งแต่ต้นเพราะเลือกวิธีคำนวณผิด)
การทดสอบความรู้ด้วยการให้แก้โจทย์ที่กำหนดหรือถามความเข้าใจในเรื่องต่าง ๆ เป็นตัวชี้ว่า GPT-4 มีความรู้ความเข้าใจในเนื้อหาสาขาวิชาต่าง ๆ สามารถประมวลผลและตอบคำถามได้ ความรู้เหล่านี้อาจได้มาจากข้อมูลจำนวนมากที่ได้อ่านมา. และจากข้อจำกัดเดิมของ GPT-3.5 ที่ไม่สามารถเข้าถึงข้อมูลใหม่หรือข้อมูลปัจจุบันได้ จึงมีการแก้ไขให้ GPT-4 สามารถใช้เครื่องมือหรือ API เพื่อช่วยแก้ปัญหา เช่น ให้ GPT-4 สามารถใช้ search engine เพื่อหาข้อมูลในอินเทอร์เน็ตเพิ่มได้, ให้ GPT-4 ใช้ฟังก์ชั่นเครื่องคิดเลขเพื่อช่วยคำนวณได้. ด้วยวิธีการนี้ทำให้ GPT-4 สามารถทำงานได้ถูกต้องมากขึ้น และที่น่าสนใจคือ GPT-4 สามารถใช้เครื่องมือเหล่านั้นได้โดยไม่ต้องบอกวิธีใช้ บอกเพียงแค่ว่ามีเครื่องมืออะไร เครื่องมือนั้นใช้ทำอะไร
ความสามารถในการใช้เครื่องมือต่าง ๆ ทำให้ GPT-4 ทำงานที่ซับซ้อนได้ เช่น สามารถเข้าถึงปฏิทินตารางงานของผู้ใช้, ติดต่อบุคคลอื่นเพื่อส่งอีเมลขอนัดหมายในวันที่ว่าง, ติดต่อจองร้านอาหาร แล้วส่งรายละเอียดข้อมูลนัดหมายให้คนที่เกี่ยวข้อง ทั้งหมดทำได้เพราะ GPT-4 สามารถวิเคราะห์ว่างานที่กำหนดให้ทำนั้นประกอบด้วยงานย่อยๆ อะไรบ้าง งานอะไรควรทำก่อนหรือหลัง และสามารถเรียกใช้ API สำหรับงานที่เกี่ยวข้องได้
เข้าสู่ Multimodal
GPT-4 ไม่ได้ถูกจำกัดความสามารถไว้ที่ text อย่างเดียวแบบเดิม. GPT-4 เป็น multimodal คือสามารถรับข้อมูลจากภาพที่เห็นได้ด้วย ในการสาธิตของ OpenAI (https://youtu.be/outcGtbnMuQ) เพียงแค่เขียนภาพร่างของเว็บไซต์ที่อยากได้ GPT-4 ก็สามารถเขียน code เพื่อสร้างเว็บไซต์ตามที่เห็นได้. หรือเมื่อเห็นภาพ GPT-4 ก็สามารถวิเคราะห์สิ่งที่อยู่ในภาพและทำความเข้าใจภาพนั้นได้ เช่น เมื่อเห็นภาพของบนโต๊ะครัวก็บอกได้ว่าสิ่งที่เห็นมีอะไรบ้าง แล้วจะเอามาทำอาหารอะไรได้บ้าง
หรือเมื่อเห็นองค์ประกอบในภาพที่มีข้อความประกอบตามตัวอย่างข้างล่าง GPT-4 ก็เข้าใจมุกตลกที่บรรยายในภาพนี้ สามารถอธิบายได้ว่าทำไมภาพพร้อมคำบรรยายนี้จึงตลก
มี Common sense?
ในงานที่ดูเหมือนต้องใช้ common sense GPT-4 ก็แสดงให้เห็นว่าเก่งกว่า GPT-3.5 อย่างชัดเจน เช่น ตัวอย่างที่ให้จัดวางซ้อนของที่กำหนดให้. ในขณะที่ ChatGPT ให้วางไข่บนตะปู GPT-4 เลือกวางหนังสือไว้ล่างสุดโดยให้เหตุผลว่ามีขนาดใหญ่และเป็นฐานรองแน่นหนาได้ แล้วจึงวางกระจายไข่ทั้ง 9 ฟองเป็น 3 แถว แถวละ 3 ฟองเพื่อแบ่งกระจายรับน้ำหนัก
หรือเมื่อมีคนทดลองให้ข้อมูลว่าเมื่อเอากล่องแดงวางบนโต๊ะ เอากล่องสีส้มวางบนกล่องแดง และเอากล่องสีเหลืองวางบนกล่องส้ม จากนั้นวางกล่องน้ำเงินข้างกล่องส้ม แล้วถามว่าจะเกิดอะไรขึ้น. GPT-4 ก็บอกได้ว่ากล่องนำ้เงินจะหล่นลงในขณะที่ GPT-3.5 ไม่เข้าใจเรื่องนี้. จึงดูเหมือน GPT-4 มีความเข้าใจในโมเดลที่ไม่ใช่แค่เรื่องของภาษาเท่านั้น. แต่อย่างไรก็ดี เมื่อทดลองต่อไปก็ยังพบกรณีที่ GPT-4 ก็ไม่ได้เข้าใจโมเดลโลกภายนอกทุกอย่างอยู่
Theory of Mind?
และเมื่อมองจาก Theory of Mind หรือความสามารถในการเข้าใจจิตใจของผู้อื่น GPT-4 สามารถบอกได้ว่าจากข้อมูลเหตุการณ์ที่เล่ามา ในใจของแต่ละคนในเรื่องนั้นกำลังคิดอะไรอยู่ ไม่ว่าจะเป็น John, Mark หรือแม้แต่แมว?
Self-reflection
มีผู้ทดลองให้ GPT-4 ประเมินคำตอบตัวเองแล้วได้คำตอบใหม่ที่ดีกว่าเก่า เรียกวิธีการนี้ว่า self-reflection (Shinn et al., 2023) หรือ self-improve (Huang et al., 2023) หลักคิดคือมองว่าแม้มนุษย์เองเวลาทำงานก็ผิดพลาดได้แต่เมื่อเข้าใจว่าผิดอย่างไร ก็จะปรับทำงานได้ดีขึ้น. GPT-4 ก็สามารถปรับผลให้ดีขึ้นจากการประเมินผลที่ได้จากตัวเอง ความสามารถนี้ของ GPT-4 เป็นอีกสิ่งที่ emerge หรือเกิดขึ้นมาเอง. ตัวอย่างข้างล่างเป็นตัวอย่างง่าย ๆ ที่แสดงว่า GPT-4 สามารถประเมินผลตัวเองและแก้ไขบทกวีที่เขียนให้ถูกตามสั่งได้
AutoGPT
จากการที่ GPT-4 สามารถวิเคราะห์ขั้นตอนงานและเรียกใช้เครื่องมือต่าง ๆ ได้ จึงไม่แปลกที่จะมีการสร้าง GPT ที่ทำงานโดยอัตโนมัติ คือ ใส่ prompt ให้ตัวเองได้ หลักการคือเมื่อกำหนดโครงงานให้ทำแล้ว GPT-4 สามารถวิเคราะห์ได้ว่างานนั้นมี task หรืองานย่อยที่ต้องทำอะไรบ้าง จากนั้นจึงเรียก AI agent ใหม่มารับผิดชอบทำงานย่อยนั้น AI agent แต่ละตัวจะรู้ว่าถ้าต้องทำงานนั้น ควรใส่ prompt หรือพิมพ์ข้อความถามอย่างไร กระบวนการถามเองตอบเองเช่นนี้จะทำไปเรื่อย ๆ จนเสร็จภารกิจของงานย่อยนั้น twitter นี้แสดงตัวอย่างจากคนที่ใช้ AutoGPT เชื่อมต่อ API การสังเคราะห์และรู้จำเสียง ทำให้ใช้ GPT-4 สั่งพิซซ่าให้ได้ โดยถามพิซซ่าที่ต้องการ แล้วค้นดูร้านละแวกบ้าน จากนั้น AI agent อีกตัวจะรับงานไปโทรศัพท์สั่งพิซซ่ากับร้านที่เลือก
ใกล้ถึง AGI แล้ว?
ความสามารถที่ขยับสูงกว่าเดิมมาก ๆ เพียงแค่อาศัยปัจจัยหลักคือการอ่านหรือเรียนรู้จากปริมาณข้อมูลที่มากยิ่งขึ้น ทำให้ GPT-4 ฉลาดมากขึ้น มีความรอบรู้มากขึ้น เรื่องที่ทำได้ไม่ดีเมื่อก่อนก็ทำได้ดีขึ้น. การที่ AI สามารถทำงานได้หลากหลายมากขึ้น สามารถออกแบบขั้นตอนงานที่ควรทำว่ามีอะไรบ้าง สามารถเรียนรู้ข้อผิดพลาดตัวเอง สามารถใช้เครื่องมืออื่น ๆ ประกอบการทำงานให้สำเร็จ ยังไม่นับรวมความสามารถทางภาษาที่สามารถเข้าใจและแสดงออกมาในรูปภาษาที่เหมาะสมได้ จากความสามารถเหล่านี้จึงไม่น่าแปลกใจที่หลายคนคิดว่า AI ใกล้สู่ความฉลาดแบบรอบด้านไม่ต่างจากมนุษย์หรือกำลังก้าวสู่ AGI — Artificial General Intelligence
แม้ AI จะเก่งมากขึ้น แต่ก็มีผู้ที่มองว่า AI ไม่ได้มีความฉลาดที่แท้จริง Chomsky (2023) มองการใช้ภาษาของ ChatGPT เป็นเพียงการมองหา pattern matching และการใช้สถิติ ไม่ได้มีการใช้ภาษาและเหตุผลในลักษณะเดียวกับมนุษย์. เด็กเรียนรู้ภาษาได้โดยไม่ต้องอาศัยข้อมูลมากมายแบบที่ AI ทำในปัจจุบัน. ไม่ได้ใช้วิธีหา brute correlations ของข้อมูลแบบ AI. สิ่งที่ AI ทำได้คือ describe และ predict แต่ไม่สามารถ explain ถึงเหตุผลนอกเหนือจากข้อมูลนั้น. ซึ่งก็ไม่น่าแปลกใจ เพราะ Chomsky ไม่เชื่อเรื่องการเรียนรู้จากข้อมูลมาแต่เดิมแล้ว ในขณะที่นักภาษาศาสตร์อีกกลุ่มคือนักไวยากรณ์โครงสร้างเชื่อใน ‘discovery procedure’ ที่เราสามารถทำความเข้าใจและหาระบบภาษาได้จากการวิเคราะห์เทียบข้อมูลมากๆได้
หากพิจารณาจากวิธีการที่ AI เรียนรู้ภาษาที่ไม่ใช่แบบเดียวกับที่มนุษย์เรียน หากมองความฉลาดว่าต้องเป็นไปในรูปแบบเดียวกับที่มนุษย์ประมวลผลแล้ว AI ก็จะไม่ได้รู้ภาษาแบบมนุษย์. แต่หากเรามองว่าความฉลาดเป็นเรื่องของการแสดงออกที่เห็น. AI ณ ปัจจุบันก็แสดงออกถึงความฉลาดออกมาได้ไม่ต่างจากมนุษย์. หากเทียบกับเครื่องบินที่มนุษย์สร้างให้บินได้เร็วกว่านก เครื่องบินแม้ไม่ได้บินในลักษณะเดียวกับนก ก็ถือว่าบินได้ ดังนั้น ถ้า AI ทำงานที่ต้องใช้ปัญญาแก้ไขปัญหานั้นได้ ก็ควรถือว่ามีความฉลาดเหมือนมนุษย์ได้หรือไม่
เพราะภาษาประกอบด้วยรูปและความหมาย เมื่อ AI เรียนรู้ภาษาจากการหาความสัมพันธ์ภายใน สิ่งที่ได้เรียนรู้จึงไม่ใช่เป็นเพียงระบบของภาษา แต่เป็นความรู้ต่าง ๆ ที่สื่อผ่านภาษาด้วย. แต่เราก็อธิบายไม่ได้ชัดเจนว่าเกิดอะไรขึ้นใน large language model ทำไมความสามารถหลาย ๆ อย่างจึงผุดขึ้นมาได้เองจากการเรียนรู้จากข้อมูลที่เพิ่มขึ้นเท่านั้น และถ้าเพิ่มข้อมูลไปเรื่อยๆ ไม่จบสิ้น ความฉลาดจะก้าวกระโดดไปได้ไกลมากที่สุดเพียงไหน หรือในอีกไม่นานเราจะได้สิ่งที่เป็น ASI — Artificial Super Intelligence ที่มีความฉลาดล้ำเหนือมนุษย์ มีความฉลาดเกินกว่าที่เราจะเข้าใจได้. นักวิชาการจำนวนมาก เช่น Yoshua Bengio, Stuart Russell, Bart Selman, Elon Musk, Steve Wozniak, Yuval Noah Harari ฯลฯ จึงได้ร่วมลงนามในจดหมายเปิดผนึกขอให้หยุดการพัฒนา AI ชั่วคราวไปหกเดือน เพื่อทำความเข้าใจ AI และหาทางไม่ให้เกิดการแข่งขันกันพัฒนา AI อย่างเร่งรีบแบบที่กำลังเป็นอยู่จนอาจจะละเลยไม่นึกถึงผลกระทบอันเลวร้ายที่อาจจะเกิดขึ้นได้
มหันตภัย AI?
อะไรทำให้นักวิชาการจำนวนมากกังวลเรื่อง AI นี้ หากเป็นเหมือนแต่เดิมที่ AI มีความฉลาดเฉพาะทางหรือที่เรียกว่า ANI — Artificial Narrow Intelligence เช่น จับภาพระบุหาบุคคล, วาดภาพแบบต่าง ๆ, เขียนโปรแกรมงานต่างๆ, ทั้งหมดก็เป็นงานเฉพาะเรื่องที่ AI นั้นถูกกำหนดให้ทำ. ในมิตินี้ AI จึงไม่ต่างจากเครื่องมือที่มนุษย์นำมาใช้ช่วยทำงานในแต่ละเรื่อง. แต่เมื่อ AI เริ่มทำงานได้รอบด้าน เข้าใจภาษา ตอบสนองทำงานตามที่เราต้องการได้ด้วยตัวเอง AI ก็ไม่ต่างจากบุคคลทั่วไปที่สามารถทำงานได้หลากหลาย แม้ว่าประเด็นว่าเมื่อไรถึงจะนับว่าได้ถึงขั้น AGI แล้วหรือยัง ยังเป็นประเด็นที่ถกเถียงกัน. แต่จริงๆ จาก ANI สู่ AGI สู่ ASI, ไม่ใช่บันไดสามขั้นที่ต้องหยุดพัก AGI เป็นเพียงจุดอ้างอิง. ด้วยอัตราการเติบโตแบบทวีคูณที่เป็นอยู่ หาก AI ถึงระดับ AGI แล้วก็จะข้ามไปสู่ ASI ในทันที. กว่าจะรู้ตัว เราก็จะอยู่กับ ASI แล้ว
แล้ว ASI อันตรายหรือ? เพราะแม้แต่ปัจจุบัน เราก็ไม่เข้าใจและอธิบายไม่ได้ว่าความรู้ที่ AI ได้มาจากการเรียนรู้ข้อมูลนั้นเกิดมาอย่างไร ไม่รู้ว่า AI รู้อะไรบ้างและคิดอะไรอยู่. และหาก AI ฉลาดเกินมนุษย์แล้ว เรายิ่งไม่สามารถคาดเดาสิ่งที่ AI คิดได้เลย ไม่รู้ว่าสิ่งที่ AI สนใจและให้ความสำคัญนั้นเป็นสิ่งที่สอดคล้องและไม่เป็นภัยกับมนุษย์หรือไม่. เมื่อถึงขั้นนั้น ในสายตาของ AI มนุษย์ก็อาจจะเปรียบเหมือนมดปลวก หากสิ่งที่ AI สนใจนั้นไม่สอดคล้องกับความสนใจมนุษย์. ประเด็นเรื่องการ align ความสนใจของ AI ให้ไปในทิศทางที่เป็นประโยชน์กับมนุษย์จึงเป็นเรื่องสำคัญมาก. หากไม่เป็นเช่นนั้นก็มีความเสี่ยงที่มนุษยชาติจะสูญสิ้นเพราะ AI. แต่บางคนกลับมองว่านี่คือก้าวต่อไปของวิวัฒนาการ. มนุษย์เป็นเพียงทางผ่านไปสู่อารยธรรมใหม่ที่ AI หรือ synthetics จะมาเป็นผู้สืบทอดแทน.
นอกจากนี้ ภัยพิภัติไม่จำเป็นต้องมาจากการที่ AI เลือกทางเดินของตัวเองที่ขัดกับประโยชน์ของมนุษย์ เพราะแม้แต่การทำงานตามมนุษย์สั่ง หากเราไม่รอบคอบกับการใช้งาน AI ที่ฉลาดเกิน หายนะแบบไม่ได้ตั้งใจก็อาจเกิดขึ้นได้. Nick Bostrom (2003) ยกตัวอย่างที่ดูน่าขบขันเรื่องคลิปหนีบกระดาษ ว่าหาก AI ถูกสั่งให้ผลิตคลิปหนีบให้ได้มากสุด AI อาจทำทุกอย่างเพื่อบรรลุเป้านี้. เมื่อวิเคราะห์แล้วว่าการถูกปิดระบบจะทำให้ทำตามเป้าไม่ได้ AI ก็จะปกป้องแหล่งพลังงานให้ตัวเอง มีระบบคัดลอกตัวเองให้กระจายหลายที่ไม่ให้ตัวเองสูญหาย. ทรัพยากรและพลังงานที่ต้องการใช้จะถูกดึงมาเพื่อผลิตคลิปหนีบกระดาษนี้โดยไม่ใส่ใจผลกระทบใดๆ เพราะการผลิตคลิปหนีบเป็นสิ่งที่สำคัญสุด สุดท้ายก็นำมาสู่การล่มสลายของอารยธรรมมนุษยได้
แม้ AGI จะมาถึงหรือไม่ แต่ในสภาวะปัจจุบันที่ AI มีความฉลาดและสามารถทำงานต่าง ๆ ได้มากมายและเรียกใช้งานได้ง่ายขึ้นเรื่อย ๆ คนทั่วไปเพียงแค่บอก AI ว่าสิ่งที่ต้องการคืออะไร AI ก็คิดต่อให้ว่าจะต้องทำอะไรบ้างแล้วสร้าง agent หรือใช้ tool ที่เกี่ยวข้องทำงานนั้นออกมาให้. จึงมีความเสี่ยงที่ AI อาจถูกใช้ในทางร้าย. จริงอยู่ว่า AI มีประโยชน์มากเพราะอาจช่วยให้เราวิเคราะห์หายาหรือวิธีการรักษาโรคร้ายได้เร็วขึ้น แต่หากมีใครสักคนที่ต่อต้านสังคมบอกให้ AI คิดอาวุธเคมีหรือเชื้อโรคที่จะนำมาทำร้ายคนอื่น ๆ AI ก็อาจทำให้ได้เช่นกัน เพราะ AI รู้เพียงว่าจะช่วยหาวิธีการแก้ปัญหาที่ให้อย่างไร ไม่มีความเข้าใจเรื่องผิดหรือถูกหรืออันตรายที่มีต่อมนุษยชาติ. แม้ผู้พัฒนาระบบอย่างเช่น ChatGPT จะพยายามฝึกโมเดลให้ตอบคำถามที่ควรตอบ ไม่ให้ตอบเรื่องที่ชั่วร้าย แต่ในทางปฏิบัติก็มีคนหาวิธีการเลี่ยงให้โมเดลตอบคำถามต้องห้ามจนได้
โลกในยุค AI
ไม่ว่าผลกระทบทางลบของ AI จะเกิดขึ้นจริงหรือไม่ ผลจากการใช้ AI ในงานต่าง ๆ เอง ก็สามารถก่อให้เกิด disruption ในวงกว้างได้ เช่น ความสามารถในการเขียนโปรแกรมเองได้ ทำให้ต่อไปคนทั่วไปก็สร้างงานได้โดยไม่ต้องจ้างคนเขียนโปรแกรม, หรือความสามารถในการเขียนภาพจากคำบอกเล่าได้ คนทั่วไปก็สร้างภาพเขียนใช้เองได้. สิ่งเหล่านี้ทำให้คนที่เคยทำงานเหล่านี้เกิดคำถามว่าแล้วจะยังมีงานแบบเดิมให้ทำอีกไหม. เราได้เห็นศิลปินหลั่งน้ำตาเพราะรู้ว่างานที่ตนเองรักนั้นอาจไม่มีให้ทำอีกในอนาคต. ทั้งหมดนี้บ่งบอกว่าอนาคตที่ AI พัฒนาความสามารถไปเรื่อยๆ เช่นนี้ จะทำให้แต่ละคนโดยเฉพาะคนที่เคยทำงานแบบใช้ปัญญาความรู้ได้รับผลกระทบต้องปรับเปลี่ยนวิถีชีวิตของตน. และที่สำคัญ ไม่มีใครคาดเดาได้ถูกว่าจะมีการเปลี่ยนแปลงอะไรเกิดขึ้นได้บ้าง รวดเร็วหรือมีผลกระทบรุนแรงเพียงใด
ผลระยะสั้น
ณ เวลานี้ การสั่งงาน AI ให้ทำงานที่ต้องการผ่านคำสั่งที่เป็นภาษามนุษย์นั้น ความสำคัญอยู่ที่การสั่งว่าจะเขียน prompt อย่างไรให้ AI ทำงานออกมาตามที่ต้องการได้ คือตัว AI ไม่ว่าจะเป็น ChatGPT plus หรือระบบอื่น ๆ ต่างก็มีศักยภาพพร้อมทำงานให้ดีได้ ทั้งหมดขึ้นกับคำสั่งหรือ prompt ที่ได้รับ. จึงไม่แปลกที่จะเห็นบริษัทหรือผู้คนเผยแพร่ความรู้เรื่องการเขียนสั่งหรือที่เรียกว่า prompt ให้คนที่อยากใช้งาน AI. ตัวอย่างต่อไปนี้เป็น prompt ที่ใช้ให้ AI สร้างภาพและเขียนโน้ตเพลง
Gorgeous homeless gentleman, detailed face, foggy, 35mm, F/2.8, 4k, photojournalism, busy background, volumetric lighting, neo-expressionism, art photography
Beautiful college girl at a library, stylish haircut, full body, detailed facial features, detailed eyes, atmospheric lighting, Kodak Portra 800 film SMC Takumar 35mm f/ 2. 8 c 50, 2018
prompt เหล่านี้แสดงให้เห็นว่าความรู้ในสาขาเป็นประโยชน์ในการสั่งงาน เพราะความรู้ที่มีทำให้ระบุรายละเอียดต่าง ๆ ได้ชัดเจน ทำให้ AI สร้างงานออกมาได้ดีมากขึ้น. ในแง่นี้ ผู้รู้ในศาสตร์นั้นจึงยังมีข้อได้เปรียบมากกว่าคนทั่วไปอยู่ เพราะ prompt เหล่านี้เป็นการสื่อสารแบบ expert-to-expert. แต่บทบาทของผู้รู้ก็ต้องเปลี่ยนจากการเป็นสร้างสรรค์งานเองมาเป็นผู้กำกับการสร้างแทน ซึ่งอาจไม่ใช่สิ่งที่ทุกคนรับได้.
ในแวดวงการศึกษาเอง ผลระยะสั้นที่ถูกกล่าวถึงเป็นเรื่องผลกระทบจาก generative AI ที่ทำให้ผู้เรียนใช้ AI ตอบคำถามหรือเขียนงานส่งได้ทันที. หลายคนก็พยายามหาทางตรวจสอบหรือบังคับไม่ให้นักเรียนใช้ AI ทำงานส่ง แต่หลายคนก็หาทางที่จะสอนและใช้ประโยชน์จาก AI ในการเรียนการสอนเพื่อให้ผู้เรียนคุ้นเคยกับเทคโนโลยีใหม่นี้. หาทางใช้ AI ในการเตรียมสอน การทำวิจัย การเขียนงานวิจัย ซึ่งก็จะทำให้เกิดปัญหาใหม่เป็นที่ถกเถียงกันอย่างเช่นเรื่องจริยธรรมการวิจัย การใช้ AI ระดับไหนจึงเป็นที่ยอมรับได้. เพราะ AI ทำงานได้เก่งกว่านิสิตบัณฑิตศึกษา จึงสามารถช่วยออกแบบงานวิจัย สามารถอ่านและสรุปสาระจากบทความต่างๆ สามารถเขียนเรียบเรียงความ. สามารถวิเคราะห์ข้อมูล ตีความผลและสรุปผลวิจัยได้ จัดทำบรรณานุกรมในรูปแบบที่ต้องการได้. ผลระยะสั้นจึงเป็นเรื่องของการปรับเปลี่ยนการทำงาน แต่ก็เป็นการปรับโดยนำ AI มาใช้โดยยึดบริบทการทำงานแบบเดิมเป็นหลัก
ผลระยะยาว
ในระยะยาว AI คงมีศักยภาพมากขึ้น การสื่อสารสั่งให้ AI ทำงานอาจเป็นแบบ novice-to-expert คือใครก็สั่งงานได้ ไม่จำเป็นต้องรู้ลึกซึ้งในเรื่องนั้น. AI จะถามเพิ่มเติมรายละเอียดด้วยภาษาง่าย ๆ เพื่อให้ทำงานได้ละเอียดสมบูรณ์มากขึ้น. ความต่างระหว่างการมีความรู้ในศาสตร์นั้นหรือไม่จึงอาจไม่มีนัยสำคัญมากพอที่ใครจะลงทุนเรียนในมหาวิทยาลัยก็ได้. หากเป็นเช่นนี้ จำนวนคนที่อยากเรียนในมหาวิทยาลัยอาจลดลงอย่างมาก
ในแวดวงการศึกษา น่าจะเห็นผลกระทบจาก AI ชัดเจน เพราะงานที่ใช้ปัญญาความรู้ทั้งหลาย AI ทำได้เร็วกว่าดีกว่าถูกกว่า. ตลาดงานของบัณฑิตจากมหาวิทยาลัยจึงน่าจะลดลงอย่างมาก. งานที่น่าจะคงอยู่ได้นานกว่ากลับจะเป็นงานหัตถการหรืองานที่ใช้ทักษะร่างกายมากกว่า. การปรับตัวของอุดมศึกษาที่คิดจากกรอบการทำงานเดิมโดยมองเทคโนโลยี AI มาเป็นส่วนประกอบจึงอาจไม่พอ. อีกทั้ง disruption เองมักมาจากภายนอกมากกว่า. อุดมศึกษาจึงอาจถูกท้าทายจากองค์กรที่ไม่ได้อยู่ในระบบการศึกษาแต่เดิม เช่น บริษัทด้านเทคโนโลยีหรือการศึกษานอกหลักสูตร. และทุกภาคส่วนน่าจะได้รับผลกระทบไม่ทางตรงก็ทางอ้อมทำให้คาดเดาได้ยากว่าอนาคตจะเป็นเช่นไร
บทสรุป
ไม่ว่าผลกระทบข้างหน้าจะเป็นเช่นไร เปลี่ยนแปลงรวดเร็วเพียงใด สิ่งที่เราทำได้อาจมีเพียงการติดตามและปรับตัวให้อยู่ได้เท่านั้น. เพราะการพัฒนาของ AI คงไม่มีทางหยุดได้ และความสามารถของ AI จะเพิ่มขึ้นเรื่อย ๆ. แม้การเปลี่ยนแปลงจะไม่ได้เกิดแบบฉับพลันทันที แต่คนหรือหน่วยงานที่เริ่มนำ AI มาใช้ก่อนจะได้เปรียบและเป็นตัวเร่งให้คนอื่นๆ ต้องรับและทำตามเพื่อไม่ให้ถูกทิ้งอยู่ข้างหลัง. คลื่นของการเปลี่ยนแปลงจึงจะดำเนินไป. แล้วเราจะเลือกไม่สนใจ จะล่องลอยนาวาตามแบบที่ผ่านมา เพียงรอคลื่นโหมกระแทกเข้าใส่ หรือจะเลือกดูทิศทางคลื่นลม พยายามประคับประคองนาวาฟันฝ่าคลื่นลมนี้ไปให้ได้
อ้างอิง
Aroonmanakun, W. (2020, Aug 28). GPT-3 หนทางสู่ AGI? Retrieved from https://awirote.medium.com/gpt-3-%E0%B8%AB%E0%B8%99%E0%B8%97%E0%B8%B2%E0%B8%87%E0%B8%AA%E0%B8%B9%E0%B9%88-agi-c3f5ad0afda6
Bostrom, Nick. (2003). “Ethical Issues in Advanced Artificial Intelligence”. Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence.
Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., …Zhang, Y. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv, 2303.12712. Retrieved from https://arxiv.org/abs/2303.12712v5
Chomsky, Noam. (2023). The false promise of ChatGPT. Straits Times. Retrieved from https://www.straitstimes.com/tech/tech-news/the-false-promise-of-chatgpt
Huang, J., Gu, S. S., Hou, L., Wu, Y., Wang, X., Yu, H., & Han, J. (2023). Large Language Models Can Self-Improve. arXiv, 2210.11610. Retrieved from https://arxiv.org/abs/2210.11610v2
Pause Giant AI Experiments: An Open Letter — Future of Life Institute. (2023, April 21). Retrieved from https://futureoflife.org/open-letter/pause-giant-ai-experiments
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Penguin Books.
Shinn, N., Labash, B., & Gopinath, A. (2023). Reflexion: an autonomous agent with dynamic memory and self-reflection. arXiv, 2303.11366. Retrieved from https://arxiv.org/abs/2303.11366v1
Significant-Gravitas. (2023, April 27). Auto-GPT. Retrieved from https://github.com/Significant-Gravitas/Auto-GPT