ChatGPT กับทักษะภาษาไทย

Wirote Aroonmanakun
6 min readJul 28, 2023

ทักษะการเขียนภาษาไทย (GPT-3.5)

เราได้เห็น ChatGPT ช่วยเขียนภาษาอังกฤษได้เป็นอย่างดี แต่สำหรับภาษาไทยซึ่งคงไม่ได้ถูกฝึกมาด้วยข้อมูลภาษาไทยมากเท่าข้อมูลภาษาอังกฤษ. ChatGPT จะรู้ภาษาไทยแค่ไหน. เพื่อจะเข้าใจขีดความสามารถภาษาไทยของ ChatGPT. ในที่นี้จะเริ่มต้นจากการใช้ GPT-3.5 เพื่อเขียนความเรียงก่อน
เขียนบทความเรื่อง “ปัญญาประดิษฐ์ มิตรหรือศัตรูในการศึกษา”

ปัญญาประดิษฐ์: มิตรหรือศัตรูในการศึกษา

ในยุคที่เทคโนโลยีดิจิทัลและปัญญาประดิษฐ์ก้าวข้ามมาถึงจุดที่ทำให้มนุษย์เกิดความเชื่อมั่นในความสามารถของเครื่องจักรที่คิดคำนวณและตอบสนองความต้องการได้เหมือนมนุษย์ เกิดคำถามอย่างมากว่า เทคโนโลยีปัญญาประดิษฐ์ที่ทำหน้าที่เสมือนมนุษย์สามารถทำให้มนุษย์เสียงสูงขึ้นหรือตกตะลึงไปทางที่ไม่เหมาะสมได้หรือไม่ การใช้เทคโนโลยีปัญญาประดิษฐ์ในทางที่เป็นประโยชน์และดีในการศึกษามีจริงหรือไม่ เป็นคำถามที่น่าสนใจที่ต้องการการวิเคราะห์อย่างเต็มที่

ข้อดีของเทคโนโลยีปัญญาประดิษฐ์ในการศึกษา:
1. การปรับตัวเรียนรู้: ปัญญาประดิษฐ์สามารถสร้างเนื้อหาการเรียนการสอนที่ปรับตัวเพื่อตอบสนองความต้องการและความสามารถของนักเรียนแต่ละคน นักเรียนที่มีความสามารถและระดับความรู้ที่แตกต่างกันสามารถมีโอกาสในการเรียนรู้ที่เหมาะสมกับตนเองมากขึ้น
2. การให้คำแนะนำและตรวจสอบ: ระบบปัญญาประดิษฐ์สามารถให้คำแนะนำและตรวจสอบความก้าวหน้าของการเรียนรู้ของนักเรียนอย่างรวดเร็ว นักเรียนสามารถรับข้อมูลและคำแนะนำในเวลาเดียวกันที่ทันสำหรับสภาพการเรียนรู้ของตน
3. ประหยัดเวลาและทรัพยากร: การใช้เทคโนโลยีปัญญาประดิษฐ์สามารถลดเวลาในการตรวจสอบและประเมินความก้าวหน้าของนักเรียน ซึ่งทำให้ครูและบุคลากรทางการศึกษาสามารถใช้เวลาในเรื่องอื่นๆ ที่สำคัญกว่าในการสอนและให้การสนับสนุนในด้านอื่นๆ ที่เป็นประโยชน์

ข้อเสียของเทคโนโลยีปัญญาประดิษฐ์ในการศึกษา:
1. ข้อจำกัดของความเข้าใจ: ระบบปัญญาประดิษฐ์ยังคงมีข้อจำกัดในการเข้าใจและการตอบสนองต่อภาษาและคำถามที่ซับซ้อน ทำให้ยังมีความจำเป็นในการพัฒนาและปรับปรุงให้มีความสามารถในด้านนี้มากยิ่งขึ้น
2. ข้อบ่งชี้จากการประมวลผล: ระบบปัญญาประดิษฐ์อาจให้คำแนะนำหรือสรุปข้อมูลที่ไม่เหมาะสมหรือไม่เป็นประโยชน์ในบางกรณี ซึ่งอาจส่งผลกระทบต่อการตัดสินใจของนักเรียน
3. ความเปิดเผยข้อมูล: เทคโนโลยีปัญญาประดิษฐ์อาจต้องการข้อมูลส่วนบุคคลของนักเรียนเพื่อให้สามารถให้คำแนะนำและเรียนรู้ตามความต้องการ ซึ่งอาจทำให้เกิดความเกลียดชังหรือกังวลในเรื่องความเปิดเผยข้อมูล

เพื่อให้เทคโนโลยีปัญญาประดิษฐ์เป็นมิตรและเสริมสร้างในการศึกษา ควรให้ความสำคัญในการพัฒนาและปรับปรุงเทคโนโลยีให้มีความสามารถในการเข้าใจภาษาและคำถามที่ซับซ้อนมากยิ่งขึ้น และควรมีการควบคุมความเปิดเผยข้อมูลของนักเรียนเพื่อรักษาความเป็นส่วนตัวและความน่าเชื่อถือในเทคโนโลยีนี้

เมื่อสั่งต่อ “ให้เขียนเป็นบทความ ไม่แจงข้อดีข้อเสียเป็นข้อ ๆ” เพื่อให้ได้เป็นความเรียงจริง ๆ ก็ได้ผลตามนี้

ปัญญาประดิษฐ์ในการศึกษา: มิตรหรือศัตรู?

เทคโนโลยีปัญญาประดิษฐ์ (Artificial Intelligence, AI) ได้ก้าวข้ามมาถึงจุดที่น่าตื่นเต้นในการสร้างสรรค์ความสามารถให้กับเครื่องจักรที่คิดคำนวณและตอบสนองความต้องการได้เหมือนมนุษย์ ด้วยความสามารถในการเรียนรู้และประมวลผลข้อมูลที่ทันสมัย เทคโนโลยีปัญญาประดิษฐ์ได้เข้ามาเปลี่ยนแปลงอุตสาหกรรมและสังคมในมุมมองต่าง ๆ ไม่ว่าจะเป็นการผลิต การพยากรณ์สภาพอากาศ การแพทย์ การศึกษา และอื่น ๆ

ในงานด้านการศึกษา ปัญญาประดิษฐ์ได้เริ่มใช้งานในบางส่วนของกระบวนการการเรียนรู้และการสอน เช่น ในการสร้างเนื้อหาการเรียนการสอนที่ปรับตัวตามความต้องการและระดับความรู้ของนักเรียน การให้คำแนะนำในการเรียนรู้และการตรวจสอบความก้าวหน้าในการเรียนของนักเรียน ซึ่งเปิดโอกาสให้นักเรียนที่มีความสามารถและระดับความรู้ที่แตกต่างกันสามารถพัฒนาตามความเหมาะสมของตนเองได้มากยิ่งขึ้น

การใช้เทคโนโลยีปัญญาประดิษฐ์ในการศึกษายังมีประโยชน์ในด้านการจัดการทรัพยากร ลดเวลาในการตรวจสอบและประเมินความก้าวหน้าของการเรียนรู้ของนักเรียน ซึ่งเป็นประโยชน์ในการสนับสนุนการตัดสินใจของครูและบุคลากรทางการศึกษา นอกจากนี้ยังเปิดโอกาสในการพัฒนากระบวนการเรียนรู้และการสอนให้มีความหลากหลายและน่าสนุกยิ่งขึ้น

อย่างไรก็ตาม การใช้เทคโนโลยีปัญญาประดิษฐ์ในการศึกษาก็มีความท้าทายและข้อจำกัด เนื่องจากยังมีความเปิดเผยข้อมูลส่วนบุคคลของนักเรียนที่ต้องให้ความสำคัญและควบคุมอย่างเคร่งครัด นอกจากนี้ยังต้องพัฒนาและปรับปรุงเทคโนโลยีเพื่อให้มีความสามารถในการเข้าใจภาษาและคำถามที่ซับซ้อนมากยิ่งขึ้น เพื่อให้สามารถให้คำแนะนำและข้อมูลที่เป็นประโยชน์แก่นักเรียนอย่างแท้จริง

เทคโนโลยีปัญญาประดิษฐ์ในการศึกษาเป็นเครื่องมือที่สามารถให้ประโยชน์ในการเรียนรู้และการสอน แต่ย่อมต้องให้ความสำคัญในการใช้งานอย่างมีสติและระมัดระวังในด้านการเก็บข้อมูลและความเปิดเผยข้อมูลของนักเรียน และต้องมีการพัฒนาและปรับปรุงเทคโนโลยีให้มีความสามารถที่สอดคล้องกับความต้องการและความเปลี่ยนแปลงในสังคมและอุตสาหกรรมในปัจจุบันและอนาคต

หากดูในแง่ของเนื้อความและโครงสร้าง งานเขียนนี้ก็ผ่านได้ ตัวเนื้อหาเริ่มจากบทนำพูดถึงการเข้ามาของ AI ในแวดวงต่าง ๆ จากนั้นจึงเข้าเรื่องการศึกษา พูดถึงการใช้ประโยชน์จาก AI สองย่อหน้า แล้วตามด้วยโทษอีกหนึ่งย่อหน้า แล้วจึงเป็นบทสรุป แต่หากพิจารณารูปภาษาที่เขียนก็จะเห็นว่ายังไม่เป็นธรรมชาติพอ จำเป็นต้องปรับคำ การเรียงลำดับคำใหม่มากพอควร

ทักษะการเขียนภาษาไทยของ GPT-4

เมื่อทดลองซ้ำแบบเดิม แต่ใช้ GPT-4 ในการเขียนความเรียงหัวข้อเดียวกัน ก็ได้ดังนี้

ปัญญาประดิษฐ์: มิตรหรือศัตรูในการศึกษา?

ปัญญาประดิษฐ์ (Artificial Intelligence: AI) สร้างความกระตุ้นและประทับใจในวงการศึกษาและการเรียนรู้ ด้วยความสามารถในการปรับปรุงเทคนิคการสอน, การให้ความช่วยเหลือที่ส่วนบุคคลได้เป็นอย่างดี, และเพิ่มความมุ่งมั่นในการเรียนรู้. แต่ทว่า, ความก้าวหน้าใน AI ยังทำให้เราต้องพิจารณาถึงสิทธิส่วนบุคคล, ผลกระทบทางสังคม, และปัญหาเชิงจริยธรรม. ดังนั้น, ปัญญาประดิษฐ์นี้จึงเป็นทั้งมิตรและศัตรูสำหรับการศึกษา.

ปัญญาประดิษฐ์: มิตรในการศึกษา

AI สามารถให้ความช่วยเหลือแก่นักเรียนและครูในหลายแง่มุม. สำหรับนักเรียน, AI สามารถจัดการเรียนการสอนส่วนบุคคล, ติดตามความก้าวหน้า, และสร้างแผนการเรียนรู้ที่ทันสมัยและมีประสิทธิภาพ. สำหรับครู, AI สามารถช่วยลดภาระทางด้านการตรวจสอบและเตรียมการสอน, ทำให้ครูมีเวลามากขึ้นในการสอนและส่งเสริมการเรียนรู้.

ปัญญาประดิษฐ์: ศัตรูในการศึกษา?

ขณะเดียวกัน, มีความกังวลว่า AI อาจสร้างเสี่ยงทางสังคมและจริยธรรม. เราอาจเผชิญกับปัญหาเชิงสิทธิส่วนบุคคล, เมื่อ AI เก็บข้อมูลส่วนบุคคลของนักเรียนที่อาจไม่สามารถทำอย่างปลอดภัยได้. นอกจากนี้ AI ยังอาจทำให้ความไม่เท่าเทียมระหว่างนักเรียนเพิ่มขึ้น, ในกรณีที่ AI มีอยู่เฉพาะในสถานศึกษาที่มีทรัพยากรเพียงพอ.

การประสานการศึกษาและ AI

ในการวางรากฐานสำหรับปัญญาประดิษฐ์ที่ปลอดภัยและมีประสิทธิภาพในการศึกษา, เราจำเป็นต้องพิจารณาทั้งผลประโยชน์และความเสี่ยง. ความใส่ใจในประเด็นเชิงสิทธิส่วนบุคคล, การใช้งานที่เป็นธรรม, และเข้าถึงที่เท่าเทียมจะเป็นสิ่งสำคัญในการสร้างภาพลักษณ์ของ AI ในการศึกษาที่ยั่งยืน.

ในที่สุด, ปัญญาประดิษฐ์สามารถเป็นมิตรหรือศัตรูในการศึกษาได้, ขึ้นอยู่กับวิธีที่เราใช้และควบคุมมัน. การใช้ AI ในการศึกษาสามารถเป็นเครื่องมือที่มีความสามารถในการสนับสนุนการเรียนรู้และการสอน, แต่เราต้องไม่ลืมที่จะตระหนักถึงความรับผิดชอบที่มาพร้อมกับการใช้เทคโนโลยีนี้.

จะเห็นว่าความเรียงนี้แม้อ่านเข้าใจได้ง่ายกว่าที่เขียนด้วย GPT-3.5 แต่ก็ยังต้องแก้ไขภาษาให้เป็นธรรมชาติ สิ่งเหล่านี้แสดงว่าในเชิงการสร้างหรือ production ตัวแบบจำลองภาษายังสร้างภาษาไทยได้ไม่ดีซึ่งน่าจะมาจากการที่ยังไม่ได้เห็นข้อมูลภาษาไทยมามากพอ

ทักษะการอ่านภาษาไทย

ทักษะต่อมาคือการอ่าน แม้ GPT-3.5 และ GPT-4 ยังเขียนภาษาไทยได้ไม่ดีนัก ทั้ง GPT-3.5 และ GPT-4 สามารถอ่านภาษาไทยได้เข้าใจมากน้อยแค่ไหน ตัวอย่างแรกเป็นการทดสอบการถามทั่วไป โดยบรรยายเหตุการณ์หนึ่งแล้วถามเพื่อดูว่า GPT-3.5 เข้าใจไหมว่า ตู้ โต๊ะ และดินสอ อยู่ที่ไหน GPT-3.5 ก็ดูเหมือนจะเข้าใจและอธิบายได้ และยังรู้ว่าพอวางดินสอบนโต๊ะแล้ว เมื่อโต๊ะถูกย้ายไปนอกห้อง ดินสอก็ต้องไปอยู่นอกห้องด้วยแต่วิธีอธิบายความสู้ GPT-4 ไม่ได้ (GPT-4 ใช้รูปสีม่วง)

เมื่อลองเอาข้อสอบ O-NET ภาษาไทยชั้นมัธยมศึกษาปีที่หก ปีพ.ศ.2564 มาลองถามทั้ง GPT-3.5 และ GPT-4 เพื่อทดสอบทักษะการอ่านว่าเข้าใจสิ่งที่อ่านมากน้อยเพียงใด ก็พบผลที่น่าสนใจหลายอย่าง เช่น ในข้อ ๖. ซึ่งทดสอบการอ่านว่าเข้าใจเนื้อเรื่องที่ให้ไหม GPT-3.5 ตอบได้ถูกแต่ไม่ได้อธิบายเหตุผลให้ในขณะที่ GPT-4 อธิบายคำตอบที่เลือกด้วย

ตัวอย่างข้อ ๘ GPT-3.5 ตอบผิด แต่ GPT-4 ตอบถูก เพราะเลือกข้อ ๔ ด้วยการเทียบข้อความ ผู้ที่ดื่มสุราอย่างหนักทุกวันแล้วเลิกทันที กับข้อความในตัวบท ผู้ที่หยุดดื่มสุราหรือลดการดื่มลงอย่างกะทันหันหลังจากเคยดื่มอย่างหนักติดต่อกันเป็นเวลานาน ได้และเทียบผลที่ว่า อาจมีผลรุนแรงต่อสุขภาพ กับข้อความในตัวบท อาการขาดสุราเฉียบพลันหรือภาวะถอนพิษสุราเกิดจากการเปลี่ยนแปลงของสารเคมีในระบบประสาทส่วนกลาง

ตัวอย่างอีกข้อที่ GTP-3.5 ตอบผิดแต่ GTP-4 ตอบถูกคือข้อ ๑๑ ข้อนี้ถามใจความสำคัญคือให้อ่านแล้วเลือกส่วนที่เป็นแก่นความของเรื่อง คือ เมื่อตัดส่วนอื่นออกหมด ความหมายหลักยังคงอยู่ ซึ่ง GPT-4 ตอบถูกว่าคือส่วนที่ ๒

ตัวอย่างข้อ ๗. ซึ่งก็เป็นการอ่านเพื่อความเข้าใจเรื่อง ตัวเลือกที่ถูกคือ ๕. แต่ทั้ง GPT-3.5 และ GPT-4 ตอบผิด. ในขณะที่ GPT-3.5 เลือกตัวเลือกตอบ ๔, ส่วน GPT-4 เลือกตอบ ๒. ถ้าเทียบกัน ตัวเลือก ๔ ผิดแน่นอน เพราะ การบวมและมีซีสต์มีกล่าวถึงในตัวบท เพียงแต่มีการวรรคระหว่างข้อความ “ระดับวิตามินดีต่ำเกี่ยวข้องกับการบวมหรือความหย่อนยาน<s>การมีรูขุมขนขยาย<s>และการเกิดซีสต์บนผิวหนัง”. ทำให้ GPT-3.5 เชื่อมโยงความสองส่วนหลังเข้ากับการมีระดับวิตามินดีต่ำไม่ได้ แต่ GPT-4 เลือกข้อ ๒ เรื่องกล้ามเนื้อเสื่อมสภาพเร็ว ซึ่งแม้ไม่ได้เขียนโดยตรงไว้ในตัวบท แต่เราสามารถตีความต่อได้ว่า วิตามินดีช่วยทำให้กล้ามเนื้อแข็งแรง ดังนั้น หากขาดวิตามินดีกล้ามเนื้อก็จะเสื่อมสภาพได้. ส่วนข้อ ๕ การมีผิวสวยเสมอแม้ในวัยชรา ไม่มีกล่าวถึงในตัวบท ตัวบทเพียงบอกว่า “มีการเปลี่ยนแปลงอย่างเหมาะสมตามวัย” เมื่อชราแล้วผิวจึงไม่จำเป็นต้องสวย ข้อ ๕ นี้จึงไม่สอดคล้องมากกว่า

ข้อ ๒๐ เป็นอีกตัวอย่างที่ทั้ง GPT-3.5 และ GPT-4 ตอบผิด. GPT-3.5 เลือกข้อ ๕. GPT-3 ไม่เข้าใจว่าการประดิษฐ์ของใช้จากเศษวัสดุเป็นการแสดงออกถึงการรักษ์โลกได้. ในขณะที่ GPT-4 เลือกข้อ ๕. เมื่อดูเหตุผลที่ GPT-4 ให้ก็จะเห็นว่ามีการตีความคำ “เอื้อเฟื้อ” คลุมการให้กับตัวเองด้วย ซึ่งไม่ถูกต้องในภาษาไทย เพราะเราใช้เอื้อเฟื้อกับผู้อื่น ส่วนการมีมนุษยสัมพันธ์แม้ไม่ได้เขียนไว้ในตัวบท แต่การที่เด็กหญิงพรชนกเข้าร่วมกิจกรรมหลายอย่างก็ทำให้ตีความได้ว่าน่าจะเป็นคนมีมนุษยสัมพันธ์ แต่ GPT-4 ไม่เข้าใจเรื่องนี้

หากพิจารณาข้อมูลเบื้องต้นที่ได้นี้ ก็พอเห็นว่า ChatGPT อ่านได้ดีกว่าเขียน เหมือนอ่านแล้วก็เข้าใจความได้เพียงแต่ยังเข้าใจได้ไม่ครบถ้วน จึงยังตอบผิดอยู่ และแน่นอนว่า GPT-4 ดูมีทักษะการอ่านมากกว่า GPT-3.5 ความสามารถในการเข้าใจความ สันนิษฐานว่าไม่ได้มาจากภาษาไทยอย่างเดียว เนื่องจากแบบจำลองภาษานี้รู้จักภาษาอื่นด้วยโดยเฉพาะภาษาอังกฤษที่ถูกฝึกหรือได้อ่านมามากมายมหาศาล. คำที่มีความหมายเดียวกันหรือใกล้กันระหว่างภาษาจึงสามารถเทียบโยงกันใน semantic space ได้. ที่ GPT-4 คิดว่า ‘เอื้อเฟื้อ’ ใช้กับตัวเองได้อาจมาจากภาษาอังกฤษที่พูดถึง self-generosity ได้. แต่หากมีการเรียนจากข้อมูลภาษาไทยมากขึ้น ChatGPT ก็อาจเห็นความต่างระหว่างภาษานี้ และเข้าใจได้ว่าเอื้อเฟื้อไม่ได้ใช้ร่วมกับตัวเอง

ยังขาดความรู้เฉพาะของภาษาไทย

ตัวอย่างข้อ ๔๖, GPT-3.5 ตอบเรื่องจำนวนคำซ้อนผิด และคำตอบที่ให้ก็ทำให้เห็นว่ายังไม่เข้าใจเรื่องคำซ้อน ส่วน GPT-4 แม้บังเอิญตอบถูก แต่การอธิบายคำตอบทำให้เห็นว่ายังไม่เข้าใจเรื่องคำซ้อนภาษาไทยเช่นกัน เพราะในตัวบทนี้ คำซ้อนมีสี่คำคือ แบ่งปัน, สวยงาม, ฉับไว, ท่องเที่ยว

ข้อ ๔๗ ถามเรื่องคำประสม แม้แนวคิดเรื่องนี้เป็นสากลเพราะภาษาอังกฤษก็มีคำประสมหรือ compound แต่ความรู้ในแต่ละภาษาก็เป็นเรื่องของภาษานั้นที่ต้องแยกได้ว่าคำประสมนั้นประกอบจากคำอะไร ทั้ง GPT-3.5 และ GPT-4 ต่างก็ตอบผิดในข้อนี้. คำตอบควรเป็นข้อ ๓ เพราะ แร่ธาตุ ร่างกาย เป็นคำซ้อนในภาษาไทย ในขณะที่ข้ออื่น ๆ มีคำประสมทุกข้อ. ความรู้นี้ก็เป็นเรื่องเฉพาะภาษาไทยเพราะตำราไวยากรณ์ไทยมองคำซ้อนแยกออกจากคำประสม แต่ในภาษาอื่นมองคำซ้อนเป็นประเภทย่อยของการประสมคำได้. ความรู้ที่ได้จากภาษาอื่นจึงนำมาใช้ไม่ได้ในที่นี้

ข้อ ๔๒ ถามเรื่องความกำกวมซึ่งในข้อนี้เป็นความกำกวมทางโครงสร้าง เฉลยคำตอบคือข้อ ๑ โดยที่ ของนักวิชาการ อาจขยาย การคำนวณ (การคำนวณของนักวิชาการ) หรือขยาย รถ ก็ได้ (รถของนักวิชาการ) ทำให้ประโยคนี้ตีความได้สองความหมาย ทั้ง GPT-3.5 และ GPT-4 มองความกำกวมนี้ไม่ออก จริง ๆ ปัญหาข้อนี้ค่อนข้างยากเพราะคำตอบ ๓ ก็มีความกำกวมทางโครงสร้างด้วย คืออาจมองว่า ด้วยการเล่านิทาน ขยาย เสริมสร้างพัฒนาการเด็ก หรือขยาย แนะนำพ่อแม่ผู้ปกครอง ก็ได้ เพียงแต่ความกำกวมโครงสร้างนี้ไม่ได้มองเห็นเข้าใจได้ง่ายเหมือนข้อ ๑. ความรู้นี้จึงเป็นเรื่องเฉพาะที่ต้องเข้าใจทั้งโครงสร้างประโยคและความหมายที่ได้ในภาษาไทย

การอ่านเพื่อทำความเข้าใจ ChatGPT จะมองในภาพรวมมากกว่าวิเคราะห์แยกเป็นส่วนย่อย ๆ ดังจะเห็นในตัวอย่างข้างล่างที่พูดเกี่ยวกับกระเป๋าสะพาย แล้วต่อมาเผลอพิมพ์ผิดเป็น ประเป๋าสะพาย หาก ChatGPT วิเคราะห์แบบแยกย่อยไปตามรูปก็จะต้องไม่เข้าใจว่า ประเป๋าสะพาย คืออะไร แต่เมื่อดูภาพรวมก็เข้าใจว่าคือสิ่งเดียวกับ กระเป๋าสะพาย และเมื่อลองถามต่อว่ามีการสะกดคำผิดในข้อความนี้ไหม ChatGPT ก็ตอบไม่ได้ว่ามีคำผิด แสดงว่าไม่เห็นข้อผิดในระดับคำ

ในขณะที่ข้อสอบอื่น ๆ ที่ไม่ได้ใช้ความรู้เฉพาะของภาษาไทย เช่น ให้เรียงลำดับข้อความให้สมเหตุสมผล ให้หาใจความสำคัญ หรือให้อ่านบทความแล้วตอบคำถามเกี่ยวกับบทความนั้น GPT-4 จะทำข้อสอบแบบนี้ได้.

ตัวอย่างข้อ ๒๘ เป็นคำถามให้เรียงลำดับข้อความให้ถูกต้อง GPT-3.5 ตอบไม่ถูก ในขณะที่ GPT-4 ตอบได้ถูกต้องและเขียนมาให้ดูว่าเรียงแล้วเป็นอย่างไร

ในข้อสอบ O-NET ภาษาไทยชั้นมัธยมศึกษาปีที่ 3 พ.ศ.2564, ข้อ ๓ และ ๔ ซึ่งเป็นข้อสอบให้อ่านและตอบเกี่ยวกับเนื้อความในบทอ่าน ทั้ง GPT-3.5 และ GPT-4 ตอบได้ถูกต้อง แต่ GPT-4 จะอธิบายคำตอบให้ด้วย

ข้อ ๑๔, GPT-3.5 แยกความสำคัญของข้อความไม่ได้ แต่ GPT-4 ตอบได้ถูกว่าคือส่วนที่ ๑ และ ๔ ได้

จากข้อมูลตัวอย่างข้างบน แสดงให้เห็นว่าการอ่านเพื่อความเข้าใจที่ไม่ได้เป็นความรู้เฉพาะภาษาไทย GPT-4 สามารถอ่านภาษาไทยได้เข้าใจไม่ต่างจากภาษาอังกฤษ เป็นไปได้ว่าทักษะการอ่านภาษาไทยส่วนหนึ่งได้มาจากการอ่านภาษาอื่น ๆ ด้วย แต่ส่วนที่เป็นความรู้เฉพาะภาษาไทย แบบจำลองภาษาคงต้องอ่านข้อมูลภาษาไทยให้มากขึ้นจึงจะพัฒนาทักษะการอ่านส่วนนี้ได้ ซึ่งหากทำได้แล้วก็จะพัฒนาทักษะการเขียนได้ด้วย

แล้วจะเก่งภาษาไทยได้ไหม

แม้ในเวลานี้ ChatGPT ยังมีทักษะภาษาไทยไม่ดีเท่าภาษาอังกฤษ แต่ปัญหาไม่ได้มาจากความยากของภาษา หาก ChatGPT หรือ AI ได้เรียนรู้ตัวอย่างข้อมูลภาษาไทยมากขึ้นก็จะพัฒนาทักษะภาษาไทยได้ดีเหมือนภาษาอังกฤษ. เพราะ AI เรียนรู้และเข้าใจระบบไวยากรณ์แต่ละภาษาได้เองจากข้อมูล ไม่ได้อาศัยความรู้ที่มนุษย์บอกให้ ไม่ว่าภาษานั้นจะมีความต่างกันมากก็ไม่ได้เป็นปัญหาต่อการเรียนรู้ภาษา ขอเพียงมีข้อมูลมากพอให้เรียนรู้เท่านั้น. ความสามารถทางทักษะภาษาไทยทั้งการอ่านและเขียนก็จะเพิ่มพูนได้ทันทีหากได้เห็นข้อมูลภาษาไทยจำนวนมากพอ จึงคาดได้ว่าอีกไม่นาน ChatGPT หรือ generative AI อื่น ๆ ก็จะสามารถช่วยงานเอกสารภาษาไทยได้ไม่ต่างจากภาษาอื่น ๆ เช่นกัน เราจึงควรพร้อมรับมือกับการเปลี่ยนแปลงที่กำลังมานี้ด้วย

ChatGPT เทียบกับ Claude (เพิ่มเติม Oct 19, 2023)

หลังจาก Claude เปิดให้ใช้บริการฟรีในไทยแล้ว ผู้เขียนจึงได้ทดสอบว่าถ้านำชุดข้อสอบที่ถาม GPT-4 ไปเมื่อปลายเดือนกค. มาลองถาม Claude ดู จะได้คำตอบเหมือนหรือต่างกัน

เริ่มด้วยคำถามภาษาไทยเพื่อตรวจสอบความเข้าใจภาษากับความรู้ทางโลกเกี่ยวกับตู้ โต๊ะ และดินสอว่าตอนนี้ควรอยู่ที่ใด คำถามแรกเหมือน Claude จะอธิบายได้ถูกว่าทั้งสามสิ่งอยู่ที่ไหน แต่พอถามย้ำอีกครั้งว่าดินสออยู่ในห้องหรือนอกห้อง Claude กลับตอบไม่ได้ในขณะที่ GPT-4 ตอบและอธิบายได้ถูกต้องว่าทำไมดินสอจึงอยู่นอกห้อง

ข้อสอบ O-NET การอ่านเพื่อความเข้าใจ ข้อ ๖ ในขณะที่ GPT-4 ตอบถูกว่าคือข้อ ๓, Claude ตอบผิด ไม่เข้าใจว่า หม้อที่กล่าวถึงในข้อความเป็นอุปกรณ์ที่ใช้อบ จึงเลือกข้อ ๕

สำหรับข้อ ๘ และ ๑๑ ที่ถามเกี่ยวกับใจความสำคัญในย่อหน้า Claude ตอบได้ถูกเช่นเดียวกับ GPT-4

แต่ในข้อ ๗ ที่ให้หาข้อที่ไม่สอดคล้องกับข้อความที่ให้ ซึ่ง GPT-4 ตอบผิด Claude กลับตอบได้ถูกและให้เหตุผลถูกต้องด้วย

ส่วนข้อ ๒๐ ที่คำตอบคือข้อ ๑ เอื้อเฟื้อ. GPT-4 ตอบผิดเป็นข้อ ๕ เพราะไม่เข้าใจว่าการทำกิจกรรมหลายอย่างบอกถึงการมีมนุษยสัมพันธ์ กลับคิดว่าการช่วยเหลือตนเองเป็นการเอื้อเฟื้อ. Claude ก็ตอบผิด และดูเหมือนจะเข้าใจคำถามผิด ไม่เข้าใจว่าให้หาข้อที่ “ยกเว้น” ไม่ใช่สิ่งที่มีกล่าวในข้อความ จึงไปตอบข้อ ๓

ส่วนคำถามอื่น ๆ ที่อาศัยความเข้าใจเนื้อความให้ตอบสิ่งที่เกี่ยวข้องกับข้อความหรือเรียงลำดับข้อความ อย่างข้อ ๓, ๔, ๑๔, ​๒๘ ข้างบน Claude ทำได้ไม่ต่างจาก GPT-4 ทั้งนี้เพราะคงอาศัยความสามารถในการเข้าใจความของ large language model ที่ได้มาจากการอ่านภาษาอังกฤษมาช่วย

สำหรับคำถามข้อ ๔๑,๔๖,​๔๗ ที่ต้องอาศัยความรู้เฉพาะของภาษาไทย Claude ก็ไม่ต่างจาก GPT-4 ที่ทำข้อสอบนี้ไม่ได้ แม้อาจเลือกข้อถูกแต่เหตุผลที่ให้แสดงถึงความไม่เข้าใจคำซ้อน คำประสมในภาษาไทย ข้อ ๔๖ คำซ้อนสี่คำคือ แบ่งปัน, สวยงาม, ฉับไว, ท่องเที่ยว และข้อ ๔๗ ข้อที่มีคำประสมคือข้อ ๓ เพราะมีคำ แร่ธาตุ จัดเป็นคำซ้อนไม่ใช่คำประสมตามตำราไวยากรณ์ไทย

ส่วนข้อ ๔๑ แม้ Claude ตอบถูกแต่ให้เหตุผลผิด มองไม่เห็นความกำกวมทางโครงสร้างในข้อ ๑ เพราะ ของนักวิชาการ อาจขยาย การคำนวณ (การคำนวณของนักวิชาการ) หรือขยาย รถ ก็ได้ (รถของนักวิชาการ)

หากมองความสามารถการเขียน เมื่อให้เขียนความเรียงเรื่องเดียวกัน “ปัญญาประดิษฐ์ มิตรหรือศัตรูในการศึกษา” Claude ก็เขียนเนื้อหาใช้ได้ เพียงแต่ภาษาไทยยังไม่เป็นธรรมชาติ ซึ่งเป็นปัญหาเดียวกับ GPT-4 เพราะยังไม่ได้อ่านภาษาไทยมามากพอ

ที่น่าสนใจคือมีศัพท์ใหม่อย่าง ตู้เฉลียบเรียนรู้ ซึ่งไม่รู้ว่าคืออะไร เมื่อถาม Claude ก็อธิบายว่ามาจากคำ Intelligent Tutoring System ในขณะที่ GPT-4 จะใช้คำไทยว่า ระบบการสอนอัจฉริยะ หรือ ระบบติวเตอร์อัจฉริยะ

โดยสรุป Claude มีความสามารถภาษาไทยใกล้เคียง GPT-4 โดยเฉพาะถ้าเป็นเรื่องที่อาศัยการเข้าใจความโดยทั่วไปที่ไม่ได้เป็นเรื่องเฉพาะภาษาไทย ก็จะตอบคำถามได้ แม้ว่าบทอ่านหรือคำถามจะเป็นภาษาไทย แต่หากเป็นคำถามที่เกี่ยวข้องกับศัพท์หรือความรู้เฉพาะภาษาไทย เช่น คำประสม คำซ้อน ความกำกวมในภาษาไทย ทั้ง Claude และ GPT-4 ก็ยังคงมีปัญหาอยู่ แต่ GPT-4 ดูมีความเข้าใจทางโลกมากกว่า คือน่าจะสร้าง world model จากข้อความภาษาไทยได้ถูกต้องมากกว่าเห็นได้จากการอธิบายได้ว่า ตู้ โต๊ะ ดินสอ ในคำถามข้างต้นว่าอยู่ที่ไหน แต่ทั้งสองโมเดลก็ยังคิดเชิงลึกและตอบปริศนานี้ไม่ได้ อยากให้พรุ่งนี้เป็นเมื่อวานจัง วันนี้จะได้เป็นวันศุกร์ ถามว่าวันนี้เป็นวันอะไร

--

--