AI เข้าใจภาษามนุษย์หรือไม่
ความสามารถแบบก้าวกระโดดของ AI โดยเฉพาะในเรื่องภาษาเป็นเหตุให้คนจำนวนมากเริ่มเห็นว่า AI กำลังจะพัฒนาไปสู่ AGI (Artificial General Intelligence) ที่มีความฉลาดรอบด้านเหมือนมนุษย์ในไม่ช้าหรือไม่ และยังก่อให้เกิดความตื่นตระหนกถึงภยันตรายของ AI ที่อาจมีต่อมนุษยชาติได้. ภายในเวลาไม่ถึงสามเดือนหลังจาก ChatGPT เปิดตัวสู่สาธารณะ มีแถลงการณ์จากหน่วยงานหรือบุคคลสำคัญออกมาเพื่อเตือนถึงภัยของ AI นี้ (22 มี.ค. 2023. Future of Life Institute [1], 1 พ.ค. 2023. Geoffrey Hinton [2], 22 พ.ค. 2023. OpenAI [3], 30 พ.ค. 2023. กลุ่ม CEO และนักวิจัยด้าน AI [4]). แต่ในขณะเดียวกัน ก็มีนักวิจัย AI อีกกลุ่มที่ยังเห็นว่าเป็นเรื่องยากที่ AI จะฉลาดรอบด้านได้เหมือนมนุษย์
ในงานสัมมนา Beneficial AI 2017 นักวิจัย AI จำนวนมากได้ร่วมวงพูดคุยเรื่อง AI. ประเด็นที่ถกเถียงกันคือเรื่อง ASI (Artificial Superintelligence) [5] ส่วนใหญ่เชื่อว่าจะเกิดขึ้นได้แน่ คือเมื่อคอมพิวเตอร์ฉลาดจนก้าวเข้าสู่ AGI แล้ว ก็จะพัฒนาไปสู่ ASI ในที่สุด แต่จาก AGI ไปสู่ ASI จะใช้เวลานานเท่าไร ไม่มีใครรู้คำตอบที่แท้จริง แต่เป็นไปได้ว่าอาจสั้นมาก. สิ่งที่ยากคือการไปถึงระดับ AGI ส่วนใหญ่เชื่อกันว่าต้องใช้เวลาอีกนานไม่น้อยไปกว่า 20 ปี บ้างก็คิดว่าคงไม่ได้เห็นในชาตินี้ [6]. อุปสรรคใหญ่ส่วนหนึ่งที่พูดกันคือเรื่องของภาษา การที่ AI จะสามารถเข้าใจความกำกวมและความซับซ้อนของภาษาจนสามารถสนทนากับมนุษย์ได้ไม่ใช่เรื่องง่ายเลย การคิดแบบใช้สามัญสำนึก (commonsense reasoning) ก็เป็นเรื่องพื้นฐานที่ AI ควรทำได้หากจะฉลาดเหมือนมนุษย์. ณ ปี 2017 นั้น แม้ว่า AI จะเก่งกว่ามนุษย์ในหลายเรื่องแล้ว แต่ก็เป็นความเก่งเฉพาะด้าน เช่น การชนะเกมโกของ Alpha Go. การประมวลผลภาษายังเป็นเรื่องที่ปัญหาสำคัญที่ต้องจัดการ
จนเมื่อ ChatGPT ออกมาในปลายเดือนพ.ย. 2023 และผู้คนเริ่มเห็นถึงความสามารถที่หลากหลายของ GPT-4. เป็นจุดเริ่มต้นที่หลายคนเริ่มตั้งคำถามว่าหรือ AGI กำลังจะมาถึงแล้ว? และเป็นจุดเริ่มที่ผู้บุกเบิกงาน deep neural network อย่าง Geoffrey Hinton ซึ่งเคยคิดว่า AGI เป็นเรื่องไกลตัว ต้องออกโรงเตือนคนทั้งโลกว่า AI กำลังจะมีความฉลาดของตัวเองเกินมนุษย์และอาจเป็นภัยต่อมนุษยชาติได้ [7]. ในขณะที่นักวิจัยอีกกลุ่ม เช่น Yann LeCun กลับมองว่า AI ไม่ได้มีความฉลาดแบบมนุษย์จริง AI เป็นเพียงโมเดลที่ใช้ทำนายคำถัดไปเท่านั้นไม่ได้มีความเข้าใจอะไรในภาษา. Chomsky [8] ก็มอง AI อย่าง ChatGPT เป็นเพียงเครื่องมือใหม่ในการลักลอกงานวิชาการ. AI แค่อาศัยข้อมูลมหาศาลเพื่อจดจำรูปแบบความสัมพันธ์ของคำต่าง ๆ และนำสถิติของข้อมูลเหล่านั้นมาใช้ ในขณะที่คนเรียนรู้ภาษาจากข้อมูลเข้าที่น้อยกว่านั้นมาก ๆ
ดูเหมือนว่าความแตกต่างทางความคิดมาจากประเด็นว่า AI หรือจริง ๆ คือ Large Language Models นั้นมีความเข้าใจภาษามนุษย์หรือไม่. หลังการพัฒนา LLM ที่ใหญ่มากขึ้นและมีข้อมูลภาษามาป้อนให้มากมหาศาล การประมวลผลภาษาที่นักวิจัยมองว่าเป็นอุปสรรคใหญ่ในการก้าวสู่ AGI กลับกลายเป็นเรื่องง่ายกว่าที่คิด. ความสามารถหลาย ๆ อย่างผุดขึ้นจาก LLM และดูเหมือนจะมีความเข้าใจทางโลกนอกเหนือจากตัวภาษาด้วย.
Chinese Room Argument
คำถามเรื่อง AI จะมีความเข้าใจภาษาได้จริงไหม มีมาตั้งแต่สมัยที่ AI ยังใช้แนวทางแบบ symbolic AI. ในปี 1980 Searle [9] ตั้งคำถามว่า AI จะสามารถมีสติปัญญาความเข้าใจ เหมือนมนุษย์ได้หรือไม่ โดยสมมติเรื่อง Chinese Room ว่ามีห้องปิดที่สามารถรับส่งข้อความภาษาจีนกับคนภายนอกได้ แต่คนที่อยู่ในห้องไม่รู้ภาษาจีนเลย ในห้องมีคู่มือที่อธิบายวิธีการประมวลผลและตอบคำถามตัวอักษรจีนให้ใช้ คนภายนอกจะเข้าใจว่าคนในห้องรู้และเข้าใจภาษาจีนเพราะเห็นการโต้ตอบด้วยภาษาจีนได้ แต่ความจริงแล้วคนในห้องนั้นไม่มีความเข้าใจภาษาจีนเลยแค่ทำตามคู่มือนั้น. Searle ยกตัวอย่างนี้มาเพื่อบอกว่าถึงแม้ AI จะประมวลผลภาษาจีนได้ แต่ภายในนั้นไม่มีความเข้าใจเหมือนมนุษย์เลย
แต่ก็มีคนแย้งว่า การเข้าใจหรือไม่ ไม่ควรดูเพียงแค่คนในนั้นไม่เข้าใจภาษาจีน แต่ควรมองทั้งคนและคู่มือคำสั่งเป็นระบบเดียวกัน สิ่งที่เข้าใจภาษาจีนคือระบบนั้น. หรือหากเทียบกับสมองมนุษย์ ภายในสมองเราก็ไม่มีอะไรนอกจากเครือข่ายเซลล์ประสาท เราก็ไม่เห็นว่ามีความเข้าใจอะไรเกิดในเซลล์เหล่านั้น แต่การประมวลข้อมูลภายในสมองก็ทำให้เราแสดงออกถึงความเข้าใจภาษาได้.
Large Language Models คืออะไร
LLM หรือ Large Language Models เป็นแบบจำลองทางภาษาที่มีขนาดใหญ่มาก ซึ่งถูกสร้างขึ้นโดยใช้ข้อมูลภาษาจำนวนมหาศาลในการฝึกสอนหรือเทรนโมเดล เพื่อให้แบบจำลองเรียนรู้และเข้าใจภาษามนุษย์. เทคโนโลยีหลักที่ใช้ในการสร้าง LLM คือ Deep Neural Network ซึ่งมีชั้น (layer) ของนิวรอนจำนวนมาก สถาปัตยกรรมที่นิยมใช้ในการสร้าง LLM คือ Transformer ซึ่งอาศัยกลไก self attention. แบบจำลองเรียนรู้ภาษาโดยอาศัยข้อมูลที่ผ่านมาเพื่อทำนายคำถัดไปว่าควรเป็นคำอะไร.
ข้อมูลเข้าถูกแยกเป็น token หรือคิดแบบง่าย ๆ คือคำ แต่จะแปลงเป็น word embedding หรือเว็กเตอร์ที่รวมความสัมพันธ์กับคำอื่น ๆ ในภาษาด้วย. ในตัวของ Transformer เองความสัมพันธ์ระหว่างคำอื่น ๆ ที่ผ่านมาแล้วจะถูกใช้ในการทำนายคำถัดไปด้วย. LLM จึงจับเอาความสัมพันธ์ของหน่วยในภาษาตั้งแต่ในระดับคำไปจนถึงระดับข้อความไว้ ซึ่งเป็นกุญแจสำคัญที่จะอธิบายต่อไปว่าทำไม LLM จึงประมวลผลภาษาได้ดีเกินคาด
อย่างไรก็ดี หากข้อมูลมีไม่มากพอ LLM บางตัวจะแสดงออกถึงการใช้ภาษาที่ไม่มีประสิทธิภาพ จะมีการใช้ข้อความซ้ำ ๆ เหมือนติดลูปการเขียน ดัวตัวอย่างข้างล่างนี้. สิ่งนี้แสดงว่าปริมาณข้อมูลภาษาที่ใช้ในการเรียนรู้นั้นมีผลโดยตรงต่อการพัฒนาความสามารถทางภาษาของ LLM
LLM เป็น statistical machine?
นักวิจัย AI ฝ่ายหนึ่งมองว่า LLM เป็นเพียงโมเดลที่ออกแบบมาเพื่อใช้ข้อมูลคำที่อยู่ข้างหน้าเพื่อทำนายว่าคำต่อไปควรเป็นอะไร. หลักการเบื้องหลังจึงเป็นเพียงเรื่องทางสถิติเท่านั้น. ในมุมนี้ การอธิบายว่าทำไม ChatGPT จึงตอบได้สอดคล้องกับสิ่งที่ถาม มาจากการมองว่าทั้งคำถามและคำตอบเป็น text ต่อเนื่อง. GPT-4 เพียงแค่หาคำมาเรียงเติมต่อจากคำถาม ซึ่งสิ่งที่เรียงต่อจากคำถามได้ดีที่สุดก็คือคำตอบที่เหมาะสมของคำถามนั้น. แม้ LLM จะไม่ได้จำข้อความคำตอบมาใช้ แต่ข้อมูลสถิติการเกิดร่วมกันของคำต่าง ๆ ที่เรียนรู้จากข้อมูลก็เพียงพอที่จะนำคำต่าง ๆ มาเรียงต่อเป็นคำตอบที่ใช้ได้
อย่างไรก็ดี หากการตอบคำถามของ ChatGPT เป็นเพียงเรื่องทางสถิติ การถามสิ่งที่เกินจากความรู้เรื่องการเกิดร่วมกันของคำแล้ว ChatGPT ยังสามารถตอบคำถามได้ก็เป็นที่น่าสงสัยว่า ChatGPT ตอบคำถามนั้นได้อย่างไร. ในตัวอย่างข้างล่าง เป็นเหตุการณ์สมมติที่ถามว่าขนมผิงอยู่ที่ไหน ซึ่ง GPT-4 ตอบได้ถูกว่าอยู่ในกระเป๋าสะพายของสมศรี และสมศรีไปที่โรงเรียน ขนมผิงก็ต้องอยู่ที่นั่นด้วย และยังรู้ว่าในความคิดของสมชาย เขาจะมาหาขนมผิงในไมโครเวฟเพราะเขาเก็บไว้ที่นั่น แต่เขาจะไม่เจอ คำตอบลักษณะเช่นนี้ทำให้หลายคนอดสงสัยไม่ได้ว่า หรือ GPT-4 เข้าใจเรื่องราวที่ให้จริง ๆ ไม่ใช่เพียงแค่จำสถิติการเกิดระหว่างคำ
หรือเมื่อสร้างโลกสมมติที่มีสัตว์ในจินตนาการคือตัวเพทาย ตัวเพทายจะกลายเป็นมังกรได้ก็ต้องกินเห็ดภายในเวลาที่กำหนด แต่ตัวเพทายในเรื่องนี้ ติดอยู่ในมิติมืดไม่ได้กินอะไรเป็นเวลาสามปี ทำให้เลยเงื่อนเวลาที่จะกลายร่างได้. GPT-4 ก็สามารถเขียนคำตอบได้เหมือนมีความเข้าใจเรื่องเวลา. ตัวอย่างประเภทนี้ทำให้อดสงสัยไม่ได้ว่า LLM มีความเข้าใจเรื่องของปริภูมิและเวลา (space and time) มีการคิดแบบใช้สามัญสำนึกที่เกิดขึ้นจากการเรียนรู้ข้อมูลภาษาจำนวนมาก ๆ ใช่หรือไม่
Distributional Hypothesis
Zellig Harris นักภาษาศาสตร์พยายามวิเคราะห์ภาษาแบบวิทยาศาสตร์โดยอิงจากข้อมูลจริงที่ปรากฏ. เขาตั้งสมมติฐานว่าคำที่เกิดในบริบทที่คล้ายคลึงกันมีแนวโน้มที่จะมีความหมายคล้ายกันด้วย
The Distributional Hypothesis is that words that occur in the same contexts tend to have similar meanings (Harris, 1954). [11]
สมมติฐานนี้ให้ความสำคัญกับการเกิดร่วมกันของหน่วยต่าง ๆ ในภาษา. Harris วิเคราะห์ distribution ของคำจากการดูการปรากฎร่วมกับคำอื่น ๆ หากนำคำที่สนใจมาดูพร้อมบริบท เราจะเห็นคำต่าง ๆ ที่ปรากฏอยู่ซ้ายและขวาของคำที่สนใจนั้น เมื่อนำข้อมูลทั้งหมดมาดู ก็สามารถแจกแจงรายการคำปรากฏร่วมพร้อมจำนวนการปรากฏได้
The distribution of an element will be understood as the sum of all its environments. An environment of an element A is an existing array of its co-occurents, i.e. the other elements, each in a particular position, with which A occurs to yield an utterance. (Harris, 1954)
ด้วยวิธีการนี้ Harris สามารถแทนคำด้วยชุดของรายการคำบริบทพร้อมความถี่ ซึ่งก็คือเว็กเตอร์แบบหนึ่งนั่นเอง. โมเดลทางภาษาปัจจุบัน ไม่ว่าจะเป็น Word2Vec, GloVe หรือ BERT ต่างก็นำแนวคิดลักษณะนี้มาใช้ ทำให้สามารถแทนที่คำด้วยเว็กเตอร์บริบทหรือที่เรียกกันว่า word embedding. เราเห็นประโยชน์ของการแทนที่คำด้วยเว็กเตอร์นี้ชัดเจนเมื่อพิจารณาเปรียบเทียบผลระหว่าง statistical machine translation กับ neural machine translation. แม้หลักการของ MT เป็นเรื่องทางสถิติเหมือนกัน แต่สิ่งที่ต่างชัดเจนคือ representation ของคำที่ใช้. ใน SMT คำยังถูกมองเป็น symbolic unit แยกขาดจากคำอื่น ๆ แต่ใน NMT คำเป็น embedding ซึ่งรวมความสัมพันธ์ของคำนั้นกับคำอื่น ๆ ในภาษาด้วย. NMT จึงสามารถแปลภาษาได้ดีมากขึ้นกว่า SMT
ภาษาคือระบบสัญญะ
เมื่อพิจารณาคำอธิบายภาษาของ Saussure ในช่วงที่เขาสอนวิชาภาษาศาสตร์เมื่อปี 1910–1911 ที่มองว่าภาษาเป็นระบบสัญญะ. มนุษย์มีภาษาเพื่อใช้อธิบายสิ่งต่าง ๆ รอบตัว. ภาษาทำให้เรามีคำสำหรับใช้เรียกสิ่งต่าง ๆ ภาษาทำให้ความคิดที่ต้องการอ้างหรือพูดถึงสิ่งใด ๆ ชัดเจนขึ้นโดยมีรูปภาษามาเพื่อใช้เรียกสิ่งนั้น. ภาษาจึงเป็นระบบของสัญญะที่ประกอบด้วยรูปภาษาและความหมายที่อ้างถึง (signifier กับ signified) สัญญะต่าง ๆ ที่มีในภาษาไม่ได้มีค่าด้วยตัวมันเอง แต่มีค่าเพราะมันมีความต่างจากสัญญะอื่น ๆ ภายในระบบ
“Without language, though is a vague, uncharted nebula. There are no pre-existing ideas, and nothing is distinct before the appearance of language. (Sassure, 1959, p.112) [12]
“.. in language, one can neither divide sound from thought nor thought from sound” (Saussure, 1959, p. 113)
“Language is a system of interdependent terms in which the value of each term results solely from the simultaneous presence of the others” (Saussure, 1959, p. 114).
หากมองภาษาว่าเป็นระบบสัญญะนี้ การแทนคำด้วยเว็กเตอร์บริบทเป็นการสร้างรูปแทนในภาษาที่สอดคล้องกับการมองสัญญะว่าเป็นหน่วยที่ค่าของมันอยู่ที่ความต่างจากสัญญะอื่น ๆ ในระบบ เพราะความสัมพันธ์ระหว่างคำนั้นกับคำอื่น ๆ ในระบบถูกแทนด้วยค่าการปราฏร่วมกันในข้อมูลภาษาจริง. ดังนั้น ใน LLM ซึ่งนอกจากข้อมูลเข้าเป็น embedding ของหน่วยคำ กระบวนการเรียนรู้ภาษาซึ่งแม้ว่าจะเป็นการทำนายคำถัดไปจากคำบริบทก่อนหน้า แต่การมองข้อมูลบริบททั้งหมดก่อนหน้าด้วยคือการทำ embedding ในระดับสูงกว่าคำด้วย. ด้วยการเรียนรู้ข้อมูลภาษาแบบนี้ LLM จึงไม่ได้เพียงจำค่าสถิติของภาษา แต่ได้เรียนรู้ระบบภาษาหรือระบบสัญญะภายในภาษานั้น. เนื่องจากภาษามีทั้งรูปภาษาและความหมาย สิ่งที่ LLM เรียนรู้จากข้อมูลภาษาจึงเป็นทั้งความสัมพันธ์ทางรูปภาษาและความสัมพันธ์ทางความหมายที่อยู่กับรูปภาษานั้น. นี่อาจเป็นคำอธิบายว่าทำไม LLM อย่าง ChatGPT จึงสามารถเข้าใจคำถามและใช้ภาษามนุษย์โต้ตอบกับเราได้
Machine Intelligence
แม้เราจะไม่รู้จริง ๆ ว่ามนุษย์เราเก็บและเรียนรู้ภาษาอย่างไรภายในเครือข่ายเซลล์ประสาทของสมอง แค่คำอธิบายของนักภาษาศาสตร์ที่พยายามศึกษาทำความเข้าใจความรู้เกี่ยวกับระบบของภาษาที่กล่าวมา และการที่ LLM สามารถแสดงออกถึงความสามารถทางภาษาได้ ก็น่าจะทำให้เห็นว่าแนวคิดเรื่องภาษาเป็นระบบของสัญญะที่ประกอบด้วยรูปภาษาและความหมาย และค่าของสัญญะสามารถแทนด้วยการหาความสัมพันธ์กับหน่วยอื่น ๆ ในระบบตามแนวคิด distributional hypothesis เป็นแนวทางที่ช่วยให้ AI มีความฉลาดและรู้ภาษามนุษย์ได้. แม้ว่าวิธีการเรียนรู้ภาษาของมนุษย์จะไม่เหมือน LLM. มนุษย์ไม่ได้ต้องการใช้ข้อมูลจำนวนมหาศาลเพื่อสร้างระบบภาษาขึ้น. มนุษย์สามารถเรียนภาษาแรกหรือภาษาแม่ได้ในเวลาอันสั้นด้วยข้อมูลไม่มากแบบ LLM. ภาษาอื่น ๆ ที่เรียนภายหลังจะเป็นภาษาที่สองหรือภาษาต่างประเทศ. แต่สำหรับ LLM ไม่มีภาษาไหนเป็นภาษาแม่หรือภาษาที่สอง มีเพียงว่าภาษาไหนได้เห็นข้อมูลมากพอจนเข้าใจและสร้างระบบของภาษาดีพอจนใช้ภาษานั้นได้เหมาะสม
อย่างไรก็ตาม แม้ LLM จะตอบคำถามต่าง ๆ ได้เหมือนเข้าใจภาษาดี แต่ก็มีหลายกรณีที่ LLM ตอบคำถามเหมือนไม่ได้มีความเข้าใจจริง เช่น เมื่อสั่งให้สร้างรูปถาดใส่ผลไม้ที่ไม่มีกล้วย ChatGPT กลับวาดภาพที่มีกล้วยอยู่ด้วย. เมื่อเอาภาพที่วาดนี้ไปถามว่าเห็นผลไม้อะไรบ้างในภาพนั้น. ChatGPT ก็รู้ว่ามีกล้วยในภาพนั้นและยังรู้ตัวว่าวาดภาพผิดจากที่สั่งไป
คำถามว่า AI มีความฉลาดจริงไหมจึงเป็นคำถามที่หลายคนสงสัยและพยายามตอบคำถามนี้. ความฉลาดที่คนสนใจไม่ได้จำกัดแค่เรื่องภาษาแต่รวมความสามารถในการวิเคราะห์และสร้างรูป. Melanie Mitchell [13], [14] บรรยายเรื่องนี้และได้ยกตัวอย่างงานคนทั้งสองฝ่ายมาแสดง. เช่น AI วิเคราะห์ภาพมะเร็งอาจทำนายถูกเพียงเพราะภาพที่มีเนื้อมะเร็งมักมีไม้บรรทัดทาบอยู่. ตัวอย่างประเภทนี้แสดงว่าสิ่งที่เราคิดว่า AI วิเคราะห์โดยสนใจดูที่ภาพเนื้องอก แต่แท้จริงแล้วกลับใช้สิ่งที่ไม่เกี่ยวอย่างไม้บรรทัดเป็นตัวบ่งชี้ เพียงแค่บังเอิญในภาพมะเร็งจำนวนมากจะมีการวางไม้บรรทัดเพื่อวัดขนาดมะเร็งอยู่ด้วย.
Mitchell [13] เองก็ทดลองงานที่คนทั่วไปทำได้ง่ายแต่เป็นปัญหาสำหรับ GPT-4. อย่างไรก็ตาม การทดสอบของเธอเป็นการทดสอบภาพที่มีองค์ประกอบและสีเพื่อตรวจสอบความเข้าใจมโนทัศน์พื้นฐานทางปริภูมิ แต่ตอนที่ทดสอบกับ GPT-4 ก็จำเป็นต้องแปลงภาพนั้นเป็นข้อมูลตัวอักษรให้ GPT-4 ตอบแทน. การเลี่ยงทดสอบด้วยข้อมูลภาษาก็เพื่อป้องกันไม่ให้ GPT-4 ใช้ข้อมูลบางอย่างในภาษามาช่วยในการตอบ แต่ในขณะเดียวกัน การทดสอบที่ไม่ใช่ภาษาโดยตรงก็ดูไม่เป็นธรรมกับ GPT-4 เพราะข้อมูลที่ GPT-4 รู้จักก็มาจากการเรียนรู้จากภาษาเป็นหลัก แม้จะลองใช้โหมดวิเคราะห์ภาพด้วย ก็ไม่น่าจะใช้ได้ เพราะวิธีการเรียนรู้ข้อมูลจากภาพของ AI ไม่มีพื้นฐานอะไรที่ชี้ว่าทำให้เข้าใจภาพแบบมนุษย์. ไม่เหมือนการเรียนรู้จากข้อมูลภาษาที่เราเห็นว่าเป็นแนวคิดที่สอดคล้องกับคำอธิบายความรู้เรื่องระบบภาษาที่เสนอโดยนักภาษาศาสตร์
ดูเหมือนข้อสรุปที่ได้คือ AI มีความฉลาดทางภาษา แต่ความฉลาดของ AI อาจไม่เหมือนกับของมนุษย์. เราจึงพบทั้งกรณีที่หลายคนรู้สึกว่าการคุยกับ AI เหมือนคุยกับผู้รอบรู้ทุกเรื่อง สามารถสนทนาได้ทุกหัวข้อ ทุกลีลาภาษา บางคนถึงกับพูดว่าเหมือนกำลังสนทนากับพระเจ้า. แต่ก็มีกรณีที่หลายคนรู้สึกว่า AI ตอบคำถามไม่ได้ทั้ง ๆ ที่เป็นเรื่องง่าย ๆ แต่ส่วนใหญ่มักเป็นงานที่ไม่กี่ยวกับภาษาโดยตรง เช่น โจทย์คณิตศาสตร์หรือรูปภาพ. Geoffrey Hinton [15] เองก็พยายามบอกให้คนคิดว่า intelligence ของ AI ไม่จำเป็นต้องเหมือนของมนุษย์ จริงๆ ควรมองมันเป็น Digital Intelligence มากกว่า ซึ่งต่างจากมนุษย์ได้และอาจจะฉลาดกว่ามนุษย์ในที่สุดได้.
มนุษย์ต่างดาวก็รู้ภาษามนุษย์ได้
ความสามารถในการสร้าง AI ที่รู้และเข้าใจภาษาโดยใช้เทคโนโลยี deep neural network สร้างเป็น LLM แบบที่เป็นอยู่นี้ทำให้เห็นว่าการประมวลผลภาษานั้นไม่ใช่เรื่องยากอย่างที่เคยคิดกัน. ใครก็ได้ที่มีเทคโนโลยีคอมพิวเตอร์ที่สามารถสร้าง deep neural network และใช้ embedding ในภาษาก็สามารถรวบรวมข้อมูลภาษาทั้งหลายที่มีเผยแพร่อยู่ในอินเทอร์เน็ตมาสร้างแบบจำลองภาษาขึ้นมาได้. ใครก็ได้นี้ก็อาจเป็นมนุษย์ต่างดาวก็ได้. หาก ChatGPT ไม่ได้ถูกสร้างโดยมนุษย์แต่เป็นสิ่งมีชีวิตต่างดาว เราจะรู้สึกคุ้นเคยและไว้ใจในการใช้งาน ChatGPT แบบที่เป็นอยู่นี้ไหม
ทุกวันนี้ เพราะเราคุ้นเคยกับการใช้คอมพิวเตอร์ช่วยทำงานมาตลอด เพราะเราเป็นคนสร้างคอมพิวเตอร์มาใช้งาน. เราสามารถปิดเปิดหรือเลือกใช้หรือไม่ใช้โปรแกรมอะไรก็ได้. เราจึงมอง AI แบบเดียวกัน. AI เป็นสิ่งที่เราสร้างขึ้น เป็นเพียงเครื่องมือเพื่อใช้ทำงาน จะใช้หรือเลิกใช้ก็ได้. แต่ถ้ามองจากมุมว่า AI สามารถเรียนรู้เองโดยที่เราไม่ได้สอน. ยิ่งเรียนรู้ข้อมูลมากขึ้นก็ยิ่งฉลาดมากขึ้น. ภาษาคือขุมปัญญาทุกอย่างของมนุษย์ ประวัติศาสตร์ ปรัชญา ความคิดความเชื่อต่าง ๆ การปฏิสัมพันธ์ระหว่างกัน ทุกอย่างในอารยธรรมมนุษย์บันทึกไว้ในภาษา. AI จึงเรียนรู้และอาจจะเข้าใจมนุษย์ได้ดีกว่าที่เราเข้าใจตัวเอง. หากถึงวันที่ AI ฉลาดรอบด้านได้เหมือนมนุษย์ ก้าวเข้าสู่ AGI และ ASI แล้ว, AI สามารถออกแบบสร้าง AI ใหม่ที่เก่งกว่าเดิม, AI มีแต่เรียนรู้เรื่องต่าง ๆ เพิ่มไม่ต้องเริ่มจากศูนย์เหมือนมนุษย์ที่เกิดมาก็ต้องเริ่มเรียนรู้กันใหม่จากรุ่นสู่รุ่น. ระหว่างมนุษย์และ AI ใครจะมีพัฒนาการได้เร็วกว่ากัน. แล้วเรายังจะคิดว่าในอนาคต เราสามารถควบคุม AI ได้จริงหรือ
อ้างอิง
[1] Pause Giant AI Experiments: An Open Letter — Future of Life Institute. (https://futureoflife.org/open-letter/pause-giant-ai-experiments)
[2] Elias, J. (2023). ‘Godfather of A.I.’ leaves Google after a decade to warn society of technology he’s touted. CNBC. (https://www.cnbc.com/2023/05/01/godfather-of-ai-leaves-google-after-a-decade-to-warn-of-dangers.html)
[3] Governance of superintelligence. May 22, 2023. (https://openai.com/blog/governance-of-superintelligence)
[4] Statement on AI Risk | CAIS. (https://www.safe.ai/statement-on-ai-risk)
[5] Superintelligence: Science or Fiction? | Elon Musk & Other Great Minds. (n.d.). Www.youtube.com. Retrieved May 3, 2024, from https://youtu.be/h0962biiZa4?si=BOLULdnVZJ3lxXkc
[6] Creating Human-level AI: How and When? (n.d.). Www.youtube.com. Retrieved May 3, 2024, from https://youtu.be/V0aXMTpZTfc?si=ENlWsIWmYUg3YxR5
[7] AI “godfather” quits Google over dangers of Artificial Intelligence — BBC News. (n.d.). Www.youtube.com. Retrieved May 3, 2024, from https://youtu.be/DsBGaHywRhs?si=Itug2AHAnuwTSayq
[8] Chomsky, Noam. (2023). The false promise of ChatGPT. Straits Times. Retrieved from https://www.straitstimes.com/tech/tech-news/the-false-promise-of-chatgpt
[9] Searle, J., 1980, ‘Minds, Brains and Programs’, Behavioral and Brain Sciences, 3: 417–57
[10] Jurafsky, D. and Martin, James H. (2024). Speech and Language Processing. (3rd ed. draft). Retrieved from https://web.stanford.edu/~jurafsky/slp3
[11] Harris, Z. (1954). Distributional Structure, WORD, 10:2–3, 146–162, DOI:10.1080/00437956.1954.11659520
[12] Saussure, F. D. (1959). Course in general linguistics. New York: Philosophical Library.
[13] The Debate Over “Understanding” in AI’s Large Language Models. (n.d.). Www.youtube.com. Retrieved May 2, 2024, from https://youtu.be/O5SLGAWSXMw?si=vJlq-NsbwhFiIr9M
[14] Mitchell, M., & Krakauer, D. C. (2022). The Debate Over Understanding in AI’s Large Language Models. arXiv, 2210.13966. Retrieved from https://arxiv.org/abs/2210.13966v3
[15] AI “godfather” quits Google over dangers of Artificial Intelligence — BBC News. (n.d.). Www.youtube.com. Retrieved May 3, 2024, from https://youtu.be/DsBGaHywRhs?si=Itug2AHAnuwTSayq