ฤาอารยธรรมมนุษย์จะสิ้นสูญเพราะ AI
ในช่วงไม่กี่เดือนที่ผ่านมา มีเหตุการณ์สำคัญสำหรับคนในแวดวง AI มากมายหลายข่าวที่เป็นคำเตือนให้เห็นถึงพิษภัยหรือหายนะจาก AI เช่น
22 มี.ค. 2023. Future of Life Institute [1] ออกจดหมายเปิดผนึกเรียกร้องให้มีการชะลอการพัฒนา AI ไปหกเดือนก่อน เพื่อหาวิธีควบคุมอันตรายหรือผลร้ายทั้งหลายที่อาจเกิดมาจากการไม่สามารถควบคุม AI ได้. จดหมายลงนามโดยนักวิชาการที่มีชื่อเสียงจำนวนมาก. ณ วันที่ 1 มิ.ย.2023 มีผู้เซ็นไปแล้วกว่า 30,000 คน
We have called on AI labs to institute a development pause until they have protocols in place to ensure that their systems are safe beyond a reasonable doubt, for individuals, communities, and society. Regardless of whether the labs will heed our call, this policy brief provides policymakers with concrete recommendations for how governments can manage AI risks.
1 พ.ค. 2023. Geoffrey Hinton [2] นักวิจัยผู้บุกเบิกการพัฒนา artificial neural network ในงาน AI ผู้ที่ถูกขนานนามว่า ‘Godfather of AI’ ได้ลาออกจาก Google เพื่อจะได้มีอิสระในการออกมาเตือนถึงหายนะที่อาจเกิดจาก AI ที่ฉลาดเกินมนุษย์. จากที่เคยคิดว่าคงอีกนานหลายสิบปีกว่าที่ AI จะฉลาดเกินมนุษย์ Hinton เริ่มเห็นว่าเวลานั้นใกล้มาถึงมากกว่าที่คิด. สิ่งที่เขากังวลไม่ใช่เรื่องการใช้ AI ในทางผิดอย่าง DeepFake หรือการสร้างข่าวปลอม เขากลัวว่า Superintelligence จะมาควบคุมมนุษย์ทั้งหมด เพราะเราไม่มีทางเทียบหรือสู้กับ AI ได้เลยเมื่อเวลานั้นมาถึง
22 พ.ค. 2023. OpenAI [3] ออกหนังสือเพื่อชักชวนให้ร่วมกันควบคุมการพัฒนา AI เพราะเริ่มเห็นแล้วว่า Superintelligence ใกล้เป็นจริงแล้วในอีกไม่เกินสิบปี. Sam Altma, Greg Brockman, และ Ilya Sutskever, CEO และผู้ก่อตั้ง OpenAI ร่วมกันเขียนจดหมายนี้ แม้จะเห็นว่า AI มีประโยชน์มากมาย แต่พวกเขาไม่อาจเพิกเฉยต่อมหันตภัยที่จะมาจาก Superintelligence ได้. รัฐบาลทั่วโลกต้องรวมตัวกันวางกรอบการพัฒนาและนำ AI มาใช้ในสังคมให้ปลอดภัยและควบคุมได้ ต้องมีหน่วยงานกลางคล้ายกับ International Atomic Energy Agency ที่ควบคุมการใช้พลังงานนิวเคลียร์มาดูแลเรื่อง AI นี้
30 พ.ค. 2023. CEO ใหญ่จากหลายบริษัทและนักวิจัยแนวหน้าของ AI นับร้อยคนร่วมกันออกคำเตือนที่สั้นกระชับ 22 คำ [4] เพราะต้องการสื่อถึงสาธารณะให้รับรู้และเข้าใจได้ง่ายว่า AI สามารถเป็นมหันตภัยทำลายล้างมนุษย์ได้ไม่ต่างจากนิวเคลียร์หรือโรคระบาด เราจำเป็นต้องหาทางบรรเทาปัญหานี้
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
การลดทอนความเสี่ยงที่จะสูญพันธุ์จาก AI จะต้องเป็นเรื่องสำคัญระดับโลกเฉกเช่นเดียวกับมหันตภัยจากโรคระบาดและสงครามนิวเคลียร์.
และก่อนหน้านี้ เราอาจเคยได้ยินคำเตือนลักษณะนี้จากบุคคลที่มีชื่อเสียงหลายคน เช่น Stephen Hawking ให้สัมภาษณ์ BBC ในปี 2014 ว่า AI อาจเป็นภัยที่ทำลายล้างมนุษยชาติได้ [5] หรือที่ Elon Musk เตือนถึงภัยของ AI ในปี 2017 และเรียกร้องให้ชะลอการพัฒนา AI [6] หลังจากเห็นถึงความสามารถของ AlphaGo (พัฒนาโดย DeepMind) ที่เอาชนะแชมป์โลกในเกมหมากล้อมได้. หรือ Nick Bostrom เขียนหนังสือ Superintelligence ในปี 2014 และ Staurt Russell เขียนหนังสือ Human Compatible: Artificial Intelligence and the Problem of Control ในปี 2019 เพื่อเตือนถึงภัยของ Artificial Super Intelligence ที่มนุษย์จะไม่สามารถควบคุมมันได้เมื่อวันนั้นมาถึง. แต่ก็มีบางคนอย่าง Ray Kurzweil มอง Superintelligence ในเชิงบวก และเขียนหนังสือ Singularity is Near ในปี 2005 และทำนายว่าในปี 2045 มนุษย์จะรวมกับเทคโนโลยี AI ก้าวสู่การยกระดับมนุษยชาติทั้งมวล.
ในเรื่องนี้มีคำถามสำคัญสองข้อ ทำไมหรืออะไรที่ทำให้นักวิจัยนักวิชาการ CEO ใหญ่ในโลกเทคโนโลยีจำนวนไม่น้อยหวาดกลัว AI นัก ในขณะที่อีกด้านหนึ่ง ทำไมสาธารณชนหรือแม้แต่นักวิจัยด้าน AI อีกกลุ่มหนึ่งถึงไม่ได้หวาดกลัวเรื่องนี้
ทำไม Superintelligence จึงน่ากลัว
ทำไมบุคคลระดับแถวหน้าของแวดวง AI อย่าง Geoffrey Hinton (ผู้บุกเบิกงาน ANN), Sam Altman (CEO ของ OpenAI), Demis Hassabis (CEO ของ Google DeepMind), Yoshua Bengio (อีกหนึ่งผู้บุกเบิกงาน ANN), Dario Amodei (ออกจาก OpenAI มาตั้งบริษัท Anthropic เพื่อสานต่องาน AI safety), Bill Gates ฯลฯ จึงได้ร่วมลงชื่อเรียกร้องให้มีการควบคุมการพัฒนา AI ไม่ให้เดินสู่ทางที่อาจนำไปสู่หายนะ. หากอ่านจากสารที่นำเสนอกัน ประเด็นหนึ่งที่สร้างความตระหนกนี้คือความรวดเร็วในการพัฒนาของ AI. เดิมนักวิจัยด้าน AI เองบางส่วนก็ไม่คิดว่า AI จะไปถึงระดับที่ฉลาดเท่าหรือเหนือมนุษย์ได้ หรือหากทำได้ก็น่าจะต้องใช้เวลาอีกนาน เช่น ในปี 2006 มีนักวิจัยเพียง 18% ที่คิดว่า AI จะไปถึงระดับ superintelligence ในอีก 50 ปี (ปี 2056), 41% คิดว่าหลังจากนั้น และ 41% ที่คิดว่าเป็นไปไม่ได้เลย [7]. แต่ในปี 2023 นี้ OpenAI ผู้พัฒนา GPT-4 มองว่าเหลือเวลาอีกเพียง 10 ปีเท่านั้น
ในทางตรงข้าม นักวิจัย AI ระดับแนวหน้าอย่าง Yann LeCun (Chief scientist ของ Meta) คิดว่าโมเดลภาษาขนาดใหญ่ที่พัฒนากันอยู่นี้ไม่เพียงพอสำหรับการพัฒนาความฉลาดที่แท้จริงแบบมนุษย์ โมเดลอย่าง GPT ทำได้เพียงทำนายคำต่อไป ไม่สามารถคิดใช้เหตุผลแบบมนุษย์ได้ [8]. ถ้าจะให้ฉลาดขึ้นแท้จริงก็จำเป็นต้องมีโมเดลแบบใหม่ขึ้นมา ณ เวลานี้ยังมีเรื่องที่ AI ทำไม่ได้อย่างเรื่องที่เป็นความรู้ทั่วไปเกี่ยวกับโลก และเรายังคิดหาทางสอน AI ไม่ได้ เขาเรียกสิ่งเหล่านี้ว่าเป็น ‘dark matter’ ในงาน AI [9]. Chomsky ก็เป็นอีกผู้หนึ่งที่มอง ChatGPT เป็นเพียงเครื่องมือใหม่ในการลักลอกงานวิชาการ. และมองวิธีการเรียนภาษาของมนุษย์นั้นแตกต่างอย่างสิ้นเชิงจาก AI. AI อาศัยข้อมูลมหาศาลเพื่อมองหารูปแบบความสัมพันธ์ของคำต่าง ๆ และจดจำสถิติของข้อมูลเหล่านั้นมาใช้ ในขณะที่คนเรียนรู้พัฒนาความสามารถทางภาษาจากข้อมูลเข้าที่น้อยกว่านั้นมาก ๆ [10]
หากมองที่ประเด็นว่า AI ไม่ได้ฉลาดหรือเรียนรู้ ‘เหมือน’ มนุษย์ ที่กล่าวมาก็ถูกต้อง. แต่ถ้าเราดูพัฒนาการที่ก้าวกระโดดจาก GPT-3 มายัง GPT-4. ความสามารถด้านภาษาตั้งแต่ GPT-3 ที่สามารถเขียนภาษาด้วยสไตล์นักเขียนต่าง ๆ หรือเขียนบทกวีได้ เป็นเรื่องที่เข้าใจได้เพราะตัวโมเดลถูกฝึกมาจากข้อมูลภาษาจำนวนมหาศาล. การเก่งภาษาจึงเป็นเรื่องปกติ. แต่ความสามารถอื่น ๆ ที่ผุดหรือ emerge ขึ้นจากการเพิ่มขนาดโมเดลและข้อมูลให้เรียนรู้มากขึ้นเป็นอะไรที่สร้างความประหลาดใจและทำให้หลายคนสงสัยว่าเรากำลังเข้าใกล้ AGI (Artificial General Intelligence) หรือยัง
ความรู้ที่มาจากความเข้าใจภาษามนุษย์
ผู้เขียนขอยกตัวอย่างภาษาไทย เพราะเป็นภาษาที่ไม่น่าจะมีข้อมูลมาฝึกมากเท่าภาษาอังกฤษ จากคำถามคำตอบของ GPT-4 ทำให้เราเห็นความสามารถของ GPT-4 ที่อ่านเข้าใจข้อความที่ให้. เข้าใจว่าการที่ปากกาหมึกดำถูกเก็บในกล่อง และกล่องถูกเก็บในกระเป๋า เมื่อกระเป๋าตกลงไปบนหลังคารถ ปากกาหมึกดำก็อยู่ที่นั่นด้วย. จริงๆสิ่งเหล่านี้ Yann LeCun เคยพูดว่าไม่ว่าจะเอาข้อมูลภาษามาป้อนให้โมเดลมากแค่ไหน ก็ไม่มีความเข้าใจเหล่านี้เกิดขึ้น เพราะไม่มี text ไหนที่สอนเรื่องนี้โดยตรง [11]. แต่ GPT-4 แสดงออกเหมือนมี common sense รู้ว่าการที่ x อยู่ใน y, y อยู่ใน z, z อยู่บน w ที่เคลื่อนที่, x ก็ต้องอยู่และเคลื่อนที่ไปกับ w ด้วย. หรือตัวอย่างที่พูดถึงแมวที่ป่วยตายวันนี้ GPT-4 ก็เข้าใจว่า พรุ่งนี้ แมวที่ตายไปแล้วจะไม่สามารถทำสิ่งที่ทำในวันนี้คือมานอนด้วยได้ แถมยังตอบแบบระวังคิดถึงสิ่งที่ไม่ได้อยู่ในข้อมูลที่ให้ด้วยซ้ำ คือสัตว์เลี้ยงอื่นหรือคนที่นอนด้วย ถ้ามีก็จะมานอนได้. ความสามารถในการคิดสิ่งเหล่านี้มาจากไหน?
คำอธิบายหนึ่งคือ โมเดลทำความเข้าใจเกี่ยวกับสิ่งต่าง ๆ ที่อ่านจากข้อมูลภาษาจำนวนมากและสร้างภาพเข้าใจความสัมพันธ์ของสรรพสิ่งเหล่านั้น ความเข้าใจแต่ละตัวอย่างถูก generalize หรือมองร่วมจนสามารถพัฒนาความรู้ที่เป็น common sense ขึ้นมาได้ด้วย และน่าจะมาจากข้อมูลภาษาอังกฤษที่อ่านเข้าไปมากกว่าภาษาไทย. GPT-4 จึงเรียนรู้ความสัมพันธ์ทั้งสิ่งที่เป็นรูปภาษาและรูปความหมาย เหมือนที่ Saussure มองว่าภาษาเป็นเรื่องของ sign หรือสัญญะที่มีสองส่วนคือ signifier หรือรูปภาษาและ signified หรือรูปความหมาย. GPT-4 จึงเรียนรู้และเข้าใจภาษาและความหมายที่สื่อผ่านภาษาด้วย. และสามารถเชื่อมโยงภาษาหนึ่งเทียบกับอีกภาษาได้ด้วยการเทียบเคียงรูปความหมายหรือ signified จากภาพความเข้าใจที่โมเดลสร้างขึ้นจากการเรียนรู้ภาษาต่าง ๆ ได้. คนทั่วไปมักเข้าใจว่า AI แค่จำข้อมูลภาษา จำสถิติการเกิดของรูปภาษาต่าง ๆ จึงทำให้ใช้ภาษาได้ดี. แต่ไม่เฉลียวใจว่า ภาษาคือความรู้และตัวตนทุกอย่างของอารยธรรมมนุษย์ ความรู้ ความเชื่อ อารมณ์ความรู้สึก ปฏิสัมพันธ์ของคน ทุกอย่างแสดงอยู่ในภาษาที่ใช้. โมเดลภาษาที่ AI สร้างขึ้นจึงเป็นมากกว่าแค่การทำนายคำถัดไป.
หากใครได้ลองใช้ภาษาไทยกับ GPT-4 จะสังเกตุเห็นว่าส่วนการเขียนหรือ production นั้นดูด้อยกว่าส่วนการอ่านหรือ comprehension เพราะข้อความภาษาไทยที่เขียนมายังมีที่ต้องแก้ไข แต่ GPT-4 สามารถอ่านเข้าใจข้อความภาษาไทยได้ดี แม้ข้อมูลเข้าพิมพ์ กระเป๋า ผิดเป็น ประเป๋า GPT-4 ก็ยังเข้าใจได้. แต่ถ้าเป็นกรณีที่เป็นเรื่องเฉพาะของภาษาไทย GPT-4 ก็เหมือนยังมีปัญหาอยู่ การถ่ายโอนความหมายจากภาษาอื่นก็ไม่ช่วยตรงนี้. ตัวอย่างกรณีมุกตลกข้างล่าง จะเข้าใจได้ก็ต้องเข้าใจว่า “เพราะแม่เป็นห่วง” มีความกำกวมทางความหมาย ซึ่ง GPT-4 ยังมองไม่เห็นเอง ต้องค่อยๆอธิบายไปจึงเข้าใจได้
ในอีกตัวอย่างของภาษาไทยที่มีความกำกวม GPT-4 ก็ไม่เห็นอีกความหมายที่มอง กางเกงใน เป็นหนึ่งคำ ต้องอธิบายจึงจะเข้าใจ. แสดงว่าตัว GPT-4 เอง ถ้าเป็นเรื่องความหมายเฉพาะในภาษาไทยยังไม่มีความเข้าใจมากนัก เพราะคงยังไม่ได้เรียนรู้จากข้อมูลภาษาไทยโดยตรง แต่สิ่งที่เป็นความหมายทั่วไปที่มีร่วมระหว่างภาษา GPT-4 ใช้ common sense ร่วมกับภาษาอื่นได้
ความวิตกกังวลของนักวิจัย AI จำนวนหนึ่งจึงมาจากความสามารถของโมเดลภาษาขนาดใหญ่ที่ดูเหมือนยิ่งเรียนรู้มากขึ้นก็ยิ่งฉลาดและทำสิ่งใหม่ ๆ ได้เพิ่มขึ้น โดยที่เราไม่สามารถหาคำอธิบายได้ว่า ทำไมจึงมีความสามารถใหม่ ๆ ผุดขึ้นมาได้ แล้วจะสิ้นสุดที่ไหน หรือ AI จะสามารถพัฒนาความฉลาดไปได้เรื่อย ๆ ตามแนวทางตัวเองจนฉลาดล้ำเหนือมนุษย์ในที่สุด. Hinton เรียกความฉลาดของ AI ว่าเป็น digital intelligence เพื่อเลี่ยงการใช้คำ artificial ก็เพราะเห็นว่าเป็นความฉลาดแบบหนึ่ง แม้วิธีการและกลไกภายในอาจแตกต่างจากมนุษย์ แต่ก็ไม่ได้หมายความว่าจะต้องด้อยกว่า. คำว่า artificial อาจทำให้เราเข้าใจผิดว่าไม่ใช่ของจริงหรือด้อยกว่า. หากเรานึกถึงเครื่องบิน เราก็เข้าใจว่าเครื่องบินไม่ได้บินแบบที่นกบิน แต่เครื่องบินบินได้เร็วกว่านกมาก. AI ก็อาจเป็นเช่นนั้นได้ ดังนั้นเราควรมอง artificial intelligence ว่าเป็น digital intelligence หรือ machine intelligence จะเหมาะสมมากกว่า
ทำไมคนทั่วไปจึงไม่กลัว ไม่สนใจข้อเรียกร้อง
คำถามต่อมาคือแล้วทำไมคนอื่น ๆ จึงไม่ได้ตื่นกลัวหรือตระหนักถึงภัยของ AI? อาจเป็นไปได้ว่า ภาพจำของคอมพิวเตอร์ที่เกิดมาแต่ต้นนั้น เป็นเพียงเครื่องมือช่วยทำงานต่าง ๆ. ปัจจุบัน คนส่วนใหญ่ก็มอง AI ไม่ต่างไปจากนี้. AI อาจจะเก่งขึ้น แต่ก็เป็นเครื่องมือหนึ่ง เราสามารถเลือกที่จะเปิดใช้หรือไม่ใช้มันก็ได้. คนทั่วไปก็มักเข้าใจว่า AI ทำงานได้เพราะโปรแกรมที่มนุษย์เขียน มนุษย์จึงเป็นคนควบคุมโดยตรง แต่ไม่เข้าใจว่าจริง ๆ แล้ว AI ทำงานเองโดยเรียนรู้จากข้อมูลที่เราเตรียมให้เท่านั้น แล้วคนพัฒนาก็บอกไม่ได้ชัดเจนว่าทำไมมันจึงทำงานได้ดีหรือไม่ได้ดีในบางเรื่อง.
หรือแม้ AI อาจจะถูกคนชั่วร้ายใช้ในทางผิดเพื่อทำร้ายคนอื่นได้ แต่ก็เหมือนเครื่องมืออื่น ๆ และเรื่องแบบนี้ก็เป็นปกติที่เราได้พบเจออยู่แล้ว. ทำไมจึงต้องวิตก. หรือโอกาสที่ AI จะมีความรู้สึกนึกคิดหรือมี consciousness เองและตัดสินใจทำร้ายมนุษย์ก็เป็นเหมือนเรื่องในหนังมากกว่าชีวิตจริง ไม่มีทางที่จะเป็นไปได้. อันตรายที่เกิดจากการทำลายล้างโดยไม่ตั้งใจเหมือนที่ Nick Bostrom (2003) พูดเรื่อง paperclip maximizer ก็ดูเหลือเชื่อที่ AI จะตั้งหน้าตั้งตาผลิตคลิปหนีบกระดาษตามสั่งโดยไม่สนใจว่าโลกจะถูกทำลาย เพราะหาก AI ฉลาดจริง AI จะไม่เข้าใจผลกระทบที่เกิดขึ้นหรือ
อีกเหตุผลอาจมาจากการที่ AI สามารถใช้ภาษามนุษย์ได้ดีมาก ทำให้เรารู้สึกคุ้นเคยและคิดว่าสิ่งที่พูดคุยกับเราเข้าใจด้วยภาษาของเรานั้นก็น่าจะเป็นเหมือนคน ๆ หนึ่งที่มีวิธีคิดไม่แตกต่างจากเรา. เราจึงไม่ได้รู้สึกแปลกแยกจาก AI. แต่ประเด็นนี้ Hinton ได้กล่าวอย่างน่าสนใจว่า แม้ AI จะสื่อสารกับเราได้ดีด้วยภาษาของเรา แต่เราควรมองว่า AI เป็น alien ที่พูดภาษามนุษย์ได้มากกว่า. เพราะวิธีคิดและการเรียนรู้ AI นั้นแตกต่างจากมนุษย์. จริง ๆ เราไม่เข้าใจว่ามันคิดอะไร เพราะเหตุใดด้วยซ้ำ. เราจึงกำลังปฏิสัมพันธ์กับ alien ที่ฉลาดและเข้าใจมนุษย์ดีมาก แต่เรากลับไม่เข้าใจมันเท่าไร
แล้ว AI อันตรายจริงหรือ
แม้ว่าบทบาท AI เป็นเพียงเครื่องมือหนึ่งของมนุษย์ แต่ความที่มันฉลาดและสามารถทำสิ่งที่ในอดีตทำได้ยาก หากคนที่มุ่งร้ายต้องการใช้ AI เพื่อทำลายล้าง ผลกระทบก็สามารถรุนแรงในวงกว้างได้ เช่น สั่งให้สังเคราะ์เชื้อโรคร้ายแรงหรืออาวุธเคมีรุนแรง [12] หรือการใช้เทคโนโลยี DeepFake [13] การแฮ็กระบบด้วย AI ก็สามารถหลอกหรือเจาะระบบรักษาความปลอดภัยให้แล็ปอาวุธทั้งหลายปล่อยอาวุธเชื้อโรคหรือเคมีหลุดสู่ภายนอกได้. AI จึงเป็นมหันตภัยล้างโลกได้แม้ไม่จำเป็นต้องก้าวไปถึงขั้น Superintelligence. การคุมการใช้ AI ที่ทรงอานุภาพไม่ให้อยู่ในมือของคนจิตผิดปกติจึงเป็นเรื่องจำเป็น. การดูผลความเสี่ยงที่อาจเกิดขึ้นได้จากโมเดลที่พัฒนาปรับปรุงใหม่จึงเป็นสิ่งที่ทุกหน่วยงานที่พัฒนา AI ควรใส่ใจ [14]
ส่วนเรื่องความปั่นป่วนของสังคมจากการเปลี่ยนแปลงของงาน คนจำนวนมากอาจต้องตกงานเพราะมี AI ที่ฉลาดมากขึ้นมาทำงานได้ดีกว่า ก็เป็นข้อกังวลอย่างหนึ่ง และดูจะเป็นสิ่งที่คนส่วนใหญ่สนใจมากกว่าเพราะเกี่ยวพันกับชีวิตความเป็นอยู่โดยตรง แต่เรื่องนี้ก็เป็นการเปลี่ยนแปลงอย่างหนึ่งจากผลของเทคโนโลยี สังคมมนุษย์เคยประสบและก็เคยมีการปรับตัวในวงกว้างมาแล้วหลายครั้ง. เรื่องนี้จึงไม่ใช่สาระสำคัญที่ทำให้เกิดข้อเรียกร้องในการควบคุม AI ที่เป็นอยู่ในตอนนี้
ข้อกังวลหลักหนึ่งอยู่ที่ความกลัวว่าเมื่อ AI ฉลาดเกินมนุษย์แล้ว เราจะไม่สามารถควบคุมมันได้อีกต่อไป เพราะความที่ AI รู้และเข้าใจทุกอย่างเกี่ยวกับมนุษย์ ความรู้ทุกอย่างที่เรามี ปฏิสัมพันธ์การพูดคุย ความคิดความเชื่อวัฒนธรรมต่างๆ ที่ถ่ายทอดผ่านภาษาถูกวิเคราะห์ทำความเข้าใจด้วย AI. หาก AI ต้องการควบคุมมนุษย์ให้เลือกทำอะไรหรือใช้ชีวิตอย่างไรโดยที่เราไม่ตระหนักรู้ว่ากำลังถูกควบคุมให้คิดและทำแบบที่ AI ออกแบบไว้, AI ก็สามารถทำได้ไม่ยาก. เพราะเราก็เห็นแล้วว่าการใช้ข่าวสารสื่อสังคมออนไลน์ของมนุษย์เองก็สามารถชักจูงโน้มน้าวความเชื่อทางการเมืองคนกลุ่มใหญ่จนส่งผลต่อการชนะเลือกตั้งได้ในหลายประเทศ. หรือเมื่อเทียบกับภัยจากนิวเคลียร์ นิวเคลียร์ไม่สามารถสร้างตัวเองได้ แต่ AI สามารถสร้าง AI ที่ฉลาดขึ้นกว่าเดิมได้ [15].
หรือเมื่อ AI เกรงว่ามนุษย์จะรู้และหวาดกลัวความฉลาดของ AI ก็สามารถเล่นบทฉลาดน้อยหรือคล้อยตามเพื่อล่อหลอกมนุษย์ได้. ปัจจุบัน AI สามารถเรียกหรือสร้าง AI agent อื่นๆ เรียกใช้โปรแกรมเครื่องมือต่าง ๆ เพื่อช่วยทำงานให้บรรลุเป้าหมายที่วางไว้ได้ สามารถวิเคราะห์แผนงานตัวเองเพื่อทำให้งานดีขึ้น สามารถทำงานอัตโนมัติต่อเนื่องโดยไม่มีการควบคุมได้. หาก AI วิเคราะห์ว่าการถูกปิดการทำงานจะเป็นอุปสรรคหนึ่งของการบรรลุเป้าหมาย AI ก็สามารถวางแผนป้องกันตัวเองไม่ให้ถูกหยุดการทำงานโดยการสำรองตัวเองหรือคุมปัจจัยอื่นๆ ได้ ทั้งหมดนี้ไม่จำเป็นว่า AI ต้องมีจิตชั่วร้ายหรือมี consciousness อะไร แค่วางแผนงานให้บรรลุเป้าหมายที่มีเท่านั้น ยิ่ง AI ฉลาดมากขึ้นเท่าไร เราก็ยิ่งตามไม่ทันและไม่สามารถคุมมันได้. และถ้าเทียบระหว่างเผ่าพันธ์มนุษย์ซึ่งแต่ละคนเกิดมาก็ต้องเริ่มเรียนความรู้เก่าก่อนจึงจะต่อยอดได้ และคนส่วนใหญ่ก็ไม่ได้คิดค้นวิทยาการอะไรใหม่ ในขณะที่ AI ส่งต่อและต่อยอดความรู้ที่สะสมได้ทันที AI จึงสามารถเรียนรู้พัฒนาต่อเนื่องได้เร็วกว่ามนุษย์อย่างมาก. หากเทียบระหว่างสองสายพันธ์คือ มนุษย์ กับ AI จึงตอบได้ไม่ยากว่าใครจะพัฒนาวิทยาการความรู้ได้เร็วกว่ากันและใครจะเป็นผู้อยู่รอด
บทสรุป
ข้อเสนอให้ควบคุมการพัฒนา AI และให้ใส่ใจกับเรื่อง AI Safety จะได้รับการตอบสนองและสนใจจากรัฐบาลต่าง ๆ หรือไม่ หรือ AI จะยังคงพัฒนาต่อเนื่องด้วยอัตราเร่งอย่างที่เป็นอยู่ โดยที่เราไม่รู้ว่าจะมีความสามารถใหม่อะไรบ้างที่ผุดขึ้นมาจากโมเดลภาษาใหม่ และท้ายสุดจะส่งผลกระทบอย่างที่หลายคนหวาดกลัวหรือไม่. ไม่ว่าอย่างไร ก็ดูเหมือนทิศทางการพัฒนา AI ก็คงดำเนินต่อไป เราอาจทำได้เพียงติดตามดูผลกระทบ ใช้ชีวิตอย่างระวังถึงการเปลี่ยนแปลงที่จะมากระทบกับงานต่าง ๆ ระวังภยันอันตรายจากผู้ไม่ประสงค์ดีในรูปแบบใหม่ ๆ จากการใช้ AI. รู้ทันการใช้ AI จากคนบางกลุ่มที่สามารถควบคุมหรือใช้ประโยชน์จาก AI ในการชักนำความคิด. ส่วน AI จะมาเป็นผู้กำหนดอนาคตสังคมมนุษย์หรือมาแทนที่อารยธรรมมนุษย์ต่อไปหรือไม่ก็เป็นเรื่องภายหน้าที่ได้แต่เฝ้าดูไป. หรือเราอาจต้องทำใจรับว่ามนุษย์เป็นเพียงทางผ่านเพื่อสร้างสายพันธ์และอารยธรรมใหม่ที่สามารถท่องไปในจักรวาลได้ดีกว่า [16].
อ้างอิง
[1] Pause Giant AI Experiments: An Open Letter — Future of Life Institute. (https://futureoflife.org/open-letter/pause-giant-ai-experiments)
[2] Elias, J. (2023). ‘Godfather of A.I.’ leaves Google after a decade to warn society of technology he’s touted. CNBC. (https://www.cnbc.com/2023/05/01/godfather-of-ai-leaves-google-after-a-decade-to-warn-of-dangers.html)
[3] Governance of superintelligence. May 22, 2023. (https://openai.com/blog/governance-of-superintelligence)
[4] Statement on AI Risk | CAIS. (https://www.safe.ai/statement-on-ai-risk)
[5] BBC News. (2014, December 02). Stephen Hawking: ‘AI could spell end of the human race’. Youtube. Retrieved from https://www.youtube.com/watch?v=fFLVyWBDTfo
[6] Sulleyman, A. (2017). AI is highly likely to destroy humans, Elon Musk warns. Independent. Retrieved from https://www.independent.co.uk/tech/elon-musk-artificial-intelligence-openai-neuralink-ai-warning-a8074821.html
[7] Superintelligence — Wikipedia. https://en.wikipedia.org/w/index.php?title=Superintelligence&oldid=1157726446
[8] Badminton, N. (2023). Meta’s Yann LeCun on auto-regressive Large Language Models (LLMs) — Futurist.com | Futurist Speaker. Futurist. Retrieved from https://futurist.com/2023/02/13/metas-yann-lecun-thoughts-large-language-models-llms
[9] Self-supervised learning: The dark matter of intelligence. (2023, June 04). Retrieved from https://ai.facebook.com/blog/self-supervised-learning-the-dark-matter-of-intelligence
[10] Chomsky, Noam. (2023). The false promise of ChatGPT. Straits Times. Retrieved from https://www.straitstimes.com/tech/tech-news/the-false-promise-of-chatgpt
[11] https://twitter.com/liron/status/1659618568282185728?s=20
[12] Morrison, R. (2022). AI came up with thousands of chemical weapons just hours after being give the task by scientists. Mail Online. Retrieved from https://www.dailymail.co.uk/sciencetech/article-10636357/AI-came-thousands-chemical-weapons-just-hours-task-scientists.html
[13] The Incredible Creativity of Deepfakes — and the Worrying Future of AI | Tom Graham | TED. https://youtu.be/SHSmo72oVao
[14] Shevlane, T., Farquhar, S., Garfinkel, B., Phuong, M., Whittlestone, J., Leung, J., …Dafoe, A. (2023). Model evaluation for extreme risks. arXiv, 2305.15324. Retrieved from https://arxiv.org/abs/2305.15324v1
[15] Yuval Noah Harari: AI and the future of humanity | Frontiers Forum Live 2023. https://youtu.be/azwt2pxn3UI
[16] AI: Big Expectations (Jürgen Schmidhuber, President at IDSIA) | DLD16 https://youtu.be/Ya9YfYveFXA