นวัตวิธีในมนุษยศาสตร์ดิจิทัล

Wirote Aroonmanakun
9 min readJan 1, 2024

--

มนุษยศาสตร์ดิจิทัลคืออะไร

มนุษยศาสตร์ดิจิทัลหรือ Digital Humanities เป็นสาขาหนึ่งที่ปัจจุบันได้รับความสนใจมากขึ้น. หากมองว่าโลกพัฒนาเข้าสู่ยุคดิจิทัลที่ข้อมูลต่าง ๆ ถูกจัดเก็บและประมวลผลในคอมพิวเตอร์เป็นหลัก และทุกสาขาได้ใช้ประโยชน์จากเทคโนโลยีคอมพิวเตอร์นี้ ก็ไม่แปลกอะไรที่จะมีการเปลี่ยนแปลงมนุษยศาสตร์ไปสู่มนุษยศาสตร์ดิจิทัล. แต่หากนึกเทียบว่าสาขาวิชาอื่น ๆ มีสาขาไหนบ้างที่นำคำดิจิทัลมาขยายแบบนี้. เมื่อลองค้นผ่านกูเกิลเราก็อาจพบคำ Digital Social Science, Digital Physics, Digital Mathematics, Digital Biology, Digital Education, etc. แต่คำเหล่านี้ก็ไม่ได้ปรากฏพบมากเท่า Digital Humanities และไม่ได้มี entry ใน Wikipedia โดยตรง. มีเพียง Digital Physics ที่มี entry ใน Wikipedia แต่ไม่ได้หมายถึงการใช้เทคโนโลยีคอมพิวเตอร์ในการศึกษาทางฟิสิกส์ กลับกลายเป็นแนวคิดหนึ่งที่มองว่าเอกภพเป็นผลของการสร้างขึ้นจากโปรแกรมคอมพิวเตอร์. จึงมองได้ว่าการใช้คำ Digital Humanities เพื่อบอกการเปลี่ยนแปลงนี้มีความแตกต่างจากศาสตร์อื่น ๆ ที่ไม่ได้มีความหมายเพียงการนำเทคโนโลยีคอมพิวเตอร์มาใช้ประโยชน์ แต่ต้องการเน้นถึงความสำคัญของการใช้เทคโนโยลีคอมพิวเตอร์ที่ทำให้เกิดแนวทางและวิธีการศึกษาใหม่ที่ขยายขอบเขตและต่างจากการศึกษาแบบเดิมทางมนุษยศาสตร์

หากย้อนกลับไปดู ก่อนหน้าที่คำว่า Digital Humanities จะใช้กันแพร่หลาย คำว่า Humanities Computing เป็นคำที่มักใช้กันในงานที่พูดถึงการนำคอมพิวเตอร์มาใช้ทางด้านมนุษยศาสตร์. ย้อนไปปีค.ศ. 1946 ที่บาทหลวง Roberto Busa เริ่มสร้างรายการ concordance ข้อมูลจากหนังสือของ Thomas Aquinas จนสำเร็จและเผยแพร่ในปี 1951 [1]. ความสนใจของเขาช่วงนั้นอยู่ที่การนำคอมพิวเตอร์มาใช้ช่วยงานทางมนุษยศาสตร์. Concordance lines เป็นตัวอย่างของการใช้คอมพิวเตอร์ช่วยแจกแจงข้อมูลคำพร้อมบริบท ทำให้การศึกษาคำและความหมายต่าง ๆ ในตัวบททำได้ง่ายขึ้น. นอกจากการใช้คอมพิวเตอร์เพื่อช่วยวิเคราะห์ตัวบทสะดวกขึ้น ยังมีความสนใจเรื่องการทำข้อมูลให้เป็นดิจิทัลและสร้างฐานข้อมูลงานทางมนุษยศาสตร์เพื่อเป็นแหล่งข้อมูลสำหรับการศึกษาโดยใช้คอมพิวเตอร์ได้สะดวกขึ้น

หลังทศวรรษ 1980 ถึง 1990 เมื่อการใช้คอมพิวเตอร์ส่วนบุคคลเริ่มแพร่หลายมากขึ้น และการนำข้อมูลต่าง ๆ เผยแพร่บนอินเทอร์เน็ตในรูป hypertext เริ่มมีมากขึ้น และช่วงนี้ก็มีการทำฐานข้อมูล digital archive ต่าง ๆ มากขึ้น มีการกำหนดมาตรฐานกำกับข้อมูลโดย TEI (Text Encoding Initiative) เริ่มมีการใช้เทคโนโลยีใหม่จากงานด้านภาษาศาสตร์คอมพิวเตอร์เป็นเครื่องมือในการศึกษามากขึ้น. พอเริ่มเข้าศตวรรษที่ยี่สิบเอ็ด มนุษยศาสตร์ดิจิทัลก็เป็นที่สนใจแพร่หลายมากขึ้น. หนังสือ A Companion to Digital Humanities (2004) ทำให้คำนี้เป็นที่รู้จักกว้างขวาง และบทความในหนังสือนอกจากจะให้เห็นความเป็นมาของ Humanities Computing จากอดีตมาถึงปัจจุบัน ยังทำให้เห็นว่า Digital Humanities ไม่ได้เป็นเพียงการจัดเก็บและใช้ข้อมูลทางมนุษยศาสตร์เท่านั้น แต่ได้เสนอนวัตวิธีใหม่ ๆ รวมถึงการตั้งคำถามใหม่ ๆ ที่ทำไม่ได้ในอดีต เกิดการประยุกต์ใช้ในการศึกษาเรื่องใหม่ เช่น การศึกษาสไตล์การเขียน การระบุตัวผู้เขียน การเปลี่ยนแปลงทางวัฒนธรรม และทำให้เห็นความเป็นสหวิทยาการของสาขามากขึ้น

นวัตวิธีสำหรับงานมนุษยศาสตร์

มนุษยศาสตร์ดิจิทัลนำมาซึ่งนวัตวิธีหรือวิธีการศึกษาใหม่ที่ขยายขอบเขตการศึกษางานทางมนุษยศาสตร์ ช่วยให้สามารถศึกษาเรื่องใหม่ ๆ ที่ทำได้ยากในอดีต. จากจุดเริ่มต้นที่มีผู้เห็นประโยชน์จากการใช้คอมพิวเตอร์มาช่วยจัดการข้อมูลและประมวลผลข้อมูล จำเป็นต้องทำข้อมูลต่าง ๆ ให้เป็นดิจิทัลเพื่อให้ใช้งานกับคอมพิวเตอร์ได้ จนมาสู่ยุคปัจจุบันที่ข้อมูลส่วนใหญ่เป็นดิจิทัลแต่ต้นและข้อมูลมีจำนวนมากมายมหาศาล. ความก้าวหน้าทางเทคโนโลยีที่พัฒนาขึ้นอย่างต่อเนื่องเป็นตัวเร่งให้การเติบโตของมนุษยศาสตร์ดิจิทัลได้รับความสนใจในทางสายมนุษยศาสตร์มากขึ้น. ต่อไปนี้เป็นตัวอย่างนวัตวิธีที่ใช้ในงานทางมนุษยศาสตร์

คลังข้อมูลภาษา

คลังข้อมูลภาษาหรือ corpus เป็นนวัตวิธีตั้งแต่ในยุคแรก ๆ ของการศึกษาทางมนุษยศาสตร์โดยเฉพาะการศึกษาผ่านทางภาษา. การรวบรวมข้อมูลมาแสดงในรูปของ concordance เป็นการแสดงผลภาพที่ช่วยให้เราเห็นคำที่ต้องการศึกษาและบริบทการปรากฏของคำโดยที่เราสามารถจัดเรียงข้อมูลตามเงื่อนไขที่กำหนดได้ ช่วยให้เห็นภาพรวมของการใช้คำและวิเคราะห์ความหมายและการใช้คำนั้นได้ง่ายขึ้น. จึงไม่แปลกที่ความคิดที่จะทำ concordance ของหนังสือสำคัญมีมาตั้งแต่ก่อนจะมีโปรแกรม Concordance ใช้กันแพร่หลาย. บาทหลวง Roberto Busa สร้าง concordance ด้วยการเขียนประโยคที่มีคำที่ต้องการศึกษาลงในบัตรรายการ 10,000 ใบสำหรับใช้ในงานวิทยานิพนธ์ของตน [1]. หลังจากนั้น ความต้องการหานวัตกรรมที่จะช่วยสร้างรายการ concordance ให้โดยอัตโนมัติ ทำให้เขาเดินทางมาพบ Thomas J. Watson ที่บริษัท IBM. และเริ่มใช้บัตรเจาะรูเพื่อเตรียมข้อมูลการทำ concordance ด้วยเครื่อง. บาทหลวง Busa ยังฝันถึงงานที่คนรุ่นหลังจะสามารถทำได้ เช่น การระบุว่าคำสรรพนามอ้างถึงใครหรืออะไรก่อนหน้า การหาหน่วยภาษาที่เป็นชื่อเฉพาะ คำประสม การระบุหมวดคำ ความหมายคำ และอื่น ๆ เพื่อให้การวิเคราะห์ตัวบทเป็นไปได้ง่ายขึ้น. ซึ่งความฝันในตอนนั้นก็ได้กลายเป็นจริงในปัจจจุบัน

http://www.biblebonanza.com/how-to-use-the-concordance.html
http://www.corpusthomisticum.org/it/index.age;jsessionid=5CA8C3D985EB9EA77463677A8E3D032A

โปรแกรม Concordance ปัจจุบันอย่าง AntConc, LancsBox ช่วยให้เราทำงานพื้นฐานอย่างการหาความถี่คำ เรียงข้อมูลคำพร้อมบริบท แจกแจงคำที่มักปรากฏร่วมกัน หารายการคำสำคัญในข้อมูล. และด้วยเครื่องมือการประมวลผลภาษาที่ซับซ้อนขึ้น ทำให้โปรแกรมอย่าง Word Sketch ขยายความสามารถในการหาความสัมพันธ์ทางวากยสัมพันธ์ระหว่างคำได้ด้วย. โปรแกรมเหล่านี้จึงเป็นเครื่องมือที่ช่วยให้นักมนุษยศาสตร์ศึกษาจากข้อมูลภาษาขนาดใหญ่ได้. การศึกษาทางวรรณกรรมเองก็ได้ใช้ประโยชน์จากคลังข้อมูลภาษา ด้วยการรวบรวมข้อมูลงานเขียนทั้งหมดของนักเขียนทำให้สามารถศึกษาเนื้อหาและรูปแบบการใช้ภาษาของนักเขียนนั้นได้อย่างครอบคลุม [2]

https://www.laurenceanthony.net/software/antconc/
http://corpora.lancs.ac.uk/lancsbox/
https://www.sketchengine.eu/guide/word-sketch-collocations-and-word-combinations/#toggle-id-1

หอเอกสารดิจิทัล

นอกจากคลังข้อมูลภาษาหรือ corpus ที่เป็นการรวบรวมข้อมูลมาเพื่อเป็นตัวแทนของภาษาที่ต้องการศึกษา อย่างเช่นภาษาของนักเขียนคนใดคนหนึ่ง ภาษากฎหมาย ภาษาวิชาการ ภาษาพูด ฯลฯ การเก็บรวบรวมข้อมูลอีกลักษณะคือการเก็บข้อมูลเป็น digital archive หรือหอเอกสารดิจิทัลในหัวเรื่องใดหัวเรื่องหนึ่งเพื่อให้ผู้สนใจเรื่องนั้นเข้าถึงข้อมูลเพื่อการศึกษาเรื่องนั้นได้ง่าย.ในงานด้านมนุษยศาสตร์ดิจิทัล ความสนใจสร้างหอเอกสารดิจิทัลเกิดขึ้นเพื่อรวบรวมข้อมูลเอกสารต่าง ๆ ในหัวเรื่องที่น่าสนใจเก็บเป็นข้อมูลดิจิทัลเพื่อให้เข้าถึงง่ายขึ้น. ข้อมูลอาจเป็นเอกสารกระดาษที่สแกนหรือถ่ายภาพเก็บไว้ เป็นภาพวาด ภาพเขียน ประติมากรรม โน้ตดนตรี ฯลฯ ที่มีคุณค่าในการศึกษาทางมนุษยศาสตร์ ตัวอย่างหอเอกสารดิจิทัล เช่น African American Women Writers of the 19th Century [3] รวบรวมข้อมูลงานนักเขียนสตรีชาวอเมริกันผิวสีเพื่อให้เข้าถึงและค้นหางานได้ง่าย

https://libguides.nypl.org/african-american-women-writers-of-the-19th-Century

Jane Austen Fiction Manuscripts [4] เป็นอีกหอเอกสารหนึ่งที่เก็บข้อมูลต้นฉบับงานเขียนของ Austen เก็บเป็นภาพจากต้นฉบับทำให้เห็นถึงร่องรอยการแก้ไขระหว่างการเขียนด้วย และสามารถสืบค้นคำต่าง ๆ ในเอกสารได้

https://janeausten.ac.uk/index.html

หอเอกสารดิจิทัลไม่จำเป็นต้องมีลักษณะสถิตย์ที่ให้คนใช้มาดูหรืออ่านจากไฟล์อย่างเดียว เมื่อเทคโนโลยีมีการพัฒนามากขึ้น การทำเป็นสื่อประสมหรือ multimedia ที่มีทั้งเสียงและภาพเคลื่อนไหวได้ ทำให้การนำเสนอเนื้อหามีความหลากหลายน่าสนใจมากขึ้น ตัวอย่างเช่น The World of Dante [5] เป็นหอเอกสารบนเว็บที่นอกจากจะให้ผู้ใช้เข้าถึงและค้นหาตัวบทแล้ว ยังมีแผนภาพ รูปภาพที่ interactive กับผู้ใช้ สามารถกดเลือกดูแต่ละส่วนหรือดูตามเส้นเวลา (timeline) ได้.

http://www.worldofdante.org/

Shakespeare’s Circuits [6] เป็นอีกโครงการของมนุษยศาสตร์ดิจิทัลที่แสดงการเผยแพร่และรับงานของ Shakespeare ที่เกิดขึ้นทั่วโลกผ่าน interactive และ temporal mapping.

http://shakespearescircuits.northwestern.edu/

โครงการ American Panorama [7] แสดงแผนที่แบบ interactive ที่ดูการเปลี่ยนแปลงที่เกิดขึ้นในประเทศสหรัฐอเมริกาในประเด็นต่าง ๆ ตามช่วงเวลาได้ เช่น ภาพด้านล่างที่เป็น interactive map แสดงจำนวนการย้ายถิ่นฐานที่เป็นผลจากการค้าทาสในช่วงทศวรรษต่าง ๆ

https://dsl.richmond.edu/panorama/

นอกจากการสร้างหอเอกสารดิจิทัลที่เป็นแหล่งศึกษาค้นคว้าทางด้านมนุษยศาสตร์แล้ว การรวบรวมข้อมูลจำนวนมากที่เกิดขึ้นในช่วงระยะเวลาต่าง ๆ เช่นโครงการ Google Books Ngram Viewer [8] ที่รวบรวมข้อมูลหนังสือจากอดีตถึงปัจจุบันเป็นฐานข้อมูลให้สืบค้นหาคำและวลีต่าง ๆ ที่ปรากฏในฐานข้อมูลได้ ทำให้สามารถใช้วิเคราะห์การเกิดขึ้นและแนวโน้มการเปลี่ยนแปลงทางความคิดและวัฒนธรรมผ่านการเปลี่ยนแปลงของภาษาตามช่วงเวลาต่าง ๆ เกิดการศึกษาวัฒนธรรมในมิติใหม่ที่เรียกว่า Culturomics [9].

https://books.google.com/ngrams/
https://youtu.be/InJDLLbK0zs?si=HLn50nxl2iktG_z5

อภิบริบทข้อมูล (metadata)

ความสนใจในการสร้างและใช้ประโยชน์จากคลังข้อมูลภาษาและหอเอกสารดิจิทัล ทำให้ต้องสนใจนำนวัตวิธีที่เกี่ยวข้องกับเรื่องการจัดเก็บและค้นคืนข้อมูลเป็นสำคัญ บางโครงการก็อาจต้องการใช้เครื่องมือเกี่ยวกับการแสดงผลภาพหรือแผนที่เพื่อให้ตอบโต้กับผู้ใช้ได้. และในการจัดเก็บข้อมูล นอกจากตัวข้อมูลงานโดยตรงแล้ว ข้อมูลบริบทก็มีความสำคัญสำหรับใช้จัดระบบและค้นคืนข้อมูลด้วย อภิบริบทข้อมูลหรือ meta data จึงมีความสำคัญต่อโครงการต่าง ๆ ด้วย. อภิบริบทข้อมูลเช่นชื่อผู้เขียน ปีที่เขียน ประเภทงาน ฯลฯ จะช่วยคัดกรองข้อมูลที่ตรงกับเงื่อนไขที่ต้องการได้.

อภิบริบทข้อมูลรวมถึงข้อมูลต่าง ๆ เกี่ยวกับตัวชิ้นงานนั้น อาจเป็นข้อมูลออนโทโลยีที่กำหนดโครงสร้างความรู้ในหัวเรื่องต่าง ๆ ทำให้สามารถเข้าใจความเชื่อมโยงข้อมูลผ่านออนโทโลยีนั้นได้. โครงการ O4DH: Ontologies for Digital Humanities [10]เป็นโครงการเพื่อสร้างและใช้ออนโทโลยีที่เป็นเหมือนผังความรู้ (knowledge graph) ที่ช่วยให้เข้าใจข้อมูลทางมนุษยศาสตร์ดิจิทัลมากขึ้น.

https://service.tib.eu/webvowl/#iri=http://ontologia.fr/OTB/lac.owl

อภิบริบทข้อมูลอาจเป็นข้อมูลบริบทที่กำหนดร่วมกันเพื่อให้ใช้งานร่วมกันได้ เช่น โครงการ Pelagios [11] ที่สร้างเครือข่ายทางมนุษยศาสตร์ดิจิทัลให้สามารถแลกเปลี่ยนข้อมูลกันได้โดยใช้ open linked data แต่ละหน่วยงานหรือสถาบันที่มีงานทางมนุษยศาสตร์สามารถกำกับข้อมูลความหมาย (semantic annotation) ของงานต่าง ๆ เช่น กำกับข้อมูล what-who-when-where เพื่อบอกว่าเป็นวัตถุอะไรถูกพบโดยใครที่ไหนเมื่อไร และทำให้ข้อมูลนี้เป็นข้อมูลเปิดเข้าถึงได้ด้วย URI เฉพาะ [12]

https://pelagios.org/

นอกจากข้อมูลบริบท บางโครงการก็อาจต้องการใช้ข้อมูลที่ต้องวิเคราะห์เพิ่มเติมใส่ลงไปในตัวงานนั้นด้วย เช่น การกำกับหมวดคำ การระบุชื่อเฉพาะ เพราะในช่วงเร่ิมต้น คอมพิวเตอร์ยังประมวลผลด้วยตัวเองไม่ได้ต้องอาศัยข้อมูลต่าง ๆ ที่มีการระบุไว้อย่างชัดเจนจึงจะค้นข้อมูลตรงตามเงื่อนไขได้. เมื่อต้องมีการกำกับข้อมูลอื่น ๆ เพิ่มเติมลงไป แต่ละโครงการก็อาจกำหนดวิธีการกำกับข้อมูลหรือ annotation ตามที่ออกแบบเอง. ปัญหาที่ตามมาคือการใช้งานแลกเปลี่ยนข้อมูลกันเป็นไปได้ยาก อีกทั้งเครื่องมือหรือโปรแกรมที่จะทำงานค้นข้อมูลก็ไม่สามารถใช้ร่วมกันได้ จึงมีโครงการที่คิดกำหนดมาตรฐานการกำกับข้อมูลต่าง ๆ คือโครงการ Text Encoding Initiative (TEI) [13] ที่เลือกใช้ XML เป็นมาตรฐานการกำกับข้อมูลพร้อมทั้งกำหนดแท็กและโครงสร้างข้อมูลเพื่อให้เป็นมาตรฐานเดียวกัน. ตัวอย่างโครงการที่ใช้มาตรฐานการกำกับข้อมูลตาม TEI เช่น โครงการ British National Corpus, โครงการ Emily Dickinson Archive, โครงการ Victorian Women Writers’ Project เป็นต้น

https://tei-c.org/release/doc/tei-p5-doc/en/html/index.html

การนำเทคโนโลยีคอมพิวเตอร์เข้ามาจัดการข้อมูลทางมนุษยศาสตร์เป็นนวัตวิธีที่เข้ามาและส่งผลให้การเข้าถึงข้อมูลและจัดการข้อมูลสะดวกและง่ายมากขึ้น สามารถศึกษาข้อมูลได้ครบถ้วนครอบคลุมทุกตัวอย่างการใช้ได้ แทนที่จะต้องอาศัยวิธีการอ่านและหาตัวอย่างที่ต้องการเอาเอง. ยิ่งเมื่อข้อมูลมีขนาดใหญ่มากขึ้นเรื่อย ๆ การศึกษาในรูปแบบเดิมที่จะต้องอ่านอย่างละเอียดทั้งหมดก็เป็นไปได้ยากขึ้น. จำต้องอาศัยการมองข้อมูลจากภาพรวมหรือมุมกว้างหรือที่เรียกว่า distant reading [14], [15]

https://youtu.be/tp4y-_VoXdA?si=eLG_L7ljyWgAmwc2

สถิติกับงานมนุษยศาสตร์

เมื่องานทางมนุษยศาสตร์ใช้คอมพิวเตอร์ประมวลผลข้อมูลจำนวนมาก การใช้สถิติเพื่อประมวลผลข้อมูลก็ตามมา. เพราะการดูภาพรวมข้อมูลขนาดใหญ่ สถิติแบบพรรณนาอย่างค่าเฉลี่ย ส่วนเบี่ยงเบนมาตราฐาน ความถี่และการกระจายตัวข้อมูลก็เป็นการใช้สถิติเพื่ออธิบายข้อมูลนั้น ๆ ได้. นอกจากนี้ การใช้วิธีการทางสถิติยังช่วยแสดงให้เห็นความสัมพันธ์ระหว่างตัวแปรต่าง ๆ ในข้อมูล.

ตัวอย่างโครงการมนุษยศาสตร์ดิจิทัลที่ใช้ข้อมูลเชิงสถิติช่วยให้เห็นมิติต่างๆ ของข้อมูล เช่น โครงการ Digital Tolkien Project [16] และ An analysis of Tolkien’s book [17] ที่นอกจากให้ค้นหาข้อมูลในหนังสือได้ ยังแสดงผลข้อมูลพื้นฐานทางสถิติ เช่น จำนวนคำในหนังสือแต่ละเล่ม แต่ละบท ตำแหน่งหน้าหนังสือที่พบคำต่าง ๆ ในหนังสือแต่ละเล่ม จำนวนคำใหม่ในแต่ละบท การปรากฏร่วมกันของตัวละครต่าง ๆ ในหน้าเดียวกันของหนังสือแต่ละเล่ม ข้อมูลต่าง ๆ นี้จะช่วยให้ผู้อ่านเห็นภาพมุมกว้างของหนังสือในแบบที่การอ่านปกติจะไม่เห็น

https://delvings.digitaltolkien.com/
http://lotrproject.com/statistics/books/

วิธีการทางสถิติอื่น ๆ ที่เกี่ยวข้องกับการอธิบายความสัมพันธ์ของตัวแปรต่าง ๆ หรือใช้สร้างแบบจำลองอธิบายความสัมพันธ์ของตัวแปร ซึ่งเป็นวิธีการทางสถิติที่ใช้กันในการศึกษาของศาสตร์อื่น ๆ ก็สามารถนำมาใช้ในงานมนุษยศาสตร์เพื่อการศึกษาวิจัยได้. สิ่งที่นักมนุษยศาสตรต้องทำความเข้าใจคือลักษณะข้อมูลที่มีในงานของตัวเองว่าเป็นข้อมูลลักษณะไหน [18]. วิธีการทางสถิติแบบต่าง ๆ ที่เหมาะสมกับการนำมาใช้อธิบายข้อมูลที่มีมีอะไรได้บ้างและใช้คำนวณอย่างไร [19], [20] ซึ่งบางครั้งก็จำเป็นต้องแปลงหรือสังเคราะห์ข้อมูลให้อยู่ในรูปที่เหมาะสมสำหรับนำไปคำนวณใช้ในทางสถิติต่อได้ เช่น การแปลงตัวบทเป็นชุดตัวเลขหรือเวกเตอร์ที่ใช้แทนข้อมูลตัวบทนั้น [18].

เมื่อสามารถสังเคราะห์ข้อมูลให้อยู่ในรูปของเวกเตอร์ได้ ก็ทำให้ข้อมูลที่ได้เป็นข้อมูลแบบหลายตัวแปรซึ่งสามารถใช้วิธีการทางสถิติแบบต่าง ๆ ที่เหมาะกับงานนั้นได้. งานของ Biber (1993) [21] เป็นตัวอย่างงานที่อาศัยการแปลงข้อมูลภาษาผ่านการวิเคราะห์หาลักษณ์ทางภาษา (linguistic features) จนได้ชุดข้อมูลลักษณ์ทางภาษาหรือเวกเตอร์ที่นำมาวิเคราะห์ความสัมพันธ์ภายในด้วยวิธีการทางสถิติที่เรียกว่า multidimensional analysis โดย Biber เลือกใช้สถิติ factor analysis เพื่อลดขนาดข้อมูลให้เหลือจำนวนมิติหรือ dimension น้อยลง และจะเห็นว่าลักษณ์ทางภาษาใดที่เข้าพวกกันและมีผลเชิงบวกหรือลบกับแต่ละมิตินั้น. Biber ใช้วิธีการนี้เพื่อวิเคราะห์ประเภทตัวบทหรือ genre ทำให้เห็นความแตกต่างระหว่างตัวบทประเภทต่าง ๆ อย่างเป็นรูปธรรมได้ (ดู [22])

นอกจากงานของ Biber งานด้าน stylometry ที่สนใจศึกษาเรื่อง authorship ของงานเขียน คือหาคำตอบว่างานที่สงสัยนั้นเป็นงานเขียนของใคร ก็สามารถใช้ข้อมูลสังเคราะห์มาเป็นเวกเตอร์ได้. ตัวอย่างงานของ Binongo (2003) [23] ต้องการหาคำตอบว่าหนังสือพ่อมด Oz เล่มที่ 15 นั้นใครเป็นผู้แต่งกันแน่ระหว่างนักเขียนสองคน. เขาหาคำตอบโดยดูชุดคำไวยากรณ์ที่พบมาก 50 คำเป็นตัวแทนของหนังสือ คือใช้คำไวยากรณ์ 50 คำเพื่อสร้างเวกเตอร์แทนหนังสือแต่ละเล่มของนักเขียนทั้งสองคน. จากนั้นใช้สถิติ principal component analysis เพื่อลดทอนข้อมูล 50 มิติให้เหลือ 2 มิติ แล้วจึงเห็นว่าผลที่ได้จากหนังสือของนักเขียนสองคนนี้แตกต่างกัน. และเมื่อนำหนังสือที่สงสัยมาสังเคราะห์ข้อมูลชุดคำไวยากรณ์นำมาเปรียบเทียบกับผลที่ได้ของนักเขียนทั้งสองก็จะเห็นว่าใครควรเป็นผู้เขียนหนังสือเล่มนี้

วิธีการทางสถิติอีกแบบที่นิยมใช้ในการวิเคราะห์ตัวบทคือ Topic Modeling. ซึ่งอาศัยการสังเคราะห์ข้อมูลเวกเตอร์จากตัวบท อาศัยการปรากฏของคำเนื้อหาในแต่ละส่วนของตัวบทเป็นข้อมูลพื้นฐานในการสร้างข้อมูลเวกเตอร์จากตาราง term-document และใช้อัลกอริทึมอย่าง Latent Dirichlet Allocation (LDA) ซึ่งเป็นหนึ่งใน unsupervised learning เพื่อใช้จำแนกหัวข้อหรือ topic ในชุดข้อมูลนั้น แนวคิดหลักของ LDA คือการสันนิษฐานว่าแต่ละเอกสารในชุดข้อมูลประกอบด้วยหัวข้อต่างๆ ซึ่งแต่ละหัวข้อจะมีกลุ่มคำศัพท์เฉพาะของหัวข้อนั้น เทคนิคนี้จะทำการวิเคราะห์ว่าคำแต่ละคำในเอกสารมีความเกี่ยวข้องกับหัวข้อใดด้วยน้ำหนักเท่าใด จากนั้นจึงสามารถจัดกลุ่มเอกสารตามหัวข้อที่เกี่ยวข้องได้.โมเดล LDA จึงเป็นเครื่องมือที่มีประโยชน์มากในการวิเคราะห์ข้อมูลที่เป็นข้อความ โดยเฉพาะในการค้นหาและจำแนกหัวข้อหลัก ๆ จากชุดข้อมูลข้อความที่ใหญ่และซับซ้อน. (ดู [24])

วิธีการสถิติแม้เป็นวิธีการพื้นฐานที่ใช้กับศาสตร์อื่น ๆ โดยเฉพาะศาสตร์ทางด้านวิทยาศาสตร์ แต่สำหรับมนุษยศาสตร์ที่พื้นฐานการศึกษาเป็นการศึกษาเชิงคุณภาพใช้การวิเคราะห์วิจารณ์เพื่อเข้าถึงคุณค่าและความคิดมนุษย์ผ่านงานสร้างสรรค์ต่าง ๆ การใช้สถิติจึงเป็นนวัตวิธีที่ถูกนำมาใช้เมื่อการศึกษาทางมนุษยศาสตร์มีการใช้ข้อมูลขนาดใหญ่มากขึ้น

การแสดงภาพนิทัศน์จากข้อมูล

ในการแสดงผลการวิเคราะห์ข้อมูล นอกเหนือจากการใช้วิธีการทางสถิติเพื่อคำนวณผลของข้อมูลออกมาเป็นตัวเลข การแสดงผลด้วยภาพก็เป็นอีกวิธีการหนึ่งของการแสดงผล. การแสดงผลเป็นแผนภูมิและกราฟพื้นฐานเช่น กราฟเส้น กราฟแท่ง กราฟวงกลม ช่วยให้เห็นภาพข้อมูลชัดขึ้น. นอกจากกราฟต่าง ๆ การแสดงผลภาพยังพัฒนาต่อมาเป็นการแสดงที่ซับซ้อนขึ้น เช่น การแสดงข้อมูลเชื่อมโยงกับแผนที่ (map) ดังตัวอย่างโครงการ World Atlas of Language Structures (WALS) [25] ที่แสดงว่าภาษาที่สนใจมีพูดที่ใดให้เห็นผ่านแผนที่โลก หรือจะเลือกแสดงเฉพาะเสียงในภาษาว่ามีภาษาใดใช้เสียงนั้นและอยู่ที่ส่วนใดของโลกก็ได้.

https://wals.info/

หรือการแสดงผ่านแผนที่ตามช่วงเวลา (temporal map) ดังตัวอย่างโครงการ Shakespeare’s Circuits [6] และโครงการ American Panorama [7] ที่กล่าวมาแล้ว. การแสดงข้อมูลเชิงปริภูมิ (3D space) เช่น โครงการ Digital Karnak [26] ที่สร้างแบบจำลองสามมิติเพื่อให้เห็นสภาพวิหารในยุคอียิปต์โบราณและนำเสนอเป็นวิดีทัศน์ให้เข้าเยี่ยมชมได้.

http://wayback.archive-it.org/7877/20160919172001/http://dlib.etc.ucla.edu/projects/Karnak/experience/IntroductionToTheTempleOfKarnak/1

การแสดงภาพความสัมพันธ์ผ่านเครือข่าย (network) เช่น โครงการ Six Degrees of Francis Bacon [27] ที่แสดงภาพนิทัศน์การติดต่อระหว่างบุคคลที่มีชื่อเสียงอย่าง Francis Bacon, William Shakespeare, และคนอื่น ๆ ในช่วงศตวรรษที่ 16 และ 17 โดยแสดงให้เห็นเป็นภาพโยงการติดต่อระหว่างบุคคลนั้นกับบุคคลอื่น ๆ ซึ่งสามารถกดดูลักษณะการติดต่อและช่วงเวลาการติดต่อได้.

http://www.sixdegreesoffrancisbacon.com/?ids=10000473&min_confidence=60&type=network

การแสดงก้อนคำ (word cloud) เป็นอีกวิธีการหนึ่งของการแสดงผลจำนวนการปรากฏของคำในข้อมูล ยิ่งคำนั้นพบมากในข้อมูล คำที่แสดงก็จะมีขนาดใหญ่ตามไปด้วย การแสดงก้อนคำจึงเป็นอีกนวัตวิธีที่นิยมใช้แสดงให้เห็นเนื้อหาคำในข้อมูลที่ศึกษา มีเครื่องมือจำนวนมากที่ช่วยสร้างก้อนคำได้ เช่น WordClouds.com, WordArts, TagCrowd เป็นต้น

word cloud from “A Companion to Digital Humanities”

การแสดงภาพนิทัศน์เหล่านี้จึงเป็นนวัตวิธีที่เข้ามาช่วยในการศึกษาทางมนุษยศาสตร์ การแสดงข้อมูลเป็นภาพนิทัศน์ช่วยทำให้ข้อมูลที่ซับซ้อนหรือมีปริมาณมากเป็นสิ่งที่สามารถเข้าใจได้ง่ายขึ้น อีกทั้งทำให้สามารถสำรวจข้อมูลได้หลายมิติ เช่น การแสดงความสัมพันธ์ของข้อมูลทางเวลา, พื้นที่, หรือแม้แต่ความสัมพันธ์ทางสังคม ซึ่งมีประโยชน์ในการวิเคราะห์ข้อมูลที่ซับซ้อน

แบบจำลองตัวแทน

นวัตวิธีอีกอย่างคือแบบจำลองตัวแทนหรือ agent-based model (ABM) ซึ่งเป็นแบบจำลองทางคอมพิวเตอร์ (computer simulation) ใช้จำลองสถานการณ์อย่างใดอย่างหนึ่งที่มี agent ต่าง ๆ ในแบบจำลองนั้น แต่ละ agent มีพฤติกรรมตามกฎที่ระบุในแบบจำลองว่า เมื่อพบสภาพแวดล้อมหนึ่งหรือมีปฏิสัมพันธ์กับ agent อื่นจะมีพฤติกรรม ให้กระทำหรือไม่กระทำอะไร. ABM เป็นเทคโนโลยีที่หลายศาสตร์ใช้ในการศึกษาพฤติกรรมของมนุษย์ คือใช้จำลองสถานการณ์ให้เห็นว่าภายใต้เงื่อนไขที่กำหนดจะเกิดเหตุการณ์อะไรขึ้นได้บ้าง เช่น พฤติกรรมการบริโภคของผู้ซื้อ. ในงานทางมนุษยศาสตร์ดิจิทัล ก็มีผู้เสนอให้ใช้ ABM ศึกษางานทางมนุษยศาสตร์ได้ เช่น Gavin (2014) [28] เสนอให้ใช้ ABM กับการศึกษาเหตุการณ์ทางประวัติศาสตร์. ABM ช่วยให้ภาพความเข้าใจว่า ถ้าหากเกิดสิ่งนี้แล้ว ผลที่จะเกิดตามมาจะเป็นอย่างไร. การศึกษาทางประวัติศาสตร์แต่เดิม เราใช้ข้อมูลเชิงสถิตย์คือเท่าที่มีแล้วพยายามอธิบายว่าเกิดอะไรขึ้นโดยสันนิษฐานว่าเพราะเหตุใด แต่หากใช้แบบจำลองตัวแทนแล้ว เราสามารถจำลองดูผลที่จะเกิดขึ้นได้จากปฏิสัมพันธ์ของตัวแทนต่าง ๆ ในแบบจำลองนั้น. ทำให้ทดลองสร้างแบบจำลองเพื่ออธิบายเหตุการณ์ที่เกิดขึ้นได้ดีกว่า. Gasmi et. al. (2014) [29] เสนอการใช้แบบจำลองตัวแทนเพื่อจำลองเหตุการณ์ในอดีตเช่นกัน โดยทดสอบว่าผลของการจัดการจากตัวแทนหรือ agent ต่าง ๆ ที่เกี่ยวข้องในช่วงเวลานั้นส่งผลต่อเหตุการณ์น้ำท่วมใหญ่ในเวียดนามเมื่อปีค.ศ. 1926 อย่างไร. และสามารถเข้าใจว่าถ้ามีการจัดการเปลี่ยนเป็นอีกแบบ ผลที่จะเกิดขึ้นจะเปลี่ยนไปหรือไม่.

การประมวลผลภาษา

พัฒนาการของงานด้านการประมวลผลภาษา (Natural Language Processing) เป็นอีกปัจจัยหนึ่งที่ส่งผลต่อพัฒนาการของนวัตวิธีที่นำมาใช้ทางมนุษยศาสตร์ดิจิทัล. การจัดเก็บข้อมูลภาษาและประมวลผลภาษาในงานต่าง ๆ ต้องอาศัยเครื่องมือการประมวลผลภาษาพื้นฐานหลายอย่าง เช่น การวิเคราะห์วจีวิภาคเพื่อแยกส่วนที่เป็นวิภัตติปัจจัยออกจากแก่นคำ (stemming) ทำให้การนับจำนวนคำไม่ว่าจะมีรูปผันไปอย่างไร ก็นับเป็นคำเดียวกันได้. หรือการวิเคราะห์หมวดคำในข้อมูลให้รู้ว่าคำนั้นควรเป็นหมวดคำใด เป็นคำกริยา หรือคำนาม เป็นต้น (part of speech tagging). ข้อมูลเหล่านี้จะช่วยให้การค้นข้อมูลได้ถูกต้องตามต้องการมากขึ้น. โปรแกรม Concordance ทั่วไปสามารถจัดการข้อมูลเหล่านี้ได้. บางโปรแกรมมีการประมวลผลที่ซับซ้อนขึ้น เช่น วิเคราะห์โครงสร้างในประโยคและความสัมพันธ์ภายใน วิเคราะห์ประเภททางความหมายของคำต่าง ๆ วิเคราะห์หน่วยภาษาที่เป็นชื่อบุคคล องค์กร สถานที่ หรือที่เรียกว่าการทำ named entity recognition เป็นต้น. ความสามารถในการประมวลผลภาษาเหล่านี้อาจผนวกเป็นส่วนหนึ่งของโปรแกรมที่ใช้ เช่น LancsBox มี POS Tagging สำหรับบางภาษาข้างใน. หรืออาจพัฒนาเป็นโมดูลให้เรียกใช้งานเอง เช่น NLTK [30] เป็น Python library ที่ใช้ประมวลผลภาษาอังกฤษได้ดี มีหลากหลายฟังก์ชันให้เลือกใช้. เช่น การทำ tokenization, POS tagging, named entity recognition, syntactic parse เป็นต้น

https://www.nltk.org/

Stanford NLP group [31] เป็นกลุ่มนักวิจัยอีกกลุ่มที่พัฒนาเครื่องมือการประมวลผลพื้นฐานให้สามารถนำไปใช้งานได้ ภาษาที่ใช้พัฒนาเป็นหลักคือภาษา Java. การพัฒนาเครื่องมือประมวลผลภาษาท่ีมีมากขึ้นนี้เองที่ทำให้ผู้ที่ต้องการข้อมูลที่มีการวิเคราะห์ทางภาษาศาสตร์สำหรับใช้ในการศึกษาสามารถได้ข้อมูลที่มีความลึกมากกว่ารูปเขียนที่เห็น. และเป็นนวัตวิธีที่มนุษยศาสตร์ดิจิทัลสามารถนำมาใช้ประโยชน์ได้

https://nlp.stanford.edu/software/

สื่อสังคมออนไลน์

การสื่อสารยุคใหม่เป็นการสื่อสารดิจิทัล โดยเฉพาะการสื่อสารผ่านสื่อสังคมออนไลน์กลายเป็นช่องทางใหม่ที่กลายเป็นช่องทางหลักอย่างหนึ่งในการสื่อสารระหว่างมนุษย์. ข้อมูลจำนวนมหาศาลในการสื่อสารที่เกิดขึ้นเป็นข้อมูลมหัต (big data) ที่สามารถนำมาศึกษาเพื่อให้เข้าใจมนุษย์ในภาพรวมรวมถึงความต่างทางวัฒนธรรมได้. นวัตวิธีที่ช่วยในการศึกษาข้อมูลมหัตทั้งที่เป็นตัวภาษาหรือภาพทำให้สามารถสร้างภาพนิทัศน์แบบต่าง ๆ ให้เข้าใจลักษณะต่าง ๆ ของการสื่อสารของคนแต่ละกลุ่มได้. ตัวอย่างโครงการ Phototrails [32], [33] ใช้ภาพจาก instagram จำนวน 2.3 ล้านภาพที่ส่งจากผู้ใช้ในภูมิภาคต่าง ๆ ทั่วโลกเพื่อศึกษาลักษณะความต่างของการใช้ instagram ของผู้ใช้จาก 13 เมืองทั่วโลก ความแตกต่างของรูปแบบและโครงสร้างข้อมูลภาพเหล่านี้ใช้บ่งลักษณะเฉพาะคนแต่ละกลุ่มซึ่งสะท้อนถึงความต่างทางวัฒนธรรมได้ เป็นการศึกษาที่เรียกว่า Cultural Analytics. ในโครงการใช้รูปภาพที่ได้มาสร้างภาพนิทัศน์ด้วยเทคนิคแบบต่าง ๆ ได้แก่ radial, montage, photoplot, photo and line. และเห็นความต่างของการใช้ instagram ในแต่ละเมือง.

http://phototrails.info/
http://phototrails.info/instagram-cities/

โครงการ Selfisity [34] รวบรวมภาพถ่ายตัวเอง (selfies) ผ่าน instagram จำนวน 656,000 ภาพจากคนในเมืองต่าง ๆ แห่งละ 20,000–30,000 ภาพ แล้วสร้างภาพนิทัศน์แบบต่าง ๆ เพื่อแสดงถึงความต่างทางวัฒนธรรมของแต่ละแห่ง. เช่น การยิ้มในภาพถ่ายตัวเองของแต่ละเมืองก็มีความต่างกันดังรูปแรก และอายุและเพศของผู้โพสต์ภาพตัวเองในแต่ละเมืองที่ต่างกันในรูปที่สอง

https://selfiecity.net/

ข้อมูลสื่อสังคมออนไลน์อีกประเภทคือ Twitter หรือ X ซึ่งเป็นข้อความสั้น ๆ ที่นิยมส่งเพื่อแสดงความคิดเห็นเรื่องต่าง ๆ มักใช้เป็นแหล่งข้อมูลเพื่อศึกษากระแสความคิดที่เกิดขึ้นในช่วงเวลาใดเวลาหนึ่ง. โครงการ Digital Narratives of Covid-19 [35] เป็นโครงการรวบรวมข้อมูล twitter ที่เกี่ยวข้องกับ Covid-19 ที่เป็นภาษาอังกฤษและภาษาสเปนในช่วงการระบาด และเผยแพร่ข้อมูลและโปรแกรมที่ใช้กับคลังข้อมูลนี้. มีตัวอย่างการใช้โปรแกรม Voyant เพื่อวิเคราะห์คลังข้อมูลและตัวอย่างการใช้ topic modeling วิเคราะห์ข้อมูลว่าคำที่บ่งบอก topic ที่สำคัญสามหัวข้อมีอะไรบ้าง

.https://covid.dh.miami.edu/about/
https://covid.dh.miami.edu/2020/06/22/outbreak-topics-topic-modeling-of-covid-19/

Twitter นอกจากเป็นข้อมูลการสื่อสารในสื่อสังคมออนไลน์ ยังเป็นช่องทางการแสดงออกทางวรรณกรรม Twitterature เป็นคำประสมระหว่าง twitter และ literature อันเป็นการบอกถึงการใช้ twitter เป็นช่องทางใหม่ใช้แสดงออกซึ่งงานสร้างสรรค์เช่น คำคม บทกวี นิยาย. โครงการ Twitter Literature หรือ TwitLit [36]. เป็นโครงการมนุษยศาสตร์ดิจิทัลที่รวบรวมข้อมูลงานเขียนผ่าน twitter โดยใช้คำสำคัญ 35 คำที่บอกความเป็นงานเขียนและชีวิตสังคมนักเขียนในการ scrape ข้อมูลนี้

ตัวอย่าง tweet เก็บในคลังข้อมูล TwitLit
จำนวนข้อมูล tweet ที่เก็บในแต่ละปี

นวัตวิธีและผลต่อการศึกษาทางมนุษยศาสตร์

พัฒนาการของการศึกษาทางมนุษยศาสตร์ดิจิทัลได้รับประโยชน์จากพัฒนาทางคอมพิวเตอร์โดยตรง เมื่อการพัฒนาเทคโนโลยีคอมพิวเตอร์ทำให้คอมพิวเตอร์ทำงานต่าง ๆ ได้ดีมากขึ้น ก็ทำให้นวัตวิธีที่ใช้ในงานมนุษยศาสตร์ดิจิทัลมีความซับซ้อนและความสามารถมากขึ้น. เริ่มต้นจากการใช้เทคโนโลยีคอมพิวเตอร์เพื่อเก็บข้อมูลและประมวลผลข้อมูล และขยายขีดความสามารถในการจัดเก็บข้อมูลที่ไม่ใช่เป็นเพียงตัวบท แต่รวมภาพ เสียง วิดีทัศน์ และยังสามารถเชื่อมโยงข้อมูลกับการแสดงผลผ่านแผนที่ แผนภูมิแบบต่าง ๆ. การใช้เทคนิคภาพนิทัศน์แบบต่าง ๆ เพื่อแสดงลักษณะข้อมูลที่หลากหลายและซับซ้อนได้ ตลอดจาการใช้วิธีการทางสถิติ การเรียนรู้ด้วยเครื่อง ทำให้เทคนิคการวิเคราะห์ตัวบท (text analytics) ต่าง ๆ เช่น การจำแนกประเภทเอกสาร (text classification) การระบุอารมณ์ข้อความ (sentiment analysis) การหาความคล้ายคลึงทางความหมาย (semantic similarity) ฯลฯ เป็นเครื่องมือที่สามารถนำมาใช้ประโยชน์ในโครงการมนุษยศาสตร์ดิจิทัลต่าง ๆ ได้. เทคโนโลยีปัญญาประดิษฐ์โดยเฉพาะโมเดลภาษาขนาดใหญ่ (large language model) เป็นนวัตวิธีที่น่าจับตามองว่าจะมีผลต่อการศึกษาทางมนุษยศาสตร์ดิจิทัลมากเพียงใด เพราะเครื่องมืออย่าง ChatGPT ได้แสดงให้เห็นถึงความรู้ความเข้าใจทางภาษาที่ลึกซึ้ง สามารถตอบคำถามและทำงานวิเคราะห์ทางภาษาไม่ว่าจะเป็นเรื่องความหมายคำ มโนอุปลักษณ์ หรือวาทกรรมวิเคราะห์เชิงวิพากษ์ได้

ความเกี่ยวข้องกับศาสตร์ต่าง ๆ นอกเหนือจากมนุษยศาสตร์ทำให้มนุษยศาสตร์ดิจิทัลมีลักษณะที่เป็นการศึกษาข้ามศาสตร์ (trandisciplinary) คือการศึกษาที่หลอมรวมความรู้ศาสตร์ต่าง ๆ ที่เกี่ยวข้องบูรณาการเป็นการศึกษาในลักษณะใหม่. ศูนย์วิจัยทางด้านมนุษยศาสตร์ดิจิทัลจึงมักให้ข้อมูลเครื่องมือต่าง ๆ ที่เกี่ยวข้องและสามารถนำมาใช้ประโยชน์ได้ เช่นที่มหาวิทยาลัย Texas [37] ให้ข้อมูลทรัพยากรและเครื่องมือที่เป็นประโยชน์ต่องานมนุษยศาสตร์ดิจิทัล โดยจัดแบ่งเป็นหมวดต่าง ๆ ได้แก่ การจัดการข้อมูล (data management), การวิเคราะห์ตัวบทและการทำเหมืองข้อมูล (text analysis and data mining), ระบบสารสนเทศทางภูมิศาสตร์และแผนที่ (GIS and mapping), การแสดงภาพนิทัศน์ (visualization) และการเผยแพร่ผลงาน (publishing)

https://guides.lib.utexas.edu/digitalhumanities/text-analysis-data-mining

นวัตวิธีมาพร้อมกับการเปลี่ยนแปลงของธรรมชาติข้อมูลในงานมนุษยศาสตร์ จากเดิมที่ข้อมูลหลักเป็นสิ่งพิมพ์กลายมาเป็นข้อมูลดิจิทัล ทั้งที่เป็นการแปลงข้อมูลเดิมเป็นดิจิทัลหรือการเข้ามาของข้อมูลใหม่ที่เป็นดิจิทัลแต่กำเนิดอย่างสื่อสังคมออนไลน์. และทำให้การทำงานมนุษยศาสตร์จากเดิมที่ทำงานเป็นเอกเทศมาเป็นงานที่ต้องร่วมมือกับผู้อื่นข้ามศาสตร์ และมีช่องทางติดต่อแลกเปลี่ยนความเห็นกันผ่านช่องทางออนไลน์มากขึ้น. นวัตวิธีใหม่ ๆ เหล่านี้ที่เข้ามามีผลต่อการศึกษามนุษยศาสตร์ แต่ก็ไม่ได้เปลี่ยนแปลงคุณค่าและความสนใจในสาขาที่มีแต่เดิมคือการศึกษาเพื่อให้เข้าใจมนุษย์มากขึ้น ไม่ได้เปลี่ยนธรรมชาติของมนุษยศาสตร์ที่อาศัยการคิดเชิงวิพากษ์ (critical thinking) การตีความจากข้อมูล (interpretive) ความหลากหลายของความคิดเห็นในเรื่องเดียวกัน (pluralism) อันนำไปสู่การถกเถียงเรื่องนั้น ๆ (debate) เพียงแต่สิ่งที่ใช้เป็นข้อมูลการศึกษาจากเดิมที่เป็นงานสร้างสรรค์ต่าง ๆ ทั้งที่เป็นงานเขียน งานศิลปะต่าง ๆ การสื่อสารปฏิสัมพันธ์ ความคิดความเชื่อของมนุษย์ในสังคมวัฒนธรรมได้เปลี่ยนเป็นข้อมูลดิจิทัลที่มีจำนวนมากมายมหาศาล เป็นข้อมูลมหัตที่ทำให้ต้องใช้นวัตวิธีใหม และเปิดมิติการศึกษาลักษณะใหม่ ๆ ขึ้น

จากการศึกษางานเป็นเรื่อง ๆ มาสู่การศึกษาจากข้อมูลขนาดใหญ่ ทำให้การศึกษาทางมนุษยศาสตร์ ขยายจากการศึกษางานเชิงปัจเจกมาสู่การศึกษางานหลากหลาย ทำให้เห็นและเข้าใจมนุษย์ในภาพรวมมากขึ้น เข้าใจความคิดความเชื่อวัฒนธรรมในภาพรวมได้. มนุษยศาสตร์ดิจิทัลจึงได้ขยายขอบฟ้าการศึกษาทางมนุษยศาสตร์ไปใกล้กับงานสังคมศาสตร์มากขึ้น. แต่ทั้งหมดก็เป็นไปเพื่อจุดมุ่งหมายเดิมทางมนุษยศาสตร์คือเพื่อให้เราเข้าใจมนุษย์มากขึ้น.

หมายเหตุ

บทความนี้เป็นส่วนหนึ่งของการศึกษาในโครงการ นวัตวิธีในมนุษยศาสตร์ดิจิทัล: การพัฒนาและการประยุกต์ใช้ ในชุดโครงการ วิถีดิจิทัลในมนุษยศาสตร์สู่การพัฒนาทุนมนุษย์อย่างยั่งยืน ได้รับงบประมาณสนับสนุนจากกองทุนส่งเสริมวิทยาศาสตร์วิจัยและนวัตกรรม โดยหน่วยบริหารและจัดการทุนด้านการพัฒนากำลังคน และทุนด้านการพัฒนาสถาบันอุดมศึกษา การวิจัยและการสร้างนวัตกรรม สัญญาเลขที่ B05F640234

อ้างอิง

[1] Winter, Thomas Nelson. (1999). “Roberto Busa, S.J., and the Invention of the Machine-Generated Concordance” Faculty Publications, Classics and Religious Studies Department. 70. https://digitalcommons.unl.edu/classicsfacpub/70

[2] Biber, D. (2011). Corpus linguistics and the study of literature: Back to the future? Scientific Study of Literature 1.15–23.

[3] Divisions, S. C. R. (2023, August 31). Research Guides: African American Women Writers of the 19th Century: Home. Retrieved from https://libguides.nypl.org/african-american-women-writers-of-the-19th-Century

[4] Jane Austen Fiction Manuscripts: Home. (2023, December 13). Retrieved from https://janeausten.ac.uk/index.html

[5] The World of Dante. (2023, December 14). Retrieved from http://www.worldofdante.org

[6] Shakespeare’s Circuits. (2023, December 13). Retrieved from http://shakespearescircuits.northwestern.edu

[7] American Panorama. (2023, December 11). Retrieved from https://dsl.richmond.edu/panorama

[8] Google Books Ngram Viewer. (2023, December 14). Retrieved from https://books.google.com/ngrams

[9] Culturomics — Wikipedia. Retrieved from https://en.wikipedia.org/w/index.php?title=Culturomics&oldid=1170980317

[10] O4DH: Ontologies for Digital Humanities http://o4dh.com/

[11] Welcome to Pelagios Network. (2023, November 14). Retrieved from https://pelagios.org

[12] Recogito, an initiative of Pelagios Commons, http://recogito.pelagios.org/ (accessed 4 January 2024)

[13] TEI: Text Encoding Initiative. (2023, December 15). Retrieved from https://tei-c.org

[14] Ossom-Williamson, P., & Rambsy, K. (2021). 1.4 What is Distant Reading? Mavs Open Press. Retrieved from https://uta.pressbooks.pub/datanotebook/chapter/1-4-distant-reading

[15] Underwood, Ted. (2016). Distant Reading and Recent Intellectual History in “Debates in the Digital Humanities 2016” on Debates in the DH Manifold. (2023, December 15). Retrieved from https://dhdebates.gc.cuny.edu/read/untitled/section/3b96956c-aab2-4037-9894-dc4ff9aa1ec5

[16] Tauber, J. (2023, October 20). Digital Tolkien Project. Retrieved from https://digitaltolkien.com

[17] Tolkien’s books analysed. (2023, December 16). Retrieved from http://lotrproject.com/statistics/books

[18] Aroonmanakunm Wirote. (2022) ข้อมูลภาษากับสถิติ 1: ข้อมูลภาษา. Medium. https://awirote.medium.com/ข้อมูลภาษากับสถิติ-1-ข้อมูลภาษา-bfc1c513106a

[19] Aroonmanakunm Wirote. (2023). ข้อมูลภาษากับสถิติ 2: สถิติพื้นฐาน. Medium. https://awirote.medium.com/ข้อมูลภาษากับสถิติ-2-สถิติพื้นฐาน-9c7237ad4147

[20] Aroonmanakunm Wirote. (2023). ข้อมูลภาษากับสถิติ 3: การใช้ข้อมูล. https://awirote.medium.com/ข้อมูลภาษากับสถิติ-3-การใช้ข้อมูล-7143183c0aff

[21] Biber, Douglas. (1993). The Multi-Dimensional Approach to Linguistic Analyses of Genre Variation: An overview of Methodology and Findings. Computers and the Humanities 26: 331–345.

[22] Aroonmanakunm Wirote. (2023). การทำ Multidimensional Analysis. Medium https://awirote.medium.com/การทำ-multidimensional-analysis-3ab9343c2a1b

[23] Binongo, José Nilo G. (2003). Who Wrote the 15th Book of Oz? An Application of Multivariate Analysis to Authorship Attribution, CHANCE, 16:2, 9–17, DOI: 10.1080/09332480.2003.10554843

[24] Aroonmanakunm Wirote. (2023). การทำ Topic modeling. Medium. https://awirote.medium.com/การทำ-topic-modeling-d1ac4d2c3287

[25] Dryer, Matthew S. & Haspelmath, Martin (eds.) 2013.
WALS Online (v2020.3) [Data set]. Zenodo.
https://doi.org/10.5281/zenodo.7385533
(Available online at https://wals.info, Accessed on 2023-12-24.)

[26] Digital Karnak — ArchVR at UCLA. (2023, December 24). Retrieved from https://archvr.ucla.edu/projects/digital-karnak

[27] “Francis Bacon Network [2, 1562–1626, 61–100%].” Six Degrees of Francis Bacon. http://www.sixdegreesoffrancisbacon.com/?ids=10000473&min_confidence=60&type=network, 12/24/2023.

[28] Gavin, Michael. (2014). Agent-Based Modeling and Historical Simulation. DHQ, Volume 8 Number 4. http://www.digitalhumanities.org/dhq/vol/8/4/000195/000195.html

[29] Gasmi, N., Grignard, A., Drogoul, A., Gaudou, B., Taillandier, P., Tessier, O., & Vo, D. A. (2014, May 05). Reproducing and exploring past events using agent-based geo-historical models. Retrieved from https://hal.science/hal-01394659

[30] NLTK :: Natural Language Toolkit. (2023, January 02). Retrieved from https://www.nltk.org

[31] The Stanford Natural Language Processing Group. (2023, December 28). Retrieved from https://nlp.stanford.edu/software

[32] Phototrails. (2023, December 28). Retrieved from http://phototrails.info

[33] View of Zooming into an Instagram City: Reading the local through social media | First Monday. (2023, December 28). Retrieved from https://firstmonday.org/ojs/index.php/fm/article/view/4711/3698

[34] Selfiecity. (2017, April 03). Retrieved from https://selfiecity.net

[35] Digital Narratives of Covid-19. (2023, December 29). Retrieved from https://covid.dh.miami.edu

[36] Project Twitter Literature. (2021, March 03). Retrieved from https://twitlit.github.io/index.html

[37] Guzman, A. (2023, October 24). LibGuides: Digital Humanities Tools and Resources: Data Management. Retrieved from https://guides.lib.utexas.edu/digitalhumanities/data-management

--

--

No responses yet