วิวัฒนาการของปัญญาประดิษฐ์

Share on facebook
Share on twitter
Share on google
Share on email

การทำให้เครื่องจักรไม่มีชีวิตคิดได้ เป็นความทะเยอทะยานของมนุษยชาติมานานแล้ว

ผู้บุกเบิกแนวคิดนี้คือ นักคณิตศาสตร์ชาวอังกฤษ 2 ท่าน คือ ชาร์ลส์ แบบเบจ (Charles Babbage) และ เอดา ไบรอน เลิฟเลซ (Ada Byron Lovelace) ที่ร่วมกันออกแบบเครื่องจักรที่สามารถทำงานตามคำสั่งของมนุษย์ได้ชื่อว่า “Analytical Machine” [1] ในปี พ.ศ. 2377 (ค.ศ. 1834)
ในปี พ.ศ. 2480 (ค.ศ. 1937) จอห์น อตานาซอฟฟ์ (John Atanasoff) และลูกศิษย์ชื่อ คลิฟฟอร์ด แบร์รี (Clifford Berry) สร้างคอมพิวเตอร์เครื่องแรกของโลก และให้ชื่อว่า “Atanasoff – Berry Computer” หรือ เอบีซี (ABC) แต่คนแรกที่ฝันให้คอมพิวเตอร์มีความฉลาดคือ อลัน ทัวริง (Alan Turing) ซึ่งเป็นผู้นำเสนอแนวคิด การทดสอบทัวริง (Turing test)  [2] เพื่อทดสอบความฉลาดของคอมพิวเตอร์ เมื่อปี พ.ศ. 2493 (ค.ศ. 1950) จนได้รับการยกย่องให้เป็น “บิดาแห่งวิทยาการคอมพิวเตอร์และปัญญาประดิษฐ์”  ในเวลาต่อมา
timeline
ช่วงเวลานั้น ชื่อที่ใช้เรียกเครื่องจักรที่คิดได้มีอยู่หลายชื่อ เพื่อให้คำนิยามของเรื่องนี้ชัดเจนขึ้น จอห์น แมคคาร์ธี (John McCarthy) จึงได้จัดประชุมครั้งประวัติศาสตร์ขึ้นในปี พ.ศ. 2499 (ค.ศ. 1956) ที่วิทยาลัยดาร์ทมัธ (Dartmouth College) รัฐนิวแฮมเชียร์ ประเทศสหรัฐอเมริกา [3] และคำว่า ปัญญาประดิษฐ์ (Artificial Intelligence) ก็เกิดขึ้นจากการประชุมวิชาการครั้งนี้
ความฉลาดของคอมพิวเตอร์พัฒนามาจากการทำงานพื้นฐาน 3 อย่างคือ 1. การค้นหาข้อมูลหรือข้อความในคอมพิวเตอร์ 2. การประมวลผลข้อความซึ่งเป็นการจัดระเบียบ การนำเข้า และแสดงผลตัวอักษร และ 3. การประมวลผลข้อมูลที่เป็นตัวเลข
การค้นหา (Searching) การค้นหาข้อมูลหรือข้อความที่มีอยู่ในคอมพิวเตอร์ มีปัญหาคลาสสิกในวงการคอมพิวเตอร์คือ ปัญหาการเดินทางของเซลส์แมน (Travelling Salesman Problem) โดยเซลล์แมนต้องเดินทางขายของทุกเมืองที่กำหนดให้ครบด้วยระยะทางรวมที่น้อยที่สุด โดยไม่แวะซ้ำเมืองเดิม ปัญหานี้แตกต่างจากการค้นหาแบบเดิม เพราะเป็นการค้นหาเส้นทางที่สั้นที่สุด โดยที่ไม่รู้ว่าเส้นทางสั้นที่สุดนั้นยาวเท่าไร นอกจากจะลองทุกทางเลือกที่เป็นไปได้ นักคอมพิวเตอร์มักนำปัญหานี้มาเป็นโจทย์เพื่อแข่งกันว่าใครจะหาเส้นทางได้สั้นกว่ากัน ความยากของปัญหานี้คือ จำนวนทางเลือกจะเพิ่มขึ้นเป็นทวีคูณตามจำนวนเมือง เช่น ถ้าเราต้องการหาระยะทางที่สั้นที่สุดของ 3 เมือง เส้นทางเปรียบเทียบมีแค่ 2 เส้นทาง ถ้ามี 10 เมือง เส้นทางเปรียบเทียบมีให้เลือก 362,880 เส้นทาง แต่ถ้ามี 15 เมือง เส้นทางเปรียบเทียบจะมีให้เลือกถึง 87,178 ล้านเส้นทาง วิธีหนึ่งที่นิยมมากเรียกว่า วิธีแบบกรีดี (Greedy technique)  หลักคิดของวิธีนี้คือ การเลือกสิ่งที่ดีที่สุดเสมอ ดังนั้นไม่ว่าเซลส์แมนนั้นจะอยู่เมืองไหน จะต้องเดินทางไปยังเมืองถัดไปที่ใกล้ที่สุดและไม่ซ้ำเมืองที่ผ่านมาแล้ว ซึ่งวิธีนี้จะหาเส้นทางได้เร็ว และได้คำตอบที่ดี แต่เราจะไม่มีทางทราบว่าคำตอบนี้ดีที่สุดหรือไม่ การก้าวกระโดดของวิธีการค้นหาเกิดขึ้นเมื่อมีการนำเสนอแนวคิดเรื่องการค้นหาแบบเมต้าฮิวริสติก (Metaheuristic Search) ตัวอย่างเช่น แนวคิดการจำลองพฤติกรรมของฝูงสัตว์ที่ทำงานร่วมกัน เช่น มดและปลวกที่ไม่ต้องมีผู้นำ แต่มีกฎง่าย ๆ ที่สมาชิกทุกตัวถือปฏิบัติ และมีการสื่อสารในหมู่สมาชิกตลอดเวลา นักธรรมชาติวิทยาเรียกพฤติกรรมนี้ว่า “การจัดการตนเอง” (Self – organization) [4] วิธีการที่มีชื่อเสียงมากวิธีหนึ่งคือ การจำลองการเดินทางของฝูงมดไปหาอาหารของมาร์โค โดริโก้ (Marco Dorigo) ที่เรียกว่า “อัลกอริทึมฝูงมด” (Ant Colony Algorithm) ในปี พ.ศ. 2549 (ค.ศ. 2006) [5] จากการสังเกตพบว่า มดเดินทางไปหาอาหารด้วยเส้นทางที่สั้นที่สุดเสมอ การจำลองพฤติกรรมของฝูงสัตว์มีอีกหลายวิธี เช่น ฝูงปลา ฝูงนก และฝูงผึ้ง [6] เป็นต้น

พฤติกรรมของฝูงสัตว์ที่ทำงานร่วมกันเช่น มดและปลวกที่สร้างรังโดยไม่ต้องมีผู้นำ แต่มีกฎง่ายๆ ที่สมาชิกทุกตัวถือปฏิบัติ และมีการสื่อสารในหมู่สมาชิกตลอดเวลาที่นักธรรมชาติวิทยาเรียกพฤติกรรมนี้ว่า ‘การจัดการตนเอง’

การค้นหาด้วยการจำลองพฤติกรรมฝูงสัตว์มีประสิทธิภาพในการแก้ปัญหาสูงมาก ปัจจุบัน วิธีการนี้ถูกนำไปใช้หาคำตอบของปัญหาที่ยากและซับซ้อน เช่น การควบคุมให้หุ่นยนต์หลายตัวทำงานประสานกัน การหาวิธีลดค่าใช้จ่ายในระบบโลจิสติกของบริษัทขนส่ง การจัดตารางทำงานของเครื่องจักรในโรงงานขนาดใหญ่ การพยากรณ์อากาศ และการวิเคราะห์ปัญหาเศรษฐกิจได้เป็นอย่างดี
การประมวลผลข้อความ (Text Processing) ซึ่งเป็นการจัดระเบียบ การนำเข้า และแสดงผลตัวอักษร เข้ามามีบทบาททำให้คอมพิวเตอร์มีความฉลาด เกิดขึ้นเมื่อ เนวิล (Newell) ชอว์ (Shaw) และ ไซมอน (Simon) นำเสนอวิธีแก้ปัญหาแบบทั่วไป (General Problem Solving) หรือ GPS ในปี พ.ศ. 2502 (ค.ศ. 1959) [7] ซึ่งเป็นการเขียนกฎแบบตรรกศาสตร์ให้เป็นระบบฐานความรู้ (Knowledge-based System) และประมวลผลด้วยวิธีค้นหาที่เรียกว่าเครื่องอนุมาน (Inference Engine) ต่อมาในปี พ.ศ. 2508 (ค.ศ. 1965) ลอตฟี ซาเดช (Lotfi Zadeh) ได้นำเสนอวิธีการที่เรียกว่า ตรรกะฟัสซี (Fuzzy logic) เพื่อใช้ประมวลผลกฎที่มีความกำกวม  ด้วยการใช้วิธี GSP โจเซฟ ไวเซนบาม (Joseph Weizenbaum) ได้สร้างกฎการเปรียบเทียบโครงสร้างประโยคไวยากรณ์อย่างง่าย แล้วสร้างเป็นแชทบอท (Chat bot) ตัวแรกของโลกชื่อ ELIZA ในปี พ.ศ. 2508 (ค.ศ. 1965) [8] ในปีเดียวกัน โจชัว ลิเดอร์เบิร์ก (Joshua Lederberg) นักเคมีรางวัลโนเบล เอ็ดเวิร์ด ไฟเจนบาม (Edward Feigenbaum) และบรูซ บูชาแนน (Bruce Buchanan) ได้ร่วมกันสร้างเดนดรอล (Dendral) จากแนวคิดของ GPS เพื่อวิเคราะห์โครงสร้างโมเลกุลทางเคมี และพัฒนาต่อมาเป็น ระบบผู้เชี่ยวชาญ (Expert System) ชื่อ ไมซิน (Mycin) ในปี พ.ศ. 2527 (ค.ศ. 1984) [9] 

ไมซินเป็นระบบผู้เชี่ยวชาญที่ช่วยหมอวินิจฉัยโรคที่เกิดจากเชื้อแบคทีเรีย จากการทดสอบโดยวิทยาลัยการแพทย์ของมหาวิทยาลัยสแตนฟอร์ด ไมซินทำงานได้ดีมาก แต่ก็ไม่เคยถูกนำมาใช้จริง เนื่องจากปัญหาด้านจรรยาบรรณทางการแพทย์

การพัฒนาปัญญาประดิษฐ์ถูกกระตุ้นให้เกิดความตื่นเต้น เมื่อสหภาพยุโรปได้ประกาศโครงการยูโรตร้า (Eurotra) เพื่อสร้างคอมพิวเตอร์แปลภาษา (Machine Translation) ในปี พ.ศ. 2521 (ค.ศ. 1978) และรัฐบาลญี่ปุ่นได้ประกาศโครงการคอมพิวเตอร์ยุคที่ 5 (Fifth Generation Computer) ในปี พ.ศ. 2525 (ค.ศ.1982) ที่มีการสร้างเครื่องแปลภาษาเช่นกัน อุปสรรคอย่างหนึ่งของโครงการเหล่านี้คือ การสร้างกฎให้ครอบคลุมเงื่อนไขทุกอย่างของภาษา โครงการเหล่านี้ประสบความสำเร็จไม่มากนัก แต่ได้ให้เครื่องมือกับปัญญาประดิษฐ์ไว้หลายชิ้น เช่น การประมวลผลแบบขนาน (Parallel Processing) การเขียนเว็บ (HTML) ฐานข้อมูลคำศัพท์ (WordNet) ตรรกะฟัสซี (Fuzzy logic) และวิธีการเขียนโปรแกรมเชิงวัตถุ (Object-oriented Programing) เป็นต้น
การประมวลผลข้อมูล (Data Processing) ซึ่งดูเหมือนจะมีวิวัฒนาการที่สร้างผลกระทบต่อปัญญาประดิษฐ์มากที่สุด วิวัฒนาการของเรื่องนี้เริ่มต้นเมื่อปี พ.ศ. 2486 (ค.ศ. 1943) หลังจากที่คอมพิวเตอร์เครื่องแรกเกิดได้ไม่นาน วอแรน แมคคูลล็อค (Warren McCulloch) และ วอล์เตอร์ พิทซ์ (Walter Pitts) นำเสนอแนวคิดการประมวลผลข้อมูลแบบโครงข่ายประสาทของมนุษย์ ซึ่งต่อมาพัฒนาเป็นโครงข่ายประสาทเทียม (Artificial Neural Network) ในปี พ.ศ. 2500 (ค.ศ. 1957) โดย แฟรงค์ โรเซนบลัทท์ (Frank Rosenblatt) และพัฒนาต่อมาเป็น การเรียนรู้เชิงลึก (Deep Learning) โดยผู้ที่ได้รับการยอมรับว่าเป็นผู้บุกเบิกคือ ฮินตัน (Geoffrey Everest Hinton) การทำงานของโครงข่ายประสาทเทียมเป็นการประมวลผลเชิงตัวเลขที่แทนความสัมพันธ์ระหว่างข้อมูลที่ป้อนเข้ากับผลลัพธ์ที่ต้องการทำนาย ไม่ว่าข้อมูลที่ป้อนให้กับระบบจะเป็นภาพหรือข้อความก็ตาม สาเหตุที่โครงข่ายประสาทเทียมทำแบบนี้ได้เป็นเพราะคอมพิวเตอร์เก็บข้อมูลทุกอย่างในรูปแบบของดิจิตอล ซึ่งก็คือ ตัวเลข นั่นเอง การพัฒนาโครงข่ายประสาทเทียมเกิดการก้าวกระโดดอย่างมากในปี พ.ศ. 2555 (ค.ศ. 2012) เมื่อแอนดรูว์ เอง (Andrew Ng) และเจฟ ดีน (Jeff Dean) ได้พัฒนาระบบโครงข่ายประสาทเทียมแบบใหม่ที่สามารถเรียนรู้และจำภาพในลักษณะของกรอบแนวคิดระดับสูง (Higher-level Concepts) ระบบนี้รู้จักภาพของแมว ไม่ว่าภาพแมวนั้นจะมีลักษณะเปลี่ยนไปเป็นอย่างไร เช่น แมวกำลังยืน นั่ง วิ่ง หรือมีสีขนที่ต่างกันออกไป ระบบการเรียนรู้เชิงลึกนำตัวอย่างที่เก็บอยู่ในรูปดิจิตอลเป็นข้อมูลป้อนเข้า และใช้คณิตศาสตร์สังเคราะห์คุณลักษณะของข้อมูลดิจิตอลให้กลายเป็นโมเดลคุณลักษณะ ที่ทำหน้าที่เสมือนกฎในการอธิบายถึงคุณลักษณะของข้อมูลป้อนเข้า ด้วยวิธีการดังกล่าว การเรียนรู้เชิงลึกจะเรียนรู้ว่าข้อมูลป้อนเข้าคืออะไร และมีคุณลักษณะอย่างไร ดังนั้น ยิ่งมีข้อมูลป้อนเข้ามากขึ้น ระบบนี้จะยิ่งฉลาดขึ้น กล่าวคือ ถ้ามีการนำตัวอย่างประโยคของการแปลภาษาไทย-อังกฤษป้อนเข้าระบบการเรียนรู้เชิงลึกมากๆ ระบบก็จะแปลภาษาได้ หรือถ้านำข้อมูลเสียงพูดที่มีตัวอักษรกำกับป้อนให้กับระบบมากๆ ระบบก็จะสามารถเขียนตัวอักษรตามเสียงพูดได้ เป็นต้น 

ถ้านำตัวอย่างประโยคของการแปลภาษาไทย-อังกฤษป้อนเข้าระบบการเรียนรู้เชิงลึกมากๆ ระบบก็จะแปลภาษาได้

ปัจจุบันทฤษฎีของปัญญาประดิษฐ์ทั้ง 3 วิธีดังกล่าว เริ่มเข้ามาบรรจบกันและทำให้เกิดเทคนิคใหม่ที่มีประสิทธิภาพมากขึ้น อย่างไรก็ตาม ปัญญาประดิษฐ์ยังคงมีข้อจำกัดอยู่เช่นกัน อาทิ ปัญญาประดิษฐ์ในปัจจุบันมีความฉลาดเฉพาะเรื่องเท่านั้น เช่น ปัญญาประดิษฐ์ที่รู้จักภาพแมว ยังไม่สามารถเป็นล่ามได้ เนื่องด้วยข้อจำกัดด้านความเร็วในการประมวลผลของฮาร์ดแวร์คอมพิวเตอร์
ในอนาคต หากข้อจำกัดด้านฮาร์ดแวร์หมดไป เราอาจได้เห็นปัญญาประดิษฐ์ที่คล้ายมนุษย์มากขึ้น หากนำปัญญาประดิษฐ์นี้ไปใส่ไว้ในหุ่นยนต์ เราอาจได้เห็นมนุษย์หุ่นยนต์แบบในภาพยนตร์เรื่อง I Am Mother ก็เป็นได้

Our Writer

ศ.ดร.บุญเจริญ ศิริเนาวกุล

ศ.ดร.บุญเจริญ ศิริเนาวกุล

ประธานเจ้าหน้าที่บริหาร สำนักเคเอกซ์
มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี

เอกสารอ้างอิง

[1] C. Babbage, Chapter VIII- Of the Analytical Engine. Passages from the Life of a Philosopher, London: Longman, 1864. 
[2] A. Turing, “Computing machine and intelligence,” 1995.
[3] “Dartmouth workshop,” [Online]. Available: https://en.wikipedia.org/wiki/Dartmouth_workshop. [Accessed 14 9 2020].
[4] L. Fisher, The Perfect Swarm, The science of complexity in everyday life, New York: Basic Books, 2011. 
[5] Marco Dorigo, Mauro Birattari, Thomas Stiitze, “Ant colony optimization, Artificial ants as a computational intelligence technique,” IEEE Computational Intelligence Magazine, pp. 28-39, 2006. 
[6] B. Sirinaovakul, “Artificial Intelligence: Swarm Intelligence,” [Online]. Available: https://drive.google.com/file/d/1SYslotsgDj1PbXVtbnXk4T_ZohDBje3d/view?fbclid=IwAR09B_-Tqq2E7LfO53cy4ALSweIW088yvgu14V2tAvGWQuCcAL2BjTF9Y4M. [Accessed 15 9 2020].
[7] A. Newell, J. Shaw and H. Simon, “Report on a general problem-solving program,” in Proceedings of the International Conference on Information Processing, 1959. 
[8] “Eliza,” [Online]. Available: https://en.wikipedia.org/wiki/ELIZA. [Accessed 24 9 2020].
[9] B. a. S. Buchanan, Rule Based Expert Systems: The MYCIN Experiments of the Stanford Heuristic Programming Project, MA: Addison-Wesley, 1984.

Header designed by pch.vector / Freepik
Share on facebook
Share on twitter
Share on google
Share on email

ผู้สนับสนุน

ติดต่อเรา

© copyright, 2020 AI for ALL