หุ่นยนต์สังหาร (จบ) - Institute of Field roBOtics (FIBO)
มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี
  • English
    • Thai

หุ่นยนต์สังหาร (จบ)

  logo robot brain

หุ่นยนต์สังหาร (2)

134

หุ่นยนต์ SWORDS สามตัวที่ถูกนำไปใช้งานในประเทศอิรักนั้นยังไม่มีโอกาสได้ออกสนามต่อสู้และทำการยิงจริงๆเลย  คงทำแต่ลาดตระเวณตรวจสอบวัตถุระเบิดและเป็นส่วนหนึ่งของการรักษาความสงบเรียบร้อยในพื้นที่ ทั้งนี้เป็นเพราะว่ายังมีปัญหาทางเทคนิคบางประการที่ทีมพัฒนายังแก้ไขไม่สำเร็จ  แม้ว่าข้อมูลการพัฒนาไม่เป็นที่เปิดเผย แต่ผู้ที่เกี่ยวข้องกับเทคโนโลยีหุ่นยนต์เคลื่อนที่แบบไร้มนุษย์นี้คงพอคาดเดาได้ว่าเป็นเรื่อง “ความรวดเร็วและความถูกต้องในการตัดสินใจ”  นอกจากนี้ระบบเซนเซอร์การรับรู้สภาวะแวดล้อมจริงในสนามรบยังไม่มีการทดสอบสมรรถนะอย่างยิ่งยวด (Critical Testing)  หุ่นยนต์เหล่านี้เพียงแต่รู้ทิศทางและความเร็วที่เคลื่อนที่ไปแต่ยัง “ตาบอด” อยู่ครับ  ระบบตาหุ่นยนต์ (Computer Vision) ที่นักวิทยาการหุ่นยนต์พัฒนาขึ้นมานั้นยังต้องการเวลาในนการประมวลผลช้า  อีกประการหนึ่งคือในสนามรบจริงนั้นแสงสว่างไม่ชัดเจน อาจตองใช้อินฟาเรดและ/หรือเลเซอร์เรนจ์ฟายน์เดอร์มาเสริม

ความต้องการทางเทคนิคของทหารในการใช้หุ่นยนต์เหล่านี้อยู่ในระดับสูง เพราะต้องระวังความผิดพลาดซึ่งเกี่ยวข้องกับความสูญเสียอย่างรุนแรงทั้งชีวิตและทรัพย์สิน  หากเปรียบเทียบกับการเล่นเกมคอมพิวเตอร์ยิ่งต่อสู้กันนั้นเสมือนกับการใช้โหมดความควบคุมแบบทางไกลซึ่งถือว่าเป็นระบบควบคุมขั้นต่ำสุดไม่ซับซ้อน  แต่เรายังสามารถเคลื่อนย้ายระนาบอ้างอิงในการมองเห็นได้ทุกทิศทางอย่างต่อเนื่อง (Real Time Omnidirectional View)  หุ่นยนต์ SWORDS และ MULE ยังมีความสามารถด้านนี้ค่อนข้างจำกัด  เอาไปใช้ในสถานการณ์จริง มีโอกาสโจมตีฝ่ายเดียวกันได้เพราะเห็นไม่ชัดเจน  แน่นอนในขั้นสุดท้ายของการพัฒนาเทคโนโลยีเขาหวังว่า หุ่นยนต์เหล่านี้จะเคลื่อนที่ไปได้เองโดยไม่ต้องมีคนบังคับ (Autonomous Unmanned Vehicle)  เช่นเดียวกันกับหุนยนต์การแข่งขัน Grand Challenge ซึ่งผมไม่เห็นด้วยเลย ผมคิดว่า ระบบพึ่งการตัดสินใจของมนุษย์ (Supervisory Mode) แม้ถูกมองว่าเป็นเทคโนโลยีไม่ถึงขั้นสุดยอดนั้น แต่ผู้ควบคุมมีโอกาสใช้ “สติปัญญา” แก้ไขสถานการณ์ที่เลวร้ายได้อย่างทันท่วงที

21

อย่างไรก็ตามผู้พัฒนาหุ่นยนต์เหล่านี้ส่วนใหญ่มีความเห็นตรงกันข้าม พวกเขาเชื่อว่าการที่ทหารหุ่นยนต์เหล่านี้ไม่ความรู้สึกหวาดกลัวนั้น เมื่ออยู่ในเหตุการณ์รุนแรงและคับขันย่อมจะประเมินสถานการณ์ได้ดีกว่าและ “กล้า” ตอบโต้ในรูปแบบที่ทหารมนุษย์ไม่กล้าแม้แต่นึกถึง คงเป็นแบบสโลแกนของภาพยนต์ Star Track ที่ว่า “It boldly goes where no man has gone before!”  ท้ายที่สุดหากตูมตามขึ้นมา เขาสามารถซ่อมแซมหุ่นยนต์หุ่นยนต์เหล่านี้ได้เสมอหรือนำชิ้นส่วนมาใช้ประโยชน์อย่างต่อเนื่องได้ ในขณะที่สภาวะอารมณ์เปลี่ยนไปทันทีเมื่อทหารหาญบาดเจ็บและอาจรักษาพยาบาลไม่ทัน

134-1

ยังมีการถกเถียงทั้งสองแนวความคิดอยู่ค่อนข้างมากในหมู่ของผู้พัฒนา-ผู้ใช้งานเทคโนโลยีนี้ หรือแม้กระทั่งประชาชนทั่วไปในสังคมซึ่งสามารถพบได้ในหลายเวบบอร์ดกระดานสนทนา  ศาสตราจารย์ โนเอล ชาร์คีย์ จาก  Britain’s University of Sheffield ได้ออกมาเรียกร้องนานาชาติให้ห้ามการใช้อาวุธอัตโนมัติและหุ่นยนต์เหล่านี้จนกว่ามันจะปฎิบัติตามกฎเกณฑ์การทำสงคราม  สิ่งที่เขากังวลมากคือแผนงานที่เพนตากอนแห่งสหรัฐอเมริกาจะใช้งบประมาณถึงหลายพันล้านดอลลลาร์เพื่อพัฒนาหุ่นยนต์ประเภทนี้ภายใน 25 ปีต่อจากนี้ไป สิ่งที่ตามมาคือมหาอำนาจคู่แข่งคงจะทุ่มงบประมาณพัฒนาตามด้วย และเมื่อทำสำเร็จประชากรหุ่นยนต์เหล่านี้จะเพิ่มแบบก้าวกระโดดเพราะสามารถก๊อปปี้ได้ง่าย  ผมเองก็สงสัยว่าหากเรามีเทคโนโลยีปัญญาประดิษฐ์ที่สามารถทำให้หุ่นยนต์ปฎิบัติตามกฎเกณฑ์การทำสงครามแล้วเราจะมั่นใจได้อย่างไรว่าปัญญามนุษย์ของแต่ละมหาอำนาจจะปฎิบัติตาม?

กฎเหล็กหุ่นยนต์ที่บัญญัติไว้โดยปรมาจารย์นักแต่งนิยายวิทยาศาสตร์ “ดร.ไอแซค อาสิมอฟ” คือ (1) หุ่นยนต์ต้องไม่ทำอันตรายต่อมนุษย์ หรือ “ใส่เกียร์ว่าง” นิ่งเฉยปล่อยให้มนุษย์ตกอยู่ในอันตราย  (2) หุ่นยนต์ต้องเชื่อฟังคำสั่งของมนุษย์ เว้นแต่คำสั่งนั้นขัดแย้งกับกฎข้อที่หนึ่ง (3) หุ่นยนต์ปกป้องตนเองได้ ตราบใดที่การปกป้องตนเองไม่ขัดแย้งกับกฎข้อที่หนึ่งหรือสอง  หากพิจารณาแนวความคิดหุ่นยนต์สังหาร ดูเหมือนว่ากฎเหล่านี้คงถูกละเมิดแล้วหละครับ  ทางเกาหลีใต้จึงริเริ่มสร้างกฎเกณฑ์ด้านจริยธรรมของหุ่นยนต์ขึ้นมา  (Robot Ethics Charter) เพื่อให้เกิดความมั่นใจว่ามนุษย์และหุ่นยนต์สามารถอยู่ร่วมกันได้อย่างสันติและเอื้อประโยชน์ซึ่งกันและกัน หุ่นยนต์จะได้รับการปรนนิบัติ เฉกเช่นสิ่งที่มีชีวิตเสมือน (Virtual Life Form)  มีการลงทะเบียนในทำนองเดียวกันกับมนุษย์ และพวกเราจำเป็นต้องปฎิบัติต่อหุ่นยนต์อย่างถูกต้องด้วย   ตัวอย่างเช่น ห้ามนำหุ่นยนต์ไปใช้ในทางผิดกฎหมาย   ห้ามนำข้อมูลจากการบันทึกของหุ่นยนต์ไปใช้โดยไม่ได้รับอนุญาตจากเจ้าของข้อมูล เป็นต้น และที่สำคัญคือห้ามทำร้ายมนุษย์

ดังนั้นจึงจำเป็นบังคับให้ฝ่ายผู้ผลิตและผู้พัฒนาต้องป้อนโปรแกรมคอมพิวเตอร์ ซึ่งป้องกันไม่ให้หุ่นยนต์ทำอันตรายต่อมนุษย์ ลงในสมองกลของหุ่นยนต์รุ่นต่างๆ

ท่านผู้อ่านสามารถส่งข้อคิดเห็น/เสนอแนะมาที่ผู้เขียนที่ djitt@fibo.kmutt.ac.th
——————————————————————————————
ข้อมูลจำเพาะของผู้เขียน

djitt2

ดร. ชิต เหล่าวัฒนา จบปริญญาตรีวิศวกรรมศาสตร์ (เกียรตินิยม) จากมหาวิทยาลัยเทคโนโลยีพระจอมเกล้า ธนบุรี ไดัรับทุนมอนบูโช รัฐบาลญี่ปุ่นไปศึกษาและทำวิจัยด้านหุ่นยนต์ที่มหาวิทยาลัยเกียวโต ประเทศญี่ปุ่น เข้าศึกษาต่อระดับปริญญาเอกที่มหาวิทยาลัยคาร์เนกี้เมลลอน สหรัฐอเมริกา ด้วยทุนฟุลไบรท์ และจากบริษัท AT&T ได้รับประกาศนียบัตรด้านการจัดการเทคโนโลยีจากสถาบันเทคโนโลยีแห่งมลรัฐแมสซาชูเซสต์ (เอ็มไอที) สหรัฐอเมริกา

 
ภายหลังจบการศึกษา ดร. ชิต ได้กลับมาเป็นอาจารย์สอนที่มหาวิทยาลัยเทคโนโลยีพระจอมเกล้า ธนบุรี และเป็นผู้ก่อตั้งสถาบันวิทยาการหุ่นยนต์ภาคสนาม หรือที่คนทั่วไปรู้จักในนาม “ฟีโบ้ (FIBO)” เป็นหน่วยงานหนึ่งในมหาวิทยาลัยเทคโนโลยีพระจอมเกล้า ธนบุรี เพื่อทำงานวิจัยพื้นฐาน และประยุกต์ด้านเทคโนโลยีหุ่นยนต์ ตลอดจนให้คำปรึกษาหน่วยงานรัฐบาล เอกชน และบริษัทข้ามชาติ (Multi-national companies) ในประเทศไทยด้านการลงทุนทางเทคโนโลยี  การใช้งานเทคโนโลยีอัตโนมัติชั้นสูง และการจัดการเทคโนโลยีสารสนเทศอย่างมีประสิทธิภาพ

 

 

 

 

Categories: Post from Dr.Jiit