SOPON’S BLOG
“สุขมากขึ้น ร่ำรวยขึ้น และสงบมากขึ้น” : เปิดประสบการณ์ ‘No Spend Year’ ของนักข่าวฟรีแลนซ์ที่เคยใช้เงินฟุ่มเฟือยกับปี 2024 ที่ตัดค่าใช้จ่ายเหลือแค่ที่จำเป็น
November 28, 2024
ด้านมืดของ ‘บริโภคนิยม’ จากสารคดี ‘Buy Now! The Shopping Conspiracy’ มนุษย์โหมบริโภค โลกจึงกลายเป็นกองขยะ
November 27, 2024
อย่าให้สังคมกำหนดว่าเรา ‘ต้องมีอะไร’ ถึงจะมีความสุข
November 27, 2024
แม้ไม่มีรายได้ แต่รายจ่ายมีทุกวัน : 5 อย่างที่ต้องเตรียมพร้อมด้านการเงิน เมื่อตลาดแรงงานไม่มั่นคง
November 27, 2024
กรุงโรมไม่ได้สร้างเสร็จในวันเดียว แต่วางหินวันละก้อน
November 26, 2024
Facebook Twitter Youtube Instagram Medium Bootstrap
SOPON’S BLOG

Type and hit Enter to search

  • Home
  • Topics
    • Featured
    • Self-Improvement
    • Tech
    • Business
    • Thoughts
    • Science
    • Startups
    • Lifehack
    • People
    • Travel
    • Inspiration
  • Podcast
  • About
  • Contact
  • Follow
    • Facebook
    • Twitter
    • Instagram
    • Blockdit
    • Telegram
Inspiration

Zeynep Tufekci : ยิ่งเครื่องจักรฉลาดเท่าไหร่ มนุษย์ก็ยิ่งจำเป็นต้องมีจริยธรรมมากขึ้นเท่านั้น

sopons
October 5, 2021 2 Mins Read
374 Views
0 Comments

เซย์เนป ทูเฟกชี (Zeynep Tufekci) เธอเป็นนักสังคมวิทยาเทคโนโลยี (Techno-sociologist) งานของเธอจะมุ่งเน้นไปที่การถามคำถามใหญ่ ๆ ที่ส่งผลกระทบทางสังคมของเทคโนโลยีใหม่และสังคมของมนุษย์ เช่น ปัญญาประดิษฐ์และบิ๊กดาต้า 

มีประเด็นหนึ่งที่เธอพูดถึงไว้ในปี 2016 เรื่อง “Machine Intelligence makes human morals more Important” ยิ่งเครื่องจักรฉลาดเท่าไหร่ มนุษย์ก็ยิ่งจำเป็นต้องมีจริยธรรมมากขึ้นเท่านั้น

ทูเฟกชีเป็นโปรแกรมเมอร์ ชอบวิชาคณิตศาสตร์และวิทยาศาสตร์มาก ๆ มาตั้งแต่ยังเป็นเด็ก พอโตขึ้น ก็มีโอกาสได้เรียนรู้เกี่ยวกับวิชาจริยธรรมทางวิทยาศาสตร์ การเรียนรู้ถึงเรื่องระเบิดนิวเคลียร์ทำให้เธอรู้สึกปั่นป่วนในหัวใจ เธอเลยตัดสินใจเลือกที่จะทำงานอาชีพเชิงเทคนิค ที่จะไม่ต้องมีปัญหาจริยธรรม ซึ่งในขณะนั้นเธอเลือกจึงเลือก “คอมพิวเตอร์” 

ในช่วงวัยรุ่น เคยมีผู้ใหญ่คนหนึ่งมาถามว่าเครื่องคอมพิวเตอร์นั้นสามารถจับโกหกได้หรือเปล่า เพราะตอนนั้นเขาแอบมีความสัมพันธ์ลับกับพนักงานบางคน เธอเล่าติดตลกในตอนนั้นว่าโกหกเขาไปว่าไอ้กล่องสี่เหลี่ยมนั้นจับโกหกได้ เธอขำแทบจะอดขำไม่ได้ตอนที่เห็นสีหน้าของชายคนนั้น 

แต่เทคโนโลยีในปัจจุบันมันทำให้เธอขำไม่ออก อย่างที่เราทราบกันดีว่าตอนนี้ระบบคอมพิวเตอร์สามารถตรวจจับอารมณ์หรือกระทั่งคำโกหกได้ โดยการประมวลผลจากการแสดงออกบนใบหน้ามนุษย์ได้แล้วด้วย

ชัดเจนว่าในปัจจุบันเครื่องจักรมีความฉลาด เรากำลังใช้มันเพื่อประกอบการตัดสินใจในเรื่องต่าง ๆ หลายครั้งเรายึดถือว่าผลจากการตัดสินใจที่ออกมาจากการกระบวนการที่ซับซ้อนของคอมพิวเตอร์มีโอกาสในการล้มเหลวน้อย ทูเฟกชี ชี้ให้เห็นว่ามันไม่ใช่แบบนั้นซะทีเดียว เธอพยายามจะอธิบายว่าเครื่องจักรอัจฉริยะก็สามารถผิดพลาดได้ และหลายครั้งมันก็ไม่เข้าใจรูปแบบความผิดพลาดของมนุษย์ 

“เราไม่สามารถจะเรียกร้องความรับผิดชอบต่อเครื่องจักรได้ เพราะฉะนั้นแล้วต้องยึดหลักในคุณค่าของความเป็นมนุษย์และจริยธรรมให้แน่วแน่”

ทูเฟกชีเล่าว่าตอนนี้เรากำลังสร้างแพลตฟอร์มที่กำหนดทิศทางของคนเป็นพันล้านใช้งาน เครื่องจักร AI เหล่านี้คำนวณและตัดสินใจเรื่องสารพัดเรื่อง

เช่น “บริษัทควรจ้างใครดี” “ควรแสดงอัพเดตของเฟรนด์คนไหนดี” “นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก” “ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี” “ผู้ป่วยคนนี้ควรรับการรักษายังไง” สิ่งเหล่านี้ล้วนกำหนดด้วย AI ทั้งสิ้น

แม้เราจะใช้คอมพิวเตอร์มาสักพักแล้ว แต่นี่คือจุดพลิกผันทางประวัติศาสตร์ เพราะเราไม่ได้ใช้คอมพิวเตอร์เพื่ออำนวยความสะดวกสบายหรือรักษาความปลอดภัย เช่น การสร้างเครื่องบิน หรือ ตรวจสอบโครงสร้างสะพาน อย่างเคย เรากำลังสร้างมันเพื่อใช้สำหรับ “การตัดสินใจแทนมนุษย์”

ซอฟท์แวร์ในปัจจุบันก้าวหน้าไปมาก แต่ก็ตรวจสอบยากแถมมีกระบวนการที่ซับซ้อนมากขึ้นด้วย ตรวจจับใบหน้า แกะลายนิ้วมือ แปลภาษา ค้นหาเนื้องอกในร่างกาย เล่นหมากรุกและโกะชนะมนุษย์ได้ ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ “แมชชีนเลิร์นนิ่ง” (Machine Learning – ML) ซึ่งต่างจากการเขียนโปรแกรมทั่วไป เพราะนี่ไม่ใช่เพียงการป้อนคำสั่งคอมพิวเตอร์ แต่มันคือการที่ระบบจะเรียนรู้และประมวลข้อมูล แมชชีนเลิร์นนิ่งจะไม่สร้างคำตอบแบบพื้น ๆ แต่มันจะสร้างคำตอบที่อิงความน่าจะเป็น เพื่อให้ “คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่” 

หากมองในด้านบวกนี้ นี่เป็นสิ่งที่ทรงพลังมาก ๆ แต่ในด้านลบก็คือ เราไม่เข้าใจที่มาที่ไปเลยว่า อะไรคือสิ่งที่ระบบนี้เรียนรู้ เราไม่อาจจะเข้าใจหรือควบคุมมันได้จริง ๆ และเมื่อระบบ AI ตีความผิดพลาด จะเกิดปัญหาอย่างไร หรือถ้ามันตีความถูก เราก็ไม่รู้ด้วยซ้ำว่าเจ้าสิ่งนี้มันคำนวณอะไรอยู่กันแน่

ทูเฟกชีสมมติขึ้นมาว่าหากมีอัลกอริทึมสำหรับจ้างพนักงาน โดยให้ระบบมีหน้าที่ในการเลือกจ้างพนักงาน โดยใช้วิธี ML ระบบจะถูกฝึกผ่านการป้อนข้อมูล พนักงานที่เคยจ้างในอดีต และถูกสั่งให้ค้นหาและจ้าง คนที่มีคุณสมบัติเหมือนพนักงานระดับเยี่ยมที่มีอยู่ เซย์เลปเล่าว่านวัตกรรมนี้เป็นที่สนใจของผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์ พวกเขาคิดว่า ระบบนี้จะทำให้การจ้างงาน เป็นระบบมากขึ้น มีอคติน้อยลง ทำให้ผู้หญิงและคนกลุ่มน้อย มีโอกาสได้จ้างดีขึ้น เมื่อเทียบกับการใช้คนจ้างที่อาจมีอคติ 

แน่นอนว่า การจ้างงานโดย ไม่คำนึงถึงเพศ และเชื้อชาติ ถูกใจใครหลาย ๆ คนแน่นอน รวมถึงทูเฟกชีแต่เธอก็กล่าวต่อว่า ถ้าเราใช้ระบบนี้ จะมีเรื่องยุ่งยากเพิ่มขึ้น เพราะในปัจจุบันระบบคอมพิวเตอร์ สามารถคาดเดาเรื่องของมนุษย์ได้สารพัด จากร่องรอยทางดิจิตอล (Digital Footprints) ของคุณ ถึงแม้คุณจะไม่เปิดเผย ข้อมูลเหล่านั้นเลยก็ตาม เครื่องจักรเหล่านี้จะประเมินได้ทั้งรสนิยมทางเพศของคุณ บุคลิกนิสัย แนวโน้มทางการเมือง พวกมันสามารถทำนายเรื่องเหล่านี้ได้ด้วยความแม่นยำสูง ซึ่งแม้นี่จะไม่ใช่เรื่องที่คุณเปิดเผย แต่พวกก็จะการคาดเดา 

เธอเล่าต่อว่า ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์ เธอถามพวกเขาว่า 

“ถ้าสมมติว่าระบบคัดกรอง ดันไปคัดกรองคนที่มี ‘แนวโน้ม’ เป็นโรคซึมเศร้าในอนาคตสูงออกไป ไม่ใช่ว่าซึมเศร้าตอนนี้นะ แค่อาจจะซึมเศร้าในอนาคต หรือคัดผู้หญิงที่มีแนวโน้มสูงว่าจะตั้งครรภ์ ในอีกปีสองปี แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ จะเป็นอย่างไร”

ซึ่งเรื่องเหล่านี้ เราไม่สามารถดูออกได้โดยใช้แค่เพศจำแนก เพราะว่านี่เป็นคือสิ่งที่เครื่องจักรได้เรียนรู้ไม่ใช่การโปรแกรมแบบปกติ จึงไม่มีตัวแปรที่ระบุว่า “ความเสี่ยงซึมเศร้าสูง” “ความเสี่ยงตั้งครรภ์สูง” “ระดับความก้าวร้าวสูง” คุณไม่อาจรู้ได้เลยว่า ระบบเลือกอะไรมา ไม่รู้ด้วยซ้ำว่าจะเริ่มหาจากตรงไหนดี มันเหมือนกล่องดำ มันสามารถทำนายได้ แต่เราไม่อาจเข้าใจมันได้ 

ระบบอาจมีอคติต่อเพศและเชื้อชาติน้อยกว่าผู้จัดการที่เป็นมนุษย์ในบางด้าน และอาจคุ้มค่าทางการเงินด้วยก็จริง แต่ก็อาจเป็นต้นเหตุ ง่าย ๆ ที่นำไปสู่การกีดกัน คนที่มีแนวโน้มซึมเศร้า ออกจากตลาดแรงงานโดยเราไม่รู้ตัว เพราะเราให้การตัดสินใจอยู่ในมือของเครื่องกลที่เราเอง ก็ไม่เข้าใจอย่างถ่องแท้

อีกปัญหาหนึ่งคือ ระบบเหล่านี้ใช้ข้อมูลที่เกิดจากพฤติกรรมของมนุษย์ ฉะนั้นแล้วมันอาจรับเอาอคติมาขยายให้รุนแรงขึ้น แล้วก็แสดงผลกลับมาให้เราดู 

นักวิจัยพบว่าบนกูเกิ้ล โฆษณางานที่มีรายได้สูงให้ผู้หญิงเห็นน้อยกว่าผู้ชาย และถ้าเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน ก็มีแนวโน้มที่มันจะแสดงโฆษณาที่เกี่ยวข้อง กับประวัติอาชญากรรมมาแสดง แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม อคติซ่อนเร้น และอัลกอริทึมกล่องดำแบบนี้ทำให้บางครั้งเราก็ไม่อาจรู้ได้เลยว่ามันจะสร้างผลกระทบ ถึงขั้นเปลี่ยนชีวิตคนได้ 

ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง ถูกตัดสินจำคุกหกปี ข้อหาหลบหนีตำรวจ เรื่องนี้เกิดขึ้นจากการตัดสินใจของอัลกอริทึม บริษัทเจ้าของปฎิเสธที่จะให้ศาลไต่สวนอัลกอริทึมของตนเอง แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่แสวงผลกำไร ได้ไปทำการตรวจสอบอัลกอริทึมนั้น โดยใช้ข้อมูลสาธารณะเท่าที่หาได้ และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่ ทั้งยังทำนายผลได้อย่างย่ำแย่ มันให้ผลลัพธ์ที่ผิดพลาดทำนองว่า ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต สูงเป็นสองเท่าของผู้ต้องหาผิวขาวเพราะฉะนั้นแล้วเราจึงจำเป็นต้องตรวจสอบกล่องดำ (Black Box) และไม่ปล่อยให้มันมีอำนาจโดย ไม่มีการถ่วงดุล

การตรวจสอบเป็นเรื่องที่ดีและสำคัญ แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง ยกตัวอย่างอีกเรื่องเช่นการจัดอันดับฟีดของเฟซบุ๊ค ที่มันเลือกว่าจะแสดงอะไรให้เราเห็น โดยดูจากเพื่อนและเพจที่เราติดตาม เฟซบุ๊คไม่มีคำตอบว่ามันเรียงจากอะไรกันแน่ ฟีดเพียงแค่แสดงสิ่งที่อาจทำให้ผู้ใช้มีปฏิสัมพันธ์ต่อ Content เช่น ไลก์ แชร์ คอมเมนต์

Photo by Georgia de Lotz on Unsplash

ทูเฟกชี ยกตัวอย่างอีกเหตุการณ์ในปี 2014 ที่มีการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่ หลังจากเหตุการณ์ที่ตำรวจผิวขาว ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย ข่าวการประท้วงผุดเต็มฟีดบนหน้าทวิตเตอร์ ที่ไม่มีอัลกอริทึมคัดกรอง แต่เรื่องนี้กลับเงียบ แทบหาไม่เจอเลยบนเฟซบุ๊ค ด้วยเหตุผลง่าย ๆ คือข่าวเฟอร์กูสัน ไม่เป็นมิตรกับอัลกอริทึม เพราะมัน “ไม่มีคนไลก์” เมื่อไม่มีไลค์ หรือคอมเมนต์ อัลกอริทึมก็มีแนวโน้ม จะโชว์ให้คนดูน้อยลงไปอีก เราเลยไม่เห็นข่าวนี้เลย แต่ในสัปดาห์นั้น สิ่งที่อัลกอริทึมของเฟซบุ๊คให้ความสำคัญ คือ การท้าราดน้ำแข็งสู้โรค ALS เพราะมีคนสนใจเป็นจำนวนมาก เซย์เนปกล่าวว่า เมื่อเครื่องจักรตัดสินใจเรื่องแบบนี้ให้ การสนทนาประเด็นยาก ๆ แต่สำคัญมาก ๆ แบบนี้ อาจถูกกำจัดออก หากเรามีเฟซบุ๊คเป็นสื่อเพียงช่องทางเดียว 

เธอยกตัวอย่างไปถึง “วัตสัน” ระบบปัญญาประดิษฐ์ของ IBM ที่เอาชนะคู่ต่อสู้ที่เป็นมนุษย์ได้ แต่ก็พ่ายแพ้ต่อมนุษย์ในการตอบคำถาม  “สนามบินที่ใหญ่ที่สุด ที่ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2 และเป็นสมรภูมิใหญ่เป็นที่สอง ในสงครามโลกครั้งที่ 2 คืออะไร” โดยคำตอบที่ถูกต้องคือ ชิคาโก้ และมนุษย์สองคนตอบถูก แต่วัตสัน ตอบว่า “โตรอนโต้” ทั้งที่คำถามเป็นหมวดเมืองในสหรัฐฯ สิ่งนี้มันแสดงให้เห็นว่าระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง ในเรื่องที่มนุษย์ทั่วไป หรือกระทั้งเด็กไม่มีทางพลาด 

สมองประดิษฐ์ก็อาจทำงานผิดพลาดได้ ด้วยการคำนวณพฤติการณ์ในรูปแบบที่เราคาดไม่ถึง และไม่ได้เตรียมรับมือ เช่น เมื่อเดือนพฤษภาคม 2010 ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน เนื่องจากลูปป้อนกลับในอัลกอริทึมของวอลล์สตรีท ทำให้เงินในตลาดหายไปกว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที 

เป็นเรื่องชวนให้คิดว่า ถ้าเกิดว่า “ข้อบกพร่อง” นี้เปลี่ยนเป็นอาวุธอันตรายแบบอัตโนมัติแทน มันจะสร้างความเสียหายได้ขนาดไหนกัน

มนุษย์ล้วนมีอคติกันทั้งนั้นและพวกเราผิดพลาดได้ แต่เราหลบเลี่ยงคำถามยาก ๆ แล้วถ่ายโอนความรับผิดชอบของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้ ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา เป็นอิสระจากปัญหาเชิงจริยธรรม 

ในตอนท้ายเธอยกข้อมูลของ นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน ในเรื่อง แม็ธวอชชิ่ง (math-washing) เธอเล่าว่าเราต้องทำตรงกันข้าม เราต้องส่งเสริมการสืบสวน ตรวจตรา ตั้งข้อสงสัยในอัลกอริทึม เราต้องมั่นใจได้ว่าอัลกอริทึมที่ใช้สามารถตรวจสอบย้อนกลับได้ และมีความโปร่งใสอย่างเป็นรูปธรรม เราต้องยอมรับว่า การเอาคณิตศาสตร์และคอมพิวเตอร์ มาใช้แก้ปัญหาของมนุษย์ที่กำกวม และแฝงความเชื่อทางสังคม ไม่ได้ทำให้เกิดความเที่ยงตรง เราควรใช้คอมพิวเตอร์ เราใช้ได้ และควรใช้ด้วยให้เราตัดสินใจได้ดีขึ้น แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรมในการตัดสินใจนั้น แล้วใช้อัลกอริทึมภายในขอบเขต ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน ความรับผิดชอบของเรา ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน 

“เรามีสมองประดิษฐ์ไว้ใช้ นั่นยิ่งหมายความว่า เรายิ่งต้องยึดมั่นในค่านิยมของมนุษย์และจริยธรรมของความเป็นมนุษย์ด้วย”

ที่มา : https://www.ted.com/talks/zeynep_tufekci_machine_intelligence_makes_human_morals_more_important

Tags:

AIinspirationMoralTechno SociologistTEDtufekcizeynepZeynep Tufekci

Share Article

Follow Me Written By

sopons

Writer / Columnist (Salmon Books, 101.world, The Matter, Beartai, The People, a day Bulletin, CapitalRead, GQ, Billion Brands)

Other Articles

Previous

Diana Nyad : นักกีฬาว่ายน้ำหญิงแกร่งที่พิชิตมหาสมุทรแอตแลนติกในวัย 65 ปี ชีวิตคือถนนทางเดียว เราจะเลือกใช้มัน หรือ เลือกที่จะนั่งดูมันผ่านไป ทุกอย่างขึ้นอยู่กับการตัดสินใจของเรา

Next

สารจาก Mark Zuckerberg ถึงทุกคนหลังเหตุการณ์เฟซบุ๊คล่ม

Next
October 6, 2021

สารจาก Mark Zuckerberg ถึงทุกคนหลังเหตุการณ์เฟซบุ๊คล่ม

Previews
October 4, 2021

Diana Nyad : นักกีฬาว่ายน้ำหญิงแกร่งที่พิชิตมหาสมุทรแอตแลนติกในวัย 65 ปี ชีวิตคือถนนทางเดียว เราจะเลือกใช้มัน หรือ เลือกที่จะนั่งดูมันผ่านไป ทุกอย่างขึ้นอยู่กับการตัดสินใจของเรา

Related Posts

Julia Galef : ทำไมคุณถึงคิดว่าคุณถูก แม้ว่าคุณจะรู้ว่ามันผิด

by sopons
November 30, 2021

(TED) Sheena Iyengar : ถ้า ‘ดอกกุหลาบ’ ถูกเรียกด้วยชื่ออื่น กลิ่นของมันก็อาจจะต่างออกไป

by sopons
December 28, 2021

Jonny Sun : คุณไม่ได้โดดเดี่ยวอย่างเดียวดาย

by sopons
December 21, 2021

Bill Gates กับสิ่งที่เขาเชื่อว่าจะเป็นจริงในอนาคตอันใกล้นี้

by sopons
January 7, 2022
SOPON’S BLOG

STUFF WORTH READING

© 2022, All Rights Reserved.

Quick Links

  • Contact
  • About

Category

  • Self-Improvement
  • Technology
  • Business
  • Thoughts
  • Psychology

Follow

Facebook Twitter Youtube Instagram
  • Home
  • Topics
    • Featured
    • Self-Improvement
    • Business
    • Technology
    • Inspiration
    • Books
    • Life Style
    • Startups
    • Thoughts
    • Travel
  • About
  • Contact