สรุปหนังสือ The Ethical Algorithm AI ที่มีหัวใจ Michael Kearns และ Aaron Roth เขียน จิตร์ทัศน์ ฝักเจริญผล แปล สำนักพิมพ์ SALT

สรุปหนังสือ The Ethical Algorithm ศาสตร์การออกแบบอัลกอริทึม ให้ใส่ใจคุณค่าทางสังคม AI ที่มีหัวใจ เขียนโดย Michael Kearns และ Aaron Roth ปฏิเสธไม่ได้ว่าวันนี้เราอยู่ในโลกที่ขับเคลื่อนด้วย AI หรือ Algorithm หรือจะเรียกว่า AI Driven Everything ถ้าให้ผมอธิบายสักนิดว่า AI เกี่ยวกับ Algorithm อย่างไรเผื่อบางคนที่ไม่รู้ ต้องบอกว่า Algorithm คือชุดความคิด การทำงาน ส่วน AI คือการที่เราให้สิ่งต่างๆ ทำงานโดยอัตโนมัติตามคำสั่ง หรือการที่เราสอนมันมาว่าถ้าเจอเรื่องแบบนี้ควรทำงานอย่างไร

อย่างระบบ Autopilot ในรถยนต์ไฟฟ้า Tesla ที่รถยนต์สามารถช่วยขับให้เราเองได้ระดับหนึ่ง นั่นก็เพราะ AI มันมีชุดคำสั่ง Algorithm ที่กำหนดไว้โดยผู้สอนด้วยหลักการง่ายๆ ขับรถตามความเร็วที่กำหนดไว้ แต่สูงสุดไม่เกิน 140 กิโลเมตรต่อชั่วโมง แต่ก็ต้องเว้นระยะห่างจากคันหน้าในระยะเบรกฉุกเฉินที่ปลอดภัย และก็ต้องประคองรถให้อยู่ตรงกลางเลนเป็นหลัก ไม่กินเลนซ้ายหรือขวา แต่ต้องคอยระวังรถยนต์รอบข้างด้วยว่า เค้าขับกินเข้ามาในเลนเราหรือเปล่า ถ้าใช่ก็ต้องประเมินว่าระหว่างเบรก หรือเร่งแซง หรือเบี่ยงหลบ แบบไหนจะปลอดภัยกว่ากัน แต่ก็จะถูกคำสั่งมาให้เบรกเป็นอันดับ 1 แต่ถ้าประเมินแล้วว่าเบรกไม่รอด ก็ข้ามไปเบี่ยงหลบ แต่ต้องดูรถข้างๆ ด้วยว่าไม่มีสวนขึ้นมาด้วยความเร็ว

นี่แหละครับตัวอย่างของ Algorithm แบบหยาบๆ ในระบบช่วยขับ Autopilot ในรถยนต์ไฟฟ้า Tesla ที่ผมใช้มาเกือบสองปีแล้ว หลักคิดคือขับรถคล้ายๆ คนทั่วไป เน้นความปลอดภัยและไม่ชนเป็นหลัก ส่วนการจะเลี้ยวเปลี่ยนเลนอะไรนั้นสามารถทำได้ แต่ต้องจ่ายเงินค่าโปรแกรมเพิ่ม เพราะระบบต้องใช้หลักคิด Algorithm การประมวลผลที่ซับซ้อนขึ้น นี่คือโลกที่ขับเคลื่อนด้วย Algorithm หรือ AI จริงๆ (เพราะอย่างน้อยมันก็มาช่วยขับรถให้เราแล้ว)

ดังนั้นหนังสือ AI ที่มีหัวใจ หรือ The Ethical of Algorithm จึงสำคัญต่อนักการตลาด ผู้บริหาร เจ้าของธุรกิจ หรือใครก็ตามที่สนใจใคร่รู้ว่าโลกใบนี้ทำงานอย่างไร เผื่อว่าจะมองเห็นโอกาสที่คนอื่นมองข้าม และจะได้เข้าใจว่าสิ่งที่เรากำลังเห็นอยู่ตรงหน้านั้น AI คัดมาให้เราด้วยชุดความคิดหรือ Algorithm แบบไหน

ถ้าอย่างนั้นลองมาดูเนื้อหาบางส่วนที่ผมชอบเป็นพิเศษในหนังสือเล่มนี้กันครับ

เราอยู่ในยุคซื้อขาย Data กันมานานแล้ว

การซื้อขาย Data คนทั่วไปฟังแล้วอาจตกใจ ว่าข้อมูลเราถูกนำไปขายขนาดไหน แล้วแบบนี้ชั้นจะปลอดภัยหรือเปล่า ก่อนจะไปสู่ข้อกังวล ลองมาทำความเข้าใจก่อนครับว่าการซื้อขาย Data นั้นทำกันอย่างไร และ Data แบบไหนที่เขาซื้อขายกัน

การซื้อขาย Data มีมานานแล้ว แพลตฟอร์มต่างๆ ที่เราใช้งานฟรีๆ อยู่ทุกวันต่างก็ขายข้อมูลเราเป็นปกติ เพียงแต่เวลาขายเขาไม่ได้ขายที่เป็นข้อมูลเราตรงๆ แต่เป็นการขายแบบเป็นกลุ่ม Segment อย่างเวลาเราจะยิงแอดโฆษณาออนไลน์ในโซเชียลมีเดียต่างๆ เราก็สามารถเลือกได้ว่าจะทำการตลาดหากลุ่มผู้หญิง อายุ 20-25 ปี อาศัยอยู่ในจังหวัดสระบุรีเท่านั้น และขอเฉพาะคนที่แต่งงานแล้ว ขอเพิ่มความสนใจเรื่องการท่องเที่ยวเป็นพิเศษด้วย

นั่นแหละครับ การซื้อขายดาต้าแบบปกติที่เกิดขึ้น จะเห็นว่าแพลตฟอร์มต่างๆ นั้นเอาดาต้าเราไปต่อยอดขายให้กับนักการตลาดที่ต้อการส่งโฆษณาหาพวกเราต่อ เพียงแต่เขาไม่ได้ขายเป็นรายชื่อตรงไปตรงมา แต่ให้ทำการตลาดผ่านข้อมูลที่เขามี หลังจากนั้นนักการตลาดจะเก็บ Data เราได้ก็ต่อเมื่อเรากดเข้าไปซื้อจากโฆษณาของเขา ทำให้เขาสามารถตรวจสอบได้ว่ามีลูกค้าใหม่คนไหนบ้างที่มาจากโฆษณาชิ้นนี้ ในโซเชียลมีเดียแพลตฟอร์มนี้ เป็นต้น

ถัดมาการซื้อขายดาต้าแบบที่สอง คือการซื้อขายข้อมูลที่ละเอียดขึ้นแต่ไม่ระบุตัวตน เช่น ข้อมูลการซื้อของห้างร้านค้าปลีกแห่งหนึ่ง ทำการขายดาต้าให้นักการตลาดที่ต้องการทำการตลาดกับกลุ่มคนเลี้ยงสัตว์ ด้วยการคัดกลุ่มคนที่มีประวัติการซื้อสินค้าเกี่ยวกับสัตว์เลี้ยงในห้างค้าปลีกเรา เช่น อาจจะเป็นอาหารสัตว์ หรือขนม หรือชุดเสื้อผ้า หรือของเล่นสัตว์

ข้อมูลการซื้อของลูกค้ากลุ่มนั้นอาจจะถูกส่งมอบให้ไป แต่ข้อมูลที่จะระบุตัวตนกลับไปยังเจ้าของข้อมูลหรือผู้ซื้อได้จะถูกกลบ หรือที่เรียกว่าเข้ารหัส เช่น จากชื่อ ณัฐพล ม่วงทำ ที่เป็นชื่อผม อาจถูกเข้ารหัสเปลี่ยนเป็น Customer ID ที่ไม่มีความหมายอย่าง A742B504C เป็นต้น และถ้าผมมีประวัติการซื้อมากกว่า 1 ครั้ง รหัสลูกค้าหรือ Customer ID ของผมก็จะปรากฏขึ้นมาอีกที แน่นอนว่าฝ่ายเจ้าของข้อมูลผู้เข้ารหัสย่อมสามารถถอดรหัสได้โดยไม่ยาก เพราะมีกุญแจในการเข้ารหัสอยู่ แต่กับฝ่ายผู้รับดาต้าไปนั้นไม่ง่าย หรือแทบจะเป็นไปไม่ได้เลย

และนั่นก็ทำให้เกิดความเข้าใจผิดคิดไปว่า เมื่อดาต้าในส่วนระบุตัวตนถูกเข้ารหัสแล้วก็น่าจะปลอดภัยในการส่งต่อออกไปได้ แต่หลายครั้งก็พบว่าถ้าทำการวิเคราะห์ดีๆ ใส่ใจในรายละเอียดของดาต้าดีๆ ก็จะสามารถย้อนกลับไปสืบหาตัวเจ้าของข้อมูลตัวจริงได้ไม่ยาก เช่น ถ้าบอกว่าคนซื้อคือผู้ชาย อายุ 32 อาศัยอยู่เขตภาษีเจริญ สถานะแต่งงานแล้ว อยู่บ้านประเภททาวน์โฮม อาชีพพนักงานเงินเดือน รายได้ประมาณ 50k ต่อเดือน จากการ Filter ตัวเลือกทั้งหมดก็ทำให้เหลือแค่ไม่กี่คนซึ่งสามารถย้อนกลับไปหาเจ้าตัวได้ไม่ยากเลยครับ

นี่คือปัญหาที่เกิดขึ้นในยุค Data ว่าข้อมูลแค่ไหนที่จะยังถือว่าปลอดภัย หรือเมื่อเอามาประกอบกับข้อมูลชุดใดบ้างที่จะทำให้ความเป็นส่วนตัวลดน้อยลงไปทุกที

อย่างข้อมูลประวัติการซื้อสินค้าเราถูกนำไปวิเคราะห์อะไรอีก บริษัทบัตรเครดิตชอบซื้อเอาไปวิเคราะห์เพื่อหาพฤติกรรมการซื้อสินค้าที่คล้ายๆ กันกับเรา และก็นำไปเทียบกับกลุ่มลูกค้าของเจ้าของบัตรเครดิตว่า กลุ่มคนที่มักจ่ายเงินไม่ตรงเวลานั้นมีพฤติกรรมการซื้อแบบไหน ทำให้เมื่อเวลาเรายื่นสมัครบัตรเครดิตหรือเงินกู้ไป เราอาจถูกปฏิเสธได้เพราะ Algorithm อาจค้นพบว่ากลุ่มคนที่มีพฤติกรรมที่จ่ายหนี้ไม่ตรงเวลามักซื้อสินค้าอย่างเกียร์รถยนต์รูปหัวกระโหลกชุบโครเมียม เป็นต้น

นั่นคือประเด็นหลักของ Algorithm หรือ AI ที่ไม่มีหัวใจ แต่เก่งในการหาความสัมพันธ์ ใช้หลักของความน่าจะเป็นทางสถิติมาวิเคราะห์ว่าคนแบบนี้มีพฤติกรรมแบบไหน และมีคนใดบ้างที่มีพฤติกรรมคล้ายเคียงกันมากน้อยเท่าไหร่ และจากความคล้ายกี่เปอร์เซนต์ที่เราจะตัดสินใจว่าให้ตัดสินใจอย่างไร เช่น ถ้าคล้ายกันสัก 85% ขึ้นไป AI จะปฏิเสธใบสมัครบัตรเครดิตหรือการขอสินเชื่อโดยอัตโนมัติ

ฉะนั้นจะเห็นว่าทำไมการออกแบบ AI ที่มีหัวใจจึงสำคัญ ทำไมจริยธรรมในการออกแบบ Algorithm จึงเป็นสิ่งที่เราทุกคนต้องใส่ใจและให้ความสำคัญมากๆ เพราะต่อให้เราไม่ใช้ผู้ออกแบบเอง แต่เราก็ต้องเป็นผู้ถูก Algorithm บังคับใช้กับเราเอง อย่างการอนุมัติบัตรเครดิตข้างต้น

ค้นพบฐานทัพลับของอเมริกา จาก Strava Data

เคสนี้น่าสนใจครับ เป็นเรื่องราวของบริษัท Strava หรือแอปวิ่งที่นักวิ่งมักชอบใช้กัน เพื่อติดตามว่าตัวเองวิ่งได้เท่าไหร่ และเอาไปแชร์บนแพลตฟอร์ม Strava กับเพื่อนๆ ที่ใช้แอปเดียวกันอีกที จากการสำรวจดาต้าพบว่าเจอพฤติกรรมการวิ่งเป็นกลุ่มก้อนคล้ายๆ กันอยู่ตามประเทศที่ไม่น่าจะมีผู้ใช้งาน Strava ได้ อย่าง ซีเรีย โซมาเลีย หรือ อัฟกานิสถาน

แน่นอนว่าคนในประเทศเหล่านี้เดิมไม่ได้เป็นเจ้าของ Fitbit อุปกรณ์สวมใส่ข้อมือ หรือ Wearable แต่เป็นทหารอเมริกันที่บินไปทำภารกิจตามฐานทัพทหารในประเทศเหล่านี้ต่างหาก เมื่อพอต้องบินไปประจำการ ก็ต้องมีการวิ่งออกกำลังกายเพื่อฟิตซ้อมร่างกาย และเมื่อวิ่งก็อดไม่ได้ที่จะใส่ Fitbit แล้วก็บันทึกข้อมูลการวิ่งลงแอป Strava และดาต้าเหล่านั้นก็ถูกส่งขึ้นเซิฟเวอร์จนทำให้เห็น Pattern ว่ามีการวิ่งเป็นกลุ่มก้อนเกิดขึ้นอย่างเห็นได้ชัด

แม้ Data จะไม่ได้บอกว่าใครวิ่งโดยชัดเจน หรืออาจบอกเฉพาะเท่าที่ผู้ลงทะเบียนยอมมอบให้ แต่ต่อให้ไม่ให้ดาต้าจริงก็สามารถสืบสาวตาม Context ต่อไปได้ ว่าน่าจะเป็นคนกลุ่มไหนอย่างไร ลองคิดภาพว่าถ้าฝ่ายผู้ก่อการร้ายสามารถเข้าถึงดาต้านี้ได้ จะก่อให้เกิดความเสียหายต่อชีวิตทหารอเมริกันมากขนาดไหน

Bias in Data นำมาสู่ Algorithm หรือ AI ที่ตัดสินใจแบบมี Bias

หลายครั้ง AI หรือ Algorithm ก็ตัดสินใจแบบมี Bias ไม่รู้ตัว เช่น คนผิวสีมักเห็นโฆษณาประเภทเงินกู้ด่วนดอกเบี้ยสูง มากกว่าคนผิวขาวที่มักเห็นโฆษณาชวนลงทุนเพื่อชีวิตเกษียณที่ดีกว่า หรือ Algorithm ของกรมตำรวจในอเมริกา ที่มักส่งตำรวจไปยังโซนที่คนผิวสีอยู่มากกว่า หรือ AI ที่ช่วยคัดกรองใบสมัครงานของพนักงาน ที่มักจะคัดกรองชื่อคนที่ออกไปทางผิวสีมากกว่าคนผิวขาวในอเมริกาครับ

ทั้งหมดนี้ AI ไม่ได้ผิด แต่มันผิดตั้งแต่ Data ที่มี Bias ที่ถูกนำมาใช้ Train AI ตั้งแต่ต้น เพราะ AI จะรู้ว่าต้องคิดและตัดสินใจอย่างไร ก็ขึ้นอยู่กับ Data ที่ใช้นำมาสอนให้มันคิดเป็น มันจะแยกออกว่าภาพไหนเป็นแมว หรือภาพไหนเป็นสุนัข ก็ขึ้นอยู่กับว่าเราเอาภาพแมวแบบไหนไปสอน ถ้าเราเอาภาพยีราฟไปสอนแล้วบอกว่าเป็นแมว มันก็จะเข้าใจว่าแมวคือสัตว์ที่มีคอยาวๆ สีส้มๆ อะไรแบบนี้เป็นต้น

แน่นอนว่าเรื่องนี้มักเริ่มเป็นปัญหามากขึ้น เมื่อเราต้องถูก Algorithm มาตัดสินชีวิตในหลายด้าน และนั่นก็ทำให้เราได้ตระหนักรู้ว่าต้องตรวจสอบด้วยว่า Data ที่นำไปใช้ Train AI นั้นมี Bias มาตั้งแต่แรกหรือไม่ เช่น เชื้อชาติ ที่มักก่อให้เกิดอคติกันได้ง่ายที่สุด เป็นต้น

ดังนั้นบริษัทใครคิดจะสร้าง AI ขึ้นมาเพื่อช่วยงานด้านต่างๆ จงตรวจสอบ Data set ที่จะทำมา Train AI ให้แน่ใจไว้ปราศจาก Bias ใน Data มากที่สุดครับ

Algorithm แอปหาคู่ที่ไม่ได้คิดให้ Balance เรื่องเชื้อชาติ

เคสนี้เป็นอีกหนึ่งเคสในหนังสือ The Ethical Algorithm ที่น่าสนใจ เพราะเป็นเรื่องราวของผู้ใช้งานแอปหาคู่คนหนึ่ง ที่ได้ลองเข้าไปใช้งานแล้วพบว่าเจอแต่โปรไฟล์ผู้ชายเชื้อชาติเอเซียมากเกินไป

เธอเลยกดปัดซ้าย หรือไม่เลือกแมชกับผู้ชายเชื้อชาติเอเซียเป็นส่วนใหญ่ จนทำให้ Algorithm เข้าใจผิดคิดไปว่าตัวเธอนั้นไม่สนใจผู้ชายเชื้อชาติเอเซียแน่นอน และก็ไม่เอาโปรไฟล์ผู้ชายเอเซียขึ้นมาให้เธอเห็นอีกต่อไปเลย

แต่ความเป็นจริงแล้วไม่ใช่แบบนั้น สาเหตุที่เธอปัดโปรไฟล์ผู้ชายเอเซียทิ้งเป็นส่วนใหญ่เพราะในฐานข้อมูลของแอปหาคู่นี้ดันมีแต่ผู้ชายเอเซียมาสมัครเป็นจำนวนมาก ด้วยความที่ AI พยายามบาลานซ์จำนวนเพศตรงข้ามที่มีแบบสุ่มให้เห็นโดยทั่วกัน แต่นิยามความสุ่มให้บาลานซ์นั้นดันไม่ได้อยู่บนพื้นฐานบาลานซ์เดียวกัน

สุ่มของ Algorithm แอปหาคู่เองก็พยายามบาลานซ์จากฐานข้อมูลที่มีเป็นส่วนใหญ่ แต่ไม่ได้บาลานซ์โดยสัดส่วนเชื้อชาติ แต่ในฝั่งของผู้หญิงผู้ใช้งานแอปเองกลับต้องการให้บาลานซ์โดยเชื้อชาติ ไม่ใช่บาลานซ์จากจำนวนผู้ใช้งานที่มีครับ

ทีนี้พอผู้ใช้งานผู้หญิงคนนี้ไม่เห็นเชื้อชาติเอเซียเลย ก็กดให้กลับเข้ามาให้ปัดเลือกอีกครั้ง แต่ก็ถูกถาโถมด้วยโปรไฟล์ของผู้ชายเอเซียเป็นส่วนใหญ่ และเธอก็ต้องปัดทิ้งเป็นส่วนใหญ่ เพราะความจริงเธออยากให้บาลานซ์สลับกับชาติอื่นมากกว่าครับ

สรุปหนังสือ The Ethical Algorithm, AI ที่มีหัวใจ

สรุปหนังสือ The Ethical Algorithm AI ที่มีหัวใจ Michael Kearns และ Aaron Roth เขียน จิตร์ทัศน์ ฝักเจริญผล แปล สำนักพิมพ์ SALT

จริงๆ ยังมีเรื่องราวอีกพอควรในเล่มที่ชอบมาก เช่น การสร้างโมเดลการตัดสินใจ Algorithm ที่ดีควรเป็นอย่างไร ควรปรับจูนอย่างไรให้มีความยุติธรรมมากขึ้น หรือการใช้ Algorithm เพื่อส่วนรวม ที่เราต้องยอมเสียสละผลประโยชน์ส่วนตนเพื่อยกระดับให้ทุกคนในสังคมภาพรวมได้ประโยชน์ร่วมกันมากขึ้น

หรือการเข้าใจคำตอบทางสถิติ ที่อาจตั้งใจสร้างออกมาให้ได้ผลลัพธ์ที่ดีตามต้องการ หรือการตัดสินใจแบบทางสองแพร่ง เช่น ในระบบขับเคลื่อนอัตโนมัติของรถยนต์ที่ถกเถียงกันว่าควรตัดสินใจอย่างไรทางจริยธรรม ถ้าต้องเลือกระหว่างการชนคนข้ามทางม้าลายเสียชีวิต หรือยอมให้รถชนกับกำแพงกั้นและคนในรถยนต์ทั้งหมดเสียชีวิตแทน

หรือระบบนำทางในแอปที่พาคนในพื้นที่ไฟป่า ฝ่าทางไฟป่าที่กำลังไหม้อยู่ โดยไม่ได้เข้าใจบริบทว่าถ้าผ่านไปต้องถูกไฟคลอกตายแน่ แต่ในหลักคิดของ Algorithm มันคือเส้นทางที่สั้นและประหยัดเวลาที่สุด แต่นั่นก็คือจุดอ่อนของ Algorithm ครับ

และนี่ก็เป็นส่วนหนึ่งของหนังสือเล่มนี้ อีกหนึ่งเล่มที่อยากแนะนำให้คนสนใจเทรนด์กับเทคโนโลยีของโลกใบนี้ได้อ่านเพื่อรู้เท่าทัน Algorithm หรือ AI รอบตัวกันครับ

อ่านแล้วเล่า เล่มที่ 26 ของปี 2023

สรุปหนังสือ The Ethical Algorithm, AI ที่มีหัวใจ
ศาสตร์การออกแบบอัลกอริทึม ให้ใส่ใจคุณภาพทางสังคม
Michael Kearns และ Aaron Roth เขียน
จิตร์ทัศน์ ฝักเจริญผล แปล
สำนักพิมพ์ SALT

อ่านสรุปหนังสือสำนักพิมพ์นี้ต่อ : https://www.summaread.net/category/salt/

สั่งซื้อออนไลน์
https://shope.ee/7UqIrPF4On
https://shope.ee/8pLgRsZzLE
https://shope.ee/8Uiq3HfFl3

By Nattapon Muangtum

จากนักอ่านที่เริ่มอยากหัดเขียน จากการที่ต้องอ่านเพราะความจำเป็น กลายเป็นอ่านเพราะหลงไหล, สวัสดีครับผมชื่อหนุ่ย ผมทำงานด้าน Digital and Data Marketing ผมยังมีเพจการตลาดอีกเพจที่อยากฝากให้ลองอ่านดูนะครับ https://www.facebook.com/everydaymarketing.co/

ปีก่อนคุณอ่านหนังสือกี่เล่ม ?