top of page

MAPE แบบปรับนิยาม: Mean Absolute Prediction Error ในฐานะตัวชี้วัดความไม่เสถียรของการพยากรณ์

  • รูปภาพนักเขียน: Mayta
    Mayta
  • 27 มี.ค.
  • ยาว 2 นาที

การประเมินความทำซ้ำได้ของการพยากรณ์ด้วย Bootstrap

1. ภาพรวมของแนวคิด

ในกรอบแนวคิดนี้ MAPE ไม่ใช่ตัวชี้วัด performance ของโมเดล

กล่าวคือ MAPE ในที่นี้ ไม่ได้เปรียบเทียบค่าที่โมเดลพยากรณ์กับ outcome จริง

แต่ใช้เพื่อวัดว่า

เมื่อเราสร้างโมเดลใหม่จาก bootstrap samples หลาย ๆ ชุดแล้ว ค่าพยากรณ์ของผู้ป่วยแต่ละรายเปลี่ยนไปมากน้อยเพียงใด เมื่อเทียบกับค่าพยากรณ์จาก final model

ดังนั้น MAPE ในที่นี้จึงสะท้อน

  • prediction stability

  • model reproducibility

  • sampling sensitivity

มากกว่าความแม่นยำเชิง performance แบบ AUROC หรือ Brier score


2. แนวคิดหลัก

เรามีค่าพยากรณ์ 2 ชุด

2.1 Original prediction

ได้จาก final model ที่ fit บนข้อมูลทั้งหมด

ให้ค่าพยากรณ์ของผู้ป่วยรายที่ (i) เป็น

ซึ่งคำนวณได้สำหรับผู้ป่วยทุกคนในฐานข้อมูล

2.2 Bootstrap prediction

สำหรับ bootstrap iteration ที่ (b)

  • สุ่มข้อมูลแบบ replacement

  • fit โมเดลใหม่บน bootstrap sample

  • ใช้ bootstrap model นี้พยากรณ์

ให้ค่าพยากรณ์ของผู้ป่วยรายที่ (i) จาก bootstrap model รอบที่ (b) เป็น


3. วัตถุประสงค์ของ MAPE ในแนวคิดนี้

MAPE ในที่นี้ต้องการตอบคำถามว่า

“ถ้าเราเปลี่ยนชุดข้อมูลที่ใช้สร้างโมเดลเล็กน้อยโดยการ bootstrap ค่าพยากรณ์ของผู้ป่วยจะเปลี่ยนไปมากแค่ไหนเมื่อเทียบกับ final model?”

ดังนั้น MAPE จึงเป็นการเปรียบเทียบ

ไม่ใช่การเปรียบเทียบกับ outcome


4. ขั้นตอนการคำนวณ

Step 1: สร้าง Final Model

fit final model บนข้อมูลทั้งหมด (n = 3{,}134)

จากนั้นคำนวณค่าพยากรณ์ของผู้ป่วยทุกคน


Step 2: ทำ Bootstrap 500 ครั้ง

สำหรับ bootstrap iteration ที่ (b = 1,\dots,500)

2.1 สุ่ม bootstrap sample

สุ่มข้อมูลจากชุดเดิมแบบ replacement

2.2 fit bootstrap model

สร้างโมเดลใหม่จาก bootstrap sample นั้น

2.3 คำนวณ bootstrap prediction

ใช้ bootstrap model พยากรณ์และได้


5. การเลือกผู้ป่วยที่ใช้คำนวณในแต่ละ Bootstrap

ใน bootstrap sample แต่ละรอบ จะมีผู้ป่วยบางรายถูกเลือกเข้ามา และบางรายไม่ถูกเลือก

ให้

แทนเซตของผู้ป่วยที่ปรากฏอยู่ใน bootstrap sample รอบที่ (b)

โดยทั่วไปจำนวนผู้ป่วยที่ไม่ซ้ำกันใน bootstrap sample จะประมาณ 63% ของข้อมูลทั้งหมด

เช่น ถ้าข้อมูลมี 500 ราย อาจมีผู้ป่วยที่ปรากฏจริงประมาณ 360 รายใน bootstrap รอบหนึ่ง


6. นิยาม MAPE ใน Bootstrap รอบที่ (b)

สำหรับ bootstrap รอบที่ (b) เราจะใช้เฉพาะผู้ป่วยที่อยู่ใน (S_b) เท่านั้น

คำนวณดังนี้

ความหมายคือ

ค่าเฉลี่ยของความต่างสัมบูรณ์ระหว่างค่าพยากรณ์จาก final model และค่าพยากรณ์จาก bootstrap model สำหรับผู้ป่วยที่มีอยู่ใน bootstrap sample รอบนั้น


7. การคำนวณค่า MAPE สุดท้าย

เมื่อทำครบ 500 bootstrap iterations แล้ว จะได้ค่า MAPE ทั้งหมด 500 ค่า

จากนั้นนำมาเฉลี่ยกัน

ค่านี้คือ MAPE สุดท้ายของโมเดล


8. การตีความ

ถ้า MAPE ต่ำ

หมายความว่า

  • ค่าพยากรณ์จาก bootstrap models ใกล้เคียงกับ final model

  • โมเดลมีความเสถียร

  • ผลการพยากรณ์ไม่ไวต่อความผันผวนของการสุ่มตัวอย่างมากนัก

ถ้า MAPE สูง

หมายความว่า

  • ค่าพยากรณ์เปลี่ยนไปมากเมื่อสร้างโมเดลใหม่จาก bootstrap samples

  • โมเดลมีความไม่เสถียร

  • ผลการพยากรณ์ไวต่อ sampling variation

ดังนั้น

MAPE ต่ำ = โมเดลเสถียร

MAPE สูง = โมเดลไม่เสถียร


9. เหตุใด MAPE นี้จึงไม่ใช่ MAPE แบบมาตรฐาน

MAPE แบบที่ใช้กันทั่วไปมักเป็นการเปรียบเทียบ

หรือในบางบริบทเป็น percentage error เทียบกับค่าจริง

แต่ MAPE ในแนวคิดของคุณเป็นการเปรียบเทียบ

ดังนั้นสิ่งที่วัดคือ

  • prediction-to-prediction difference

  • ไม่ใช่ prediction-to-truth difference

จึงเป็นคนละแนวคิดกับ performance metrics แบบดั้งเดิม


10. เหตุใดจึงไม่มี Apparent MAPE ในแนวคิดนี้

ในนิยามนี้ ไม่มี apparent MAPE

เพราะ apparent metric โดยหลักต้องหมายถึง

การประเมิน performance ของโมเดลบนข้อมูลที่ใช้ train โมเดลนั้นเอง

แต่ใน MAPE แบบนี้ เราไม่ได้ประเมินเทียบกับ outcome เลย เรากำลังเปรียบเทียบค่าพยากรณ์จาก สองโมเดล

ดังนั้นจึงไม่มีแนวคิดของ

  • apparent

  • test

  • optimism

  • optimism correction

ในความหมายเดียวกับ AUROC, calibration slope หรือ Brier score


11. ความสัมพันธ์กับตัวชี้วัดอื่นของโมเดล

MAPE แบบนี้ควรมองว่าเป็นตัวชี้วัดอีกมิติหนึ่งของคุณภาพโมเดล

ดังนั้น MAPE ในที่นี้ไม่ได้มาแทน AUROC แต่ช่วยเพิ่มข้อมูลอีกด้านว่า

“แม้โมเดลจะ discrimination ดี แต่ค่าพยากรณ์มีเสถียรภาพเพียงใดเมื่อลองสร้างโมเดลใหม่จากข้อมูลที่สุ่มต่างออกไป”


12. ความหมายเชิงระเบียบวิธี

ในเชิงระเบียบวิธี MAPE นี้สามารถมองได้ว่าเป็น

ค่าเฉลี่ยของระยะห่างแบบ absolute ระหว่าง prediction function ของ final model กับ bootstrap-refitted models

หรือกล่าวอีกแบบหนึ่งคือ

ตัวชี้วัดความไวของการพยากรณ์ต่อการเปลี่ยนแปลงของ sample

ซึ่งมีประโยชน์โดยเฉพาะเมื่อผู้วิจัยสนใจความเสถียรของโมเดลในกระบวนการสร้างแบบจำลอง


13. ตัวอย่างข้อความสำหรับเขียนในบทความ

Methods

“Prediction stability was assessed using a bootstrap-based Mean Absolute Prediction Error (MAPE). First, the final model was fitted on the full dataset to obtain original predicted probabilities for all individuals. Then, 500 bootstrap samples were drawn, and a new model was fitted in each sample. For each bootstrap iteration, MAPE was calculated as the mean absolute difference between the original predicted probabilities and the bootstrap-model predicted probabilities among individuals included in that bootstrap sample. The final MAPE was obtained by averaging these values across all bootstrap iterations.”

Interpretation

“Lower MAPE values indicate greater stability of model predictions across bootstrap resampling, whereas higher values suggest greater sensitivity of predictions to sampling variation.”


14. สรุป

MAPE ในกรอบแนวคิดนี้หมายถึง

ค่าเฉลี่ยของความต่างสัมบูรณ์ระหว่างค่าพยากรณ์จาก final model และค่าพยากรณ์จาก bootstrap models

โดยใช้เพื่อวัด

  • ความเสถียรของการพยากรณ์

  • ความทำซ้ำได้ของโมเดล

  • ความไวต่อการสุ่มตัวอย่าง

MAPE นี้

  • ไม่ใช่ performance metric เทียบ outcome

  • ไม่มี apparent version

  • ไม่มี optimism correction

  • เป็นตัวชี้วัดด้าน prediction stability

 
 
 

ความคิดเห็น

ได้รับ 0 เต็ม 5 ดาว
ยังไม่มีการให้คะแนน

ให้คะแนน
Post: Blog2_Post

​Message for International and Thai Readers Understanding My Medical Context in Thailand

Message for International and Thai Readers Understanding My Broader Content Beyond Medicine

bottom of page