קריטריון מידע בייסיאני

קריטריון המידע של בייסיה או קריטריון שוורץ הוא שיטה המתמקדת בסכום הריבועים של השאריות כדי למצוא את מספר התקופות הפגורות עמ ' שמצמצמים את המודל הזה.

במילים אחרות, אנו רוצים למצוא את המספר המינימלי של תקופות בפיגור שאנו כוללים ברגרסיה האוטומטית כדי לעזור לנו בחיזוי המשתנה התלוי.

באופן זה, תהיה לנו שליטה על מספר התקופות בפיגור עמ ' שאנחנו כוללים ברגרסיה. כאשר נעבור את הרמה האופטימלית הזו, דגם שוורץ יפסיק לרדת ולכן הגענו למינימום. כלומר, נגיע למספר התקופות בפיגור עמ ' שממזערים את דגם שוורץ.

זה נקרא גם קריטריון המידע של Bayes (BIC).

מאמרים מומלצים: רגרסיה אוטומטית, סכום ריבועי שאריות (SCE).

נוסחת קריטריון מידע בייסיאני

למרות שבמבט ראשון זה נראה כמו נוסחה מסובכת, נעבור בחלקים כדי להבין אותה. קודם כל, באופן כללי עלינו:

  • הלוגריתמים בשני גורמי הנוסחה מייצגים את ההשפעה השולית של הכללת תקופה בפיגור עמ ' יותר ברגרסיה עצמית.
  • N הוא המספר הכולל של תצפיות.
  • אנו יכולים לחלק את הנוסחה לשני חלקים: חלק שמאלי וחלק ימני.

החלק משמאל:

מייצג את סכום הריבועים של השאריות (SCE) של הנגיעה האוטומטית שלעמ ' תקופות בפיגור, חלקי המספר הכולל של תצפיות (N).

כדי לאמוד את המקדמים אנו משתמשים בריבועים הכי פחות רגילים (OLS). לכן, כאשר אנו כוללים תקופות בפיגור חדשות, ניתן לשמור או להקטין את SCE (p) בלבד.

ואז, הגידול בתקופה בפיגור ברגרסיה האוטומטית:

  • SCE (p): פוחת או נשאר קבוע.
  • מקדם קביעה: עולה.
  • השפעה כוללת: עלייה בתקופה בפיגור גורמת לירידה בחלק השמאלי של הנוסחה.

עכשיו החלק הנכון:

(p + 1) מייצג את המספר הכולל של המקדמים ברגרסיה האוטומטית, כלומר הרגרסורים עם תקופות השהיה שלהם (עמ ') והיירט (1).

ואז, הגידול בתקופה בפיגור ברגרסיה האוטומטית גורם:

  • (p + 1): עולה כי אנו משלבים תקופה בפיגור.
  • השפעה כוללת: עלייה בתקופה בפיגור גורמת לעלייה בחלק הימני של הנוסחה.

דוגמא מעשית

אנו מניחים כי אנו רוצים לחזות את מחירי המחיריםשוברי סקי לעונת 2020 הבאה עם מדגם לחמש שנים אך איננו יודעים בכמה תקופות פיגור להשתמש: AR (2) או AR (3)?

  • אנו מורידים את הנתונים ומחושבים את הלוגריתמים הטבעיים של מחירי ה- שוברי סקי.

1. אנו מעריכים את המקדמים המשתמשים ב- OLS ומקבלים:

סכום ריבועי השאריות (SCE) עבור AR (2) = 0.011753112

מקדם קביעה עבור AR (2) = 0.085

2. אנו מוסיפים עוד תקופה אחת בפיגור כדי לראות כיצד SCE משתנה:

סכום ריבועי השאריות עבור AR (3) = 0.006805295

מקדם קביעה עבור AR (3) = 0.47

אנו יכולים לראות שכאשר אנו מוסיפים תקופה בפיגור ברגרסיה האוטומטית, מקדם הקביעה גדל וה- SCE פוחת במקרה זה.

  • אנו מחשבים את קריטריון המידע של בייסיה:

ככל שדגם BIC קטן יותר, כך הדגם מעדיף יותר. לאחר מכן, AR (3) יהיה המודל המועדף ביחס ל- AR (2) בהתחשב בכך שמקדם הקביעה שלו גבוה יותר, SCE נמוך יותר וגם מודל שוורץ או קריטריון המידע של Bayesian נמוך יותר.

תוכל לעזור בפיתוח האתר, שיתוף הדף עם החברים שלך

wave wave wave wave wave