אומדן הסבירות המרבי

תוכן העניינים:

Anonim

הערכת הסבירות המקסימאלית (VLE) היא מודל כללי לאמידת פרמטרים של התפלגות הסתברות התלויה בתצפיות במדגם.

במילים אחרות, EMV ממקסם את ההסתברות לפרמטרים של פונקציות הצפיפות התלויות בהתפלגות ההסתברות והתצפיות במדגם.

כאשר אנו מדברים על הערכת סבירות מקסימאלית, עלינו לדבר על ה- פוּנקצִיָה סבירות מרבית. מתמטית, ניתן דוגמה x = (x1,…, איקסנ) ופרמטרים, θ = (θ1, …, Θנ) לאחר מכן,

לא להיבהל! פירושו של סמל זה זהה לסיכום הסכומים. במקרה זה הכפל של כל פונקציות הצפיפות תלוי בתצפיות לדוגמא (xאני) והפרמטרים θ.

ככל שהערך של L (θ | x) גדול יותר, כלומר הערך של פונקציית הסבירות המקסימלית, כך הסיכוי שהפרמטרים מבוססי הדגימה יהיו גבוהים יותר.

פונקציה לוגריתמית של EMV

כדי למצוא את הערכות הסבירות המקסימלית עלינו להבדיל (להפיק) תוצרי פונקציות צפיפות וזו לא הדרך הנוחה ביותר לעשות זאת.

כשאנחנו נתקלים בפונקציות מסובכות, מה שאנחנו יכולים לעשות זה טרנספורמציה מונוטונית. במילים אחרות, זה יהיה כמו לרצות לצייר את אירופה בקנה מידה אמיתי. עלינו להגדיל אותו כך שהוא יכול להתאים על דף נייר.

במקרה זה אנו מבצעים את הטרנספורמציה המונוטונית באמצעות לוגריתמים טבעיים מכיוון שהם פונקציות מונוטוניות וגוברות. מתמטית,

תכונות הלוגריתמים מאפשרות לנו לבטא את הכפל הנ"ל כסכום הלוגריתמים הטבעיים המופעלים על פונקציות הצפיפות.

כך שהטרנספורמציה המונוטונית על ידי לוגריתמים היא פשוט "שינוי בקנה מידה" למספרים קטנים יותר.

הערך המשוער של הפרמטרים שממקסמים את ההסתברות לפרמטרים של פונקציית הסבירות המרבית עם לוגריתמים שווה ערך לערך המשוער של הפרמטרים שממקסמים את ההסתברות של הפרמטרים של פונקציית הסבירות המרבית המקורית.

לכן, אנחנו תמיד נעסוק בשינוי המונוטוני של פונקציית הסבירות המרבית בהתחשב בקלות החישובים הגדולה יותר.

סַקרָנוּת

עד כמה EMV עשוי להיראות מורכב ומוזר, אנו מיישמים אותו ללא הרף מבלי שנבין זאת.

מתי?

בכל הערכות הפרמטרים של רגרסיה לינארית בהנחות קלאסיות. ידוע יותר בכינויו ריבועים קטנים יותר רגילים (OLS).

במילים אחרות, כאשר אנו מיישמים OLS, אנו מיישמים EMV באופן מרומז מכיוון ששניהם שווים מבחינת עקביות.

אפליקציה

כמו שיטות אחרות, EMV מבוסס על איטרציה. כלומר, חזרה על פעולה מסוימת כמה פעמים שנדרש כדי למצוא את הערך המקסימלי או המינימלי של פונקציה. תהליך זה עשוי להיות כפוף למגבלות על הערכים הסופיים של הפרמטרים. לדוגמא, שהתוצאה גדולה או שווה לאפס או שסכום שני הפרמטרים צריך להיות קטן מאחד.

מודל ה- GARCH הסימטרי וההרחבות השונות שלו מיישמים את ה- EMV כדי למצוא את הערך המשוער של הפרמטרים שממקסם את ההסתברות לפרמטרים של פונקציות הצפיפות.