پیش‌نویس:رگرسیون خط الرأس - ویکی‌پدیا، دانشنامهٔ آزاد

رگرسیون خط الرأس روشی برای تخمین ضرایب مدل های رگرسیون چندگانه در حالتی است که متغیرهای مستقل، همبستگی بالایی دارند. این روش در بسیاری از زمینه ها از جمله اقتصاد سنجی، شیمی و مهندسی مورد استفاده قرار می گیرد. نام دیگر آن منظم سازی تیخونوف، که به نام آندری تیخونف نامگذاری شده، است و روشی برای نرمال سازی مسائل غیر خوش ساخت می باشد و [الف] به ویژه برای کاهش مشکل هم خطی چندگانه در رگرسیون خطی مفید است، که معمولاً در مدل‌هایی با تعداد زیادی پارامتر رخ می‌دهد. به طور کلی، این روش کارایی بهتری را در مسائل تخمین پارامتر در ازای مقدار قابل قبولی اریبی ارائه می دهد (به مبادله بایاس-واریانس مراجعه کنید).

این نظریه برای اولین بار توسط هورل و کنارد در سال ۱۹۷۰ در مقالات تکنومتریکس: "رگرسیون خط الرأس: تخمین اریب مسائل نامتعامد" و "رگرسیون خط الرأس: کاربردها در مسائل نامتعامد" معرفی شد. [۱] [۲]

رگرسیون خط الرأس به عنوان یک راه حل برای نادقیق بودن برآوردگرهای حداقل مربعات زمانی که مدل‌های رگرسیون خطی دارای متغیرهای مستقل هم خطی (بسیار همبسته) هستند ارائه شد. این امر تخمین دقیق تری از پارامترهای خط الراس ارائه می دهد، زیرا واریانس و برآوردگر میانگین مربعات آن اغلب کوچکتر از برآوردگرهای حداقل مربعی است که قبلاً مشتق شده بود.

بررسی اجمالی[ویرایش]

در ساده ترین حالت، مسئله یک ماتریس لحظه ای وارون پذیر با افزودن عناصر مثبت به قطر اصلی و در نتیجه شماره وضعیت آن کاهش می یابد. مشابه برآوردگر حداقل مربعات معمولی ، تخمین‌گر خط الرأس ساده به صورت ذیل می باشد

که پسرفت، ماتریس طرح ، ماتریس همانی و لامبدا پارامتر خط الرأس ، به عنوان ثابت جابجایی قطرهای ماتریس همانی عمل می کند. [۳] می توان نشان داد که این تخمینگر راه حلی برای مسئله کمترین مربعات مقید به که می توان آن را به صورت لاگرانژین بیان کرد:

که نشان می دهد چیزی جز ضریب لاگرانژی از قید نیست. [۴] به طور معمول، بر اساس یک معیار اکتشافی یا هیوریستیک انتخاب می شود، که در این صورت قید به طور کامل ارضا نمی شود. به طور خاص در مورد ، که در آن قید غیر الزام آور است ، تخمینگر خط الرأس به کمترین مربعات معمولی کاهش می یابد. یک رویکرد کلی تر از تنظیم تیخونوف در زیر مورد بحث قرار می گیرد.

تاریخچه[ویرایش]

نرمال سازی تیخونوف مستقلاً در زمینه های مختلف ابداع، ولیکن به طور گسترده ای به علت کاربرد آن در معادلات انتگرال آندری تیخونوف [۵] [۶] و دیوید ال فیلیپس شناخته شد. [۷] برخی از نویسندگان از اصطلاح نرمال سازی تیخونوف-فیلیپس استفاده می کنند. تعریف این مسئله در ابعاد محدود توسط آرتور هورل ، که یک رویکرد آماری را در پیش گرفت، [۸] و همچنین مانوس فاستر، که این روش را به عنوان فیلتر کریجینگ تفسیر کرد، بسط داده شد. [۹]

این روش در ادبیات آماری، به عنوان رگرسیون خط الرأس شناخته می شود، [۱۰] که دلیل این نامگذاری، شکل قطر ماتریس همانی است.

نرمال سازی تیخونوف[ویرایش]

فرض کنید برای یک ماتریس معلوم و بردار ، می خواهیم یک بردار را چنان بیابیم که

روش استاندارد، رگرسیون خطی کمترین مربعات معمولی است.[نیازمند شفاف‌سازی] با این حال، اگر به ازای هیچ ای معادله دارای جواب نبوده و یا بیش از یک وجود داشته باشد که به ازای آنها معادله دارای جواب باشد، یعنی راه حل منحصر به فرد نباشد، گفته می شود که مسئله غیر خوش تعریف است. در چنین مواردی، تخمین حداقل مربعات معمولی به یک سیستم معادلات بیش از حد تعیین شده یا اغلب به یک سیستم معادلات نامشخص تبدیل می شود. بیشتر پدیده های دنیای واقعی اثر فیلترهای پایین گذر [نیازمند شفاف‌سازی] در جهت رو به جلو دارند که در آن ، را به تبدیل می کند. بنابراین، در حل مسئله معکوس، نگاشت معکوس به عنوان یک فیلتر بالاگذر عمل می کند که تمایل نامطلوب تقویت نویز را دارد ( مقادیر ویژه / مقادیر مفرد در نگاشت معکوس بزرگ ترین مقادیر هستند، در صورتی که در نگاشت رو به جلو کوچکترین اند). حداقل مربعات معمولی به دنبال به حداقل رساندن مجموع مجذور باقیمانده است که می تواند به صورت فشرده نوشته شود

که نُرم اقلیدسی است.

به منظور ارجحیت دادن به یک جواب خاص با ویژگی های مطلوب، یک عبارت نرمال سازی را، برای یک ماتریس تیخونوف مناسب، می توان در این کمینه سازی گنجاند:

در بسیاری از موارد، به منظور ارجحیت دادن به راه حل هایی با نُرم کوچکتر، این ماتریس به صورت مضربی از ماتریس همانی ( ) انتخاب می گردد. این امر با عنوان تنظیم L2 شناخته می شود. در موارد دیگر، با فرض پیوستگی بردار، عملگرهای بالاگذر (به عنوان مثال، یک عملگر تفاضل یا یک عملگر فوریه وزندار) ممکن است برای هموار کردن استفاده شوند. این نرمال سازی، شرطی‌سازی مسئله را بهبود بخشیده و یک راه‌حل عددی مستقیم را ممکن می‌سازد. یک راه حل صریح که با نشان داده شده است، از رابطه زیر بدست می آید

تأثیر نرمال سازی ممکن است با توجه به مقیاس ماتریس متفاوت باشد. برای این روش به راه حل حداقل مربعات نامنظم تبدیل می شود، مشروط بر اینکه (A T A) -1 وجود داشته باشد.

منظم سازی عمومی تیخونوف[ویرایش]

برای توزیع های نرمال چند متغیره عمومی، می توان تبدیل متغیری را برای تبدیل آن به حالت بالا اعمال کرد. بدین منظور، می توان به دنبال یک برای به حداقل رساندن عبارت

که مجذور وزندار نُرم یا همان است ( با فاصله Mahalanobis مقایسه شود). به تعبیر بیزی، ماتریس کوواریانس معکوس ، امید ریاضی ، و ماتریس کوواریانس معکوس است. بدین ترتیب ماتریس تیخونوف به عنوان تجزیه ای از ماتریس حاصل شده (به عنوان مثال تجزیه چولیسکای ) و به عنوان یک تبدیل سفید کننده در نظر گرفته می شود.

شکل تعمیم یافته این مسئله راه حل بهینه را خواهد داشت که می توان با استفاده از فرمول زیر، صراحتاً آن را نوشت

یا معادل آن

نرمال سازی لاورنتیف[ویرایش]

همانطور که توسط میخائیل لاورنتیف پیشنهاد شده، گاهاً می توان از استفاده ترانهاده اجتناب کرد. به عنوان مثال، اگر متقارن و مثبت-معین باشد، یعنی ، معکوس آن هم همین خاصیت را خواهد داشت. بنابراین می تواند از آن برای محاسبه مجذور نُرم وزندار در نرمال سازی کلی تیخونوف استفاده کرد که منجر به کمینه سازی زیر خواهد شد

یا به طور معادل به یک عبارت ثابت،

.

این مسئله کمینه سازی یک راه حل بهینه دارد که می توان آن را صراحتاً با کمک فرمول ذیل نوشت

،

که در واقع همان حل مسئله تعمیم یافته تیخونوف می باشد که در آن

نرمال سازی لاورنتیف، در صورت امکان استفاده، برای حل نرمال سازی اصلی تیخونوف سودمند است، زیرا ماتریس لاورنتیف در مقایسه با ماتریس تیخونوف، می‌تواند قید خوش تعریف تری داشته باشد، یعنی شماره وضعیت کمتری داشته باشد.

نرمال سازی در فضای هیلبرت[ویرایش]

معمولاً مسائل خطی گسسته ای که خوش تعریف نیستند از گسسته سازی معادلات انتگرال ناشی می شوند و می توان نرمال سازی تیخونوف را در حالت بی نهایت بعدی اصلی فرموله کرد. از مطالب بالا می توانیم این گونه تفسیر کنیم که به عنوان یک اپراتور فشرده در فضاهای هیلبرت، و و به عنوان عناصر در دامنه و بُرد اند. در نتیجه اپراتور یک عملگر معکوس محدود شده خود الحاقی است.

ارتباط با تجزیه مقدار های منفرد و فیلتر وینر[ویرایش]

با فرض ، راه حل حداقل مربعات را می توان به روشی خاص با استفاده از تجزیه مقدار های منفرد تجزیه و تحلیل کرد. با فرض وجود تجزیه مقدار مفرد

با مقادیر منفرد ، راه حل نرمال سازی تیخونوف را می توان به صورت ذیل بیان کرد

که مقادیر به صورت مورب روی قطر اصلی قرار دارند

و بقیه درایه ها صفر اند. این نشان دهنده تأثیر پارامتر تیخونوف بر روی شماره وضعیت مسئله نرمال سازی است. برای حالت تعمیم‌یافته، نمایش مشابهی را می‌توان با کمک تجزیه با ارزش منفرد تعمیم یافته به دست آورد.

در نهایت، ارتباط آن با فیلتر وینر، به صورت زیر است:

که وزن های وینر و رتبه است.

تعیین ضریب تیخونوف[ویرایش]

مقدار بهینه پارامتر نرمال سازی معمولاً ناشناخته است و اغلب در مسائل عملی با یک روش اد هاک تعیین می شود. یک رویکرد احتمالی متکی بر تفسیر بیزی در زیر توضیح داده شده است. روش‌های دیگر عبارتند از اصل اختلاف ، اعتبارسنجی متقابل ، روش منحنی L ، [۱۱] حداکثر احتمال محدود شده و تخمین‌گر ریسک پیش‌بینی‌کننده نااریب . گریس وهبه ثابت کرد که پارامتر بهینه، به معنای اعتبارسنجی متقابل تکی، عبارت زیر را کمینه می کند [۱۲] [۱۳]

که مجموع مربعات باقیمانده است و عدد مؤثر درجات آزادی است.

با کمک تجزیه مقادیر منفرد قبلی، می توانیم عبارت فوق را به شکل زیر ساده سازی کنیم:

و

رابطه با فرمول احتمال[ویرایش]

فرموله سازی احتمالی یک مسئله وارون، (به شرطی که همه عدم قطعیت ها، از توزیع گاوسی تبعیت کنند) ماتریس کوواریانس را معرفی می کند که نماینده عدم قطعیت های پیشینی در پارامترهای مدل، و ماتریس کوواریانس نماینده عدم قطعیت در پارامترهای مشاهده شده اند. در حالت خاصی که این دو ماتریس قطری و همسانگرد باشند، خواهیم داشت: و و در این حالت، معادلات نظریه معکوس به معادلات بالا تبدیل شده و .

تفسیر بیزی[ویرایش]

در ابتدا شاید انتخاب راه حل برای این مسئله نرمال سازی، تا حدی تصادفی به نظر بیاید، و در واقع به نظر می رسد ماتریس تا حدی دلخواه باشد، اما این فرآیند را می توان از دیدگاه بیزی توجیه کرد. توجه داشته باشید که برای یک مسئله غیر خوش تعریف، باید فرضیاتی اضافی را برای دستیابی به یک راه حل منحصر به فرد ارائه کرد. از نظر آماری، توزیع احتمال پیشین ، اغلب یک توزیع نرمال چند متغیره در نظر گرفته می شود. برای سادگی، مفروضات زیر مطرح می شوند: میانگین ها صفر اند، اجزا مستقل و دارای انحراف استاندارد یکسان هستند . داده ها نیز ممکن است دارای خطا باشند و خطاهای موجود در نیز مستقل و با میانگین صفر و انحراف معیار فرض می شوند. بر اساس این مفروضات و طبق قضیه بیز، راه حل نرمال شده توسط تیخونوف، نسبت به داده ها و توزیع پیشین ، محتمل ترین راه حل است.

اگر فرض اولیه نرمال بودن توزیع با فرضیات ناهمواریانسی و عدم همبستگی خطاها جایگزین شود، و اگر هنوز میانگین صفر را فرض کنیم، آنگاه قضیه گاوس-مارکف مستلزم این است که این راه حل، برآوردگر خطی نااریب کمینه است.

صفحات مرتبط[ویرایش]

یادداشت[ویرایش]

منابع[ویرایش]

  1. Hoerl, Arthur E.; Kennard, Robert W. (1970). "Ridge Regression: Biased Estimation for Nonorthogonal Problems". Technometrics. 12 (1): 55–67. doi:10.2307/1267351. JSTOR 1267351.
  2. Hoerl, Arthur E.; Kennard, Robert W. (1970). "Ridge Regression: Applications to Nonorthogonal Problems". Technometrics. 12 (1): 69–82. doi:10.2307/1267352. JSTOR 1267352.
  3. For the choice of in practice, see Khalaf, Ghadban; Shukur, Ghazi (2005). "Choosing Ridge Parameter for Regression Problems". Communications in Statistics – Theory and Methods. 34 (5): 1177–1182. doi:10.1081/STA-200056836.
  4. van Wieringen, Wessel (2021-05-31). "Lecture notes on ridge regression". arXiv.
  5. Tikhonov, Andrey Nikolayevich (1943). "Об устойчивости обратных задач" [On the stability of inverse problems]. Doklady Akademii Nauk SSSR. 39 (5): 195–198. Archived from the original on 2005-02-27.
  6. Tikhonov, A. N. (1963). "О решении некорректно поставленных задач и методе регуляризации". Doklady Akademii Nauk SSSR. 151: 501–504.. Translated in "Solution of incorrectly formulated problems and the regularization method". Soviet Mathematics. 4: 1035–1038.
  7. Phillips, D. L. (1962). "A Technique for the Numerical Solution of Certain Integral Equations of the First Kind". Journal of the ACM. 9: 84–97. doi:10.1145/321105.321114.
  8. Hoerl, Arthur E. (1962). "Application of Ridge Analysis to Regression Problems". Chemical Engineering Progress. 58 (3): 54–59.
  9. Foster, M. (1961). "An Application of the Wiener-Kolmogorov Smoothing Theory to Matrix Inversion". Journal of the Society for Industrial and Applied Mathematics. 9 (3): 387–392. doi:10.1137/0109031.
  10. Hoerl, A. E.; R. W. Kennard (1970). "Ridge regression: Biased estimation for nonorthogonal problems". Technometrics. 12 (1): 55–67. doi:10.1080/00401706.1970.10488634.
  11. P. C. Hansen, "The L-curve and its use in the numerical treatment of inverse problems",
  12. Wahba, G. (1990). "Spline Models for Observational Data". CBMS-NSF Regional Conference Series in Applied Mathematics. Society for Industrial and Applied Mathematics. Bibcode:1990smod.conf.....W.
  13. Golub, G.; Heath, M.; Wahba, G. (1979). "Generalized cross-validation as a method for choosing a good ridge parameter" (PDF). Technometrics. 21 (2): 215–223. doi:10.1080/00401706.1979.10489751.
  •  
  •  
  •  
  •  
  •  


خطای یادکرد: خطای یادکرد: برچسب <ref> برای گروهی به نام «persian-alpha» وجود دارد، اما برچسب <references group="persian-alpha"/> متناظر پیدا نشد. ().