Skip to main content

رگرسیون چندمتغیره محتویات رگرسیون چند خطی[ویرایش] تنظیم مدل (Regularization)[ویرایش] کاربردها[ویرایش] جستارهای وابسته[ویرایش] منابع[ویرایش] منوی ناوبریوویکی‌پدیا انگلیسیMethods of Multivariate AnalysisLinear Regression Analysis: Theory and ComputingMethods of Multivariate Analysis"Statistics for High-Dimensional Data"10.1007/978-3-642-20192-90172-7397Theory for ℓ1/ℓ2-penalty procedures10.1007/978-3-642-20192-9_8"Sparse Approximate Solutions to Linear Systems"10.1137/s00975397922404060097-539710.1002/hbm.460020402وو

میانگینمیانگین حسابیمیانگین هندسیمیانگین همسازمیانهمددامنهانحراف معیارضریب تغییراتصدکدامنه بین چارکیواریانسچولگیکشیدگیگشتاورال-گشتاورداده‌های گروه‌بندی‌شدهتوزیع فراوانیجدول پیشایندینمودار میله‌ایدونمودارهنمودار جعبه‌اینمودار کنترلهمبستگی‌نگارنمودار جنگلیبافت‌نگارنمودار Q-Qنمودار توالینمودار پراکنشنمودار ساقه و برگنمودار راداریاندازه تأثیرخطای استانداردتوان آماریتعیین اندازه نمونهطراحی آزمایشآزمایش تصادفیانتساب تصادفیتکرار آزمایشبلوک‌بندیآزمایش عاملیطراحی بهینهتوزیع نمونه‌گیریآماره بسندهفراتحلیلآماره ترتیبیآماره کاوشیمقدار رکوردکامل بودنخانواده نماییآزمون جایگشتیآزمون تصادفیدنتوزیع نمونه‌ایبوت‌استرپینگآماره Uکاراییآمار باثباتاحتمال بیزیاحتمال پیشیناحتمال پسینبازه مورد قبولعامل بیزبرآوردگر بیزیبرآوردگر بیشینه‌گر احتمال پسینضریب همبستگی پیرسونهمبستگی جزئیاختلاطضریب تشخیصرگرسیون ساده خطی(en)کمینه مربعات خطیمدل خطی عمومی(en)رگرسیون خطی بیزی(en)خانواده نماییرگرسیون لجستیکرگرسیون دوجمله‌ای(en)پواسونکاپای کوهنجدول پیشایندیمدل گرافیرگرسیون پواسونآزمون مک‌نمارتجزیهتخمین روندفرایند ماناتصحیح فصلی‌بودنهموارسازی نمایی(en)هم‌جمعیعلیت گرانجرآماره Q(en)آماره دوربین-واتسون(en)خودهمبستگیتابع خودهمبستگی جزئی(en)تابع خودهمبستگی تقاطعی(en)آرمامدل آریماگارچاتورگرسیو برداریتخمین طیفیتحلیل فوریهموجکتابع بقا(en)برآوردگر کاپلان-مه‌یرآزمون لگ‌رتبه‌ای(en)نرخ خرابیمدل خطرهای متناسب(en)مدل زمان خرابی شتابیده(en)بیوانفورماتیکزیست‌سنجشیکارآزمایی بالینیمطالعاتهمه‌گیرشناسیآمار پزشکیآکچوئریسرشماریآمار جرم(en)آمار جمعیت‌شناسی(en)اقتصادسنجیآمار ملی(en)آمار رسمی(en)جامعه آماریروان‌سنجی


آمار چندمتغیرهتحلیل رگرسیون


مدل خطیماتریس طراحیخطاها و نویزتوزیع معمولی چندمتغیرهمدل خطی تعمیم‌یافتهآنالیز واریانسآنالیز کوواریانسآنالیز چندمتغیره واریانسآنالیز چندمتغیره کوواریانسرگرسیون خطیآزمون تی استیودنتآزمون افچندمتغیرهتک متغیرهرگرسیون خطیتابع هزینهتابع هزینهتابع هزینهتابع هزینهتابع هزینهدرست نمایی بیشینهتوزیع طبیعیتوزیع گاوسیبیش‌برازشبیش‌برازشتابع هزینهتابع هزینهتابع هزینهتابع هزینهتابع هزینهپویش‌های مغزینقشه‌برداری متغیری آماری












رگرسیون چندمتغیره




از ویکی‌پدیا، دانشنامهٔ آزاد






پرش به ناوبری
پرش به جستجو












مدل خطی عمومی یک مدل خطی آماری است. به شکل زیر می‌توان نوشت[۱]


Y=XB+U,displaystyle mathbf Y =mathbf X mathbf B +mathbf U ,

که در آن Y یک ماتریس با ردیف‌های اندازه‌گیری‌های چند متغیره است، X یک ماتریس است که می‌تواند یک ماتریس طراحی باشد، B یک ماتریس شامل متغیرهایی است که معمولاً تخمین زده می‌شوند و U ماتریسی است که شامل خطاها و نویز است. خطاها معمولاً نسبت به اندازه‌گیری‌ها و طبق یک توزیع معمولی چندمتغیره ناهمبسته فرض می‌شوند. اگر که خطاها مطابق با یک توزیع معمولی چند متغیره نباشند، مدل خطی تعمیم‌یافته برای منطقی تر کردن فرض‌ها درمورد Y و U مورد استفاده قرار می‌گیرد.


مدل خطی عمومی تعدادی از مدل‌های آماری مختلف را با هم مرتبط می‌کند: آنالیز واریانس، آنالیز کوواریانس، آنالیز چندمتغیره واریانس، آنالیز چندمتغیره کوواریانس، رگرسیون خطی معمولی، آزمون تی استیودنت و آزمون اف. مدل خطی عمومی تعمیم یافته‌ای از چند مدل رگرسیون خطی در مورد بیش از یک متغیر وابسته است. اگر Y، B و U بردارهای ستون باشند، معادله ماتریس بالا بیانگر چند رگرسیون خطی خواهد بود.


آزمون‌های فرضی با مدل خطی عمومی را می‌توان به دو روش انجام داد: چندمتغیره یا به شکل آزمون‌های متعدد تک متغیره مستقل. در آزمون‌های چندمتغیره ستون‌های Y با هم مورد بررسی قرار می‌گیرند درحالیکه در آزمون‌های تک متغیره ستون‌های Y مستقلاً بررسی می‌شوند. به‌طور مثال به عنوان آزمون‌های تک متغیره با ماتریس طراحی یکسان.




محتویات





  • ۱ رگرسیون چند خطی

    • ۱.۱ ساختار ریاضی مسئله


    • ۱.۲ تخمین پارامتر بهینه از روش کمترین مربعات


    • ۱.۳ تخمین پارامتر بهینه از روش گرادیان کاهشی تصادفی (Stochastic Gradient Descent)


    • ۱.۴ تفسیر احتمالی از طریق درست نمایی بیشینه



  • ۲ تنظیم مدل (Regularization)


  • ۳ کاربردها


  • ۴ جستارهای وابسته


  • ۵ منابع




رگرسیون چند خطی[ویرایش]



ساختار ریاضی مسئله[ویرایش]


رگرسیون چند خطی تعمیمی از رگرسیون خطی است با در نظر گرفتن بیش از یک متغیر مستقل و یک مورد خاص مدل‌های خطی عمومی تشکیل شده با محدود کردن تعداد متغیرهای وابسته به یک.[۲] به عنوان مثال اگر فرض کنیم متغیر ما mdisplaystyle m بُعد دارد یعنی x→=[x1,x2,…,xm]displaystyle vec x=[x_1,x_2,dots ,x_m] مسئله رگرسیون به یک مسئله بهینه‌سازی برای پیدا کردن m+1displaystyle m+1 پارامتر تبدیل می‌شود. به این معنی که ما یک پارامتر چند متغیره به اسم β→=[β0,β1,⋯,βm]displaystyle vec beta =[beta _0,beta _1,cdots ,beta _m] داریم و سعی می‌کنیم که متغیر وابسته که همان ydisplaystyle y است را با ترکیبی خطی از x→displaystyle vec x بردارد ورودی، تخمین بزنیم یعنی y≈β0+∑i=1mβi×xidisplaystyle yapprox beta _0+sum _i=1^mbeta _itimes x_i. حال اگر یک بعد دیگر به متغیر x→displaystyle vec x اضافه کنیم و مقدارش را همیشه عدد ثابت 1displaystyle 1 در نظر بگیریم (x0=1displaystyle x_0=1) و x→displaystyle vec x را به صورتِ x→=[1,x1,x2,…,xm]displaystyle vec x=[1,x_1,x_2,dots ,x_m] تغییر دهیم، تخمینی که از ydisplaystyle y داریم در واقع ضرب نقطه ای بردار ورودی و بردار پارامترهای ماست یعنی y≈∑i=0mβi×xi=β→.x→displaystyle yapprox sum _i=0^mbeta _itimes x_i=vec beta ,,.,vec x. حال فرض کنیم که تعداد مثالهایی که قرار است برای تخمین پارامترها استفاده کنیم ndisplaystyle n است و این مثالها را به این شکل نمایش دهیم D=(x1→,y1),⋯(xn→,yn)displaystyle D=(vec x_1,y_1),cdots (vec x_n,y_n). پارامتر بهینه پارامتری است که یک تابع هزینه را به حداقل برساند و تخمینهایی ما را به متغیر وابسته بسیار نزدیک کند. تابع هزینه را با جمع مربع تفاضل تخمینها با متغیر وابسته تعریف می‌کنیم، به این شکل که L(D,β→)=∑i=1n(β→.xi→−yi)2displaystyle L(D,vec beta )=sum _i=1^n(vec beta ,.,vec x_i-y_i)^2، با این حساب پارامتر بهینه می‌شود:


β^→=argminβ→L(D,β→)=argminβ→∑i=1n(β→.xi→−yi)2displaystyle vec hat beta =argmin_vec beta L(D,vec beta )=argmin_vec beta sum _i=1^n(vec beta ,.,vec x_i-y_i)^2



تخمین پارامتر بهینه از روش کمترین مربعات[ویرایش]


در این روش برای بدست آوردن β^→displaystyle vec hat beta یا همان پارامتر بهینه، از تابع L(D,β→)displaystyle L(D,vec beta )نسبت به β→displaystyle vec beta گرادیان می‌گیریم و گرادیان را برابر صفر قرار می‌دهیم و پارامتر نمونه را بدست می‌آوریم.[۳] از آنجا که تابع L(D,β→)displaystyle L(D,vec beta ) نسبت به β→displaystyle vec beta تابعی کاملاً محدب است، در نقطه مینیمم گرادیان ما صفر خواهد بود و این روش پارامتر بهینه را بدست می‌دهد.[۴] برای تسهیل کار شکل تابع را با بکارگیری چند ماتریس ساده می‌کنیم. دو ماتریس برای این کار نیاز داردیم ماتریس Xdisplaystyle X و ماتریس Ydisplaystyle Y. ماتریس Xdisplaystyle X ماتریس ورودهای چندمتغیره ماست. هر سطر معادل یک نمونه از داده ماست، سطر idisplaystyle iام برابر است با idisplaystyle iامین نمونه ورودی ما یعنی بردار xi→displaystyle vec x_i، از اینرو Xdisplaystyle X یک ماتریس n×(m+1)displaystyle ntimes (m+1) خواهد بود. ماتریس Ydisplaystyle Y از طرف دیگر برابر است با مجموعه متغیرهای وابسته داده ما. سطر idisplaystyle iام این ماتریس برابر است با متغیر وابسته برای idisplaystyle iامین نمونه داده ما یا همان yidisplaystyle y_i. ماتریس Ydisplaystyle Y یک ماتریس n×1displaystyle ntimes 1 است. با کمک این دو ماتریس می‌توان تابع هزینه را به شکل ذیل تعریف کرد:


L(D,β→)=||Xβ→−Y||2=(Xβ→−Y)T(Xβ→−Y)=YTY−YTXβ→−β→TXTY+β→TXTXβ→Xvec beta -Y


حال گرادیان این تابع را نسبت به β→displaystyle vec beta پیدا می‌کنیم که می‌شود:


∂L(D,β→)∂β→=∂(YTY−YTXβ→−β→TXTY+β→TXTXβ→)∂β→=−2XTY+2XTXβ→displaystyle frac partial L(D,vec beta )partial vec beta =frac partial left(Y^TY-Y^TXvec beta -vec beta ^TX^TY+vec beta ^TX^TXvec beta right)partial vec beta =-2X^TY+2X^TXvec beta


با برابر قرار دادن گرادیان با صفر پارامتر بهینه بدست می‌آید:


−2XTY+2XTXβ→=0⇒XTY=XTXβ→⇒β^→=(XTX)−1XTYdisplaystyle -2X^TY+2X^TXvec beta =0Rightarrow X^TY=X^TXvec beta Rightarrow vec hat beta =(X^TX)^-1X^TY


پس پارامتر بهینه ما برابر است با:


β^→=(XTX)−1XTYdisplaystyle bf vec hat beta =(X^TX)^-1X^TY



تخمین پارامتر بهینه از روش گرادیان کاهشی تصادفی (Stochastic Gradient Descent)[ویرایش]


روش پارامتر تخمین پارامتر بهینه از طریق کمترین مربعات ممکن است چند اشکال اساسی داشته باشد. یکی آنکه محاسبه(XTX)−1displaystyle (X^TX)^-1 ممکن است زمانبر باشد. بُعدِ ماتریس مربعی XTXdisplaystyle X^TX برابر است با (m+1)×(m+1)displaystyle (m+1)times (m+1) و اگر بعد mdisplaystyle m بالا باشد زمان محاسبه معکوس این ماتریس می‌تواند مسئله ساز شود. مضاف بر این، ماتریس ممکن است معکوس پذیر نباشد. از این رو روشهای کاراتر و سریعتری برای تخمین پارامتر بهینه مورد استفاده قرار می‌گیرد. یکی از این روشها روش گرادیان کاهشی تصادفی است. در این روش هر بار یک مثال را بصورت اتفاقی از نمونه‌های داده انتخاب کرده، گرادیان تابع هزینه را حساب می‌کنیم و کمی در جهت خلاف گرادیان پارامتر را حرکت می‌دهیم تا به یک پارامتر جدید برسیم. گرادیان جهت موضعی بیشترین افزایش را در تابع به ما نشان می‌دهد، برای بیشترین کاهش موضعی در خلاف جهت گرادیان باید حرکت کرد. اینکار را آنقدر ادامه می‌دهیم که گرادیان به اندازه کافی به صفر نزدیک شود. بجای اینکه داده‌ها را بصورت تصادفی انتخاب کنیم می‌توانیم به ترتیب داده شماره 1displaystyle 1تا داده شماره ndisplaystyle n را انتخاب کنیم و بعد دوباره به داده اولی برگردیم و این کار را بصورت چندین انجام دهیم تا گرادیان تابع به اندازه کافی به صفر نزدیک شود. از لحاظ ریاضی این کار را می‌توان به شکل پایین انجام داد، پارامتر β→displaystyle vec beta را در ابتدا بصورت تصادفی مقدار دهی می‌کنیم و بعد برای داده idisplaystyle i ام و تمامی jdisplaystyle j‌ها، یعنی از j=1displaystyle j=1 تا j=m+1displaystyle j=m+1 تغییر پایین را اعمال می‌کنیم، دراینجا αdisplaystyle alpha همان مقداریست که در جهت گرادیان هربار حرکت می‌کنیم و (yi−xi→.β→)xi,j→displaystyle left(y_i-vec x_i.vec beta right)vec x_i,j مشتق جزئی داده idisplaystyle i ام در بُعد jdisplaystyle j ام است:


{Initializeβold→randomlyloop until convergence :fori=0ton:forj=0tom:βjnew→=βjold→+α(yi−βold→.xi→)xi,j→βold=βnewdisplaystyle begincasesmboxInitialize,,vec beta ^,old,,mboxrandomly\mboxloop until convergence :\,,mboxfor,,,,i=0,,,,mboxto,,,,n:\,,,,,,mboxfor,,,,j=0,,,,mboxto,,,,m:\,,,,,,,,,,,,vec beta _j^,new=vec beta _j^,old+alpha left(y_i-vec beta ^,old,.,vec x_iright)vec x_i,j\,,,,,,beta ^,old=beta ^,newendcases



تفسیر احتمالی از طریق درست نمایی بیشینه[ویرایش]


برای بدست آوردن پارامتر بهینه β^→displaystyle vec hat beta تابع هزینه یعنی L(D,β→)displaystyle L(D,vec beta ) را به حداقل می‌رسانیم. می‌توان به همین پارامتر بهینه از روش درست نمایی بیشینه هم رسید. فرض می‌کنیم که متغیر وابسته یعنی ydisplaystyle y یک متغیر تصادفی است که مقدارش از یک توزیع طبیعی (توزیع گاوسی) پیروی می‌کند. این توزیع احتمال، واریانس ثابتی به اسم σdisplaystyle sigma دارد ولی میانگین آن ترکیبی خطی از متغیرهای مستقل یعنی x→=[1,x1,x2,…,xm]displaystyle vec x=[1,x_1,x_2,dots ,x_m] است. به عبارت دیگر میانگین ما برابر است با β→.x→displaystyle vec beta ,.,vec x. با احتساب میانگین و واریانس توزیع متغیر وابسته ما می‌شود y∼N(β→.x→,σ)displaystyle ysim N(vec beta ,.,vec x,sigma ). حال اگر فرض کنیم داده‌های ما نسبت به هم مستقل هستند تابع درست نمایی برای تمام داده‌ها می‌شود:


H(D,β→)=∏i=1nPr(yi|xi→;β→,σ)=∏i=1n12πσexp(−(yi−β→.xi→)22σ2)displaystyle H(D,vec beta )=prod _i=1^nPr(y_i


حال باید به دنبال پارامتری باشیم که این تابع بزرگنمایی را بیشینه کند. از آنجا که تابع لگاریتم مطلقاً صعودیست، بجای بیشینه کردن این تابع لگاریتمش را هم می‌شود بیشنه کرد و پارامتر بهینه را از آن طریق پیدا کرد:


I(D,β→)=log⁡∏i=1nPr(yi|xi→;β→,σ)=log⁡∏i=1n12πσexp(−(yi−β→.xi→)22σ2)=nlog⁡12πσ−12σ2∑i=1n(yi−β→.xi→)2displaystyle I(D,vec beta )=log prod _i=1^nPr(y_i


پارامتر بهینه از این طریق برابر است با:


argmaxβ→I(D,β→)=argmaxβ→(nlog⁡12πσ−12σ2∑i=1n(yi−β→.xi→)2)=argminβ→∑i=1n(yi−β→.xi→)2=argminβ→L(D,β→)=β^→displaystyle argmax_vec beta I(D,vec beta )=argmax_vec beta left(nlog frac 1sqrt 2pi sigma -frac 12sigma ^2sum _i=1^nleft(y_i-vec beta ,.,vec x_iright)^2right)=argmin_vec beta sum _i=1^nleft(y_i-vec beta ,.,vec x_iright)^2=argmin_vec beta L(D,vec beta )=vec hat beta


همان‌طور که دیدم پارامتری که I(D,β→)displaystyle I(D,vec beta ) را بیشینه می‌کند همان پارامتری است که L(D,β→)displaystyle L(D,vec beta ) را به حداقل می‌رساند. این به معنی معادل بودن روش کمترین مربعات با روش درست نمایی بیشنه در رگرسیون خطی است.



تنظیم مدل (Regularization)[ویرایش]


پیچیدگی مدلهای پارامتری با تعداد پارامترهای مدل و مقادیر آن‌ها سنجیده می‌شود. هرچه این پیچیدگی بیشتر باشد خطر بیش‌برازش (Overfitting) برای مدل بیشتر است.[۵] پدیده بیش‌برازش زمانی رخ می‌دهد که مدل بجای یادگیری الگوهای داده، داده را را حفظ می‌کند و در عمل یادگیری به خوبی انجام نمی‌شود. برای جلوگیری از بیش‌برازش در مدلهای خطی مانند رگرسیون خطی یا رگرسیون لجستیک جریمه‌ای به تابع هزینه اضافه می‌شود تا از افزایش زیاد پارامترها جلوگیری شود. به این کار تنظیم مدل یا Regularization گفته می‌شود. دو راه متداول تنظیم مدلهای خطی روشهای L1displaystyle L_1 و L2displaystyle L_2 هستند.[۶] در روش L1displaystyle L_1 ضریبی از نُرمِ L1displaystyle L_1به تابع هزینه اضافه می‌شود و در روش L2displaystyle L_2 ضریبی از نُرمِ L2displaystyle L_2 که همان نُرمِ اقلیدسی است به تابع هزینه اضافه می‌شود.


در تنظیم مدل به روش L1displaystyle L_1 تابع هزینه را به این شکل تغییر می‌دهیم:


Lr(D,β→)=L(D,β→)+λ||β→||1=∑i=1n(β→.xi→−yi)2+λ∑k=0m|βk|


این روش تنظیم مدل که به روش لاسو (Lasso) نیز شهرت دارد باعث می‌شود که بسیاری از پارامترهای مدل نهائی صفر شوند و مدل به اصلاح خلوت (Sparse) شود.[۷]


در تنظیم مدل به روش L2displaystyle L_2 تابع هزینه را به این شکل تغییر می‌دهیم:


Lr(D,β→)=L(D,β→)+λ||β→||22=∑i=1n(β→.xi→−yi)2+λ∑k=0mβk2displaystyle L_r(D,vec beta )=L(D,vec beta )+lambda


در روش تنظیم از طریق L2displaystyle L_2 سعی می‌شود طول اقلیدسی بردار β→displaystyle vec beta کوتاه نگه داشته شود. λdisplaystyle lambda در روش L1displaystyle L_1 و L2displaystyle L_2 یک عدد مثبت است که میزان تنظیم مدل را معین می‌کند. هرچقدر λdisplaystyle lambda کوچکتر باشد جریمه کمتری برا بزرگی نرم بردار پارامترها یعنی β→displaystyle vec beta پرداخت می‌کنیم. مقدار ایدئال λdisplaystyle lambda از طریق آزمایش بر روی داده اعتبار (Validation Data) پیدا می‌شود.



کاربردها[ویرایش]


یک کاربرد مدل خطی عمومی در تحلیل پویش‌های مغزی متعدد در آزمایش‌های علمی است که Y شامل اطلاعات رسیده از پوینده‌های مغز است، X شامل متغیرهای تجربی طراحی و اختلال‌ها است. به‌طور معمول به روش تک متغیره آزموده می‌گردد (معمولاً در این پیکربندی به یک تک متغیر جرم ارجاع داده می‌شود) و معمولاً به نقشه‌برداری متغیری آماری معروف است.[۸]



جستارهای وابسته[ویرایش]


  • رگرسیون خطی

  • رگرسیون لجستیک

  • رگرسیون پواسون


منابع[ویرایش]


  • ترجمه از ویکی‌پدیا انگلیسی


  1. K. V. Mardia, J. T. Kent and J. M. Bibby (1979). Multivariate Analysis. Academic Press. ISBN 0-12-471252-5..mw-parser-output cite.citationfont-style:inherit.mw-parser-output qquotes:"""""""'""'".mw-parser-output code.cs1-codecolor:inherit;background:inherit;border:inherit;padding:inherit.mw-parser-output .cs1-lock-free abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/6/65/Lock-green.svg/9px-Lock-green.svg.png")no-repeat;background-position:right .1em center.mw-parser-output .cs1-lock-limited a,.mw-parser-output .cs1-lock-registration abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/d/d6/Lock-gray-alt-2.svg/9px-Lock-gray-alt-2.svg.png")no-repeat;background-position:right .1em center.mw-parser-output .cs1-lock-subscription abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/a/aa/Lock-red-alt-2.svg/9px-Lock-red-alt-2.svg.png")no-repeat;background-position:right .1em center.mw-parser-output div[dir=ltr] .cs1-lock-subscription a,.mw-parser-output div[dir=ltr] .cs1-lock-limited a,.mw-parser-output div[dir=ltr] .cs1-lock-registration abackground-position:left .1em center.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registrationcolor:#555.mw-parser-output .cs1-subscription span,.mw-parser-output .cs1-registration spanborder-bottom:1px dotted;cursor:help.mw-parser-output .cs1-hidden-errordisplay:none;font-size:100%.mw-parser-output .cs1-visible-errorfont-size:100%.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registration,.mw-parser-output .cs1-formatfont-size:95%.mw-parser-output .cs1-kern-left,.mw-parser-output .cs1-kern-wl-leftpadding-left:0.2em.mw-parser-output .cs1-kern-right,.mw-parser-output .cs1-kern-wl-rightpadding-right:0.2em


  2. Rencher, Alvin C.; Christensen, William F. (2012-08-15). Methods of Multivariate Analysis (به English). John Wiley & Sons. p. 19. ISBN 9781118391679.نگهداری یادکرد:زبان ناشناخته (link)


  3. Yan, Xin (2009). Linear Regression Analysis: Theory and Computing. World Scientific. ISBN 9789812834119.


  4. Rencher, Alvin C.; Christensen, William F. (2012-08-15). Methods of Multivariate Analysis (به English). John Wiley & Sons. p. 155. ISBN 9781118391679.نگهداری یادکرد:زبان ناشناخته (link)


  5. Bühlmann, Peter; van de Geer, Sara (2011). "Statistics for High-Dimensional Data". Springer Series in Statistics. doi:10.1007/978-3-642-20192-9. ISSN 0172-7397.


  6. Bühlmann, Peter; van de Geer, Sara (2011). Theory for ℓ1/ℓ2-penalty procedures. Berlin, Heidelberg: Springer Berlin Heidelberg. pp. 249–291. doi:10.1007/978-3-642-20192-9_8. ISBN 9783642201912.


  7. Natarajan, B. K. (1995). "Sparse Approximate Solutions to Linear Systems". SIAM Journal on Computing. 24 (2): 227–234. doi:10.1137/s0097539792240406. ISSN 0097-5397.


  8. K.J. Friston, A.P. Holmes, K.J. Worsley, J. -B. Poline, C.D. Frith and R.S.J. Frackowiak (1995). "Statistical Parametric Maps in functional imaging: A general linear approach". Human Brain Mapping. 2 (4): 189–210. doi:10.1002/hbm.460020402.نگهداری یادکرد:نام‌های متعدد:فهرست نویسندگان (link)











برگرفته از «https://fa.wikipedia.org/w/index.php?title=رگرسیون_چندمتغیره&oldid=25014381»










منوی ناوبری


























(window.RLQ=window.RLQ||[]).push(function()mw.config.set("wgPageParseReport":"limitreport":"cputime":"0.836","walltime":"1.289","ppvisitednodes":"value":4958,"limit":1000000,"ppgeneratednodes":"value":0,"limit":1500000,"postexpandincludesize":"value":459254,"limit":2097152,"templateargumentsize":"value":45036,"limit":2097152,"expansiondepth":"value":16,"limit":40,"expensivefunctioncount":"value":70,"limit":500,"unstrip-depth":"value":1,"limit":20,"unstrip-size":"value":28894,"limit":5000000,"entityaccesscount":"value":2,"limit":400,"timingprofile":["100.00% 559.409 1 -total"," 52.24% 292.228 17 الگو:Navbox"," 45.45% 254.275 1 الگو:پانویس"," 22.52% 125.978 1 الگو:آمار"," 21.56% 120.591 1 الگو:Navbox_with_collapsible_groups"," 20.66% 115.572 1 الگو:تحلیل_رگرسیون"," 19.58% 109.515 1 الگو:Sidebar"," 16.10% 90.070 72 الگو:پم"," 14.36% 80.312 3 الگو:Cite_journal"," 14.00% 78.325 4 الگو:یادکرد_کتاب"],"scribunto":"limitreport-timeusage":"value":"0.245","limit":"10.000","limitreport-memusage":"value":4297105,"limit":52428800,"cachereport":"origin":"mw1243","timestamp":"20190425221833","ttl":2592000,"transientcontent":false););"@context":"https://schema.org","@type":"Article","name":"u0631u06afu0631u0633u06ccu0648u0646 u0686u0646u062fu0645u062au063au06ccu0631u0647","url":"https://fa.wikipedia.org/wiki/%D8%B1%DA%AF%D8%B1%D8%B3%DB%8C%D9%88%D9%86_%DA%86%D9%86%D8%AF%D9%85%D8%AA%D8%BA%DB%8C%D8%B1%D9%87","sameAs":"http://www.wikidata.org/entity/Q1826488","mainEntity":"http://www.wikidata.org/entity/Q1826488","author":"@type":"Organization","name":"u0645u0634u0627u0631u06a9u062au200cu06a9u0646u0646u062fu06afu0627u0646 u067eu0631u0648u0698u0647u0654 u0648u06ccu06a9u06ccu200cu0645u062fu06ccu0627","publisher":"@type":"Organization","name":"Wikimedia Foundation, Inc.","logo":"@type":"ImageObject","url":"https://www.wikimedia.org/static/images/wmf-hor-googpub.png","datePublished":"2014-12-14T20:16:14Z","dateModified":"2018-12-08T18:10:26Z","image":"https://upload.wikimedia.org/wikipedia/commons/3/3a/Linear_regression.svg"(window.RLQ=window.RLQ||[]).push(function()mw.config.set("wgBackendResponseTime":131,"wgHostname":"mw1320"););

Popular posts from this blog

کانن (شرکت) محتویات تاریخچه[ویرایش] بخشی از تولیدات موفق این شرکت[ویرایش] در رده APS-C[ویرایش] گزارش محیط زیست[ویرایش] رده‌بندی محصولات[ویرایش] منابع[ویرایش] پانویس[ویرایش] پیوند به بیرون[ویرایش] منوی ناوبریwww.canon.comموزه آنلاین دوربین‌های کانننمودار تاریخچه سهام کاننوبگاه رسمی شرکت کاننوووووIDC Worldwide Hardcopy 2013

Rest API with Magento using PHP with example. Planned maintenance scheduled April 17/18, 2019 at 00:00UTC (8:00pm US/Eastern) Announcing the arrival of Valued Associate #679: Cesar Manara Unicorn Meta Zoo #1: Why another podcast?How to update product using magento client library for PHP?Oauth Error while extending Magento Rest APINot showing my custom api in wsdl(url) and web service list?Using Magento API(REST) via IXMLHTTPRequest COM ObjectHow to login in Magento website using REST APIREST api call for Guest userMagento API calling using HTML and javascriptUse API rest media management by storeView code (admin)Magento REST API Example ErrorsHow to log all rest api calls in magento2?How to update product using magento client library for PHP?

Magento 2 - Auto login with specific URL Planned maintenance scheduled April 23, 2019 at 23:30 UTC (7:30pm US/Eastern) Announcing the arrival of Valued Associate #679: Cesar Manara Unicorn Meta Zoo #1: Why another podcast?Customer can't login - Page refreshes but nothing happensCustom Login page redirectURL to login with redirect URL after completionCustomer login is case sensitiveLogin with phone number or email address - Magento 1.9Magento 2: Set Customer Account Confirmation StatusCustomer auto connect from URLHow to call customer login form in the custom module action magento 2?Change of customer login error message magento2Referrer URL in modal login form