📝 مفهوم بیش برازش (overfitting) در یادگیری ماشین

زمان مورد نیاز برای مطالعه : 2 دقیقه

اشتراک گذاری



تصور کنید که فردی تصمیم می‌گیرد زبان انگلیسی را یاد بگیرد. او هیچ پیش‌زمینه‌ای ندارد، اما یک چیز را به‌خوبی می‌داند: ویلیام شکسپیر بزرگ‌ترین نویسنده‌ی زبان انگلیسی است. در نتیجه، او خود را در یک کتابخانه حبس می‌کند و تمام آثار شکسپیر را مطالعه می‌کند. پس از یک سال تلاش و مطالعه، او با اعتماد به نفس به نیویورک می‌رود و با اولین نفری که می‌بیند، سلام و احوالپرسی می‌کند. اما جمله‌ای که می‌گوید این است: «!Good dawning to thee, friend». 

در این لحظه، فرد مقابل با نگاهی تحقیرآمیز زیرلب می‌گوید: «این مرد دیوانه است!» اینجا ما با یکی از بزرگ‌ترین خطاهای پایه‌ای در آموزش مدل‌های هوش مصنوعی مواجه هستیم: overfitting.

▎Overfitting چیست؟


در دنیای علم داده، وقتی ما از یک مدل overfit صحبت می‌کنیم، به مدلی اشاره داریم که به شدت به داده‌های آموزشی وابسته است و نمی‌تواند به خوبی به داده‌های جدید تعمیم یابد. برای مثال، ما در تلاشیم تا مدلی بسازیم که ارتباطات زبانی را تسهیل کند. داده‌های آموزشی ما شامل تمامی آثار شکسپیر است و داده‌های تست ما نیویورک است. اگر معیار ارزیابی ما پذیرش عموم مردم باشد، واضح است که این مدل در تعمیم به داده‌های تست با شکست مواجه خواهد شد.

▎واریانس و بایاس


حالا بیایید به دو مفهوم کلیدی در یادگیری ماشین بپردازیم: واریانس و بایاس. واریانس به میزان تغییرات مدل در پاسخ به داده‌های آموزشی اشاره دارد. در مثال ما، فرد تمام آثار شکسپیر را خوانده و حفظ کرده است، بنابراین مدل او واریانس زیادی دارد و به شدت به داده‌های آموزشی وابسته است. اگر به این مدل داده‌های جدید نشان دهیم، عملکرد آن رضایت‌بخش نخواهد بود؛ چرا که او تنها توانسته است اطلاعات خاصی را حفظ کند و نمی‌تواند با موقعیت‌های جدید سازگار شود. این همانند دانش‌آموزی است که فقط مسائل کتاب ریاضی را حفظ کرده و وقتی با مسائل جدید مواجه می‌شود، نمی‌تواند آنها را حل کند.

از سوی دیگر، بایاس نشان‌دهنده‌ی قدرت تخمین‌ها در مورد داده‌هاست. در تلاش برای یادگیری زبان انگلیسی، فرد هیچ فرض اولیه‌ای در مورد مدل خود انجام نداده و کاملاً به نویسنده کتاب اعتماد کرده است تا همه چیز را به او بیاموزد. بایاس پایین ممکن است نکته‌ای مثبت به نظر برسد، اما چرا باید به داده‌ها اعتماد کرد؟ هر فرآیند طبیعی نویز تولید می‌کند و نمی‌توان اطمینان داشت که داده‌ها تمام نویزها را در بر گیرند.

▎راهکار چیست؟


برای جلوگیری از overfitting و ایجاد مدلی که بتواند به خوبی تعمیم یابد، لازم است که قبل از شروع به یادگیری، فرض‌هایی درباره‌ی داده‌ها در نظر بگیریم و فضایی برای نوساناتی که ممکن است در داده‌ها وجود داشته باشد، ایجاد کنیم. در مثال ما، قبل از اینکه فرد شروع به خواندن کتاب‌های شکسپیر کند، باید متوجه می‌شد که تنها خواندن کتاب‌ها نمی‌تواند او را به تسلط بر زبان انگلیسی برساند. او باید تمرین کند، با دیگران گفتگو کند و خود را در موقعیت‌های واقعی قرار دهد.

در نهایت، یادگیری زبان مانند یادگیری هر مهارت دیگری نیازمند تعادل بین دانش تئوری و تجربه عملی است. پس بیایید از داستان شکسپیر درس بگیریم و یاد بگیریم که چگونه می‌توانیم با ترکیب دانش و تجربه، مهارت‌های زبانی خود را تقویت کنیم!
تولید شده در آموزشگاه هوش مصنوعی سورنا
نوشته شده در آموزشگاه سورنا

1403/11/23

تمامی حقوق مادی و معنوی این سایت برای آکادمی سورنا است

Zmat24