جستجوی خط
استراتژی جستجوی خطی در بهینهسازی، یکی از دو رویکرد تکراری پایه ای برای یافتن مینیمم محلی است با یک تابع هدف . رویکرد دیگر منطقه اعتماد است.
رویکرد جستجوی خطی ابتدا یک جهت نزولی (descent direction) را که در جهت آن تابع هدف کاهش مییابد، پیدا میکند، سپس اندازه گام را محاسبه میکند که تعیین کند چقدر در جهت نزولی حرکت کند تا به مینیمم برسد. جهت نزولی را میتوان با روشهای مختلفی مانند روش نزول گرادیان یا روش شبه نیوتنی محاسبه کرد. اندازه گام را میتوان دقیقاً یا بهطور غیر دقیق تعیین کرد.
نحوه کاربرد
[ویرایش]نمونه ای از روش گرادیان که از جستجوی خطی در مرحله ۴ استفاده میکند، در زیر آمدهاست:
- شمارشگر تکرار را روی تنظیم کنید و یک حدس اولیه برای مینیمم بزنید.
- مراحل را تکرار کنید:
- جهت نزول را محاسبه کنید.
- را برای به حداقل رساندن تابع روی انتخاب کنید.
- بوسیله ، و به روز رسانی کنید
- تا وقتیکه < tolerance.
در مرحله (۴) جستجوی خطی، الگوریتم تحت شرایطی میتواند دقیقاً h را با حل ، مینیمم کند، و در صورت عدم برقراری آن شرایط، h را به حد کافی بهطور تقریبی کاهش دهد. یکی از نمونه روشهای حل بوسیله ، روش گرادیان مزدوج است. استفاده از روش حل بهطور تقریبی، جستجوی خطی غیر دقیق نامیده میشود و ممکن است به روشهای مختلفی مانند جستجوی خطی عقبگرد یا با استفاده از شرایط Wolfe انجام شود.
مانند سایر روشهای بهینهسازی، جستجوی خطی ممکن است با تبرید شبیهسازی شده ترکیب شود تا به آن اجازه دهد از مینیممهای موضعی عبور کند.
الگوریتمها
[ویرایش]روشهای جستجوی مستقیم
[ویرایش]در این روشها، یک بازه که مینیمم در آن وجود دارد را انتخاب میکنیم و در ادامه سعی میکنیم با کاهش دادن طول بازه، به مینیمم نزدیک شده و در نهایت به قدری بازه را کوچک کنیم که تقریب خوبی از مینیمم حاصل شود. برای این کار، ابتدا باید بازه ای انتخاب شود که مینیمم در این بازه قرار داشته باشد، بنابراین الگوریتم باید نقاط x 1 و x 2 را به گونهای مشخص کند که مینیمم مورد نظر بین آنها باشد. سپس در این بازه دو نقطه دیگر، x 3 و x 4 را در نظر میگیریم و با محاسبه در این ۲ نقطهٔ درونی، تصمیم میگیریم که چگونه طول بازه را کاهش دهیم (در این قسمت x 1 و x 2 نقاط مرزی بازه اند و x 3 و x 4 نقاط درونی، لذا باید برای کوچک کردن طول بازه، یکی از نقاط مرزی x 1 یا x 2 را حذف کنیم که یکی از نقاط x 3 یا x 4 بهجای آن نقطه مرزی شود)، برای این کار مقدارهای تابع هدف بدست آمده در نقاط درونی با یکدیگر مقایسه میشوند و نقطهٔ مرزی مجاور با نقطه درونی ای که مقدار تابع هدف بزرگتری دارد، حذف میشود. در مراحل بعدی، فقط یک نقطه درونی اضافی باید محاسبه شود. برای نحوه تقسیم بازه، رویکردهای متفاوتی مطرح میشوند که یکی از آنها الگوریتم[۱] جستجوی نسبت طلایی است که بهویژه ساده و مؤثر است، زیرا نسبتهای بازه بدون توجه به نحوه ادامه جستجو حفظ میشوند:
جستارهای وابسته
[ویرایش]منابع
[ویرایش]- ↑ Box, M. J.; Davies, D.; Swann, W. H. (1969). Non-Linear optimisation Techniques. Oliver & Boyd.
بیشتر خواندن
[ویرایش]- Dennis, J. E. , Jr.; Schnabel, Robert B. (1983). "Globally Convergent Modifications of Newton's Method". Numerical Methods for Unconstrained Optimization and Nonlinear Equations. Englewood Cliffs: Prentice-Hall. pp. 111–154. ISBN 0-13-627216-9.
- Nocedal, Jorge; Wright, Stephen J. (1999). "Line Search Methods". Numerical Optimization. New York: Springer. pp. 34–63. ISBN 0-387-98793-2.
- Sun, Wenyu; Yuan, Ya-Xiang (2006). "Line Search". Optimization Theory and Methods: Nonlinear Programming. New York: Springer. pp. 71–117. ISBN 0-387-24975-3.