الانحدار التدرجي العشوائي هو تقنية تحسين تكرارية تستخدم لتقليل دالة الهدف. المفهوم الأساسي هو استخدام مجموعة فرعية مختارة عشوائيًا من البيانات لتقدير التدرج، بدلاً من حساب التدرج الفعلي على مجموعة البيانات بأكملها. تعتبر هذه الطريقة مناسبة بشكل خاص لمشاكل التحسين عالية الأبعاد، حيث تحقق سرعات تحديث أسرع من خلال تقليل العبء الحسابي.
يمكن لتقنية الانحدار التدرجي العشوائي تحقيق كفاءة تدريب سريعة في العديد من مشاكل التعلم الآلي عالية الأبعاد.
SGD هو أكثر من مجرد أداة؛ فقد أصبح جزءًا لا يتجزأ من مجتمع التعلم العميق.
أثناء الانحدار التدرجي العشوائي، يحسب النموذج التدرج لكل عينة تدريب ويجري التعديلات بناءً على هذه التدرجات. على وجه التحديد، عند تحديث المعلمات، يتم تحديد حجم التحديث باستخدام معدل التعلم (حجم الخطوة). على الرغم من أن دقة تحديث واحد لهذه الطريقة ليست جيدة مثل دقة الانحدار التدرجي الدفعي، إلا أنه بسبب تكلفتها الحسابية المنخفضة، فإن عشرات الملايين من تحديثات المعلمات تصبح ممكنة في التطبيقات العملية.
مع تقدم التكنولوجيا، أصبحت تقنية الدفعات الصغيرة شائعة. تهدف هذه التقنية إلى استخدام عينات تدريب متعددة لحساب التدرجات في نفس الوقت، وذلك للحصول على نتائج تحديث مستقرة نسبيًا. تجمع هذه الطريقة بين عشوائية الانحدار التدرجي العشوائي واستقرار الانحدار التدرجي الدفعي، مما يؤدي إلى تحسين سرعة التقارب وأداء النموذج بشكل أكبر.
لا تعمل تقنية الدفعات الصغيرة على تحسين سرعة التدريب فحسب، بل تعمل أيضًا على تحسين سلاسة عملية التقارب.صعود المحسِّنات التكيفية
في العقد الأول من القرن الحادي والعشرين، بدأت أشكال مختلفة من الانحدار التدرجي العشوائي في الظهور، وخاصة مع إدخال محسنات معدل التعلم التكيفي مثل AdaGrad وRMSprop وAdam. تعمل هذه التقنيات على تحسين عملية التعلم ويمكنها ضبط معدل التعلم تلقائيًا بناءً على البيانات التاريخية. تدرج كل معلمة. المعدل، مما يجعل النموذج أكثر قدرة على التكيف أثناء عملية التدريب.
وأخيرًا، لا يسعنا إلا أن نتساءل: مع التطور السريع لتكنولوجيا الذكاء الاصطناعي، كيف سيتطور الانحدار التدرجي العشوائي في المستقبل للتعامل مع تحديات وفرص البيانات المعقدة بشكل متزايد؟