يعد النسب التدرج العشوائي (SGD) طريقة تكرارية لتحسين وظيفة موضوعية شهدت تطورًا مذهلاً منذ الخمسينيات، خاصة في سياق التعلم الآلي. تم اقتراح هذه الطريقة في الأصل من قبل هربرت روبينز وسوتون مونود في عام 1951. وتتمثل فكرتها الأساسية في تقريب التدرج الفعلي لمجموعة البيانات عن طريق تقدير مجموعة فرعية مختارة عشوائيًا من البيانات. تسمح هذه الإستراتيجية لـ SGD بتقليل العبء الحسابي وتحقيق تكرارات أسرع عند التعامل مع مشكلات التحسين عالية الأبعاد. ص>
"يوفر النسب التدرج العشوائي طريقة فعالة لحل مشكلات التحسين في مجموعات البيانات واسعة النطاق."
في التقدير الإحصائي والتعلم الآلي، تعتبر مشكلة تقليل دالة الهدف الضيقة أولوية قصوى. غالبًا ما يمكن التعبير عن هذه المشكلات كمجموع، حيث يرتبط كل مصطلح بملاحظة في مجموعة البيانات. في الإحصاء، تنشأ مشاكل التقليل هذه في طرق المربعات الصغرى وتقدير الاحتمالية القصوى. مع الارتفاع السريع للتعلم العميق اليوم، أصبح النسب التدرج العشوائي أداة مهمة في خوارزميات التحسين. ص>
الميزة الرئيسية للنزول التدرج العشوائي هي أنه يستخدم عينة واحدة فقط لحساب التدرج عند كل تحديث. ويؤدي هذا إلى انخفاض كبير في التكلفة الحسابية لتنفيذ كل تكرار عندما تكون مجموعة البيانات كبيرة جدًا. لمزيد من تحسين الكفاءة، قدمت الأبحاث اللاحقة مفهوم النسب التدرجي للدفعة الصغيرة، والذي يستخدم عينات متعددة لكل تحديث، وبالتالي الاستفادة من مكتبات التوجيه لتسريع الحساب. ص>
"تجمع طرق الدفعات الصغيرة بين كفاءة النسب التدرج العشوائي واستقرار طرق الدفعات."
خذ الانحدار الخطي كمثال، من خلال تقليل الفرق بين القيمة المتوقعة والقيمة الحقيقية، يمكن الحصول على معلمات النموذج الأمثل. يمكن تحقيق ذلك من خلال النسب التدرج العشوائي، حيث تحتاج المعلمات فقط إلى التحديث بناءً على نقطة بيانات واحدة في كل مرة. وهذا لا يجعل من الممكن معالجة كميات كبيرة من البيانات فحسب، بل يزيد أيضًا من سرعة تحديثات النموذج. ص>
لقد مر النسب التدرج العشوائي بعدة تغييرات رئيسية منذ العمل الأولي لروبنز ومونود. في عام 1956، نشر جاك كيفر وجاكوب وولفويتز خوارزمية تحسين تشبه إلى حد كبير نزول التدرج العشوائي، بينما استخدم فرانك روزنبلات هذه الطريقة لتحسين الإدراك الحسي الخاص به في نفس العام. مع الوصف الأول لخوارزمية الانتشار العكسي، يتم استخدام SGD على نطاق واسع لتحسين معلمات الشبكات العصبية متعددة الطبقات. ص>
في العقد الأول من القرن الحادي والعشرين، ظهرت أشكال مختلفة من النسب التدرج العشوائي إلى ما لا نهاية، وخاصة ظهور التقنيات التي تضبط معدلات التعلم تلقائيًا، مثل AdaGrad، وRMSprop، وAdam. هذه الأساليب تجعل SGD أكثر فعالية في التعامل مع مهام التعلم المعقدة. اليوم، تحتوي معظم مكتبات التعلم الآلي السائدة، مثل TensorFlow وPyTorch، على مُحسِّنات مستندة إلى آدم، وقد أصبحت هذه المُحسِّنات حجر الزاوية في التعلم الآلي الحديث. ص>
حتى الآن، انتشرت تطبيقات النسب التدرج العشوائي في العديد من المجالات، بما في ذلك رؤية الكمبيوتر، والتعرف على الكلام، ومعالجة اللغة الطبيعية. في هذه المجالات، يتم استخدام SGD على نطاق واسع لكفاءته ومرونته، وأصبح أداة ضرورية لتدريب نماذج التعلم العميق. من الماضي إلى الحاضر، لم يغير النسب التدرج العشوائي الطريقة التي نعالج بها البيانات الضخمة فحسب، بل مهد الطريق أيضًا لتطوير الذكاء الاصطناعي. ص>
"إن الهبوط التدرجي العشوائي ليس مجرد تقدم تكنولوجي، ولكنه أيضًا قوة دافعة مهمة لتحقيق عالم ذكي."
من التجارب الأولية في خمسينيات القرن العشرين إلى التطبيق واسع النطاق اليوم، أظهر النسب التدرج العشوائي حيويته القوية وقدرته على التكيف. كيف سيؤثر على التقدم التكنولوجي الجديد في المستقبل؟