• در باب گرادیان کاهشی تصادفی در سال ۱۹۵۱ نسبت داده‌است. تفاوت گرادیان کاهشی تصادفی با گرادیان کاهشی استاندارد در این است که برخلاف گرادیان کاهشی استاندارد...
    25 KB (2,630 words) - 18:56, 16 August 2024
  • روش‌های گرادیان کاهشی سعی می‌کنند به صورت متناوب در خلاف جهت گرادیان حرکت کنند و با این کار تابع هزینه را به حداقل برسانند. پیدا کردن گرادیانِ لایه آخر...
    23 KB (2,261 words) - 20:38, 16 May 2024
  • یکی از این روش‌ها روش گرادیان کاهشی تصادفی است. در این روش هر بار یک مثال را به‌صورت اتفاقی از نمونه‌های داده انتخاب کرده، گرادیان تابع هزینه را حساب می‌کنیم...
    110 KB (11,363 words) - 08:06, 22 September 2024
  • گرادیان هر لایه از مشتقات لایه‌های جلوتر استفاده می‌شود و زمان اجرا تا حد زیادی کاهش پیدا می‌کند. استفاده از روش پس‌انتشار در کنار روش گرادیان کاهشی تصادفی،...
    16 KB (2,102 words) - 11:06, 29 November 2023
  • شبکه عصبی هر بار به صورت تصادفی از روند یادگیری حذف می‌شود. برای یادگیری وزن‌های شبکه عصبی از الگوریتم گرادیان کاهشی تصادفی استفاده می‌شود، و هر بار وزن‌های...
    2 KB (178 words) - 18:40, 16 January 2022
  • می‌دهد می‌توان گرادیان کاهشی را پیاده‌سازی کرد. البته برای جلوگیری از پیچیدگی محاسبات، روش‌هایی همچون گرادیان کاهشی تصادفی یا گرادیان کاهشی دسته‌ای نیز مورد...
    9 KB (757 words) - 01:53, 26 December 2023
  • یکی از این روش‌ها روش گرادیان کاهشی تصادفی است. در این روش هر بار یک مثال را به صورت اتفاقی از نمونه‌های داده انتخاب کرده، گرادیان تابع هزینه را حساب می‌کنیم...
    21 KB (2,886 words) - 05:11, 12 December 2022
  • روش‌های گرادیان کاهشی سعی می‌کنند به صورت متناوب در خلاف جهت گرادیان حرکت کنند و با این کار تابع هزینه را به حداقل برسانند. پیدا کردن گرادیانِ لایه آخر...
    33 KB (3,407 words) - 23:06, 16 August 2024
  • با توجه به ویژگی‌های مسئله، اضافه می‌کند. گرادیان کاهشی تصادفی که تعداد زیادی جستجوی حریصانه را از نقاط تصادفی مختلف شروع میکند. الگوریتم‌های ژنتیک دسته‌ای...
    32 KB (3,330 words) - 11:59, 15 June 2023
  • روش‌های گرادیان کاهشی سعی می‌کنند به صورت متناوب در خلاف جهت گرادیان حرکت کنند و با این کار تابع هزینه را به حداقل برسانند. پیدا کردن گرادیانِ لایه آخر...
    25 KB (2,466 words) - 20:44, 16 May 2024
  • دربر نمی‌گیرد. ادراک ماشین جعل عمیق بازگشت به عقب شبکه عصبی مصنوعی گرادیان کاهشی تصادفی یادگیری ماشین رگرسیون خطی Bengio, Y. (2009). Learning Deep Architectures...
    59 KB (5,131 words) - 04:56, 20 September 2024
  • در یادگیری ماشین، قانون دلتا یک قانون یادگیری گرادیان کاهشی برای به روز رسانی وزن ورودی ها به سلول عصبی مصنوعی در یک شبکه عصبی تک لایه است. می توان آن...
    7 KB (1,134 words) - 02:57, 6 July 2024
  • این کار با استفاده از الگوریتم های استاندارد آموزش عصبی عصبی مانند گرادیان کاهشی تصادفی همراه با پس‌انتشار انجام می‌شود. متن ممکن است یک پنجره با اندازه...
    27 KB (2,981 words) - 04:16, 12 October 2023
  • بسته به وزن‌های انتخابی داشته و از طریق آموزش داده‌ها و مدل با روش گرادیان کاهشی می‌توان به این خواسته رسید. این تکنیک در طیف گسترده‌ای از مدل‌های یادگیری...
    14 KB (908 words) - 21:31, 2 January 2024
  • یادگیری، بین پرت شدن و نرخ همگرایی یک موازنه هست. درحالیکه جهت کاهشی معمولا از گرادیان تابع زیان تعیین می‌شود، نرخ یادگیری تعیین می‌کند که یک گام در آن...
    12 KB (1,106 words) - 14:52, 20 November 2023
  • نیست. ما می توانیم این مشکل را با استفاده از رویکردی الهام گرفته از گرادیان کاهشی تصادفی حل کنیم. به جای در نظر گرفتن کی-نزدیکترین همسایه در هر نقطه تبدیل...
    9 KB (1,239 words) - 15:52, 7 June 2023
  • فقط برای x ≠ 0 {\displaystyle x\neq \mathbf {0} } صدق میکند. در گرادیان کاهشی تصادفی (Stochastic gradient descent) ، مقیاس بندی ویژگی گاهی اوقات می تواند...
    9 KB (937 words) - 09:07, 27 January 2024
  • یا "soft prompting", بردارهای دارای مقادیر ممیز شناور مستقیماً توسط گرادیان کاهشی جستجو می‌شوند تا حداکثر تابع درستنمایی خروجی‌ها را به دست آورند. به‌طور...
    81 KB (8,104 words) - 16:26, 16 September 2024
  • اساس اندازهٔ مقادیر ویژه متناظر با آن‌ها صورت می‌گیرد؛ یعنی بر اساس ترتیب کاهشی مقادیر ویژه، بردارهای ویژه بازچینی می‌شوند؛ یعنی p ≤ q ⇒ λ p ≤ λ q {\displaystyle...
    26 KB (2,892 words) - 07:16, 5 December 2023
  • بهینه‌سازی محدب است. الگوریتم‌های متنوعی هم برای حل آن وجود دارد که شامل روش گرادیان کاهشی یا Limited-memory BFGS است. از سوی دیگر، اگر برخی از متغیرها مشاهده...
    10 KB (1,067 words) - 14:52, 20 November 2023
  • «زمان فراز پالس» d v / d t {\displaystyle dv/dt} ، نشان دهنده تندترین گرادیان ولتاژ پالس (زمان فراز یا فرود) است و برحسب ولت بر میکروثانیه (V/μs) بیان...
    71 KB (5,012 words) - 23:37, 29 November 2023
  • ماشین مدرن، از جمله نزول تصادفی گرادیان برای آموزش شبکه‌های عصبی عمیق و روش‌های مجموعه (مانند جنگل‌های تصادفی و درختان گرادیان افزایشی)، به طور کلی وجود...
    24 KB (2,396 words) - 15:29, 7 September 2024
  • ماشین‌های بولتزمن) می‌شود؛ این امر به ویژه برای الگوریتم واگرایی متضاد گرادیان کاهشی، صادق است. ماشین‌های محدود بولتزمن را می‌توان در شبکه‌های یادگیری عمیق...
    14 KB (1,416 words) - 18:59, 5 February 2024
  • حداقل رساندن تابع هزینه، هم متخصصان و هم تابع وزن‌دهی با استفاده از روش گرادیان کاهشی، آموزش داده می‌شوند. در انتخاب تابع وزن‌دهی و تابع هزینه که شکل‌بندی...
    38 KB (4,480 words) - 21:29, 22 July 2024
  • \ell (\theta \mid X,Y)} را بیشینه کند با روشهای بهینه‌سازی محّدب مانند گرادیان کاهشی رسید. برای جلوگیری از بیش‌برازش در رگرسیون پواسون، جریمه‌ای برای پارامترهای...
    8 KB (1,049 words) - 08:08, 14 November 2021
  • {\displaystyle b} در این مدل با استفاده از روش گرادیان کاهشی به‌دست می‌آید. به این ترتیب که، در زمان اجرای روش گرادیان کاهشی در هر پیمایش، بهترین تابع کرنل برای...
    11 KB (1,283 words) - 15:05, 20 November 2023
  • خطای نمایش پوشش می‌دهند. گام انطباق شبکه گاز عصبی می‌تواند به عنوان گرادیان کاهشی بر روی تابع هزینه تفسیر شود. به کمک انطباق نه فقط نزدیکترین بردار ویژگی،...
    18 KB (1,842 words) - 19:01, 1 April 2023