مدل پرسپترون تک لایه

ساده ترین مدل شبکه های عصبی مصنوعی، مدل پرسپترون تک لایه (Single Layer Perceptron) یا SLP است و این مدل، پایه ای برای مدل های پیچیده تری است که در شبکه های عصبی توسعه داده می شوند. معمولا شکبه عصبی SLP برای مسئله های طبقه بندی دودویی (Binary Classification) به کار می رود، جایی که داده ها بر پایه ویژگی هایشان متعلق به یکی از دو کلاس هستند.

توجه کنید بر پایه شکل زیر، شبکه های SLP بدون لایه پنهان (Hidden Layer) هستند و از این رو ورودی های شبکه، پس ضرب شدن در وزن ها (Weight) و تک مقدار بایاس (Bias)، سر راست (مستقیم) به لایه خروجی متصل هستند. در شکل زیر می بنید که مجموع حاصل ضرب های ورودی ها در وزن ها به تابع فعال سازی درون لایه خروجی فرستاده می شود و سپس کلاس (یا برچسب) ورودی ها پیش بینی خواهد شد.

مدل پرسپترون چند لایه

مدل پرسپترون چند لایه ای (Multi Layer Perceptron) یا MLP بسیار همانند SLP است با این تفاوت که این مدل دارای لایه پنهان است که همه سه لایه ورودی، لایه (یا لایه های) پنهان و لایه خروجی به یکدیگر متصل شده اند و از این رو مفهوم شبکه عصبی Feed Forward را می سازند.

بر پایه شکل زیر هر نورون در یک لایه سر راست (مستقیما) به نرون های درون لایه پَسین پیوند خورده است. یکی از کلیدی ترین جنبه هایی که مدل MLP را از SLP متمایزمی کند، الگوریتم Back-Propagation است که شیوه ای رایج برای یادگیری (Training) شبکه عصبی است. انتشار برگشت (Back-Propagation) خطای محاسبه شده از لایه خروجی را به لایه ورودی منتقل می کند به گونه ای که می توانیم سهم هر لایه را در خطا مشاهده کنیم و شبکه را بر این اساس تغییر (بهبود) دهیم.

در اینجا، ما از الگوریتم کاهش گرادیان (Gradient Descent) برای تعیین درجه ای به کار می بریم که وزن ها باید بر پایه هر تکرار تغییر کنند. در شبکه های عصبی، در آغاز وزن ها تصادفی برگزیده (انتخاب) می شوند و سپس برای بهبود یادگیری شبکه، این وزن ها باید تغییر کنند.

گرادیان کاهشی یکی از الگوریتم یادگیری ماشین برای بهینه سازی (Optimization) است. گرادیان کاهشی مشتق مرتبه اول تابعی است که می خواهیم کمینه محلی تابع در نقطه محلی را پیدا کنیم. گردایان کاهشی گام هایی در راستای منفی گرادیان (یا شیب تابع) است. در مسئله های یادگیری ماشین و شبکه های عصبی مصنوعی و یادگیری ژرف، الگوریتم گرادیان کاهشی برای یافتن پاسخ بهینه به کار می رود.

مدل شبکه عصبی تکاملی

مدل شبکه عصبی تکاملی پیچشی (Convolutional Neural Networks) یا CNN بیشتر در زمینه پردازش تصویر و بینایی ماشین کاربرد دارد. شکبه های عصبی CNN به گونه ای طراحی شده اند تا از ساختار قشر بینایی جانوران الگو برداری کنند. به ویژه، CNN ها دارای نورون هایی هستند که در سه بعد عرض، ارتفاع و عمق مرتب شده اند. نورون ها در یک لایه ویژه تنها به یک ناحیه کوچک از لایه پیشین وصل می شوند.

مدل شبکه های عصبی مکرر

مدل شبکه های عصبی مکرر (Recurrent Neural Networks) یا RNN یکی از مدل های شبکه های عصبی مصنوعی هستند، جایی که پیوندهای میان واحدهای (پردازشی یا همان نورون ها)، یک چرخه جهت دار را می سارند. مدل شبکه های عصبی RNN به ویژه در تشخیص گفتار و دست خط (Speech and Handwriting Recognition) به کار می روند.

مدل ماشین های بولتزمن محدود شده

مدل شبکه های ماشین های بولتزمن محدود شده (Restricted Boltzmann Machines) یا RBMs گونه ای از مدل دودویی مارکوف (Binray Markov) هستند که از معماری ویژه و یکتایی برخوردار هستند. این مدل شبکه عصبی دارای دو لایه آشکار (Visible) و پنهان (Hidden) است. در این شبکه، نورون های هر لایه، به لایه مجاور متصل شده اند. محدودیت بدین مفهوم است که هیچ دو گره ای از یک لایه، به یکدیگر متصل نیستند.