انت هنا الان : شبكة جامعة بابل > موقع الكلية > نظام التعليم الالكتروني > مشاهدة المحاضرة
الكلية كلية تكنولوجيا المعلومات
القسم قسم البرامجيات
المرحلة 3
أستاذ المادة أسعد صباح هادي الجبوري
10/05/2015 20:47:45
Backpropagation Network - In 1969 a method for learning in multi-layer network, Backpropagation, was invented by Bryson and Ho. - The Backpropagation algorithm is a sensible approach for dividing the contribution of each weight. - Works basically the same as perceptron Backpropagation Learning Principles: Hidden Layers and Gradients There are two differences for the updating rule : 1) The activation of the hidden unit is used instead of activation of the input value. 2) The rule contains a term for the gradient of the activation function. Backpropagation Network training •1. Initialize network with random weights •2. For all training cases (called examples): –a. Present training inputs to network and calculate output –b. For all layers (starting with output layer, back to input layer): •i. Compare network output with correct output (error function) •ii. Adapt weights in current layer Backpropagation Learning Details •Method for learning weights in feed-forward (FF) nets •Can’t use Perceptron Learning Rule –no teacher values are possible for hidden units •Use gradient descent to minimize the error –propagate deltas to adjust for errors backward from outputs to hidden layers to inputs forward backward
المادة المعروضة اعلاه هي مدخل الى المحاضرة المرفوعة بواسطة استاذ(ة) المادة . وقد تبدو لك غير متكاملة . حيث يضع استاذ المادة في بعض الاحيان فقط الجزء الاول من المحاضرة من اجل الاطلاع على ما ستقوم بتحميله لاحقا . في نظام التعليم الالكتروني نوفر هذه الخدمة لكي نبقيك على اطلاع حول محتوى الملف الذي ستقوم بتحميله .
|