انت هنا الان : شبكة جامعة بابل > موقع الكلية > نظام التعليم الالكتروني > مشاهدة المحاضرة
الكلية كلية تكنولوجيا المعلومات
القسم قسم البرامجيات
المرحلة 3
أستاذ المادة أسعد صباح هادي الجبوري
13/05/2017 18:53:22
- In 1969 a method for learning in multi-layer network, Backpropagation, was invented by Bryson and Ho.
- The Backpropagation algorithm is a sensible approach for dividing the contribution of each weight.
- Works basically the same as perceptron There are two differences for the updating rule :
1) The activation of the hidden unit is used instead of activation of the input value.
2) The rule contains a term for the gradient of the activation function.
1. Initialize network with random weights 2. For all training cases (called examples): a. Present training inputs to network and calculate output b. For all layers (starting with output layer, back to input layer): i. Compare network output with correct output (error function) ii. Adapt weights in current layer
Method for learning weights in feed-forward (FF) nets
Can’t use Perceptron Learning Rule no teacher values are possible for hidden units
Use gradient descent to minimize the error propagate deltas to adjust for errors backward from outputs to hidden layers to inputs
المادة المعروضة اعلاه هي مدخل الى المحاضرة المرفوعة بواسطة استاذ(ة) المادة . وقد تبدو لك غير متكاملة . حيث يضع استاذ المادة في بعض الاحيان فقط الجزء الاول من المحاضرة من اجل الاطلاع على ما ستقوم بتحميله لاحقا . في نظام التعليم الالكتروني نوفر هذه الخدمة لكي نبقيك على اطلاع حول محتوى الملف الذي ستقوم بتحميله .
|