انت هنا الان : شبكة جامعة بابل > موقع الكلية > نظام التعليم الالكتروني > مشاهدة المحاضرة

baysein ethod

الكلية كلية العلوم للبنات     القسم قسم الحاسبات     المرحلة 4
أستاذ المادة زينب فلاح حسن الكيم       28/03/2019 08:02:01
Probabilistic Classification Principle
• Establishing a probabilistic model for classification – Discriminative model

• To train a discriminative classifier regardless its probabilistic or nonprobabilistic nature, all training examples of different
classes must be jointly used to build up a single discriminative classifier.
• Output L probabilities for L class
labels in a probabilistic classifier while a single label is achieved by a non-probabilistic classifier .

Continuous-valued Features
– Numberless values taken by a continuous-valued feature
– Conditional probability often modeled with the normal distribution

– Learning Phase:
Output: normal distributions

– Test Phase: Given an unknown instance
• Instead of looking-up tables, calculate conditional probabilities with all the normal distributions achieved in the learning phrase
• Apply the MAP rule to assign a label (the same as done for the discrete case)

Zero conditional probability
• If no example contains the feature value

– In this circumstance, we face a zero conditional probability problem
during test
– For a remedy, class conditional probabilities re-estimated


المادة المعروضة اعلاه هي مدخل الى المحاضرة المرفوعة بواسطة استاذ(ة) المادة . وقد تبدو لك غير متكاملة . حيث يضع استاذ المادة في بعض الاحيان فقط الجزء الاول من المحاضرة من اجل الاطلاع على ما ستقوم بتحميله لاحقا . في نظام التعليم الالكتروني نوفر هذه الخدمة لكي نبقيك على اطلاع حول محتوى الملف الذي ستقوم بتحميله .