وبلاگ اطلاع‌رسانی دانشجویان ارشد نرم‌افزار

ورودی ۹۳ دانشگاه آزاد اسلامی واحد زنجان

وبلاگ اطلاع‌رسانی دانشجویان ارشد نرم‌افزار

ورودی ۹۳ دانشگاه آزاد اسلامی واحد زنجان

۸ مطلب با موضوع «سیستم‌های خبره و مهندسی دانش-دکتر امیری» ثبت شده است

نمونه سوال داده‌کاوی نیمسال اول 1388

فرمولهای تایپ شده درس داده‌کاوی نیمسال اول 1393 (توضیح : این فایل به آقای دکتر امیری ارسال شده است، اینکه با چه تغییراتی به برگه سوالات الصاق کنند مشخص نیست!!!)

۳ نظر موافقین ۰ مخالفین ۰ ۲۸ دی ۹۳ ، ۱۷:۴۰
سعید رزاقی

کتاب اصلی درس داده‌کاوی از ۳ فایل زیر تشکیل شده است :

بخش اول

بخش دوم

بخش سوم

 

به جای فصل سوم از کتاب فوق این فایل  و همچنین به جای فصل پنجم از کتاب فوق این فایل  مطالعه شود.

 

۰ نظر موافقین ۰ مخالفین ۰ ۰۶ دی ۹۳ ، ۱۱:۰۰
سعید رزاقی
ردیف جلسه فایل(ها)
۱ ۱۳۹۳٫۰۷٫۱۰ بخش اول
بخش دوم
۲ ۱۳۹۳٫۰۷٫۱۷ بخش اول
بخش دوم
بخش سوم
۳ ۱۳۹۳٫۰۷٫۲۴ بخش اول
بخش دوم
بخش سوم
۴ ۱۳۹۳٫۰۸٫۰۱ کل فایل
۵ ۱۳۹۳٫۰۸٫۰۸ بخش اول
بخش دوم
بخش سوم
۶ ۱۳۹۳٫۰۸٫۲۲ بخش اول
بخش دوم
بخش سوم
۷ ۱۳۹۳٫۰۸٫۲۹ بخش اول
بخش دوم
۸ ۱۳۹۳٫۰۹٫۰۶ بخش اول
بخش دوم
۹ ۱۳۹۳٫۰۹٫۱۳ بخش اول
بخش دوم
۱۰ ۱۳۹۳٫۰۹٫۲۰ بخش اول
بخش دوم
بخش سوم
۱۱ ۱۳۹۳٫۰۹٫۲۷ بخش اول
بخش دوم
بخش سوم
۱۲ ۱۳۹۳٫۱۰٫۰۴ بخش اول
بخش دوم
۱۳ ۱۳۹۳٫۱۰٫۱۱ کل فایل

 

۰ نظر موافقین ۰ مخالفین ۰ ۰۶ دی ۹۳ ، ۰۸:۵۱
سعید رزاقی
۰ نظر موافقین ۰ مخالفین ۰ ۲۴ آبان ۹۳ ، ۱۲:۳۴
سعید رزاقی
ردیف عنوان تاریخ تاریخ تحویل
۱

الف) آزمون کلموگروف-اسمیرونوف را مطالعه کرده و نحوه‌ی انجام این آزمون را شرح دهید.

ب) یک مجموعه داده‌ی مصنوعی بسازید که تعداد نمونه‌های آن ۱۰۰۰ باشد، از این مجموعه داده به کمک آزمون کلموگروف-اسمیرونوف  نمونه برداری انجام دهید؛ به نحویکه نمونه بدست آمده کمترین تعداد رکورد را داشته و با داده‌ی اصلی 10٪ انحراف داشته باشد.

93/07/17  
۲

فرض کنید 10گروه داده دارید، می‌خواهیم هربار بصورت تصادفی یکی از این ده گروه را انتخاب کده و یک نمونه از آنرا برداریم.

الف) چندبار بایستی آزمایش فوق را تکرار کنیم تا با احتمال 99٪ بگوییم که از هر گروه، یک داده در نمونه‌ها وجود دارد.

ب) آزمایش فوق را در یک زبان برنامه‌سازی پیاده کرده و درستی پاسخ خود را نشان دهید.

93/07/17  
۳

مقاله Data dimensionality estimation methods: a survey را مطالعه کرده و سپس :

الف)خلاصه مقاله را به همراه اسامی متدهای بکار رفته در ۲ صفحه آماده کرده و ارائه دهید.

ب) تولباکس drtoolbox را در متلب نصب نمایید. سپس با استفاده از تولباکس drtoolbox، متدهای به کار رفته در مقاله مذکور را بر روی یک Dataset استاندارد (جهت کاهش بعد) استفاده کرده و سس نتایج را باهم مقایسه نمایید.

93/7/24  
۴

در سایت featureselection.asu.edu کدهای FSS در متلب قرار دارد. این کدها را بر روی یک Dataset استاندارد اجرا نموده و الگوریتمها را با معیارهای زیر مقایسه کنید.

الف) تعداد زیرمجموعه featureهای بدست آمده

ب) زمان اجرا

ج) دقت بدست آمده در طبقه‌بندی

93/7/24  
۵ اسلاید 27 را در نظر بگیرید، نشان دهید معیار GainRatio علاوه بر Impurity معیار Compactness را نیز در نظر می‌گیرد. 93/8/8  
۶ الگوریتم ساخت درخت تصمیم را با معیارهای مختلف برای split پیاده‌سازی نموده و دقت آنها را باهم مقایسه کنید. 93/8/22 93/9/6
۷

SVM غیرخطی را در نرم‌افزار متلب، با شبه‌کدهای موجود پیاده‌سازی کنید.

راهنمایی : با جستجوی libsvm می‌توانید به کدها و دیتا‌ست‌های لازم دسترسی پیدا کنید.

93/9/13 حضوری آخر آذر
۸ الگوریتم adaboost را با Base classifier درخت تصمیم (انجام شده در تمرین 6) پیاده‌سازی نمایید. 93/9/13 حضوری آخر آذر


 

۱ نظر موافقین ۰ مخالفین ۰ ۲۱ آبان ۹۳ ، ۲۲:۰۲
سعید رزاقی

کلاس درس سیستم‌های خبره و مهندسی دانش-دکتر امیری روز پنج‌شنبه 1393/8/15 تشکیل نخواهد شد.

۰ نظر موافقین ۰ مخالفین ۰ ۱۱ آبان ۹۳ ، ۲۳:۳۷
سعید رزاقی

آدرس سایتی که شامل الگوریتم‌های FSS در متلب و همچنین دیتاست‌های آماده جهت تست الگوریتم‌ها :

http://featureselection.asu.edu

۰ نظر موافقین ۰ مخالفین ۰ ۱۱ آبان ۹۳ ، ۲۳:۳۰
سعید رزاقی

برای دریافت تولباکس اینجا کلیک نمایید. در این فایل pdf هم می‌توانید تعدادی از نمودارهای خروجی الگوریتم‌های کاهش بعد اعمال شده بر روی مجموعه داده اصلی را ببینید.
 


مثال ساده استفاده از تولباکس فوق :
 

[X, labels] = generate_data('helix', 2000);
figure, scatter3(X(:,1), X(:,2), X(:,3), 5, labels); title('Original dataset'), drawnow
no_dims = round(intrinsic_dim(X, 'MLE'));
disp(['MLE estimate of intrinsic dimensionality: ' num2str(no_dims)]);
[mappedX, mapping] = compute_mapping(X, 'PCA', no_dims);
figure, scatter(mappedX(:,1), mappedX(:,2), 5, labels); title('Result of PCA');
[mappedX, mapping] = compute_mapping(X, 'Laplacian', no_dims, 7);
figure, scatter(mappedX(:,1), mappedX(:,2), 5, labels(mapping.conn_comp)); title('Result of Laplacian Eigenmaps'); drawnow

۰ نظر موافقین ۰ مخالفین ۰ ۱۱ آبان ۹۳ ، ۲۱:۰۸
سعید رزاقی