دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: Paperback نویسندگان: Huan Liu, Hiroshi Motoda (eds.) سری: ISBN (شابک) : 1461376041, 9781461376040 ناشر: Springer سال نشر: 2013 تعداد صفحات: 224 زبان: English فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 3 مگابایت
در صورت تبدیل فایل کتاب Feature Selection for Knowledge Discovery and Data Mining به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب انتخاب ویژگی برای کشف دانش و داده کاوی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
با افزایش قدرت رایانه و پیشرفت فناوری های جمع آوری داده ها، تعداد زیادی از داده ها تقریباً در هر زمینه ای که رایانه استفاده می شود تولید می شود. داده های تولید شده توسط کامپیوتر باید توسط کامپیوتر تجزیه و تحلیل شوند. بدون کمک فنآوریهای محاسباتی، مسلم است که حجم عظیمی از دادههای جمعآوریشده هرگز مورد بررسی قرار نخواهند گرفت، چه رسد به اینکه از آنها به نفع ما استفاده شود. حتی با وجود فناوریهای رایانهای پیشرفته امروزی (به عنوان مثال، سیستمهای یادگیری ماشین و دادهکاوی)، کشف دانش از دادهها به دلیل ویژگیهای دادههای تولید شده توسط رایانه، همچنان میتواند بسیار سخت باشد. دادههای خام با سادهترین شکل خود، در مقادیر ویژگی نشان داده میشوند. اندازه یک مجموعه داده را می توان در دو بعد، تعداد ویژگی ها (N) و تعداد نمونه ها (P) اندازه گیری کرد. هر دو Nand P می توانند بسیار بزرگ باشند. این عظمت ممکن است مشکلات جدی برای بسیاری از سیستم های داده کاوی ایجاد کند. انتخاب ویژگی یکی از روش های قدیمی موجود است که با این مشکلات مقابله می کند. هدف آن انتخاب یک زیرمجموعه حداقلی از ویژگی ها بر اساس برخی معیارهای معقول است تا بتوان به همان اندازه به وظیفه اصلی دست یافت، اگر نه بهتر. با انتخاب حداقل ویژگی های زیرمجموعه، ویژگی های نامربوط و زائد بر اساس معیار حذف می شوند. وقتی N کاهش می یابد، فضای داده کوچک می شود و به یک معنا، مجموعه داده اکنون نماینده بهتری از کل جمعیت داده است. در صورت لزوم، کاهش N می تواند با حذف موارد تکراری باعث کاهش P نیز شود.
As computer power grows and data collection technologies advance, a plethora of data is generated in almost every field where computers are used. The com- puter generated data should be analyzed by computers; without the aid of computing technologies, it is certain that huge amounts of data collected will not ever be examined, let alone be used to our advantages. Even with today's advanced computer technologies (e. g., machine learning and data mining sys- tems), discovering knowledge from data can still be fiendishly hard due to the characteristics of the computer generated data. Taking its simplest form, raw data are represented in feature-values. The size of a dataset can be measUJ-ed in two dimensions, number of features (N) and number of instances (P). Both Nand P can be enormously large. This enormity may cause serious problems to many data mining systems. Feature selection is one of the long existing methods that deal with these problems. Its objective is to select a minimal subset of features according to some reasonable criteria so that the original task can be achieved equally well, if not better. By choosing a minimal subset offeatures, irrelevant and redundant features are removed according to the criterion. When N is reduced, the data space shrinks and in a sense, the data set is now a better representative of the whole data population. If necessary, the reduction of N can also give rise to the reduction of P by eliminating duplicates.
Front Matter....Pages i-xxiii
Data Processing and Knowledge Discovery in Databases....Pages 1-15
Perspectives of Feature Selection....Pages 17-41
Feature Selection Aspects....Pages 43-72
Feature Selection Methods....Pages 73-95
Evaluation and Application....Pages 97-149
Feature Transformation and Dimensionality Reduction....Pages 151-187
Less is More....Pages 189-195
Back Matter....Pages 197-214