ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Neural Networks and Computing. Learning Algorithms and Applications

دانلود کتاب شبکه های عصبی و محاسبات. الگوریتم ها و کاربردهای یادگیری

Neural Networks and Computing. Learning Algorithms and Applications

مشخصات کتاب

Neural Networks and Computing. Learning Algorithms and Applications

دسته بندی: سایبرنتیک: هوش مصنوعی
ویرایش:  
نویسندگان: ,   
سری:  
 
ناشر:  
سال نشر:  
تعداد صفحات: 322 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 2 مگابایت 

قیمت کتاب (تومان) : 47,000



کلمات کلیدی مربوط به کتاب شبکه های عصبی و محاسبات. الگوریتم ها و کاربردهای یادگیری: علوم و مهندسی کامپیوتر، هوش مصنوعی، شبکه های عصبی



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 15


در صورت تبدیل فایل کتاب Neural Networks and Computing. Learning Algorithms and Applications به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب شبکه های عصبی و محاسبات. الگوریتم ها و کاربردهای یادگیری نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب شبکه های عصبی و محاسبات. الگوریتم ها و کاربردهای یادگیری

Издательство Imperial College Press, 2007, -322 pp.
حوزه محاسبات عصبی که در این کتاب به آن خواهیم پرداخت، ترکیبی از تکنیک های بهینه سازی کلاسیک، آمار، و نظریه اطلاعات شبکه‌های عصبی زمانی به طور گسترده شبکه‌های عصبی مصنوعی نامیده می‌شدند که نشان‌دهنده ارتباط فناوری نوظهور با هوش مصنوعی بود. زمانی این موضوعی بود که علاقه اکثر دانشمندان کامپیوتر، مهندسان و ریاضیدانان را به خود جلب کرده بود. جذابیت آن به عنوان یک سیستم تطبیقی ​​یا تقریب کننده عملکردی جهانی برای اکثر محققان و مهندسان جذابیت قانع کننده ای دارد. الگوریتم آموزشی Backpropagation زمانی محبوب ترین کلیدواژه مورد استفاده در اکثر کنفرانس های مهندسی بود. تاریخچه جالبی در این منطقه وجود دارد که به اواخر دهه پنجاه برمی گردد که ما شاهد ظهور Mark I Perceptron بودیم. اما تاریخ واقعی جذاب از دهه شصت شروع شد که دیدیم کتاب پرسپترون های مینسکی و پیپرت کار تحقیقات اولیه عصبی را بی اعتبار کرد. برای همه محققان عصبی، اواخر دهه هشتاد به خوبی به یاد می‌آورند، زیرا تحقیقات شبکه‌های عصبی مجدداً برقرار و تغییر مکان داد. از دهه نود تا هزاره جدید، تاریخچه ای است که باید توسط همه محققان عصبی ساخته شود. ما شاهد شکوفایی این موضوع بودیم و کاربردهای آن از اثبات دقیق ریاضی تا علوم فیزیکی مختلف و حتی کاربردهای تجاری گسترده شد. محققان اکنون تمایل دارند از اصطلاح شبکه های عصبی به جای شبکه های عصبی مصنوعی استفاده کنند، زمانی که ما پیشینه نظری را بیشتر درک کرده ایم. در مورد توسعه جدید نظریه عصبی و برنامه های کاربردی، حجم زیادی از ادبیات تحقیقاتی منتشر شده است. تلاش های زیادی برای بحث در مورد این موضوع از یک راه بسیار ریاضی یا یک روش بسیار عملی صورت گرفته است. اما برای اکثر کاربران از جمله دانشجویان و مهندسان، نحوه بکارگیری یک الگوریتم یادگیری شبکه عصبی مناسب و انتخاب مدل برای یک مشکل فیزیکی معین، مسئله اصلی به نظر می رسد.
این کتاب که از دیدگاه کاربردی تر نوشته شده است، ارائه می دهد. بحث های کامل در مورد الگوریتم های یادگیری شبکه های عصبی و مسائل مربوط به آنها. ما در تلاش برای یافتن تعادل در پوشش موضوعات اصلی در محاسبات عصبی، از تئوری یادگیری، الگوریتم های یادگیری، معماری شبکه تا برنامه های کاربردی هستیم. ما کتاب را از نرون بلوک ساختمانی بنیادی و اولین مدل شبکه عصبی، مدل مک‌کالو و پیتس شروع می‌کنیم. در ابتدا، ما مفهوم یادگیری را از مسئله رگرسیون معروف بررسی می کنیم که نشان می دهد چگونه می توان از ایده برازش داده ها برای توضیح مفهوم اساسی یادگیری عصبی استفاده کرد. ما از یک سطح محدب خطا برای نشان دادن مفهوم بهینه‌سازی الگوریتم یادگیری استفاده می‌کنیم. این مهم است زیرا به خوانندگان نشان می دهد که الگوریتم یادگیری عصبی چیزی بیش از یک مسئله بهینه سازی با ابعاد بالا نیست. یکی از زیبایی‌های شبکه عصبی، رویکرد محاسباتی نرم است که در آن انتخاب ساختار مدل و تنظیمات اولیه ممکن است تأثیر محسوسی بر راه‌حل نهایی نداشته باشد. اما فرآیند یادگیری عصبی نیز از مشکل کند بودن و گیرکردن در حداقل‌های محلی رنج می‌برد، مخصوصاً زمانی که برای رسیدگی به یک مشکل نسبتاً پیچیده مورد نیاز است. این دو موضوع اصلی است که در فصول بعدی این کتاب به آنها پرداخته شده است. ما مسئله یادگیری عصبی را از دیدگاه جدیدی مطالعه می کنیم و چندین الگوریتم اصلاح شده را برای افزایش سرعت یادگیری و توانایی همگرایی آن ارائه می دهیم. ما همچنین نشان می‌دهیم که مقداردهی اولیه یک شبکه تأثیر قابل‌توجهی بر عملکرد یادگیری دارد. سپس روش‌های مختلف اولیه‌سازی مورد بحث و بررسی قرار می‌گیرند.
فصل‌های بعدی کتاب به شبکه تابع پایه، نقشه خودسازماندهی و انتخاب ویژگی می‌پردازد. اینها موضوعات جالب و مفیدی برای اکثر محققان مهندسی و علوم هستند. نقشه خودسازماندهی پرکاربردترین شبکه عصبی بدون نظارت است. برای انجام خوشه بندی، کاهش ابعاد و طبقه بندی مفید است. SOM از نظر معماری و الگوریتم یادگیری با شبکه عصبی پیشخور بسیار متفاوت است. در این کتاب، ما بحث های کامل و الگوریتم های توسعه یافته جدید را برای استفاده خوانندگان ارائه کرده ایم. طبقه بندی و انتخاب ویژگی در فصل 6 بحث شده است. ما این موضوع را در کتاب گنجانده ایم زیرا بیوانفورماتیک اخیراً به یک حوزه تحقیقاتی بسیار مهم تبدیل شده است. انتخاب ژن با استفاده از روش های محاسباتی و انجام طبقه بندی سرطان به صورت محاسباتی به تحقیقات قرن بیست و یکم تبدیل شده است. این کتاب بحث مفصلی در مورد انتخاب ویژگی و نحوه استفاده از روش‌های مختلف برای انتخاب ژن و طبقه‌بندی سرطان ارائه می‌دهد. امیدواریم این کتاب اطلاعات مفید و الهام‌بخشی را در اختیار خوانندگان قرار دهد. تعدادی از الگوریتم های نرم افزاری نوشته شده در متلب در دسترس خوانندگان است. اگرچه نویسندگان چندین بار کتاب را بررسی کرده اند و اشتباهات تایپی و تایپی را بررسی کرده اند، از خوانندگانی که ما را در مورد اشتباهات تایپی یافت شده مطلع کنند، سپاسگزاریم.
مقدمه
عملکرد یادگیری و بهبود
تعمیم و بهبود عملکرد
شبکه های تابع پایه برای طبقه بندی
نقشه های خودسازماندهی
طبقه بندی و انتخاب ویژگی
کاربردهای مهندسی

توضیحاتی درمورد کتاب به خارجی

Издательство Imperial College Press, 2007, -322 pp.
The area of Neural computing that we shall discuss in this book represents a combination of techniques of classical optimization, statistics, and information theory. Neural network was once widely called artificial neural networks, which represented how the emerging technology was related to artificial intelligence. It once was a topic that had captivated the interest of most computer scientists, engineers, and mathematicians. Its charm of being an adaptive system or universal functional approximator has compelling appeal to most researchers and engineers. The Backpropagation training algorithm was once the most popular keywords used in most engineering conferences. There is an interesting history on this area dated back from the late fifties which we saw the advent of the Mark I Perceptron. But the real intriguing history started from the sixties that we saw Minsky and Papert’s book Perceptrons discredited the early neural research work. For all neural researchers, the late eighties are well remembered because the research of neural networks was reinstated and repositioned. From the nineties to the new millennium is history to be made by all neural researchers. We saw the flourish of this topic and its applications stretched from rigorous mathematical proof to different physical science and even business applications. Researchers now tend to use the term neural networks instead of artificial neural networks when we have understood the theoretical background more. There have been volumes of research literature published on the new development of neural theory and applications. There have been many attempts to discuss this topic from either a very mathematical way or a very practical way. But to most users including students and engineers, how to employ an appropriate neural network learning algorithm and the selection of model for a given physical problem appear to be the main issue.
This book, written from a more application perspective, provides thorough discussions on neural network learning algorithms and their related issues. We strive to find the balance in covering the major topics in neurocomputing, from learning theory, learning algorithms, network architecture to applications. We start the book from the fundamental building block neuron and the earliest neural network model, McCulloh and Pitts Model. In the beginning, we treat the learning concept from the wellknown regression problem which shows how the idea of data fitting can be used to explain the fundamental concept of neural learning. We employ an error convex surface to illustrate the optimization concept of learning algorithm. This is important as it shows readers that the neural learning algorithm is nothing more than a high dimensional optimization problem. One of the beauties of neural network is being a soft computing approach in which the selection of a model structure and initial settings may not have noticeable effect on the final solution. But neural learning process also suffers from its problem of being slow and stuck in local minima especially when it is required to handle a rather complex problem. These are the two main issues addressed in the later chapters of this book. We study the neural learning problem from a new perspective and offer several modified algorithms to enhance the learning speed and its convergence ability. We also show initializations of a network have significant effect on the learning performance. Different initialization methods are then discussed and elaborated.
Later chapters of the book deal with Basis function network, Self-Organizing map, and Feature Selection. These are interesting and useful topics to most engineering and science researchers. The Self-Organizing map is the most widely used unsupervised neural network. It is useful for performing clustering, dimensional reduction, and classification. The SOM is very different from the feedforward neural network in the sense of architecture and learning algorithm. In this book, we have provided thorough discussions and newly developed extended algorithms for readers to use. Classification and Feature selection is discussed in Chapter 6_. We include this topic in the book because bioinformatics has recently become a very important research area. Gene selection using computational methods, and performing cancer classification computationally have become the 21st Century research. This book provides a detail discussion on feature selection and how different methods be applied to gene selection and cancer classification. We hope this book will provide useful and inspiring information to readers. A number of software algorithms written in MATLAB are available for readers to use. Although the authors have gone through the book for few times checking typos and errors, we would appreciate readers notifying us about any typos found.
Introduction
Learning Performance and Enhancement
Generalization and Performance Enhancement
Basis Function Networks for Classification
Self-organizing Maps
Classification and Feature Selection
Engineering Applications




نظرات کاربران