کلمات کلیدی مربوط به کتاب شبکه های عصبی و محاسبات. الگوریتم ها و کاربردهای یادگیری: علوم و مهندسی کامپیوتر، هوش مصنوعی، شبکه های عصبی
در صورت تبدیل فایل کتاب Neural Networks and Computing. Learning Algorithms and Applications به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب شبکه های عصبی و محاسبات. الگوریتم ها و کاربردهای یادگیری نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
Издательство Imperial College Press, 2007, -322 pp.
حوزه محاسبات عصبی که در
این کتاب به آن خواهیم پرداخت، ترکیبی از تکنیک های بهینه سازی
کلاسیک، آمار، و نظریه اطلاعات شبکههای عصبی زمانی به طور گسترده
شبکههای عصبی مصنوعی نامیده میشدند که نشاندهنده ارتباط فناوری
نوظهور با هوش مصنوعی بود. زمانی این موضوعی بود که علاقه اکثر
دانشمندان کامپیوتر، مهندسان و ریاضیدانان را به خود جلب کرده
بود. جذابیت آن به عنوان یک سیستم تطبیقی یا تقریب کننده
عملکردی جهانی برای اکثر محققان و مهندسان جذابیت قانع کننده ای
دارد. الگوریتم آموزشی Backpropagation زمانی محبوب ترین کلیدواژه
مورد استفاده در اکثر کنفرانس های مهندسی بود. تاریخچه جالبی در
این منطقه وجود دارد که به اواخر دهه پنجاه برمی گردد که ما شاهد
ظهور Mark I Perceptron بودیم. اما تاریخ واقعی جذاب از دهه شصت
شروع شد که دیدیم کتاب پرسپترون های مینسکی و پیپرت کار تحقیقات
اولیه عصبی را بی اعتبار کرد. برای همه محققان عصبی، اواخر دهه
هشتاد به خوبی به یاد میآورند، زیرا تحقیقات شبکههای عصبی
مجدداً برقرار و تغییر مکان داد. از دهه نود تا هزاره جدید،
تاریخچه ای است که باید توسط همه محققان عصبی ساخته شود. ما شاهد
شکوفایی این موضوع بودیم و کاربردهای آن از اثبات دقیق ریاضی تا
علوم فیزیکی مختلف و حتی کاربردهای تجاری گسترده شد. محققان اکنون
تمایل دارند از اصطلاح شبکه های عصبی به جای شبکه های عصبی مصنوعی
استفاده کنند، زمانی که ما پیشینه نظری را بیشتر درک کرده ایم. در
مورد توسعه جدید نظریه عصبی و برنامه های کاربردی، حجم زیادی از
ادبیات تحقیقاتی منتشر شده است. تلاش های زیادی برای بحث در مورد
این موضوع از یک راه بسیار ریاضی یا یک روش بسیار عملی صورت گرفته
است. اما برای اکثر کاربران از جمله دانشجویان و مهندسان، نحوه
بکارگیری یک الگوریتم یادگیری شبکه عصبی مناسب و انتخاب مدل برای
یک مشکل فیزیکی معین، مسئله اصلی به نظر می رسد.
این کتاب که از دیدگاه کاربردی تر نوشته شده است، ارائه می دهد.
بحث های کامل در مورد الگوریتم های یادگیری شبکه های عصبی و مسائل
مربوط به آنها. ما در تلاش برای یافتن تعادل در پوشش موضوعات اصلی
در محاسبات عصبی، از تئوری یادگیری، الگوریتم های یادگیری، معماری
شبکه تا برنامه های کاربردی هستیم. ما کتاب را از نرون بلوک
ساختمانی بنیادی و اولین مدل شبکه عصبی، مدل مککالو و پیتس شروع
میکنیم. در ابتدا، ما مفهوم یادگیری را از مسئله رگرسیون معروف
بررسی می کنیم که نشان می دهد چگونه می توان از ایده برازش داده
ها برای توضیح مفهوم اساسی یادگیری عصبی استفاده کرد. ما از یک
سطح محدب خطا برای نشان دادن مفهوم بهینهسازی الگوریتم یادگیری
استفاده میکنیم. این مهم است زیرا به خوانندگان نشان می دهد که
الگوریتم یادگیری عصبی چیزی بیش از یک مسئله بهینه سازی با ابعاد
بالا نیست. یکی از زیباییهای شبکه عصبی، رویکرد محاسباتی نرم است
که در آن انتخاب ساختار مدل و تنظیمات اولیه ممکن است تأثیر
محسوسی بر راهحل نهایی نداشته باشد. اما فرآیند یادگیری عصبی نیز
از مشکل کند بودن و گیرکردن در حداقلهای محلی رنج میبرد،
مخصوصاً زمانی که برای رسیدگی به یک مشکل نسبتاً پیچیده مورد نیاز
است. این دو موضوع اصلی است که در فصول بعدی این کتاب به آنها
پرداخته شده است. ما مسئله یادگیری عصبی را از دیدگاه جدیدی
مطالعه می کنیم و چندین الگوریتم اصلاح شده را برای افزایش سرعت
یادگیری و توانایی همگرایی آن ارائه می دهیم. ما همچنین نشان
میدهیم که مقداردهی اولیه یک شبکه تأثیر قابلتوجهی بر عملکرد
یادگیری دارد. سپس روشهای مختلف اولیهسازی مورد بحث و بررسی
قرار میگیرند.
فصلهای بعدی کتاب به شبکه تابع پایه، نقشه خودسازماندهی و انتخاب
ویژگی میپردازد. اینها موضوعات جالب و مفیدی برای اکثر محققان
مهندسی و علوم هستند. نقشه خودسازماندهی پرکاربردترین شبکه عصبی
بدون نظارت است. برای انجام خوشه بندی، کاهش ابعاد و طبقه بندی
مفید است. SOM از نظر معماری و الگوریتم یادگیری با شبکه عصبی
پیشخور بسیار متفاوت است. در این کتاب، ما بحث های کامل و
الگوریتم های توسعه یافته جدید را برای استفاده خوانندگان ارائه
کرده ایم. طبقه بندی و انتخاب ویژگی در فصل 6 بحث شده است. ما این
موضوع را در کتاب گنجانده ایم زیرا بیوانفورماتیک اخیراً به یک
حوزه تحقیقاتی بسیار مهم تبدیل شده است. انتخاب ژن با استفاده از
روش های محاسباتی و انجام طبقه بندی سرطان به صورت محاسباتی به
تحقیقات قرن بیست و یکم تبدیل شده است. این کتاب بحث مفصلی در
مورد انتخاب ویژگی و نحوه استفاده از روشهای مختلف برای انتخاب
ژن و طبقهبندی سرطان ارائه میدهد. امیدواریم این کتاب اطلاعات
مفید و الهامبخشی را در اختیار خوانندگان قرار دهد. تعدادی از
الگوریتم های نرم افزاری نوشته شده در متلب در دسترس خوانندگان
است. اگرچه نویسندگان چندین بار کتاب را بررسی کرده اند و
اشتباهات تایپی و تایپی را بررسی کرده اند، از خوانندگانی که ما
را در مورد اشتباهات تایپی یافت شده مطلع کنند، سپاسگزاریم.
مقدمه
عملکرد یادگیری و بهبود
تعمیم و بهبود عملکرد
شبکه های تابع پایه برای طبقه بندی
نقشه های خودسازماندهی
طبقه بندی و انتخاب ویژگی
کاربردهای مهندسی
Издательство Imperial College Press, 2007, -322 pp.
The area of Neural computing that we
shall discuss in this book represents a combination of
techniques of classical optimization, statistics, and
information theory. Neural network was once widely called
artificial neural networks, which represented how the emerging
technology was related to artificial intelligence. It once was
a topic that had captivated the interest of most computer
scientists, engineers, and mathematicians. Its charm of being
an adaptive system or universal functional approximator has
compelling appeal to most researchers and engineers. The
Backpropagation training algorithm was once the most popular
keywords used in most engineering conferences. There is an
interesting history on this area dated back from the late
fifties which we saw the advent of the Mark I Perceptron. But
the real intriguing history started from the sixties that we
saw Minsky and Papert’s book Perceptrons discredited the early
neural research work. For all neural researchers, the late
eighties are well remembered because the research of neural
networks was reinstated and repositioned. From the nineties to
the new millennium is history to be made by all neural
researchers. We saw the flourish of this topic and its
applications stretched from rigorous mathematical proof to
different physical science and even business applications.
Researchers now tend to use the term neural networks instead of
artificial neural networks when we have understood the
theoretical background more. There have been volumes of
research literature published on the new development of neural
theory and applications. There have been many attempts to
discuss this topic from either a very mathematical way or a
very practical way. But to most users including students and
engineers, how to employ an appropriate neural network learning
algorithm and the selection of model for a given physical
problem appear to be the main issue.
This book, written from a more application perspective,
provides thorough discussions on neural network learning
algorithms and their related issues. We strive to find the
balance in covering the major topics in neurocomputing, from
learning theory, learning algorithms, network architecture to
applications. We start the book from the fundamental building
block neuron and the earliest neural network model, McCulloh
and Pitts Model. In the beginning, we treat the learning
concept from the wellknown regression problem which shows how
the idea of data fitting can be used to explain the fundamental
concept of neural learning. We employ an error convex surface
to illustrate the optimization concept of learning algorithm.
This is important as it shows readers that the neural learning
algorithm is nothing more than a high dimensional optimization
problem. One of the beauties of neural network is being a soft
computing approach in which the selection of a model structure
and initial settings may not have noticeable effect on the
final solution. But neural learning process also suffers from
its problem of being slow and stuck in local minima especially
when it is required to handle a rather complex problem. These
are the two main issues addressed in the later chapters of this
book. We study the neural learning problem from a new
perspective and offer several modified algorithms to enhance
the learning speed and its convergence ability. We also show
initializations of a network have significant effect on the
learning performance. Different initialization methods are then
discussed and elaborated.
Later chapters of the book deal with Basis function network,
Self-Organizing map, and Feature Selection. These are
interesting and useful topics to most engineering and science
researchers. The Self-Organizing map is the most widely used
unsupervised neural network. It is useful for performing
clustering, dimensional reduction, and classification. The SOM
is very different from the feedforward neural network in the
sense of architecture and learning algorithm. In this book, we
have provided thorough discussions and newly developed extended
algorithms for readers to use. Classification and Feature
selection is discussed in Chapter 6_. We include this topic in
the book because bioinformatics has recently become a very
important research area. Gene selection using computational
methods, and performing cancer classification computationally
have become the 21
st Century research. This book
provides a detail discussion on feature selection and how
different methods be applied to gene selection and cancer
classification. We hope this book will provide useful and
inspiring information to readers. A number of software
algorithms written in MATLAB are available for readers to use.
Although the authors have gone through the book for few times
checking typos and errors, we would appreciate readers
notifying us about any typos found.
Introduction
Learning Performance and Enhancement
Generalization and Performance Enhancement
Basis Function Networks for Classification
Self-organizing Maps
Classification and Feature Selection
Engineering Applications