کلمات کلیدی مربوط به کتاب STDP نورونهای spiking را قادر میسازد تا دلایل پنهان ورودیهای خود را شناسایی کنند: علوم و مهندسی کامپیوتر، هوش مصنوعی، شبکه های عصبی
در صورت تبدیل فایل کتاب STDP enables spiking neurons to detect hidden causes of their inputs به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب STDP نورونهای spiking را قادر میسازد تا دلایل پنهان ورودیهای خود را شناسایی کنند نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
مؤسسه علوم کامپیوتر نظری، دانشگاه فناوری گراتس
اصولی که بر اساس آن
نورونهای spiking به قدرت محاسباتی حیرتانگیز
ریزمدارهای عمومی قشر مغز کمک میکنند، و چگونگی افزایش انعطاف
پذیری وابسته به زمان (STDP) وزن های سیناپسی می تواند این تابع
محاسباتی را ایجاد و حفظ کند، ناشناخته است. ما در اینجا نشان
میدهیم که STDP، همراه با
مدار تصادفی نرم برنده همه چیز (WTA)، نورونهای spiking را وادار
میکند تا از طریق وزنهای سیناپسی خود مدلهای داخلی ضمنی برای
زیر کلاسها (یا
) ایجاد کنند. علل) الگوهای سنبله با ابعاد بالا صدها نورون پیش
سیناپسی.
بنابراین این نورون ها پس از یادگیری هر زمان که ورودی فعلی
بهترین
با مدل داخلی آنها مطابقت داشته باشد، فعال می شوند. عملکرد
محاسباتی حاصل از مدارهای نرم WTA
، یک موتیف شبکه رایج از ریزمدارهای قشر مغز، میتواند کاهش
ابعادی شدید جریانهای اطلاعاتی همراه با ایجاد مدلهای داخلی
مستقل باشد. توزیع احتمال الگوهای ورودی آنها. ما نشان میدهیم که
تولید و نگهداری مستقل این تابع محاسباتی را میتوان بر اساس اصول
دقیق ریاضی توضیح داد. به طور خاص، ما نشان میدهیم که STDP
میتواند یک الگوریتم تصادفی
آنلاین انتظار-بیشینهسازی (EM) را برای مدلسازی دادههای ورودی
تقریبی کند. یک
نتیجه مربوطه برای یادگیری هبی در شبکه های عصبی مصنوعی نشان داده
شده است.
Institute for Theoretical Computer Science, Graz University of
Technology
The principles by which spiking
neurons contribute to the astounding computational
power of generic cortical microcircuits, and how
spike-timing-dependent
plasticity (STDP) of synaptic weights could generate and
maintain this computational
function, are unknown. We show here that STDP, in conjunction
with
a stochastic soft winner-take-all (WTA) circuit, induces
spiking neurons to generate
through their synaptic weights implicit internal models for
subclasses (or
causes) of the high-dimensional spike patterns of hundreds of
pre-synaptic neurons.
Hence these neurons will fire after learning whenever the
current input best
matches their internal model. The resulting computational
function of soft WTA
circuits, a common network motif of cortical microcircuits,
could therefore be
a drastic dimensionality reduction of information streams,
together with the autonomous
creation of internal models for the probability distributions
of their input
patterns. We show that the autonomous generation and
maintenance of this
computational function can be explained on the basis of
rigorous mathematical
principles. In particular, we show that STDP is able to
approximate a stochastic
online Expectation-Maximization (EM) algorithm for modeling the
input data. A
corresponding result is shown for Hebbian learning in
artificial neural networks.