دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: سایبرنتیک: هوش مصنوعی ویرایش: نویسندگان: Legenstein R., Maass W. سری: ناشر: سال نشر: تعداد صفحات: 8 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 190 کیلوبایت
کلمات کلیدی مربوط به کتاب معیاری برای همگرایی یادگیری با انعطاف پذیری وابسته به زمان سنبله: علوم و مهندسی کامپیوتر، هوش مصنوعی، شبکه های عصبی
در صورت تبدیل فایل کتاب A Criterion for the Convergence of Learning with Spike Timing Dependent Plasticity به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب معیاری برای همگرایی یادگیری با انعطاف پذیری وابسته به زمان سنبله نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
ما بررسی میکنیم که تحت چه شرایطی یک نورون میتواند با قوانین
پشتیبانی شده تجربی برای انعطافپذیری وابسته به زمان سنبله
(STDP) یاد بگیرد تا زمان رسیدن ورودیهای معلم قوی به همان نورون
را پیشبینی کند. به نظر می رسد که برخلاف قضیه معروف همگرایی
پرسپترون، که همگرایی قاعده یادگیری پرسپترون را برای یک مدل
نورونی به شدت ساده شده پیش بینی می کند، هر زمان که یک راه حل
پایدار وجود داشته باشد، هیچ تضمین همگرایی به همان اندازه قوی را
نمی توان برای نورون های اسپک با STDP ارائه کرد. اما ما معیاری
را بر روی ساختار وابستگی آماری قطارهای سنبله ورودی استخراج
میکنیم که دقیقاً زمانی که یادگیری با STDP به طور متوسط برای
یک مدل ساده از یک نورون اسپککننده همگرا میشود، مورد حمله قرار
میگیرد.
این معیار یادآور معیار جداییپذیری خطی Perceptron است. قضیه
همگرایی، اما در اینجا برای ردیفهای یک ماتریس همبستگی مربوط به
ورودیهای سنبله اعمال میشود. علاوه بر این، ما از طریق
شبیهسازی رایانهای برای مدلهای عصبی واقعیتر نشان میدهیم که
نتایج یادگیری مثبت پیشبینیشده تحلیلی حاصل نه تنها برای تفسیر
رایج STDP که در آن STDP وزن سیناپسها را تغییر میدهد، بلکه
برای تفسیر واقعیتر پیشنهاد شده توسط تجربی نیز صادق است
داده هایی که STDP احتمال آزادسازی اولیه سیناپس های پویا را
تعدیل می کند.
We investigate under what conditions a neuron can learn by
experimentally supported rules for spike timing dependent
plasticity (STDP) to predict the arrival times of strong
teacher inputs to the same neuron. It turns out that in
contrast to the famous Perceptron Convergence Theorem, which
predicts convergence of the perceptron learning rule for a
strongly simplified neuron model whenever a stable solution
exists, no equally strong convergence guarantee can be given
for spiking neurons with STDP. But we derive a criterion on the
statistical dependency structure of input spike trains which
haracterizes exactly when learning with STDP will converge on
average for a simple model of a spiking neuron.
This criterion is reminiscent of the linear separability
criterion of the Perceptron Convergence Theorem, but it applies
here to the rows of a correlation matrix related to the spike
inputs. In addition we show through computer simulations for
more realistic neuron models that the resulting analytically
predicted positive learning results not only hold for the
common interpretation of STDP where STDP changes the weights of
synapses, but also for a more realistic interpretation
suggested by experimental
data where STDP modulates the initial release probability of
dynamic synapses.