دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Prof. Dr. Günter Hotz (auth.)
سری: TEUBNER-TEXTE zur Informatik 23
ISBN (شابک) : 9783815423103, 9783322810366
ناشر: Vieweg+Teubner Verlag
سال نشر: 1997
تعداد صفحات: 136
زبان: German
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 4 مگابایت
کلمات کلیدی مربوط به کتاب نظریه اطلاعات الگوریتمی: نظریه اطلاعات آماری و کاربردها در مسائل الگوریتمی: اطلاعات و ارتباطات، مدارها، کاربردهای ریاضیات
در صورت تبدیل فایل کتاب Algorithmische Informationstheorie: Statistische Informationstheorie und Anwendungen auf algorithmische Fragestellungen به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب نظریه اطلاعات الگوریتمی: نظریه اطلاعات آماری و کاربردها در مسائل الگوریتمی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب مقدمه ای بر نظریه اطلاعات آماری است که توسط شانون در سال 1948 پایه گذاری شد. من این کتاب را منتشر می کنم زیرا این سخنرانی همچنین کاربردهای این نظریه را در مسائل الگوریتمی بررسی می کند. 20 سال است که مشخص شده است که آنتروپی یک منبع را می توان به عنوان کران پایینی برای زمان اجرای برنامه های جستجو استفاده کرد، اما مفاهیم نظریه اطلاعات به طور سیستماتیک در این زمینه به کار گرفته نشده است. به عنوان مثال، منابع مارکوف برای اولین بار توسط نویسنده در سال 1992 در ارتباط با روش های جستجوی کارآمد برای کلیدهای مرتب شده مورد بحث قرار گرفت. این سخنرانی با مسئله به دست آوردن کران های پایین تر برای میانگین زمان اجرای الگوریتم ها می پردازد و سعی می کند از قضایای کدگذاری برای ساخت الگوریتم های کارآمد استفاده کند. گونتر هاتز
Dieses Buch beinhaltet eine Einführung in die statistische Informationstheorie, die von Shannon 1948 begründet wurde. Ich gebe dieses Buch heraus, da die Vorlesung auch den Anwendungen dieser Theorie auf algorithmische Probleme nachgeht. Daß die Entropie einer Quelle als untere Schranke für die Laufzeit von Suchprogrammen verwendet werden kann, ist seit 20 Jahren bekannt, ohne daß aber die Konzepte der Informationstheorie eine systematische Anwendung in diesem Bereich erfahren haben. So wurden Markovquellen im Zusammenhang mit effizienten Suchverfahren bei geordneten Schlüsseln erstmals 1992 vom Autor diskutiert. Die Vorlesung geht auf die Frage der Gewinnung unterer Schranken für die mittlere Laufzeit von Algorithmen ein und versucht die Kodierungstheoreme zur Konstruktion effizienter Algorithmen zu nutzen. Günter Hotz
Front Matter....Pages 1-8
Einleitung....Pages 9-13
Statistische Informationstheorie im Falle diskreter ungestörter Kanäle....Pages 15-63
Informationstheorie bei Markovketten....Pages 65-93
Die Kapazität von diskreten Kanälen....Pages 95-117
Back Matter....Pages 119-143