دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1 نویسندگان: John Lafferty, ChengXiang Zhai (auth.), W. Bruce Croft, John Lafferty (eds.) سری: The Springer International Series on Information Retrieval 13 ISBN (شابک) : 9789048162635, 9789401701716 ناشر: Springer Netherlands سال نشر: 2003 تعداد صفحات: 252 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 4 مگابایت
کلمات کلیدی مربوط به کتاب مدل سازی زبان برای بازیابی اطلاعات: ذخیره سازی و بازیابی اطلاعات، علوم کامپیوتر، عمومی، هوش مصنوعی (شامل رباتیک)
در صورت تبدیل فایل کتاب Language Modeling for Information Retrieval به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب مدل سازی زبان برای بازیابی اطلاعات نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
یک مدل زبان آماری، یا بهطور سادهتر یک مدل زبان، یک مکانیسم احتمالی برای تولید متن است. چنین تعریفی به اندازه کافی کلی است که شامل انواع بی پایانی از طرح ها می شود. با این حال، باید بین مدلهای مولد، که در اصل میتوانند برای ترکیب متن مصنوعی مورد استفاده قرار گیرند، و تکنیکهای تمایز برای طبقهبندی متن به گروههای از پیش تعریفشده، تمایز قائل شد. اولین مدلساز زبان آماری کلود شانون بود. شانون در بررسی کاربرد نظریه اطلاعات تازه تأسیس خود در زبان انسان، زبان را به عنوان یک منبع آماری در نظر گرفت و چگونگی پیشبینی یا فشردهسازی متن طبیعی توسط مدلهای ساده n-gram را اندازهگیری کرد. برای انجام این کار، او آنتروپی زبان انگلیسی را از طریق آزمایشهایی با افراد انسانی تخمین زد و همچنین آنتروپی متقاطع مدلهای n-gram را روی متن طبیعی 1 تخمین زد. توانایی مدل های زبانی برای ارزیابی کمی به روش tbis یکی از فضایل مهم آنها است. البته، تخمین آنتروپی واقعی زبان، هدفی دست نیافتنی است که اهداف متحرک زیادی را هدف قرار می دهد، زیرا زبان بسیار متنوع است و به سرعت تکامل می یابد. با این حال، پنجاه سال پس از مطالعه شانون، مدلهای زبانی، با همه معیارها، از نظر قدرت پیشبینی آنها از آنتروپی شانون فاصله دارند. با این حال، tbis آنها را از مفید بودن برای انواع وظایف پردازش متن بازنداشته است، و علاوه بر این میتواند به عنوان تشویقی در نظر گرفته شود که هنوز فضای زیادی برای بهبود در مدلسازی زبان آماری وجود دارد.
A statisticallanguage model, or more simply a language model, is a prob abilistic mechanism for generating text. Such adefinition is general enough to include an endless variety of schemes. However, a distinction should be made between generative models, which can in principle be used to synthesize artificial text, and discriminative techniques to classify text into predefined cat egories. The first statisticallanguage modeler was Claude Shannon. In exploring the application of his newly founded theory of information to human language, Shannon considered language as a statistical source, and measured how weH simple n-gram models predicted or, equivalently, compressed natural text. To do this, he estimated the entropy of English through experiments with human subjects, and also estimated the cross-entropy of the n-gram models on natural 1 text. The ability of language models to be quantitatively evaluated in tbis way is one of their important virtues. Of course, estimating the true entropy of language is an elusive goal, aiming at many moving targets, since language is so varied and evolves so quickly. Yet fifty years after Shannon's study, language models remain, by all measures, far from the Shannon entropy liInit in terms of their predictive power. However, tbis has not kept them from being useful for a variety of text processing tasks, and moreover can be viewed as encouragement that there is still great room for improvement in statisticallanguage modeling.
Front Matter....Pages i-xiii
Probabilistic Relevance Models Based on Document and Query Generation....Pages 1-10
Relevance Models in Information Retrieval....Pages 11-56
Language Modeling and Relevance....Pages 57-71
Contributions of Language Modeling to the Theory and Practice of Information Retrieval....Pages 73-93
Language Models for Topic Tracking....Pages 95-123
A Probabilistic Approach to Term Translation for Cross-Lingual Retrieval....Pages 125-140
Using Compression-Based Language Models for Text Categorization....Pages 141-165
Applications of Score Distributions in Information Retrieval....Pages 167-188
An Unbiased Generative Model for Setting Dissemination Thresholds....Pages 189-217
Language Modeling Experiments in Non-Extractive Summarization....Pages 219-244
Back Matter....Pages 245-245