ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Information Retrieval Evaluation

دانلود کتاب ارزیابی بازیابی اطلاعات

Information Retrieval Evaluation

مشخصات کتاب

Information Retrieval Evaluation

ویرایش:  
نویسندگان:   
سری: Synthesis Lectures on Information Concepts, Retrieval and Services 19 
ISBN (شابک) : 9781598299724 
ناشر: Morgan & Claypool 
سال نشر: 2011 
تعداد صفحات: 108 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 532 کیلوبایت 

قیمت کتاب (تومان) : 37,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 8


در صورت تبدیل فایل کتاب Information Retrieval Evaluation به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب ارزیابی بازیابی اطلاعات نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب ارزیابی بازیابی اطلاعات

ارزشیابی همیشه نقش مهمی در بازیابی اطلاعات ایفا کرده است، به طوری که پیشگامان اولیه مانند سیریل کلوردون و جرارد سالتون پایه و اساس بسیاری از روش های ارزیابی را که امروزه مورد استفاده قرار می گیرند، پایه گذاری کردند. جامعه بازیابی بسیار خوش شانس بوده است که چنین پارادایم ارزیابی مستدلی را در دوره ای داشته است که بیشتر فناوری های زبان انسانی تازه در حال توسعه بودند. هدف این سخنرانی توضیح این است که این روش‌های ارزیابی از کجا آمده‌اند و چگونه به سازگاری با محیط بسیار تغییر یافته در دنیای موتورهای جستجوی امروز ادامه داده‌اند. این سخنرانی با بحث در مورد ارزیابی اولیه سیستم های بازیابی اطلاعات شروع می شود، با آزمایش کرانفیلد در اوایل دهه 1960 شروع می شود، با مطالعه "کاربر" لنکستر برای MEDLARS ادامه می یابد، و تحقیقات مختلف مجموعه آزمایشی توسط پروژه SMART و توسط گروه ها ارائه می شود. در بریتانیا. تاکید در این فصل بر چگونگی و چرایی روش های مختلف توسعه یافته است. فصل دوم، ارزیابی‌های «دسته‌ای» اخیر را پوشش می‌دهد و روش‌های مورد استفاده در کمپین‌های ارزیابی باز مختلف مانند TREC، NTCIR (تاکید بر زبان‌های آسیایی)، CLEF (تاکید بر زبان‌های اروپایی)، INEX (تاکید بر داده‌های نیمه ساختاریافته) را بررسی می‌کند. در اینجا دوباره تمرکز بر چگونگی و چرایی است، و به ویژه بر روی تکامل روش‌های ارزیابی قدیمی‌تر برای مدیریت تکنیک‌های جدید دسترسی به اطلاعات. این شامل نحوه اصلاح تکنیک های مجموعه آزمایشی و نحوه تغییر معیارها برای بازتاب بهتر محیط های عملیاتی می شود. فصل های پایانی به مسائل ارزیابی در مطالعات کاربر می پردازد - بخش تعاملی بازیابی اطلاعات، از جمله نگاهی به مطالعات گزارش جستجو که عمدتا توسط موتورهای جستجوی تجاری انجام می شود. در اینجا هدف این است که از طریق مطالعات موردی نشان داده شود که چگونه مسائل سطح بالای طراحی تجربی بر ارزیابی های نهایی تأثیر می گذارد. فهرست مطالب: مقدمه و تاریخچه اولیه / ارزیابی " دسته ای " از سال 1992 / ارزیابی تعاملی / نتیجه گیری


توضیحاتی درمورد کتاب به خارجی

Evaluation has always played a major role in information retrieval, with the early pioneers such as Cyril Cleverdon and Gerard Salton laying the foundations for most of the evaluation methodologies in use today. The retrieval community has been extremely fortunate to have such a well-grounded evaluation paradigm during a period when most of the human language technologies were just developing. This lecture has the goal of explaining where these evaluation methodologies came from and how they have continued to adapt to the vastly changed environment in the search engine world today. The lecture starts with a discussion of the early evaluation of information retrieval systems, starting with the Cranfield testing in the early 1960s, continuing with the Lancaster "user" study for MEDLARS, and presenting the various test collection investigations by the SMART project and by groups in Britain. The emphasis in this chapter is on the how and the why of the various methodologies developed. The second chapter covers the more recent "batch" evaluations, examining the methodologies used in the various open evaluation campaigns such as TREC, NTCIR (emphasis on Asian languages), CLEF (emphasis on European languages), INEX (emphasis on semi-structured data), etc. Here again the focus is on the how and why, and in particular on the evolving of the older evaluation methodologies to handle new information access techniques. This includes how the test collection techniques were modified and how the metrics were changed to better reflect operational environments. The final chapters look at evaluation issues in user studies -- the interactive part of information retrieval, including a look at the search log studies mainly done by the commercial search engines. Here the goal is to show, via case studies, how the high-level issues of experimental design affect the final evaluations. Table of Contents: Introduction and Early History / "Batch" Evaluation Since 1992 / Interactive Evaluation / Conclusion





نظرات کاربران