دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Donna Harman
سری: Synthesis Lectures on Information Concepts, Retrieval and Services 19
ISBN (شابک) : 9781598299724
ناشر: Morgan & Claypool
سال نشر: 2011
تعداد صفحات: 108
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 532 کیلوبایت
در صورت تبدیل فایل کتاب Information Retrieval Evaluation به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب ارزیابی بازیابی اطلاعات نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
ارزشیابی همیشه نقش مهمی در بازیابی اطلاعات ایفا کرده است، به طوری که پیشگامان اولیه مانند سیریل کلوردون و جرارد سالتون پایه و اساس بسیاری از روش های ارزیابی را که امروزه مورد استفاده قرار می گیرند، پایه گذاری کردند. جامعه بازیابی بسیار خوش شانس بوده است که چنین پارادایم ارزیابی مستدلی را در دوره ای داشته است که بیشتر فناوری های زبان انسانی تازه در حال توسعه بودند. هدف این سخنرانی توضیح این است که این روشهای ارزیابی از کجا آمدهاند و چگونه به سازگاری با محیط بسیار تغییر یافته در دنیای موتورهای جستجوی امروز ادامه دادهاند. این سخنرانی با بحث در مورد ارزیابی اولیه سیستم های بازیابی اطلاعات شروع می شود، با آزمایش کرانفیلد در اوایل دهه 1960 شروع می شود، با مطالعه "کاربر" لنکستر برای MEDLARS ادامه می یابد، و تحقیقات مختلف مجموعه آزمایشی توسط پروژه SMART و توسط گروه ها ارائه می شود. در بریتانیا. تاکید در این فصل بر چگونگی و چرایی روش های مختلف توسعه یافته است. فصل دوم، ارزیابیهای «دستهای» اخیر را پوشش میدهد و روشهای مورد استفاده در کمپینهای ارزیابی باز مختلف مانند TREC، NTCIR (تاکید بر زبانهای آسیایی)، CLEF (تاکید بر زبانهای اروپایی)، INEX (تاکید بر دادههای نیمه ساختاریافته) را بررسی میکند. در اینجا دوباره تمرکز بر چگونگی و چرایی است، و به ویژه بر روی تکامل روشهای ارزیابی قدیمیتر برای مدیریت تکنیکهای جدید دسترسی به اطلاعات. این شامل نحوه اصلاح تکنیک های مجموعه آزمایشی و نحوه تغییر معیارها برای بازتاب بهتر محیط های عملیاتی می شود. فصل های پایانی به مسائل ارزیابی در مطالعات کاربر می پردازد - بخش تعاملی بازیابی اطلاعات، از جمله نگاهی به مطالعات گزارش جستجو که عمدتا توسط موتورهای جستجوی تجاری انجام می شود. در اینجا هدف این است که از طریق مطالعات موردی نشان داده شود که چگونه مسائل سطح بالای طراحی تجربی بر ارزیابی های نهایی تأثیر می گذارد. فهرست مطالب: مقدمه و تاریخچه اولیه / ارزیابی " دسته ای " از سال 1992 / ارزیابی تعاملی / نتیجه گیری
Evaluation has always played a major role in information retrieval, with the early pioneers such as Cyril Cleverdon and Gerard Salton laying the foundations for most of the evaluation methodologies in use today. The retrieval community has been extremely fortunate to have such a well-grounded evaluation paradigm during a period when most of the human language technologies were just developing. This lecture has the goal of explaining where these evaluation methodologies came from and how they have continued to adapt to the vastly changed environment in the search engine world today. The lecture starts with a discussion of the early evaluation of information retrieval systems, starting with the Cranfield testing in the early 1960s, continuing with the Lancaster "user" study for MEDLARS, and presenting the various test collection investigations by the SMART project and by groups in Britain. The emphasis in this chapter is on the how and the why of the various methodologies developed. The second chapter covers the more recent "batch" evaluations, examining the methodologies used in the various open evaluation campaigns such as TREC, NTCIR (emphasis on Asian languages), CLEF (emphasis on European languages), INEX (emphasis on semi-structured data), etc. Here again the focus is on the how and why, and in particular on the evolving of the older evaluation methodologies to handle new information access techniques. This includes how the test collection techniques were modified and how the metrics were changed to better reflect operational environments. The final chapters look at evaluation issues in user studies -- the interactive part of information retrieval, including a look at the search log studies mainly done by the commercial search engines. Here the goal is to show, via case studies, how the high-level issues of experimental design affect the final evaluations. Table of Contents: Introduction and Early History / "Batch" Evaluation Since 1992 / Interactive Evaluation / Conclusion