ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Evaluating Information Retrieval and Access Tasks. NTCIR's Legacy of Research Impact

دانلود کتاب ارزیابی وظایف بازیابی اطلاعات و دسترسی. اثر میراث NTCIR

Evaluating Information Retrieval and Access Tasks. NTCIR's Legacy of Research Impact

مشخصات کتاب

Evaluating Information Retrieval and Access Tasks. NTCIR's Legacy of Research Impact

ویرایش:  
نویسندگان: , ,   
سری:  
ISBN (شابک) : 9789811555534, 9811555532 
ناشر: Springer 
سال نشر: 2020 
تعداد صفحات: [225] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 4 Mb 

قیمت کتاب (تومان) : 39,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 6


در صورت تبدیل فایل کتاب Evaluating Information Retrieval and Access Tasks. NTCIR's Legacy of Research Impact به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب ارزیابی وظایف بازیابی اطلاعات و دسترسی. اثر میراث NTCIR نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب ارزیابی وظایف بازیابی اطلاعات و دسترسی. اثر میراث NTCIR

این کتاب دسترسی آزاد دو دهه اول بسترهای آزمایشی NII و جامعه تحقیقات دسترسی به اطلاعات (NTCIR) را خلاصه می کند. NTCIR مجموعه‌ای از انجمن‌های ارزیابی است که توسط یک تیم جهانی از محققان و توسط مؤسسه ملی انفورماتیک ژاپن (NII) میزبانی می‌شود. این کتاب از این نظر منحصر به فرد است که نه تنها در مورد آنچه در NTCIR انجام شد، بلکه نحوه انجام آن و تأثیری که به دست آورده است نیز بحث می کند. به عنوان مثال، در برخی از فصل‌ها، خواننده اولین بذرهای موتورهای جستجویی را می‌بیند که دسترسی به محتوا را در شبکه جهانی وب فراهم می‌کنند، گوشی‌های هوشمند امروزی که می‌توانند آنچه را که نشان می‌دهند مطابق با نیازهای صاحبان خود تنظیم کنند، و موتورهای هوشمند. بلندگوهایی که زندگی ما را در خانه و در حال حرکت غنی می کنند. ما همچنین نگاهی اجمالی به چگونگی ساخت موتورهای جستجوی جدید برای فرمول های ریاضی، یا ثبت دیجیتالی یک زندگی انسانی داریم. کلید موفقیت تلاش NTCIR تشخیص زودهنگام این بود که تحقیق دسترسی به اطلاعات یک رشته تجربی است و بنابراین ارزیابی در هسته شرکت قرار دارد. بنابراین ارزیابی در قلب هر فصل این کتاب قرار دارد. برای مثال، آنها نشان می دهند که چگونه تشخیص اینکه برخی از اسناد مهمتر از سایرین هستند، تفکر در مورد طراحی ارزیابی را شکل داده است. سی و سه مشارکت کننده در این جلد به جای صدها محقق از ده ها کشور در سراسر جهان صحبت می کنند که با هم NTCIR را به عنوان سازمان دهندگان و شرکت کنندگان شکل دادند. این کتاب برای محققان، پزشکان و دانش‌آموزان مناسب است - هر کسی که می‌خواهد در مورد تلاش‌های ارزشیابی گذشته و حال در بازیابی اطلاعات، دسترسی به اطلاعات و پردازش زبان طبیعی، و همچنین کسانی که می‌خواهند در یک کار ارزشیابی شرکت کنند یا حتی یکی را طراحی و سازماندهی کنید.


توضیحاتی درمورد کتاب به خارجی

This open access book summarizes the first two decades of the NII Testbeds and Community for Information access Research (NTCIR). NTCIR is a series of evaluation forums run by a global team of researchers and hosted by the National Institute of Informatics (NII), Japan. The book is unique in that it discusses not just what was done at NTCIR, but also how it was done and the impact it has achieved. For example, in some chapters the reader sees the early seeds of what eventually grew to be the search engines that provide access to content on the World Wide Web, today’s smartphones that can tailor what they show to the needs of their owners, and the smart speakers that enrich our lives at home and on the move. We also get glimpses into how new search engines can be built for mathematical formulae, or for the digital record of a lived human life. Key to the success of the NTCIR endeavor was early recognition that information access research is an empirical discipline and that evaluation therefore lay at the core of the enterprise. Evaluation is thus at the heart of each chapter in this book. They show, for example, how the recognition that some documents are more important than others has shaped thinking about evaluation design. The thirty-three contributors to this volume speak for the many hundreds of researchers from dozens of countries around the world who together shaped NTCIR as organizers and participants. This book is suitable for researchers, practitioners, and students—anyone who wants to learn about past and present evaluation efforts in information retrieval, information access, and natural language processing, as well as those who want to participate in an evaluation task or even to design and organize one.



فهرست مطالب

Foreword
Preface
Contents
Acronyms
1 Graded Relevance
	1.1 Introduction
	1.2 Graded Relevance Assessments, Binary Relevance Measures
		1.2.1 Early IR and CLIR Tasks (NTCIR-1 Through -5)
		1.2.2 Patent (NTCIR-3 Through-6)
		1.2.3 SpokenDoc/SpokenQuery& Doc  (NTCIR-9 Through -12)
		1.2.4 Math/MathIR (NTCIR-10 Through -12)
	1.3 Graded Relevance Assessments, Graded Relevance Measures
		1.3.1 Web (NTCIR-3 Through-5)
		1.3.2 CLIR (NTCIR-6)
		1.3.3 ACLIA IR4QA (NTCIR-7 and -8)
		1.3.4 GeoTime (NTCIR-8 and -9)
		1.3.5 CQA (NTCIR-8)
		1.3.6 INTENT/IMine (NTCIR-9 Through 12)
		1.3.7 RecipeSearch (NTCIR-11)
		1.3.8 Temporalia (NTCIR-11 and -12)
		1.3.9 STC (NTCIR-12 Through -14)
		1.3.10 WWW (NTCIR-13 and -14) and CENTRE (NTCIR-14)
		1.3.11 AKG (NTCIR-13)
		1.3.12 OpenLiveQ (NTCIR-13 and -14)
	1.4 Summary
	References
2 Experiments on Cross-Language Information Retrieval Using Comparable Corpora of Chinese, Japanese, and Korean Languages
	2.1 Introduction
	2.2 Outline of Cross-Language Information Retrieval (CLIR)
		2.2.1 CLIR Types and Techniques
		2.2.2 Word Sense Disambiguation for CLIR
		2.2.3 Language Resources for CLIR
	2.3 Test Collections for CLIR from NTCIR-1 to NTCIR-6
		2.3.1 Japanese-English Comparable Corpora in NTCIR-1 and NTCIR-2
		2.3.2 Chinese-Japanese-Korean (CJK) Corpora from NTCIR-3 to NTCIR-6
		2.3.3 CJKE Test Collection Construction
		2.3.4 IR System Evaluation
	2.4 CLIR Techniques in NTCIR
		2.4.1 Monolingual Information Retrieval Techniques
		2.4.2 Bilingual Information Retrieval (BLIR) Techniques
		2.4.3 Multilingual Information Retrieval (MLIR) Techniques
	2.5 Concluding Remarks
	References
3 Text Summarization Challenge:  An Evaluation Program for Text Summarization
	3.1 What is Text Summarization?
	3.2 Various Types of Summaries
	3.3 Evaluation Metrics for Text Summarization
	3.4 Text Summarization Evaluation Campaigns Before TSC
	3.5 TSC: Our Challenge
		3.5.1 TSC1
		3.5.2 TSC2
		3.5.3 TSC3
	3.6 Text Summarization Evaluation Campaigns After TSC
	3.7 Future Perspectives
	References
4 Challenges in Patent Information Retrieval
	4.1 Introduction
	4.2 Overview of NTCIR Tasks
		4.2.1 Technology Survey
		4.2.2 Invalidity Search
		4.2.3 Classification
		4.2.4 Mining
	4.3 Outline of the NTCIR Tasks
		4.3.1 Technology Survey Task: NTCIR-3
		4.3.2 Invalidity Search Task: NTCIR-4, NTCIR-5, and NTCIR-6
		4.3.3 Patent Classification Task: NTCIR-5, NTCIR-6
		4.3.4 Patent Mining Task: NTCIR-7, NTCIR-8
	4.4 Contributions
		4.4.1 Preliminary Workshop
		4.4.2 Technology Survey
		4.4.3 Collaboration with Patent Experts
		4.4.4 Invalidity Search
		4.4.5 Patent Classification
		4.4.6 Mining
		4.4.7 Workshops and Publications
		4.4.8 CLEF-IP and TREC-CHEM
	References
5 Multi-modal Summarization
	5.1 Background
	5.2 Applications Envisioned
	5.3 Multi-modal Summarization on Trend Information
		5.3.1 Objective
		5.3.2 Data Set as a Unifying Force
		5.3.3 Outcome
	5.4 Implication
	References
6 Opinion Analysis Corpora Across Languages
	6.1 Introduction
	6.2 NTCIR MOAT
		6.2.1 Overview
		6.2.2 Research Questions at NTCIR MOAT
		6.2.3 Subtasks
		6.2.4 Opinion Corpus Annotation Requirements
		6.2.5 Cross-Lingual Topic Analysis
	6.3 Opinion Analysis Research Since MOAT
		6.3.1 Research Using the NTCIR MOAT Test Collection
		6.3.2 Opinion Corpus in News
		6.3.3 Current Opinion Analysis Research: The Social Media Corpus and Deep NLP
	6.4 Conclusion
	References
7 Patent Translation
	7.1 Introduction
	7.2 Innovations at NTCIR
		7.2.1 Patent Translation Task at NTCIR-7 (2007–2008)
		7.2.2 Patent Translation Task at NTCIR-8 (2009–2010)
		7.2.3 Patent Translation Task at NTCIR-9 (2010–2011)
		7.2.4 Patent Translation Task at NTCIR-10 (2012–2013)
	7.3 Developments After NTCIR-10
	References
8 Component-Based Evaluation for Question Answering
	8.1 Introduction
		8.1.1 History of Component-Based Evaluation in QA
		8.1.2 Contributions of NTCIR
	8.2 Component-Based Evaluation in NTCIR
		8.2.1 Shared Data Schema and Tracks
		8.2.2 Shared Evaluation Metrics and Process
	8.3 Recent Developments in Component Evaluation
		8.3.1 Open Advancement of Question Answering
		8.3.2 Configuration Space Exploration (CSE)
		8.3.3 Component Evaluation for Biomedical QA
	8.4 Remaining Challenges and Future Directions
	8.5 Conclusion
	References
9 Temporal Information Access
	9.1 Introduction
	9.2 Temporal Information Retrieval
		9.2.1 NTCIR-8 GeoTime Task
		9.2.2 NTCIR-9 GeoTime Task Round 2
		9.2.3 Issues Discussed Related to Temporal IR
	9.3 Temporal Query Analysis and Search Result Diversification
		9.3.1 NTCIR-11 Temporal Information Access Task
		9.3.2 NTCIR-12 Temporal Information Access Task Round 2
		9.3.3 Implications from Temporalia
	9.4 Related Work and Broad Impacts
	9.5 Conclusion
	References
10 SogouQ: The First Large-Scale Test Collection with Click Streams Used in a Shared-Task Evaluation
	10.1 Introduction
	10.2 SogouQ and Related Data Collections
	10.3 SogouQ and NTCIR Tasks
	10.4 Impact of SogouQ
	10.5 Conclusion
	References
11 Evaluation of Information Access with Smartphones
	11.1 Introduction
	11.2 NTCIR Tasks for Information Access with Smartphones
		11.2.1 NTCIR 1CLICK
		11.2.2 NTCIR MobileClick
	11.3 Evaluation Methodology in NTCIR 1CLICK and MobileClick
		11.3.1 Textual Output Evaluation
		11.3.2 From Nuggets to iUnits
		11.3.3 S-Measure
		11.3.4 M-Measure
	11.4 Outcomes of NTCIR 1CLICK and MobileClick
		11.4.1 Results
		11.4.2 Impacts
	11.5 Summary
	References
12 Mathematical Information Retrieval
	12.1 Introduction
	12.2 NTCIR Math: Overview
		12.2.1 NTCIR-10 Math Pilot Task
		12.2.2 NTCIR-11 Math-2 Task
		12.2.3 NTCIR-12 MathIR Task
	12.3 NTCIR Math Datasets
		12.3.1 Corpora
		12.3.2 Topics
		12.3.3 Relevance Judgment
	12.4 Task Results and Discussion
		12.4.1 Evaluation Metrics
		12.4.2 MIR Systems
	12.5 Further Trials
		12.5.1 ArXiv Free-Form Query Search at NTCIR-10
		12.5.2 Wikipedia Formula Search at NTCIR-11
		12.5.3 Math Understanding Subtask at NTCIR-10
	12.6 Further Impact of NTCIR Math Tasks
		12.6.1 Math Information Retrieval
		12.6.2 Semantics Extraction in Mathematical Documents
		12.6.3 Corpora for Math Linguistics
	12.7 Conclusion
	References
13 Experiments in Lifelog Organisation and Retrieval at NTCIR
	13.1 Introduction
	13.2 Related Activities
	13.3 Lifelog Datasets Released at NTCIR
	13.4 Lifelog Subtasks at NTCIR
		13.4.1 Lifelog Semantic Access Subtask
		13.4.2 Lifelog Insight Subtask
		13.4.3 Other Subtasks (LEST, LAT and LADT)
	13.5 Lessons Learned
		13.5.1 Conclusions and Future Plans
	References
14 The Future of Information Retrieval Evaluation
	14.1 Introduction
	14.2 First Things First
	14.3 The Shared Task Evaluation Ecosystem
	14.4 A Brave New World
	14.5 Trendlines
	14.6 An Inconclusion
	References
Index




نظرات کاربران