دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Nicola Ferro. Carol Peters
سری: The Information Retrieval Series v. 41
ISBN (شابک) : 3030229475, 9783030229474
ناشر: Springer
سال نشر: 2019
تعداد صفحات: 597
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 16 Mb
در صورت تبدیل فایل کتاب Information Retrieval Evaluation in a Changing World: Lessons Learned from 20 Years of CLEF به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب ارزیابی بازیابی اطلاعات در دنیای در حال تغییر: درس های آموخته شده از 20 سال CLEF نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این جلد بیستمین سالگرد CLEF - انجمن ارزیابی بین زبانی برای ده سال اول، و کنفرانس و آزمایشگاه های انجمن ارزیابی از آن زمان را جشن می گیرد - و سیر تحول آن را در این دو دهه اول نشان می دهد. ماموریت اصلی CLEF ترویج تحقیق، نوآوری و توسعه سیستمهای بازیابی اطلاعات (IR) با پیشبینی روندها در مدیریت اطلاعات به منظور تحریک پیشرفتها در زمینه آزمایش و ارزیابی سیستم IR است. کتاب به شش بخش تقسیم شده است. بخشهای I و II پیشینه و زمینه را ارائه میدهند، با بخش اول توضیح میدهد که منظور از ارزیابی تجربی و نظریه اساسی چیست، و توضیح میدهد که چگونه این در CLEF و سایر طرحهای ارزیابی شناختهشده بینالمللی تفسیر شده است. بخش دوم معماری ها و زیرساخت های تحقیقاتی را ارائه می کند که برای مدیریت داده های تجربی و ارائه خدمات ارزیابی در CLEF و جاهای دیگر توسعه یافته اند. بخشهای III، IV و V هستهی کتاب را نشان میدهد که برخی از مهمترین فعالیتهای ارزیابی در CLEF را ارائه میکند، از تمرینهای اولیه پردازش متن چند زبانه تا آزمایشهای پیچیدهتر بعدی بر روی مجموعههای چندوجهی در ژانرها و رسانههای متنوع. در همه موارد، تمرکز فقط بر توصیف "آنچه به دست آمده" نیست، بلکه بیش از همه بر "آنچه آموخته شده است" است. بخش پایانی تأثیر CLEF بر دنیای تحقیقات را بررسی میکند و چالشهای فعلی و آینده، هم دانشگاهی و هم صنعتی، از جمله ارتباط معیار IR در محیطهای صنعتی را مورد بحث قرار میدهد. به طور عمده برای محققان دانشگاه و صنعت در نظر گرفته شده است، همچنین بینش ها و نکات مفیدی را برای متخصصان صنعت که بر روی مسائل ارزیابی و عملکرد ابزارهای IR کار می کنند و دانشجویان فارغ التحصیل متخصص در بازیابی اطلاعات ارائه می دهد.
This volume celebrates the twentieth anniversary of CLEF - the Cross-Language Evaluation Forum for the first ten years, and the Conference and Labs of the Evaluation Forum since – and traces its evolution over these first two decades. CLEF’s main mission is to promote research, innovation and development of information retrieval (IR) systems by anticipating trends in information management in order to stimulate advances in the field of IR system experimentation and evaluation. The book is divided into six parts. Parts I and II provide background and context, with the first part explaining what is meant by experimental evaluation and the underlying theory, and describing how this has been interpreted in CLEF and in other internationally recognized evaluation initiatives. Part II presents research architectures and infrastructures that have been developed to manage experimental data and to provide evaluation services in CLEF and elsewhere. Parts III, IV and V represent the core of the book, presenting some of the most significant evaluation activities in CLEF, ranging from the early multilingual text processing exercises to the later, more sophisticated experiments on multimodal collections in diverse genres and media. In all cases, the focus is not only on describing “what has been achieved”, but above all on “what has been learnt”. The final part examines the impact CLEF has had on the research world and discusses current and future challenges, both academic and industrial, including the relevance of IR benchmarking in industrial settings. Mainly intended for researchers in academia and industry, it also offers useful insights and tips for practitioners in industry working on the evaluation and performance issues of IR tools, and graduate students specializing in information retrieval.
Front Matter ....Pages i-xxii
Front Matter ....Pages 1-1
From Multilingual to Multimodal: The Evolution of CLEF over Two Decades (Nicola Ferro, Carol Peters)....Pages 3-44
The Evolution of Cranfield (Ellen M. Voorhees)....Pages 45-69
How to Run an Evaluation Task (Tetsuya Sakai)....Pages 71-102
Front Matter ....Pages 103-103
An Innovative Approach to Data Management and Curation of Experimental Data Generated Through IR Test Collections (Maristella Agosti, Giorgio Maria Di Nunzio, Nicola Ferro, Gianmaria Silvello)....Pages 105-122
TIRA Integrated Research Architecture (Martin Potthast, Tim Gollub, Matti Wiegmann, Benno Stein)....Pages 123-160
EaaS: Evaluation-as-a-Service and Experiences from the VISCERAL Project (Henning Müller, Allan Hanbury)....Pages 161-173
Front Matter ....Pages 175-175
Lessons Learnt from Experiments on the Ad Hoc Multilingual Test Collections at CLEF (Jacques Savoy, Martin Braschler)....Pages 177-200
The Challenges of Language Variation in Information Access (Jussi Karlgren, Turid Hedlund, Kalervo Järvelin, Heikki Keskustalo, Kimmo Kettunen)....Pages 201-216
Multi-Lingual Retrieval of Pictures in ImageCLEF (Paul Clough, Theodora Tsikrika)....Pages 217-230
Experiences from the ImageCLEF Medical Retrieval and Annotation Tasks (Henning Müller, Jayashree Kalpathy-Cramer, Alba García Seco de Herrera)....Pages 231-250
Automatic Image Annotation at ImageCLEF (Josiah Wang, Andrew Gilbert, Bart Thomee, Mauricio Villegas)....Pages 251-273
Image Retrieval Evaluation in Specific Domains (Luca Piras, Barbara Caputo, Duc-Tien Dang-Nguyen, Michael Riegler, Pål Halvorsen)....Pages 275-305
About Sound and Vision: CLEF Beyond Text Retrieval Tasks (Gareth J. F. Jones)....Pages 307-329
Front Matter ....Pages 331-331
The Scholarly Impact and Strategic Intent of CLEF eHealth Labs from 2012 to 2017 (Hanna Suominen, Liadh Kelly, Lorraine Goeuriot)....Pages 333-363
Multilingual Patent Text Retrieval Evaluation: CLEF–IP (Florina Piroi, Allan Hanbury)....Pages 365-387
Biodiversity Information Retrieval Through Large Scale Content-Based Identification: A Long-Term Evaluation (Alexis Joly, Hervé Goëau, Hervé Glotin, Concetto Spampinato, Pierre Bonnet, Willem-Pier Vellinga et al.)....Pages 389-413
From XML Retrieval to Semantic Search and Beyond (Jaap Kamps, Marijn Koolen, Shlomo Geva, Ralf Schenkel, Eric SanJuan, Toine Bogers)....Pages 415-437
Front Matter ....Pages 439-439
Results and Lessons of the Question Answering Track at CLEF (Anselmo Peñas, Álvaro Rodrigo, Bernardo Magnini, Pamela Forner, Eduard Hovy, Richard Sutcliffe et al.)....Pages 441-460
Evolution of the PAN Lab on Digital Text Forensics (Paolo Rosso, Martin Potthast, Benno Stein, Efstathios Stamatatos, Francisco Rangel, Walter Daelemans)....Pages 461-485
RepLab: An Evaluation Campaign for Online Monitoring Systems (Jorge Carrillo-de-Albornoz, Julio Gonzalo, Enrique Amigó)....Pages 487-510
Continuous Evaluation of Large-Scale Information Access Systems: A Case for Living Labs (Frank Hopfgartner, Krisztian Balog, Andreas Lommatzsch, Liadh Kelly, Benjamin Kille, Anne Schuth et al.)....Pages 511-543
Front Matter ....Pages 545-545
The Scholarly Impact of CLEF 2010–2017 (Birger Larsen)....Pages 547-554
Reproducibility and Validity in CLEF (Norbert Fuhr)....Pages 555-564
Visual Analytics and IR Experimental Evaluation (Nicola Ferro, Giuseppe Santucci)....Pages 565-582
Adopting Systematic Evaluation Benchmarks in Operational Settings (Jussi Karlgren)....Pages 583-590
Back Matter ....Pages 591-595