دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1 نویسندگان: Carol Peters (auth.), Carol Peters (eds.) سری: Lecture Notes in Computer Science 2069 ISBN (شابک) : 9783540424468, 3540424466 ناشر: Springer-Verlag Berlin Heidelberg سال نشر: 2001 تعداد صفحات: 396 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 5 مگابایت
کلمات کلیدی مربوط به کتاب بازيابي و ارزيابي اطلاعات متقابل زبان: کارگاه انجمن ارزيابي زبان Cross-Language، CLEF 2000، ليسبون، پرتغال، 21 تا 22 سپتامبر 2000، مقالات تجديد نظر شده: ذخیره و بازیابی اطلاعات، هوش مصنوعی (شامل رباتیک)
در صورت تبدیل فایل کتاب Cross-Language Information Retrieval and Evaluation: Workshop of the Cross-Language Evaluation Forum, CLEF 2000 Lisbon, Portugal, September 21–22, 2000 Revised Papers به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب بازيابي و ارزيابي اطلاعات متقابل زبان: کارگاه انجمن ارزيابي زبان Cross-Language، CLEF 2000، ليسبون، پرتغال، 21 تا 22 سپتامبر 2000، مقالات تجديد نظر شده نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
اولین کمپین ارزیابی انجمن ارزیابی بین زبانی (CLEF) برای زبان های اروپایی از ژانویه تا سپتامبر 2000 برگزار شد. این کمپین بلافاصله پس از آن در یک کارگاه آموزشی دو روزه در لیسبون، پرتغال، 21 سپتامبر 22 به پایان رسید. چهارمین کنفرانس اروپایی کتابخانه های دیجیتال (ECDL 2000). روز اول کارگاه برای همه علاقمندان به حوزه بازیابی اطلاعات بین زبانی (CLIR) باز بود و به موضوع ارزیابی سیستم CLIR پرداخت. هدف شناسایی سهم واقعی ارزیابی در توسعه سیستم و تعیین اینکه چه کاری میتوان در آینده برای تحریک پیشرفت انجام داد، بود. روز دوم محدود به شرکت کنندگان در کمپین ارزیابی CLEF 2000 و تجربیات آنها بود. این جلد مجموعه مقالات کارگاه است و گزارشی از کمپین ارائه می دهد. CLEF در حال حاضر یکی از فعالیت های DELOS Network of Excellence for Digital - braries است که توسط فناوری های جامعه اطلاعاتی EC برای تحقیقات بیشتر در زمینه فناوری های کتابخانه دیجیتال تامین می شود. این فعالیت با همکاری موسسه ملی استاندارد و فناوری ایالات متحده (NIST) سازماندهی شده است. از حمایت DELOS و NIST در اجرای کمپین ارزیابی سپاسگزاریم. همچنین مایلم از سایر اعضای کمیته راهبری کارگاه برای کمک آنها در سازماندهی این رویداد تشکر کنم.
The first evaluation campaign of the Cross-Language Evaluation Forum (CLEF) for European languages was held from January to September 2000. The campaign cul- nated in a two-day workshop in Lisbon, Portugal, 21 22 September, immediately following the fourth European Conference on Digital Libraries (ECDL 2000). The first day of the workshop was open to anyone interested in the area of Cross-Language Information Retrieval (CLIR) and addressed the topic of CLIR system evaluation. The goal was to identify the actual contribution of evaluation to system development and to determine what could be done in the future to stimulate progress. The second day was restricted to participants in the CLEF 2000 evaluation campaign and to their - periments. This volume constitutes the proceedings of the workshop and provides a record of the campaign. CLEF is currently an activity of the DELOS Network of Excellence for Digital - braries, funded by the EC Information Society Technologies to further research in digital library technologies. The activity is organized in collaboration with the US National Institute of Standards and Technology (NIST). The support of DELOS and NIST in the running of the evaluation campaign is gratefully acknowledged. I should also like to thank the other members of the Workshop Steering Committee for their assistance in the organization of this event.
Introduction....Pages 1-6
CLIR Evaluation at TREC....Pages 7-23
NTCIR Workshop : Japanese- and Chinese-English Cross-Lingual Information Retrieval and Multi-grade Relevance Judgments....Pages 24-35
Language Resources in Cross-Language Text Retrieval: A CLEF Perspective....Pages 36-47
The Domain-Specific Task of CLEF - Specific Evaluation Strategies in Cross-Language Information Retrieval....Pages 48-56
Evaluating Interactive Cross-Language Information Retrieval: Document Selection....Pages 57-71
New Challenges for Cross-Language Information Retrieval: Multimedia Data and the User Experience....Pages 72-82
Research to Improve Cross-Language Retrieval — Position Paper for CLEF....Pages 83-88
CLEF 2000 — Overview of Results....Pages 89-101
Translation Resources, Merging Strategies, and Relevance Feedback for Cross-Language Information Retrieval....Pages 102-115
Cross-Language Retrieval for the CLEF Collections — Comparing Multiple Methods of Retrieval....Pages 116-128
A Language-Independent Approach to European Text Retrieval....Pages 129-139
Experiments with the Eurospider Retrieval System for CLEF 2000....Pages 140-148
A Poor Man’s Approach to CLEF....Pages 149-155
Ambiguity Problem in Multiingual Information Retrieval....Pages 156-165
The Use of NLP Techniques in CLIR....Pages 166-175
CLEF Experiments at Maryland: Statistical Stemming and Backoff Translation....Pages 176-187
Multilingual Information Retrieval Based on Parallel Texts from the Web....Pages 188-201
Mercure at CLEF-1....Pages 202-209
Bilingual Tests with Swedish, Finnish, and German Queries: Dealing with Morphology, Compound Words, and Query Structure....Pages 210-223
A Simple Approach to the Spanish-English Bilingual Retrieval Task....Pages 224-229
Cross-Language Information Retrieval Using Dutch Query Translation....Pages 230-236
Bilingual Information Retrieval with HyREX and Internet Translation Services....Pages 237-244
Sheffield University CLEF 2000 Submission — Bilingual Track: German to English....Pages 245-252
West Group at CLEF 2000: Non-english Monolingual Retrieval....Pages 253-260
ITC-irst at CLEF 2000: Italian Monolingual Track....Pages 261-272
Automatic Language-Specific Stemming in Information Retrieval....Pages 273-283