دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Uwe Draisbach (auth.)
سری:
ISBN (شابک) : 9783834817723, 9783834882899
ناشر: Vieweg+Teubner Verlag
سال نشر: 2012
تعداد صفحات: 99
زبان: German
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 940 کیلوبایت
کلمات کلیدی مربوط به کتاب پارتیشن بندی برای تشخیص کارآمد تکراری در داده های رابطه ای: مدیریت پایگاه داده
در صورت تبدیل فایل کتاب Partitionierung zur effizienten Duplikaterkennung in relationalen Daten به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب پارتیشن بندی برای تشخیص کارآمد تکراری در داده های رابطه ای نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
موارد تکراری یا تکراری مجموعه دادههای متعددی هستند که یک شیء واقعی را توصیف میکنند، مانند مشتریانی که چندین بار در یک سیستم CRM وارد شدهاند یا نمایشهای متفاوتی از یک محصول. یافتن این موارد تکراری حتی برای کامپیوترهای مدرن یک کار پیچیده و زمان بر است. Uwe Draisbach دو تا از استراتژی های پارتیشن بندی مربوطه را مقایسه می کند که انتخاب هوشمندانه ای از جفت های مجموعه داده را برای مقایسه ایجاد می کند. از این رو، او یک رویه تعمیمیافته را توسعه میدهد و نشان میدهد که انتخاب هوشمندانه از جفتهای مجموعه دادهها میتواند به طور قابلتوجهی تلاش را بدون کاهش قابل توجه کیفیت تشخیص تکراری کاهش دهد.
این کار انجام شد. با "جایزه بهترین مدرک کارشناسی ارشد کیفیت اطلاعات" از انجمن آلمان برای اطلاعات و کیفیت داده انجام شد.
Duplikate bzw. Dubletten sind mehrere Datensätze, die das gleiche Realweltobjekt beschreiben, etwa mehrfach erfasste Kunden in einem CRM-System oder unterschiedliche Repräsentationen eines Produkts. Das Auffinden dieser Duplikate ist auch für moderne Computer eine komplexe und zeitintensive Aufgabe. Uwe Draisbach vergleicht zwei der einschlägigen Partitionierungsstrategien, die eine intelligente Auswahl von zu vergleichenden Datensatzpaaren treffen. Daraus entwickelt er ein verallgemeinertes Verfahren und zeigt, dass eine intelligente Auswahl der Datensatzpaare den Aufwand signifikant reduzieren kann, ohne die Qualität der Duplikaterkennung wesentlich zu verringern.
Die Arbeit wurde mit dem „Information Quality Best Master Degree Award“ der Deutschen Gesellschaft für Informations- und Datenqualität ausgezeichnet.
Front Matter....Pages I-XIII
Gegenstand der Arbeit....Pages 1-4
Duplikaterkennung....Pages 5-30
Blocking-Verfahren....Pages 31-33
Windowing-Verfahren....Pages 35-40
Vergleich Blocking- und Sorted-Neighborhood-Methode....Pages 41-60
Verallgemeinertes Verfahren....Pages 61-77
Zusammenfassung....Pages 79-82
Back Matter....Pages 83-91