دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Fomin. Fedor V., Lokshtanov. Daniel, Saurabh. Saket, Zehavi. Meirav et al. سری: ISBN (شابک) : 9781107415157, 9781107057760 ناشر: Cambridge University Press سال نشر: 2019 تعداد صفحات: 515 [531] زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 3 Mb
در صورت تبدیل فایل کتاب Kernelization: theory of parameterized preprocessing به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب هسته سازی: نظریه پیش پردازش پارامتری شده نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
پیش پردازش یا کاهش داده، یک تکنیک استاندارد برای ساده سازی و
افزایش سرعت محاسبات است. این کتاب که توسط تیمی از متخصصان در
این زمینه نوشته شده است، یک حوزه به سرعت در حال توسعه از تجزیه
و تحلیل پیش پردازش به نام هسته سازی را معرفی می کند. نویسندگان
مروری بر روشهای اساسی و نتایج مهم، همراه با توضیحات
قابلدسترسی از جدیدترین پیشرفتها در این حوزه، مانند متا
هستهسازی، مجموعههای نماینده، چند جملهای
ارائه میدهند. مرزهای پایین تر و هسته سازی با از دست دادن. متن
به چهار بخش تقسیم میشود که جنبههای نظری مختلف منطقه را پوشش
میدهد: کرانهای بالایی، فراقضیهها، کرانهای پایینتر و فراتر
از هستهسازی. روش ها از طریق مثال های گسترده با استفاده از یک
مجموعه داده واحد نشان داده شده اند. این کتاب که برای مستقل بودن
نوشته شده است، فقط به یک پیشینه اولیه در الگوریتم نیاز دارد و
برای متخصصان، محققان و دانشجویان فارغ التحصیل در علوم کامپیوتر
نظری، بهینه سازی، ترکیب شناسی، و زمینه های مرتبط استفاده خواهد
شد. ادامه
مطلب...
چکیده: پیش پردازش یا کاهش داده، یک تکنیک استاندارد برای ساده
سازی و افزایش سرعت محاسبات است. این کتاب که توسط تیمی از
متخصصان در این زمینه نوشته شده است، یک حوزه به سرعت در حال
توسعه از تجزیه و تحلیل پیش پردازش به نام هسته سازی را معرفی می
کند. نویسندگان یک مرور کلی از روشهای اساسی و نتایج مهم را با
توضیحات قابل دسترسی از جدیدترین پیشرفتها در این منطقه، مانند
متا هستهسازی، مجموعههای نماینده، کرانهای پایین چند جملهای و
هستهسازی با از دست دادن ارائه میدهند. متن به چهار بخش تقسیم
میشود که جنبههای نظری مختلف منطقه را پوشش میدهد: کرانهای
بالایی، فراقضیهها، کرانهای پایینتر و فراتر از هستهسازی. روش
ها از طریق مثال های گسترده با استفاده از یک مجموعه داده واحد
نشان داده شده اند. این کتاب که برای مستقل بودن نوشته شده است،
فقط به یک پیشینه اولیه در الگوریتم نیاز دارد و برای متخصصان،
محققان و دانشجویان فارغ التحصیل در علوم کامپیوتر نظری، بهینه
سازی، ترکیبات و زمینه های مرتبط استفاده خواهد شد.
Preprocessing, or data reduction, is a standard technique for
simplifying and speeding up computation. Written by a team of
experts in the field, this book introduces a rapidly developing
area of preprocessing analysis known as kernelization. The
authors provide an overview of basic methods and important
results, with accessible explanations of the most recent
advances in the area, such as meta-kernelization, representative sets, polynomial
lower bounds, and lossy kernelization. The text is divided into
four parts, which cover the different theoretical aspects of
the area: upper bounds, meta-theorems, lower bounds, and beyond
kernelization. The methods are demonstrated through extensive
examples using a single data set. Written to be self-contained,
the book only requires a basic background in algorithmics and
will be of use to professionals, researchers and graduate
students in theoretical computer science, optimization,
combinatorics, and related fields. Read
more...
Abstract: Preprocessing, or data reduction, is a standard
technique for simplifying and speeding up computation. Written
by a team of experts in the field, this book introduces a
rapidly developing area of preprocessing analysis known as
kernelization. The authors provide an overview of basic methods
and important results, with accessible explanations of the most
recent advances in the area, such as meta-kernelization,
representative sets, polynomial lower bounds, and lossy
kernelization. The text is divided into four parts, which cover
the different theoretical aspects of the area: upper bounds,
meta-theorems, lower bounds, and beyond kernelization. The
methods are demonstrated through extensive examples using a
single data set. Written to be self-contained, the book only
requires a basic background in algorithmics and will be of use
to professionals, researchers and graduate students in
theoretical computer science, optimization, combinatorics, and
related fields