دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: شبکه سازی ویرایش: 1 نویسندگان: Katy Warr سری: ISBN (شابک) : 9781492044956, 1492044954 ناشر: O’Reilly Media سال نشر: 2019 تعداد صفحات: 0 زبان: English فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 41 مگابایت
در صورت تبدیل فایل کتاب Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تقویت شبکه های عصبی عمیق: هوش مصنوعی را کمتر مستعد ترفندهای دشمن می کند نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
از آنجایی که شبکههای عصبی عمیق (DNN) به طور فزایندهای در برنامههای کاربردی دنیای واقعی رایج میشوند، پتانسیل "فریب دادن" عمدی آنها با دادههایی که انسان را فریب نمیدهند، بردار حمله جدیدی را ارائه میدهد. این کتاب عملی سناریوهای دنیای واقعی را بررسی میکند که در آن DNNها - الگوریتمهای ذاتی بیشتر هوش مصنوعی - روزانه برای پردازش دادههای تصویر، صدا و ویدئو استفاده میشوند.
نویسنده کیتی وار انگیزههای حمله، خطرات ناشی از آن را در نظر میگیرد. این ورودی خصمانه و روش هایی برای افزایش استحکام هوش مصنوعی در برابر این حملات. اگر دانشمند داده ای هستید که الگوریتم های DNN را توسعه می دهد، یک معمار امنیتی علاقه مند به نحوه انعطاف پذیرتر کردن سیستم های هوش مصنوعی در برابر حمله هستید، یا فردی هستید که مجذوب تفاوت های بین ادراک مصنوعی و بیولوژیکی است، این کتاب برای شما مناسب است.
As deep neural networks (DNNs) become increasingly common in real-world applications, the potential to deliberately "fool" them with data that wouldn't trick a human presents a new attack vector. This practical book examines real-world scenarios where DNNs—the algorithms intrinsic to much of AI—are used daily to process image, audio, and video data.
Author Katy Warr considers attack motivations, the risks posed by this adversarial input, and methods for increasing AI robustness to these attacks. If you're a data scientist developing DNN algorithms, a security architect interested in how to make AI systems more resilient to attack, or someone fascinated by the differences between artificial and biological perception, this book is for you.