دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: [1 ed.] نویسندگان: Yada Pruksachatkun, Matthew Mcateer, Subhabrata Majumdar سری: ISBN (شابک) : 1098120272, 9781098120276 ناشر: O'Reilly Media سال نشر: 2023 تعداد صفحات: 300 [303] زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 35 Mb
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
در صورت تبدیل فایل کتاب Practicing Trustworthy Machine Learning: Consistent, Transparent, and Fair AI Pipelines به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تمرین یادگیری ماشینی قابل اعتماد: خطوط لوله هوش مصنوعی ثابت، شفاف و منصفانه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
با افزایش استفاده از هوش مصنوعی در حوزههای پرمخاطره مانند پزشکی، حقوق و دفاع، سازمانها زمان و هزینه زیادی را صرف میکنند تا مدلهای ML قابل اعتماد شوند. بسیاری از کتابها در این زمینه به بررسی نظریهها و مفاهیم میپردازند. این راهنما یک نقطه شروع عملی برای کمک به تیمهای توسعه برای تولید مدلهایی ارائه میکند که ایمن، قویتر، کمتر تعصبپذیر و قابل توضیحتر هستند. نویسندگان Yada Pruksachatkun، Matthew McAteer و Subhabrata Majumdar بهترین شیوههای موجود در ادبیات دانشگاهی را برای مدیریت مجموعه دادهها و ساخت مدلها به طرحی برای ساختن سیستمهای ML قابل اعتماد در سطح صنعت ترجمه میکنند. با این کتاب، مهندسان و دانشمندان داده پایه و اساس بسیار مورد نیاز را برای انتشار برنامه های کاربردی ML قابل اعتماد در دنیایی پر سر و صدا، کثیف و اغلب خصمانه به دست خواهند آورد. یاد خواهید گرفت: • روش هایی برای توضیح مدل های ML و خروجی های آنها برای ذینفعان • نحوه تشخیص و رفع نگرانی های مربوط به انصاف و نشت حریم خصوصی در خط لوله ML • نحوه توسعه سیستم های ML که در برابر حملات مخرب قوی و ایمن هستند • ملاحظات سیستمی مهم، مانند نحوه مدیریت بدهی اعتماد و اینکه کدام موانع ML نیاز به مداخله انسانی دارند
With the increasing use of AI in high-stakes domains such as medicine, law, and defense, organizations spend a lot of time and money to make ML models trustworthy. Many books on the subject offer deep dives into theories and concepts. This guide provides a practical starting point to help development teams produce models that are secure, more robust, less biased, and more explainable. Authors Yada Pruksachatkun, Matthew McAteer, and Subhabrata Majumdar translate best practices in the academic literature for curating datasets and building models into a blueprint for building industry-grade trusted ML systems. With this book, engineers and data scientists will gain a much-needed foundation for releasing trustworthy ML applications into a noisy, messy, and often hostile world. You'll learn: • Methods to explain ML models and their outputs to stakeholders • How to recognize and fix fairness concerns and privacy leaks in an ML pipeline • How to develop ML systems that are robust and secure against malicious attacks • Important systemic considerations, like how to manage trust debt and which ML obstacles require human intervention