دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Michael Kearns. Aaron Roth
سری:
ISBN (شابک) : 0190948205, 9780190948207
ناشر: Oxford University Press
سال نشر: 2020
تعداد صفحات: 256
[229]
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 9 Mb
در صورت تبدیل فایل کتاب The Ethical Algorithm: The Science of Socially Aware Algorithm Design به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب الگوریتم اخلاقی: علم طراحی الگوریتم آگاه اجتماعی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
در طول یک نسل، الگوریتمها از انتزاعات ریاضی به واسطههای قدرتمند زندگی روزمره تبدیل شدهاند. این فناوریها در تکامل از برنامههای کامپیوتری ثابت که توسط مهندسان به صورت دستی کدگذاری شدهاند تا محصولات یادگیری ماشینی، زندگی ما را کارآمدتر، سرگرمکنندهتر و گاهی اوقات آگاهتر کردهاند. در عین حال، الگوریتمهای پیچیده به طور فزایندهای حقوق اساسی شهروندان را درهم میکوبند. مجموعه دادههای ناشناس و مدلهای آماری به طور معمول حساسترین اطلاعات شخصی ما را افشا میکنند. برنامه های کاربردی برای همه چیز، از وام گرفته تا کالج، منعکس کننده تعصب نژادی و جنسیتی است. در همین حال، کاربران الگوریتمها را به موتورهای جستجوی \"بازی\"، فیلترهای هرزنامه، خدمات بررسی آنلاین و برنامههای ناوبری دستکاری میکنند. درک و بهبود علم پشت الگوریتم هایی که زندگی ما را اداره می کنند به سرعت به یکی از مبرم ترین مسائل قرن حاضر تبدیل می شود. راهحلهای سنتی، مانند قوانین، مقررات و گروههای ناظر، در بهترین حالت به طرز تاسفباری ناکافی هستند. الگوریتم اخلاقی برگرفته از برش های تحقیقات علمی، رویکرد جدیدی ارائه می دهد: مجموعه ای از راه حل های اصولی بر اساس علم نوظهور و هیجان انگیز طراحی الگوریتم آگاه اجتماعی. مایکل کرنز و آرون راث با ترکیب علم پشت طراحی الگوریتم با داستانهایی از شهروندان، وکلا، دانشمندان و فعالانی که آزمون و خطای تحقیقات را در زمان واقعی تجربه میکنند، راهی بهشدت بدیع ارائه میکنند که نشان میدهد چگونه میتوانیم شروع کنیم. برای محافظت از مردم در برابر تأثیرات ناخواسته الگوریتمها با یکدیگر همکاری کنید - و گاهی اوقات، از علمی محافظت کنید که میتواند ما را از دست خودمان نجات دهد.
Over the course of a generation, algorithms have gone from mathematical abstractions to powerful mediators of daily life. In evolving from static computer programs hand-coded by engineers to the products of machine learning, these technologies have made our lives more efficient, more entertaining, and, sometimes, better informed. At the same time, complex algorithms are increasingly crushing the basic rights of individual citizens. Allegedly anonymized datasets and statistical models routinely leak our most sensitive personal information; applications for everything from loans to college reflect racial and gender bias. Meanwhile, users manipulate algorithms to "game" search engines, spam filters, online reviewing services and navigation apps. Understanding and improving the science behind the algorithms that run our lives is quickly becoming one of the most pressing issues of this century. Traditional solutions, such as laws, regulations and watchdog groups, have proven woefully inadequate, at best. Derived from the cutting-edge of scientific research, The Ethical Algorithm offers a new approach: a set of principled solutions based on the emerging and exciting science of socially aware algorithm design. Weaving together the science behind algorithm design with stories of citizens, lawyers, scientists, and activists experiencing the trial-and-error of research in real-time, Michael Kearns and Aaron Roth present a strikingly original way forward, showing how we can begin to work together to protect people from the unintended impacts of algorithms―and, sometimes, protect the science that could save us from ourselves.