ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب The Car That Knew Too Much: Can a Machine Be Moral?

دانلود کتاب ماشینی که خیلی می دانست: آیا یک ماشین می تواند اخلاقی باشد؟

The Car That Knew Too Much: Can a Machine Be Moral?

مشخصات کتاب

The Car That Knew Too Much: Can a Machine Be Moral?

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 0262045796, 9780262045797 
ناشر: The MIT Press 
سال نشر: 2021 
تعداد صفحات: 176 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 1 Mb 

قیمت کتاب (تومان) : 44,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 2


در صورت تبدیل فایل کتاب The Car That Knew Too Much: Can a Machine Be Moral? به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب ماشینی که خیلی می دانست: آیا یک ماشین می تواند اخلاقی باشد؟ نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب ماشینی که خیلی می دانست: آیا یک ماشین می تواند اخلاقی باشد؟

داستان درونی آزمایش پیشگامانه که نظر مردم را در مورد معضلات مرگ و زندگی ناشی از خودروهای بدون راننده نشان می‌دهد. رانندگان انسان خود را با چنین معضلات اخلاقی نمی بینند که "آیا اگر این می تواند جان یک دختر بچه را در جاده نجات دهد، باید با رانندگی از صخره خود را قربانی کنم؟" از محاسبه؛ ماشین در یک نانوثانیه بر فراز صخره است. از سوی دیگر، یک خودروی خودران می تواند به اندازه کافی سریع محاسبه کند تا چنین تصمیمی بگیرد - هر کاری که انسان ها برای آن برنامه ریزی کرده اند را انجام دهد. اما آن چه باید باشد؟ این کتاب به بررسی این موضوع می‌پردازد که مردم چگونه می‌خواهند اتومبیل‌های بدون راننده در مورد زندگی و مرگ تصمیم‌گیری کنند. در خودرویی که خیلی زیاد می دانست، روانشناس ژان فرانسوا بونفون از آزمایشی پیشگامانه گزارش می دهد که نشان می دهد مردم فکر می کنند اتومبیل ها در شرایطی که نمی توان همه را نجات داد، چه کاری انجام دهند. مسافران را فدای عابران پیاده کنیم؟ نجات کودکان به جای بزرگسالان؟ کشتن یک نفر که خیلی ها بتوانند زندگی کنند؟ Bonnefon و همکارانش ایاد رهوان و عظیم شریف بزرگترین آزمایش در روانشناسی اخلاقی را طراحی کردند: ماشین اخلاقی، یک وب سایت تعاملی که به مردم - در نهایت، میلیون ها نفر از آنها، از 233 کشور و منطقه - اجازه می دهد تا در یک تصادف دقیق انتخاب کنند. سناریوها Bonnefon در مورد پاسخ ها (گزارش از جمله اینکه نوزادان، کودکان و زنان باردار به احتمال زیاد نجات می یابند)، دیوانگی رسانه ها بر سر اخبار آزمایش و پاسخ های دانشمندان به آن بحث می کند. تقویت‌کننده‌های خودروهای بدون راننده استدلال می‌کنند که تصادفات کمتری نسبت به خودروهای هدایت‌کننده انسان دارند. این به انسان ها بستگی دارد که تصمیم بگیرند چه تعداد تصادف مرگبار به این خودروها اجازه دهیم.


توضیحاتی درمورد کتاب به خارجی

The inside story of the groundbreaking experiment that captured what people think about the life-and-death dilemmas posed by driverless cars. Human drivers don't find themselves facing such moral dilemmas as "should I sacrifice myself by driving off a cliff if that could save the life of a little girl on the road?" Human brains aren't fast enough to make that kind of calculation; the car is over the cliff in a nanosecond. A self-driving car, on the other hand, can compute fast enough to make such a decision--to do whatever humans have programmed it to do. But what should that be? This book investigates how people want driverless cars to decide matters of life and death. In The Car That Knew Too Much, psychologist Jean-François Bonnefon reports on a groundbreaking experiment that captured what people think cars should do in situations where not everyone can be saved. Sacrifice the passengers for pedestrians? Save children rather than adults? Kill one person so many can live? Bonnefon and his collaborators Iyad Rahwan and Azim Shariff designed the largest experiment in moral psychology ever: the Moral Machine, an interactive website that has allowed people --eventually, millions of them, from 233 countries and territories--to make choices within detailed accident scenarios. Bonnefon discusses the responses (reporting, among other things, that babies, children, and pregnant women were most likely to be saved), the media frenzy over news of the experiment, and scholarly responses to it. Boosters for driverless cars argue that they will be in fewer accidents than human-driven cars. It's up to humans to decide how many fatal accidents we will allow these cars to have.





نظرات کاربران