دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1 نویسندگان: Harrison Kinsley, Daniel Kukieła سری: ناشر: Harrison Kinsley سال نشر: تعداد صفحات: 666 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 64 مگابایت
در صورت تبدیل فایل کتاب Neural Networks from Scratch in Python: Building Neural Networks in Raw Python به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب شبکه های عصبی از ابتدا در پایتون: ساخت شبکه های عصبی در پایتون خام نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
Acknowledgements Copyright License for Code Readme Introducing Neural Networks A Brief History What is a Neural Network? Coding Our First Neurons A Single Neuron A Layer of Neurons Tensors, Arrays and Vectors Dot Product and Vector Addition A Single Neuron with NumPy A Batch of Data Matrix Product Transposition for the Matrix Product A Layer of Neurons & Batch of Data w/ NumPy Adding Layers Training Data Dense Layer Class Full code up to this point: Activation Functions The Step Activation Function The Linear Activation Function The Sigmoid Activation Function The Rectified Linear Activation Function Why Use Activation Functions? Linear Activation in the Hidden Layers ReLU Activation in a Pair of Neurons ReLU Activation in the Hidden Layers ReLU Activation Function Code The Softmax Activation Function Full code up to this point: Calculating Network Error with Loss Categorical Cross-Entropy Loss The Categorical Cross-Entropy Loss Class Combining everything up to this point: Accuracy Calculation Introducing Optimization Full code up to this point: Derivatives The Impact of a Parameter on the Output The Slope The Numerical Derivative The Analytical Derivative Summary Gradients, Partial Derivatives, and the Chain Rule The Partial Derivative The Partial Derivative of a Sum The Partial Derivative of Multiplication The Partial Derivative of Max The Gradient The Chain Rule Summary Backpropagation Categorical Cross-Entropy loss derivative Categorical Cross-Entropy loss derivative code implementation Softmax activation derivative Softmax activation derivative code implementation Common Categorical Cross-Entropy loss and Softmax activation derivative Common Categorical Cross-Entropy loss and Softmax activation derivative - code implementation Full code up to this point: Optimizers Stochastic Gradient Descent (SGD) Learning Rate Learning Rate Decay Stochastic Gradient Descent with Momentum AdaGrad RMSProp Adam Full code up to this point: Testing with Out-of-Sample Data Validation Data Training Dataset L1 and L2 Regularization Forward Pass Backward pass Dropout Forward Pass Backward Pass The Code Binary Logistic Regression Sigmoid Activation Function Sigmoid Function Derivative Sigmoid Function Code Binary Cross-Entropy Loss Binary Cross-Entropy Loss Derivative Binary Cross-Entropy Code Implementing Binary Logistic Regression and Binary Cross-Entropy Loss Full code up to this point: Regression Linear Activation Mean Squared Error Loss Mean Squared Error Loss Derivative Mean Squared Error (MSE) Loss Code Mean Absolute Error Loss Mean Absolute Error Loss Derivative Mean Absolute Error Loss Code Accuracy in Regression Regression Model Training Full code up to this point: Model Object Full code up to this point: A Real Dataset Data preparation Data loading Data preprocessing Data Shuffling Batches Training Full code up to now: Model Evaluation Saving and Loading Models and Their Parameters Retrieving Parameters Setting Parameters Saving Parameters Loading Parameters Saving the Model Loading the Model Prediction / Inference Full code: Closing