ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Machine Learning for Speaker Recognition

دانلود کتاب یادگیری ماشینی برای تشخیص بلندگو

Machine Learning for Speaker Recognition

مشخصات کتاب

Machine Learning for Speaker Recognition

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 1108428126, 9781108428125 
ناشر: Cambridge University Press 
سال نشر: 2020 
تعداد صفحات: 329 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 17 مگابایت 

قیمت کتاب (تومان) : 51,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 5


در صورت تبدیل فایل کتاب Machine Learning for Speaker Recognition به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری ماشینی برای تشخیص بلندگو نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری ماشینی برای تشخیص بلندگو

این کتاب به خوانندگان کمک می کند تا مدل های آماری اساسی و پیشرفته و مدل های یادگیری عمیق را برای تشخیص قوی سخنران و تطبیق دامنه درک کنند. این جعبه ابزار مفید خوانندگان را قادر می‌سازد تا تکنیک‌های یادگیری ماشین را برای رسیدگی به مسائل عملی، مانند استحکام در محیط‌های صوتی نامطلوب و عدم تطابق دامنه، هنگام استقرار سیستم‌های تشخیص بلندگو به کار ببرند. ارائه تکنیک های پیشرفته یادگیری ماشین برای تشخیص بلندگو و دارای طیف وسیعی از مدل های احتمالی، الگوریتم های یادگیری، مطالعات موردی، و روندها و جهت گیری های جدید برای تشخیص بلندگو بر اساس یادگیری ماشین مدرن و یادگیری عمیق، این منبع عالی است. برای فارغ التحصیلان، محققان، پزشکان و مهندسان در مهندسی برق، علوم کامپیوتر و ریاضیات کاربردی.


توضیحاتی درمورد کتاب به خارجی

This book will help readers understand fundamental and advanced statistical models and deep learning models for robust speaker recognition and domain adaptation. This useful toolkit enables readers to apply machine learning techniques to address practical issues, such as robustness under adverse acoustic environments and domain mismatch, when deploying speaker recognition systems. Presenting state-of-the-art machine learning techniques for speaker recognition and featuring a range of probabilistic models, learning algorithms, case studies, and new trends and directions for speaker recognition based on modern machine learning and deep learning, this is the perfect resource for graduates, researchers, practitioners and engineers in electrical engineering, computer science and applied mathematics.



فهرست مطالب

Contents
Preface
List of Abbreviations
Notations
Part I Fundamental Theories
	1 Introduction
		1.1 Fundamentals of Speaker Recognition
		1.2 Feature Extraction
		1.3 Speaker Modeling and Scoring
			1.3.1 Speaker Modeling
			1.3.2 Speaker Scoring
		1.4 Modern Speaker Recognition Approaches
		1.5 Performance Measures
			1.5.1 FAR, FRR, and DET
			1.5.2 Decision Cost Function
	2 Learning Algorithms
		2.1 Fundamentals of Statistical Learning
			2.1.1 Probabilistic Models
			2.1.2 Neural Networks
		2.2 Expectation-Maximization Algorithm
			2.2.1 Maximum Likelihood
			2.2.2 Iterative Procedure
			2.2.3 Alternative Perspective
			2.2.4 Maximum A Posteriori
		2.3 Approximate Inference
			2.3.1 Variational Distribution
			2.3.2 Factorized Distribution
			2.3.3 EM versus VB-EM Algorithms
		2.4 Sampling Methods
			2.4.1 Markov Chain Monte Carlo
			2.4.2 Gibbs Sampling
		2.5 Bayesian Learning
			2.5.1 Model Regularization
			2.5.2 Bayesian Speaker Recognition
	3 Machine Learning Models
		3.1 Gaussian Mixture Models
			3.1.1 The EM Algorithm
			3.1.2 Universal Background Models
			3.1.3 MAP Adaptation
			3.1.4 GMM–UBM Scoring
		3.2 Gaussian Mixture Model–Support Vector Machines
			3.2.1 Support Vector Machines
			3.2.2 GMM Supervectors
			3.2.3 GMM–SVM Scoring
			3.2.4 Nuisance Attribute Projection
		3.3 Factor Analysis
			3.3.1 Generative Model
			3.3.2 EM Formulation
			3.3.3 Relationship with Principal Component Analysis
			3.3.4 Relationship with Nuisance Attribute Projection
		3.4 Probabilistic Linear Discriminant Analysis
			3.4.1 Generative Model
			3.4.2 EM Formulations
			3.4.3 PLDA Scoring
			3.4.4 Enhancement of PLDA
			3.4.5 Alternative to PLDA
		3.5 Heavy-Tailed PLDA
			3.5.1 Generative Model
			3.5.2 Posteriors of Latent Variables
			3.5.3 Model Parameter Estimation
			3.5.4 Scoring in Heavy-Tailed PLDA
			3.5.5 Heavy-Tailed PLDA versus Gaussian PLDA
		3.6 I-Vectors
			3.6.1 Generative Model
			3.6.2 Posterior Distributions of Total Factors
			3.6.3 I-Vector Extractor
			3.6.4 Relation with MAP Adaptation in GMM–UBM
			3.6.5 I-Vector Preprocessing for Gaussian PLDA
			3.6.6 Session Variability Suppression
			3.6.7 PLDA versus Cosine-Distance Scoring
			3.6.8 Effect of Utterance Length
			3.6.9 Gaussian PLDA with Uncertainty Propagation
			3.6.10 Senone I-Vectors
		3.7 Joint Factor Analysis
			3.7.1 Generative Model of JFA
			3.7.2 Posterior Distributions of Latent Factors
			3.7.3 Model Parameter Estimation
			3.7.4 JFA Scoring
			3.7.5 From JFA to I-Vectors
Part II Advanced Studies
	4 Deep Learning Models
		4.1 Restricted Boltzmann Machine
			4.1.1 Distribution Functions
			4.1.2 Learning Algorithm
		4.2 Deep Neural Networks
			4.2.1 Structural Data Representation
			4.2.2 Multilayer Perceptron
			4.2.3 Error Backpropagation Algorithm
			4.2.4 Interpretation and Implementation
		4.3 Deep Belief Networks
			4.3.1 Training Procedure
			4.3.2 Greedy Training
			4.3.3 Deep Boltzmann Machine
		4.4 Stacked Autoencoder
			4.4.1 Denoising Autoencoder
			4.4.2 Greedy Layer-Wise Learning
		4.5 Variational Autoencoder
			4.5.1 Model Construction
			4.5.2 Model Optimization
			4.5.3 Autoencoding Variational Bayes
		4.6 Generative Adversarial Networks
			4.6.1 Generative Models
			4.6.2 Adversarial Learning
			4.6.3 Optimization Procedure
			4.6.4 Gradient Vanishing and Mode Collapse
			4.6.5 Adversarial Autoencoder
		4.7 Deep Transfer Learning
			4.7.1 Transfer Learning
			4.7.2 Domain Adaptation
			4.7.3 Maximum Mean Discrepancy
			4.7.4 Neural Transfer Learning
	5 Robust Speaker Verification
		5.1 DNN for Speaker Verification
			5.1.1 Bottleneck Features
			5.1.2 DNN for I-Vector Extraction
		5.2 Speaker Embedding
			5.2.1 X-Vectors
			5.2.2 Meta-Embedding
		5.3 Robust PLDA
			5.3.1 SNR-Invariant PLDA
			5.3.2 Duration-Invariant PLDA
			5.3.3 SNR- and Duration-Invariant PLDA
		5.4 Mixture of PLDA
			5.4.1 SNR-Independent Mixture of PLDA
			5.4.2 SNR-Dependent Mixture of PLDA
			5.4.3 DNN-Driven Mixture of PLDA
		5.5 Multi-Task DNN for Score Calibration
			5.5.1 Quality Measure Functions
			5.5.2 DNN-Based Score Calibration
		5.6 SNR-Invariant Multi-Task DNN
			5.6.1 Hierarchical Regression DNN
			5.6.2 Multi-Task DNN
	6 Domain Adaptation
		6.1 Overview of Domain Adaptation
		6.2 Feature-Domain Adaptation/Compensation
			6.2.1 Inter-Dataset Variability Compensation
			6.2.2 Dataset-Invariant Covariance Normalization
			6.2.3 Within-Class Covariance Correction
			6.2.4 Source-Normalized LDA
			6.2.5 Nonstandard Total-Factor Prior
			6.2.6 Aligning Second-Order Statistics
			6.2.7 Adaptation of I-Vector Extractor
			6.2.8 Appending Auxiliary Features to I-Vectors
			6.2.9 Nonlinear Transformation of I-Vectors
			6.2.10 Domain-Dependent I-Vector Whitening
		6.3 Adaptation of PLDA Models
		6.4 Maximum Mean Discrepancy Based DNN
			6.4.1 Maximum Mean Discrepancy
			6.4.2 Domain-Invariant Autoencoder
			6.4.3 Nuisance-Attribute Autoencoder
		6.5 Variational Autoencoders (VAE)
			6.5.1 VAE Scoring
			6.5.2 Semi-Supervised VAE for Domain Adaptation
			6.5.3 Variational Representation of Utterances
		6.6 Generative Adversarial Networks for Domain Adaptation
	7 Dimension Reduction and Data Augmentation
		7.1 Variational Manifold PLDA
			7.1.1 Stochastic Neighbor Embedding
			7.1.2 Variational Manifold Learning
		7.2 Adversarial Manifold PLDA
			7.2.1 Auxiliary Classifier GAN
			7.2.2 Adversarial Manifold Learning
		7.3 Adversarial Augmentation PLDA
			7.3.1 Cosine Generative Adversarial Network
			7.3.2 PLDA Generative Adversarial Network
		7.4 Concluding Remarks
	8 Future Direction
		8.1 Time-Domain Feature Learning
		8.2 Speaker Embedding from End-to-End Systems
		8.3 VAE–GAN for Domain Adaptation
			8.3.1 Variational Domain Adversarial Neural Network (VDANN)
			8.3.2 Relationship with Domain Adversarial Neural Network (DANN)
			8.3.3 Gaussianality Analysis
Appendix: Exercises
	References
	Index




نظرات کاربران