ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Dynamic Network Representation Based on Latent Factorization of Tensors

دانلود کتاب نمایش شبکه پویا بر اساس فاکتورسازی پنهان تانسورها

Dynamic Network Representation Based on Latent Factorization of Tensors

مشخصات کتاب

Dynamic Network Representation Based on Latent Factorization of Tensors

ویرایش:  
نویسندگان: , ,   
سری: SpringerBriefs in Computer Science 
ISBN (شابک) : 9811989338, 9789811989339 
ناشر: Springer 
سال نشر: 2023 
تعداد صفحات: 88
[89] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 3 Mb 

قیمت کتاب (تومان) : 30,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Dynamic Network Representation Based on Latent Factorization of Tensors به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب نمایش شبکه پویا بر اساس فاکتورسازی پنهان تانسورها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب نمایش شبکه پویا بر اساس فاکتورسازی پنهان تانسورها

یک شبکه پویا به طور مکرر در برنامه های مختلف صنعتی واقعی، مانند اینترنت اشیا، مواجه می شود. از گره های متعدد و تعاملات زمان واقعی پویا در مقیاس بزرگ بین آنها تشکیل شده است، که در آن هر گره یک موجودیت مشخص را نشان می دهد، هر پیوند هدایت شده نشان دهنده یک تعامل بلادرنگ است، و قدرت یک تعامل را می توان به عنوان وزن یک برهمکنش تعیین کرد. ارتباط دادن. همانطور که گره های درگیر به شدت افزایش می یابند، مشاهده تعاملات کامل آنها در هر شکاف زمانی غیرممکن می شود، و یک شبکه پویا حاصل از ابعاد بالا و ناقص (HDI) می شود. یک شبکه پویا HDI با پیوندهای مستقیم و وزن دار، علیرغم ماهیت HDI آن، حاوی دانش غنی در مورد الگوهای رفتاری مختلف گره های درگیر است. بنابراین، مطالعه چگونگی ساخت مدل‌های یادگیری بازنمایی کارآمد و مؤثر برای کسب دانش مفید ضروری است. در این کتاب ابتدا یک شبکه پویا را به یک تانسور HDI مدل‌سازی می‌کنیم و مدل اصلی فاکتورسازی پنهان تانسورها (LFT) را ارائه می‌کنیم. سپس، ما چهار روش نمایندگی شبکه مبتنی بر LFT را پیشنهاد می‌کنیم. روش اول بایاس کوتاه مدت، بایاس طولانی مدت و بایاس پیش پردازش را ادغام می کند تا دقیقاً نوسانات داده های شبکه را نشان دهد. روش دوم از یک کنترل کننده مشتق نسبت-ال-انتگرال برای ایجاد یک خطای نمونه تنظیم شده برای دستیابی به نرخ همگرایی بالاتر استفاده می کند. روش سوم، غیر منفی بودن داده‌های شبکه نوسانی را با محدود کردن ویژگی‌های نهفته غیرمنفی و ترکیب بایاس خطی توسعه‌یافته در نظر می‌گیرد. روش چهارم، یک روش جهت متناوب چارچوب ضرب‌کننده‌ها را برای ایجاد یک مدل یادگیری برای پیاده‌سازی نمایش در شبکه‌های پویا با دقت و کارایی بالا اتخاذ می‌کند.


توضیحاتی درمورد کتاب به خارجی

A dynamic network is frequently encountered in various real industrial applications, such as the Internet of Things. It is composed of numerous nodes and large-scale dynamic real-time interactions among them, where each node indicates a specified entity, each directed link indicates a real-time interaction, and the strength of an interaction can be quantified as the weight of a link. As the involved nodes increase drastically, it becomes impossible to observe their full interactions at each time slot, making a resultant dynamic network High Dimensional and Incomplete (HDI). An HDI dynamic network with directed and weighted links, despite its HDI nature, contains rich knowledge regarding involved nodes’ various behavior patterns. Therefore, it is essential to study how to build efficient and effective representation learning models for acquiring useful knowledge. In this book, we first model a dynamic network into an HDI tensor and present the basic latent factorization of tensors (LFT) model. Then, we propose four representative LFT-based network representation methods. The first method integrates the short-time bias, long-time bias and preprocessing bias to precisely represent the volatility of network data. The second method utilizes a proportion-al-integral-derivative controller to construct an adjusted instance error to achieve a higher convergence rate. The third method considers the non-negativity of fluctuating network data by constraining latent features to be non-negative and incorporating the extended linear bias. The fourth method adopts an alternating direction method of multipliers framework to build a learning model for implementing representation to dynamic networks with high preciseness and efficiency.



فهرست مطالب

Preface
Contents
Chapter 1: Introduction
	1.1 Overview
	1.2 Formulating a Dynamic Network into an HDI Tensor
	1.3 Latent Factorization of Tensor
	1.4 Book Organization
	References
Chapter 2: Multiple Biases-Incorporated Latent Factorization of Tensors
	2.1 Overview
	2.2 MBLFT Model
		2.2.1 Short-Term Bias
		2.2.2 Preprocessing Bias
		2.2.3 Long-Term Bias
		2.2.4 Parameter Learning Via SGD
	2.3 Performance Analysis of MBLFT Model
		2.3.1 MBLFT Algorithm Design
		2.3.2 Effect of Short-Term Bias
		2.3.3 Effect of Preprocessing Bias
		2.3.4 Effect of Long-Term Bias
		2.3.5 Comparison with State-of-the-Art Models
	2.4 Summary
	References
Chapter 3: PID-Incorporated Latent Factorization of Tensors
	3.1 Overview
	3.2 PLFT Model
		3.2.1 A PID Controller
		3.2.2 Objective Function
		3.2.3 Parameter Learning Scheme
	3.3 Performance Analysis of PLFT Model
		3.3.1 PLFT Algorithm Design
		3.3.2 Effects of Hyper-Parameters
		3.3.3 Comparison with State-of-the-Art Models
	3.4 Summary
	References
Chapter 4: Diverse Biases Nonnegative Latent Factorization of Tensors
	4.1 Overview
	4.2 DBNT Model
		4.2.1 Extended Linear Biases
		4.2.2 Preprocessing Bias
		4.2.3 Parameter Learning Via SLF-NMU
	4.3 Performance Analysis of DBNT Model
		4.3.1 DBNT Algorithm Design
		4.3.2 Effects of Biases
		4.3.3 Comparison with State-of-the-Art Models
	4.4 Summary
	References
Chapter 5: ADMM-Based Nonnegative Latent Factorization of Tensors
	5.1 Overview
	5.2 ANLT Model
		5.2.1 Objective Function
		5.2.2 Learning Scheme
		5.2.3 ADMM-Based Learning Sequence
	5.3 Performance Analysis of ANLT Model
		5.3.1 ANLT Algorithm Design
		5.3.2 Comparison with State-of-the-Art Models
	5.4 Summary
	References
Chapter 6: Perspectives and Conclusion
	6.1 Perspectives
	6.2 Conclusion
	References




نظرات کاربران