ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Statistical Universals of Language: Mathematical Chance vs. Human Choice

دانلود کتاب جهانی های آماری زبان: شانس ریاضی در مقابل انتخاب انسان

Statistical Universals of Language: Mathematical Chance vs. Human Choice

مشخصات کتاب

Statistical Universals of Language: Mathematical Chance vs. Human Choice

ویرایش: 1 
نویسندگان:   
سری: Mathematics in Mind 
ISBN (شابک) : 3030593762, 9783030593766 
ناشر: Springer 
سال نشر: 2021 
تعداد صفحات: 226 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 4 مگابایت 

قیمت کتاب (تومان) : 39,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Statistical Universals of Language: Mathematical Chance vs. Human Choice به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب جهانی های آماری زبان: شانس ریاضی در مقابل انتخاب انسان نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب جهانی های آماری زبان: شانس ریاضی در مقابل انتخاب انسان

این جلد به بررسی ویژگی‌های ریاضی جهانی زیربنای داده‌های بزرگ زبان و دلایل احتمالی وجود چنین ویژگی‌هایی می‌پردازد، و نشان می‌دهد که چگونه ممکن است ما ناخودآگاه در استفاده از زبان خود ریاضیاتی باشیم. این ویژگی‌ها آماری هستند و بنابراین با کلیات زبانی که به توصیف تنوع زبان‌های انسانی کمک می‌کنند، متفاوت هستند، و آنها را فقط می‌توان با انباشتگی زیادی از کاربردها شناسایی کرد. این کتاب مروری بر یافته‌های جدید در مورد این کلیات آماری ارائه می‌کند و ماهیت زبان را بر این اساس، با قانون Zipf به عنوان یک مثال معروف، بازنگری می‌کند. تمرکز اصلی کتاب بیشتر در توضیح ویژگی حافظه طولانی است که اخیراً با وام گرفتن مفاهیم از نظریه سیستم های پیچیده کشف و مطالعه شده است. کلیات آماری نه تنها احتمالاً به عنوان پیشگام شکل‌گیری سیستم زبان هستند، بلکه ویژگی‌های زبان را نیز برجسته می‌کنند که در یادگیری ماشین امروزی نقاط ضعف باقی مانده است. به طور خلاصه، این کتاب مروری بر ویژگی های جهانی زبان ارائه می دهد. برای هر کسی که در زمینه‌های مرتبط با زبان و محاسبات یا روش‌های تجزیه و تحلیل آماری با تأکید بر محققان و دانشجویان در زبان‌شناسی محاسباتی و پردازش زبان طبیعی فعالیت می‌کند، جالب خواهد بود. در حالی که این کتاب مفاهیم ریاضی را به کار می‌برد، تمام تلاش ممکن برای صحبت با مخاطبان غیرریاضی از طریق برقراری ارتباط مستقیم محتوای ریاضی با مثال‌های مختصر برگرفته از متون واقعی انجام شده است.


توضیحاتی درمورد کتاب به خارجی

This volume explores the universal mathematical properties underlying big language data and possible reasons why such properties exist, revealing how we may be unconsciously mathematical in our language use. These properties are statistical and thus different from linguistic universals that contribute to describing the variation of human languages, and they can only be identified over a large accumulation of usages. The book provides an overview of state-of-the art findings on these statistical universals and reconsiders the nature of language accordingly, with Zipf's law as a well-known example. The main focus of the book further lies in explaining the property of long memory, which was discovered and studied more recently by borrowing concepts from complex systems theory. The statistical universals not only possibly lie as the precursor of language system formation, but they also highlight the qualities of language that remain weak points in today's machine learning. In summary, this book provides an overview of language's global properties. It will be of interest to anyone engaged in fields related to language and computing or statistical analysis methods, with an emphasis on researchers and students in computational linguistics and natural language processing. While the book does apply mathematical concepts, all possible effort has been made to speak to a non-mathematical audience as well by communicating mathematical content intuitively, with concise examples taken from real texts.



فهرست مطالب

Contents
Part I Language as a Complex System
	1 Introduction
		1.1 Aims
		1.2 Structure of This Book
		1.3 Position of This Book
			1.3.1 Statistical Universals as Computational Properties of Natural Language
			1.3.2 A Holistic Approach to Language via Complex Systems Theory
		1.4 Prospectus
	2 Universals
		2.1 Language Universals
		2.2 Layers of Universals
		2.3 Universal, Stylized Hypothesis, and Law
	3 Language as a Complex System
		3.1 Sequence and Corpus
			3.1.1 Definition of Corpus
			3.1.2 On Meaning
			3.1.3 On Infinity
			3.1.4 On Randomness
		3.2 Power Functions
		3.3 Scale-Free Property: Statistical Self-Similarity
		3.4 Complex Systems
		3.5 Two Basic Random Processes
Part II Property of Population
	4 Relation Between Rank and Frequency
		4.1 Zipf's Law
		4.2 Scale-Free Property and Hapax Legomena
		4.3 Monkey Text
		4.4 Power Law of n-grams
		4.5 Relative Rank-Frequency Distribution
	5 Bias in Rank-Frequency Relation
		5.1 Literary Texts
		5.2 Speech, Music, Programs, and More
		5.3 Deviations from Power Law
			5.3.1 Scale
			5.3.2 Speaker Maturity
			5.3.3 Characters vs. Words
		5.4 Nature of Deviations
	6 Related Statistical Universals
		6.1 Density Function
		6.2 Vocabulary Growth
Part III Property of Sequences
	7 Returns
		7.1 Word Returns
		7.2 Distribution of Return Interval Lengths
		7.3 Exceedance Probability
		7.4 Bias Underlying Return Intervals
		7.5 Rare Words as a Set
		7.6 Behavior of Rare Words
	8 Long-Range Correlation
		8.1 Long-Range Correlation Analysis
		8.2 Mutual Information
		8.3 Autocorrelation Function
		8.4 Correlation of Word Intervals
		8.5 Nonstationarity of Language
		8.6 Weak Long-Range Correlation
	9 Fluctuation
		9.1 Fluctuation Analysis
		9.2 Taylor Analysis
		9.3 Differences Between the Two Fluctuation Analyses
		9.4 Dimensions of Linguistic Fluctuation
		9.5 Relations Among Methods
	10 Complexity
		10.1 Complexity of Sequence
		10.2 Entropy Rate
		10.3 Hilberg's Ansatz
		10.4 Computing Entropy Rate of Human Language
		10.5 Reconsidering the Question of Entropy Rate
Part IV Relation to Linguistic Elements and Structure
	11 Articulation of Elements
		11.1 Harris's Hypothesis
		11.2 Information-Theoretic Reformulation
		11.3 Accuracy of Articulation by Harris's Scheme
	12 Word Meaning and Value
		12.1 Meaning as Use and Distributional Semantics
		12.2 Weber–Fechner Law
		12.3 Word Frequency and Familiarity
		12.4 Vector Representation of Words
		12.5 Compositionality of Meaning
		12.6 Statistical Universals and Meaning
	13 Size and Frequency
		13.1 Zipf Abbreviation of Words
		13.2 Compound Length and Frequency
	14 Grammatical Structure and Long Memory
		14.1 Simple Grammatical Framework
		14.2 Phrase Structure Grammar
		14.3 Long-Range Dependence in Sentences
		14.4 Grammatical Structure and Long-Range Correlation
		14.5 Nature of Long Memory Underlying Language
Part V Mathematical Models
	15 Theories Behind Zipf's Law
		15.1 Communication Optimization
		15.2 A Limit Theorem
		15.3 Significance of Statistical Universals
	16 Mathematical Generative Models
		16.1 Criteria for Statistical Universals
		16.2 Independent and Identically Distributed Sequences
		16.3 Simon Model and Variants
		16.4 Random Walk Models
	17 Language Models
		17.1 Language Models and Statistical Universals
		17.2 Building Language Models
		17.3 N-Gram Models
		17.4 Grammatical Models
		17.5 Neural Models
		17.6 Future Directions for Generative Models
Part VI Ending Remarks
	18 Conclusion
	19 Acknowledgments
Part VII Appendix
	20 Glossary and Notations
		20.1 Glossary
		20.2 Mathematical Notation
		20.3 Other Conventions
	21 Mathematical Details
		21.1 Fitting Functions
		21.2 Proof that Monkey Typing Follows a Power Law
		21.3 Relation Between η and ζ
		21.4 Relation Between η and ξ
		21.5 Proof That Interval Lengths of I.I.D. Process Follow Exponential Distribution
		21.6 Proof of α=0.5 and ν=1.0 for I.I.D. Process
		21.7 Summary of Shannon's Method to Estimate Entropy Rate
		21.8 Relation of h, Perplexity, and Cross Entropy
		21.9 Type Counts, Shannon Entropy, and Yule's K, via Generalized Entropy
		21.10 Upper Bound of Compositional Distance
		21.11 Rough Summary of Mandelbrot's Communication Optimization Rationale to Deduce a Power Law
		21.12 Rough Definition of Central Limit Theorem
		21.13 Definition of Simon Model
	22 Data
		22.1 Literary Texts
		22.2 Large Corpora
		22.3 Other Kinds of Data Related to Language
		22.4 Corpora for Scripts
References
Index




نظرات کاربران