دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: William Lewis (Author)
سری:
ISBN (شابک) : 9780849399800, 9781000170139
ناشر: Auerbach Publications
سال نشر: 1999
تعداد صفحات: 420
زبان:
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 4 مگابایت
در صورت تبدیل فایل کتاب PDCA/Test به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب PDCA/تست نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
اکثر کتابچههای راهنما فرض میکنند که تست نرمافزار به عنوان بخشی از یک چرخه توسعه ساختاریافته و تعریفشده بر اساس الزامات و استانداردهای به وضوح بیان شده انجام میشود. متأسفانه، در دنیای واقعی اغلب چنین نیست. در واقع، تنها ثابت واقعی در توسعه نرم افزار تغییر است. PDCA/TEST یک چارچوب کیفیت پیوسته مبتنی بر مدل توسعه برنامه سریع \"مارپیچ\" دکتر ادوارد دمینگ برای کیفیت را از طریق یک فرآیند بهبود مستمر ارائه میکند تا روشهای تست موثر را در محیطهای ساختاریافته و بدون ساختار ارتقا دهد. ویلیام ای. لوئیس رویکرد مارپیچی دمینگ را به عنوان جایگزینی برای روش سنتی آبشار به شما نشان می دهد. در روش آبشار، یک مجموعه از مراحل متوالی از پیش تعریف شده با الزامات به وضوح برشمرده شده دنبال می شود. اما رویکرد مارپیچی روشی است که در آن این مراحل متوالی سفت و سخت ممکن است، به درجات مختلف، وجود نداشته باشند یا بر حسب شرایط متفاوت باشند. با شروع از این بلوک اساسی، لوئیس به شما نشان میدهد که چگونه میتوانید: بکارگیری چرخ کیفیت Plan-Do-Check-Act (PDCA) در فرآیند تست نرمافزار، یک چارچوب کیفیت مداوم را در تمام مراحل توسعه نرمافزار، از جمله تجزیه و تحلیل نیازمندیها، طراحی منطقی ادغام کنید. ، طراحی فیزیکی، طراحی واحد برنامه و کدنویسی و ابزار تست مناسب (مانند Bender & Associates Softtest) را برای تست مناسب انتخاب کنید. این کتاب همچنین روش مارپیچی برای تست نرم افزار را به بخش ها، مراحل و وظایف که با چک لیست های گسترده، قالب ها و بحث های فنی مستند شده است، شرح می دهد. شما همچنین یاد خواهید گرفت که: تسلط بر جعبه سیاه، جعبه سفید و جعبه خاکستری را بشناسید. بهبود مستمر را در بازرسی ها و بررسی ها بگنجانید، طراحی منطقی، طراحی فیزیکی، طراحی واحد برنامه، و مراحل کدگذاری و موارد دیگر را تأیید کنید. در مجموع، PDCA/TEST: چارچوبی برای تست نرمافزار، تمام ابزارها و دانشی را که برای اطمینان از کیفیت تست نرمافزار در تمام مراحل توسعه نیاز دارید، در اختیار شما قرار میدهد، صرف نظر از اینکه این فرآیند چقدر ساختاری ندارد.
Most manuals assume software testing is being performed as part of a well-defined, structured development cycle based on clearly stated requirements and standards. Unfortunately, this is not often the case in the real world. Indeed, the one true constant in software development is change. PDCA/TEST presents a continuous quality framework based on Dr. Edward Deming\'s famous rapid application \"spiral\" development model for quality through a continuous improvement process to promote effective testing methods in both structured and unstructured environments. William E. Lewis shows you Deming\'s spiral approach as an alternative to the traditional waterfall method. In the waterfall method, one set of predefined sequential steps is followed with clearly enumerated requirements. But the spiral approach is one where these rigid sequential steps may, to varying degrees, be either lacking or different as circumstances demand. Starting from this fundamental building block, Lewis shows you how to: Apply the Plan-Do-Check-Act (PDCA) quality wheel to the software testing process Integrate a continuous quality framework into all phases of software development, including requirements analysis, logical design, physical design, program unit design, and coding And choose the right testing tool (such as Bender & Associates Softtest) for the right test. The book also details the spiral methodology for software testing broken down into parts, steps and tasks documented with extensive checklists, templates, and technical discussions. You will also learn to: Master black box, white box and gray box testing Incorporate continuous improvement into inspections and walkthroughs Verify the logical design, physical design, program unit design, and coding phases And more. In sum, PDCA/TEST: A Framework for Software Testing gives you all the tools and knowledge you need to assure quality software testing throughout all stages of development, no matter how unstructured that process may wind up being.
About the Author......Page 3
Acknowledgments......Page 5
Introduction......Page 22
What is Quality?......Page 24
Prevention vs. Detection......Page 25
Verification vs. Validation......Page 26
Software Quality Assurance......Page 27
Components of Quality Assurance......Page 28
Software Testing......Page 29
Quality Control......Page 30
Software Configuration Management......Page 31
Component Identification......Page 32
Configuration Building......Page 33
Change Control......Page 34
Step 1. Document the Plan......Page 35
Step 2. Obtain Management Acceptance......Page 37
Step 5. Execute the SQA Plan......Page 38
ISO9000 Quality Standards......Page 39
Black-Box Testing functional......Page 40
Gray-Box Testing functional and structural......Page 41
Static vs. Dynamic Testing......Page 42
Taxonomy of Software Testing Techniques......Page 43
Contribution of Dr. W. Edwards Deming......Page 47
Role of Statistical Methods......Page 48
Point 2: Adopt the New Philosophy......Page 49
Point 4: End the Practice of Awarding Business on .........Page 50
Point 7: Institute Leadership......Page 51
Point 9: Break Down Barriers Between Staff Areas......Page 52
Point 12: Remove Barriers to Pride of Workmanship......Page 53
Continuous Improvement Through the Plan, Do, Check.........Page 54
Going Around the PDCA Circle......Page 56
Waterfall Development Methodology......Page 57
Psychology of Life Cycle Testing......Page 58
Software Testing as a Continuous Improvement Proce.........Page 59
The Testing Bible: Software Test Plan......Page 62
Major Steps to Develop a Test Plan......Page 63
1. Define the Test Objectives......Page 64
Components of a Test Plan......Page 65
Technical Reviews as a Continuous Improvement Proc.........Page 67
Motivation for Technical Reviews......Page 68
Inspections......Page 69
Participant Roles......Page 71
2. Schedule the Review......Page 73
4. Create a Review Report......Page 74
Verifying the Requirements Phase......Page 75
Inspections and Walkthroughs......Page 76
Requirements Traceability Matrix......Page 77
Building the System/Acceptance Test Plan......Page 78
Data Model, Process Model, and the Linkage......Page 81
Testing the Logical Design with Technical Reviews......Page 82
Refining the System/Acceptance Test Plan......Page 83
Testing the Physical Design with Technical Reviews.........Page 85
Creating Integration Test Cases......Page 86
Step 4: Evaluate the Completeness of Integration T.........Page 87
Iteration......Page 89
Creating Unit Test Cases......Page 90
Executing the Test Plan......Page 92
Unit Testing......Page 93
System Testing......Page 94
Defect Recording......Page 95
Limitations of Life Cycle Development......Page 97
The Client-Server Challenge......Page 98
The New School of Thought......Page 99
Tester/Developer Perceptions......Page 100
Project Goal: Integrate QA and Development......Page 101
Iterative/Spiral Development Methodology......Page 102
Role of JADs......Page 104
Role of Prototyping......Page 105
1. Develop the Prototype......Page 107
3. Demonstrate Prototype to Users......Page 108
4. Revise and Finalize Specifications......Page 109
Continuous Improvement “Spiral? Testing Approach......Page 110
Task 2: Confirm the Interview Findings......Page 125
Task 1: Identify the Participants......Page 115
Step 2: Conduct the Interview......Page 116
Task 1: Understand the Project......Page 118
Task 2: Understand the Project Objectives......Page 119
Task 4: Understand the Project Plans......Page 120
Task 6: Identify the High-Level Business Requireme.........Page 121
Task 7: Perform Risk Analysis......Page 122
Method 2? Dollar Estimation......Page 123
Method 3? Identifying and Weighting Risk Attribut.........Page 124
Test Planning Plan......Page 126
Task 2: Define the High-Level Functional Requireme.........Page 128
Task 3: Identify Manual/Automated Test Types......Page 129
Task 4: Identify the Test Exit Criteria......Page 130
Task 5: Establish Regression Test Strategy......Page 131
Take 6: Define the Test Deliverables......Page 132
Task 7: Organize the Test Team......Page 134
Task 9: Define the Dependencies......Page 136
Task 10: Create a Test Schedule......Page 137
Task 12: Establish Defect Recording/Tracking Proce.........Page 139
Task 13: Establish Change Request Procedures......Page 141
Task 15: Define Configuration Build Procedures......Page 143
Task 16: Define Project Issue Resolution Procedure.........Page 144
Task 18: Define Approval Procedures......Page 145
Task 1: Define the Metrics......Page 146
Task 1: Schedule/Conduct the Review......Page 147
Task 2: Obtain Approvals......Page 150
Task 1: Refine the Functional Test Requirements......Page 151
Task 2: Build a Function/Test Matrix......Page 152
Icons......Page 158
Task 2: Define the GUI Tests......Page 159
Task 1: Identify Potential System Tests......Page 160
Task 2: Design System Fragment Tests......Page 161
Task 3: Identify Potential Acceptance Tests......Page 162
Task 1: Schedule/Prepare for Review......Page 163
Task 2: Obtain Approvals......Page 164
Task 2: Script the Manual/Automated System Fragmen.........Page 165
Task 1: Schedule/Prepare for Review......Page 166
Task 2: Obtain Approvals......Page 167
Task 1: Regression Test the Manual/Automated Spira.........Page 168
Task 1: Analyze the Metrics......Page 170
Task 2: Refine the Test Schedule......Page 171
Task 3: Identify Requirement Changes......Page 172
PDCA Test......Page 181
Task 1: Update the Function/GUI Tests......Page 173
Task 1: Evaluate the Test Team......Page 175
Task 2: Review the Test Control Procedures......Page 176
Defect Gap Analysis......Page 177
Defect Severity Status......Page 178
Test Burnout Tracking......Page 179
Task 1: Finalize the System Test Types......Page 182
Task 4: Establish the System Test Environment......Page 184
Task 1: Design/Script the Performance Tests......Page 187
Monitoring Approach......Page 188
Task 2: Design/Script the Security Tests......Page 189
A Security Design Strategy......Page 190
Task 3: Design/Script the Volume Tests......Page 191
Task 4: Design/Script the Stress Tests......Page 192
Task 6: Design/Script the Conversion Tests......Page 193
Task 7: Design/Script the Usability Tests......Page 194
Task 9: Design/Script the Backup Tests......Page 195
Task 10: Design/Script the Recovery Tests......Page 196
Task 12: Design/Script Other System Test Types......Page 197
Task 1: Regression Test the System Fixes......Page 199
Task 3: Document the System Defects......Page 200
Task 2: Finalize the Acceptance Test Schedule......Page 201
Task 4: Establish the Acceptance Test Environment......Page 203
Task 1: Subset the System-Level Test Cases......Page 204
Task 1: Schedule/Conduct the Review......Page 205
Task 1: Regression Test the Acceptance Fixes......Page 206
Task 3: Document the Acceptance Defects......Page 207
Step 2: Prepare Final Test Report......Page 208
Task 3: Analyze/Create Metric Graphics......Page 210
Root Cause Analysis......Page 211
Acceptance Testing Defect Types......Page 213
Task 4: Develop Findings/Recommendations......Page 215
Task 1: Schedule/Conduct the Review......Page 221
Task 3: Publish the Final Test Report......Page 224
When to Consider Using a Testing Tool......Page 225
Testing Tool Selection Checklist......Page 226
Test Management Tools......Page 228
Static Testing Tools......Page 229
Windows File Revision Feature......Page 230
Product Features......Page 231
Product Description......Page 234
Platforms Supported......Page 235
Product Features......Page 236
Product Features......Page 237
Product Description......Page 238
Tool Features......Page 239
Product Features......Page 240
Product Description......Page 241
System Requirements......Page 242
Product Features......Page 243
Product Features......Page 244
Product Features......Page 245
Product Description......Page 246
Product Features......Page 247
Product Description......Page 248
Platforms Supported......Page 249
Product Features......Page 250
Product Features......Page 251
Product Description......Page 252
Product Features......Page 253
Product Description......Page 255
System Requirements......Page 256
Product Features......Page 257
System Requirements......Page 258
Product Features......Page 259
Product Features......Page 261
System Requirements......Page 262
Product Features......Page 263
Product Features......Page 266
Platforms Supported......Page 267
Product Features......Page 268
Platforms Supported......Page 269
Step 2: Set Tool Objectives......Page 270
Task 3: Identify Candidate Tools......Page 271
Step 3b: Conduct Selection Activities for Formal P.........Page 272
Task 5: Solicit Proposals......Page 273
Step 5: Create the Evaluation Plan......Page 274
Step 8: Receive the Tool......Page 275
Step 12: Train Tool Users......Page 276
Step 15: Determine Whether Goals Have Been Met......Page 277
Software Quality in Perspective......Page 278
Life Cycle Testing Review......Page 279
Client-Server and Internet Testing Methodology......Page 280
Modern Testing Tools......Page 281
Spiral Testing Methodology......Page 282
Exhibit A-1. Continuous Improvement......Page 283
Exhibit A-2. Information Gathering......Page 284
Exhibit A-3. Test Planning......Page 285
Exhibit A-4. Test Case Design......Page 286
Exhibit A-5. Test Development......Page 287
Exhibit A-6. Test Execution/Evaluation......Page 288
Exhibit A-7. Prepare for the Next Spiral......Page 289
Exhibit A-8. Conduct System Testing......Page 290
Exhibit A-9. Conduct Acceptance Testing......Page 291
Exhibit A-10. Summarize/Report Spiral Test Results......Page 292
Software Quality Assurance Plan......Page 293
Requirements Specification......Page 295
Exhibit D-1. Change Request Form......Page 297
E2: System/Acceptance Test Plan......Page 298
E3: Requirements Traceability Matrix......Page 300
E4: Test Plan Client-Server and Internet Spiral T.........Page 301
E6: GUI Component Test Matrix Client-Server and I.........Page 302
E7: GUI-Based Functional Test Matrix Client-Serve.........Page 304
E8: Test Case......Page 305
E9: Test Case Log......Page 306
E11: System Summary Report......Page 307
E14: Retest Matrix......Page 309
E15: Spiral Testing Summary Report Client-Server .........Page 313
F3: Physical Design Phase Defect Checklist......Page 315
F4: Program Unit Design Phase Defect Checklist......Page 320
F5: Coding Phase Defect Checklist......Page 321
F6: Field Testing Checklist......Page 323
F7: Record Testing Checklist......Page 324
F8: File Test Checklist......Page 325
F9: Error Testing Checklist......Page 326
F10: Use Test Checklist......Page 328
F11: Search Test Checklist......Page 329
F12: Match/Merge Checklist......Page 330
F13: Stress Test Checklist......Page 331
F14: Attributes Testing Checklist......Page 332
F15: States Testing Checklist......Page 333
F16: Procedures Testing Checklist......Page 334
F17: Control Testing Checklist......Page 335
F18: Control Flow Testing Checklist......Page 339
F19: Testing Tool Selection Checklist......Page 340
Integrating Testing into Development Methodology......Page 341
Step 2: Identify Test Steps and Tasks to Integrate.........Page 342
Step 4: Select Integration Points......Page 343
Step 7: Train in Use of the Test Methodology......Page 344
PROGRAM: FIELD-COUNT......Page 346
H2: Black-Box Testing......Page 347
H4: Boundary Value Testing......Page 348
GUI......Page 349
H6: Branch/Condition Coverage Testing......Page 350
H7: Cause-Effect Graphing......Page 351
Specification......Page 352
PROGRAM: FIELD-COUNT......Page 355
Integrity Testing......Page 356
Domain Integrity......Page 357
Referential Integrity......Page 358
Data Modeling Essentials......Page 359
Why Do We Create Models?......Page 360
Tables? A Definition......Page 361
Entities? A Definition......Page 362
Null Values......Page 363
Entity Classes......Page 364
One-to-One......Page 365
One-to-Many......Page 367
Many-to-Many......Page 368
Entities vs. Relationships......Page 370
Attributes vs. Relationships......Page 373
Problems of Un-normalized Entities......Page 374
First Normal Form 1NF......Page 375
A Definition......Page 380
Referential Integrity......Page 381
H11: Decision Tables......Page 386
H12: Desk Checking......Page 387
Field Ranges......Page 388
H14: Exception Testing......Page 389
H17: Histograms......Page 390
H18: Inspections......Page 391
H19: JADs......Page 392
H20: Orthogonal Array Testing......Page 393
H21: Pareto Analysis......Page 395
H22: Positive and Negative Testing......Page 396
Cyclic Models......Page 397
Fourth-Generation Languages and Prototyping......Page 398
Evolutionary and Throwaway......Page 399
Data-Driven Prototyping......Page 400
Early-Stage Prototyping......Page 401
H26: Range Testing......Page 402
H27: Regression Testing......Page 403
H28: Risk-Based Testing......Page 404
H30: Sandwich Testing......Page 405
H32: State Transition Testing......Page 406
H34: Structured Walkthroughs......Page 407
Sequential Tables......Page 409
H39: White-Box Testing......Page 410
Glossary......Page 412
Bibliography......Page 416