100% found this document useful (5 votes)
57 views

PDF Design and Analysis of Experiments Classical and Regression Approaches with SAS 1st Edition Leonard C. Onyiah download

Approaches

Uploaded by

xelasasrina
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
100% found this document useful (5 votes)
57 views

PDF Design and Analysis of Experiments Classical and Regression Approaches with SAS 1st Edition Leonard C. Onyiah download

Approaches

Uploaded by

xelasasrina
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 81

Visit https://ebookgate.

com to download the full version and


explore more ebooks

Design and Analysis of Experiments Classical and


Regression Approaches with SAS 1st Edition Leonard
C. Onyiah

_____ Click the link below to download _____


https://ebookgate.com/product/design-and-analysis-of-
experiments-classical-and-regression-approaches-with-
sas-1st-edition-leonard-c-onyiah/

Explore and download more ebooks at ebookgate.com


Here are some recommended products that might interest you.
You can download now and explore!

Design and Analysis of Experiments 5th ed Edition Douglas


C. Montgomery

https://ebookgate.com/product/design-and-analysis-of-experiments-5th-
ed-edition-douglas-c-montgomery/

ebookgate.com

Design and Analysis of Experiments Solutions Manual 6th


Edition Douglas C. Montgomery

https://ebookgate.com/product/design-and-analysis-of-experiments-
solutions-manual-6th-edition-douglas-c-montgomery/

ebookgate.com

Design and Analysis of Experiments Advanced Experimental


Design 1st Edition Klaus Hinkelmann

https://ebookgate.com/product/design-and-analysis-of-experiments-
advanced-experimental-design-1st-edition-klaus-hinkelmann/

ebookgate.com

Regression Analysis with Python Luca Massaron

https://ebookgate.com/product/regression-analysis-with-python-luca-
massaron/

ebookgate.com
Design and Analysis of Ecological Experiments 2nd Edition
Samuel M. Scheiner

https://ebookgate.com/product/design-and-analysis-of-ecological-
experiments-2nd-edition-samuel-m-scheiner/

ebookgate.com

Design and Analysis of Experiments Volume 1 2nd Edition


Klaus Hinkelmann

https://ebookgate.com/product/design-and-analysis-of-experiments-
volume-1-2nd-edition-klaus-hinkelmann/

ebookgate.com

Analysis of Correlated Data with SAS and R Third Edition


Shoukri

https://ebookgate.com/product/analysis-of-correlated-data-with-sas-
and-r-third-edition-shoukri/

ebookgate.com

Analysis and Design of Machine Learning Techniques


Evolutionary Solutions for Regression Prediction and
Control Problems 1st Edition Patrick Stalph
https://ebookgate.com/product/analysis-and-design-of-machine-learning-
techniques-evolutionary-solutions-for-regression-prediction-and-
control-problems-1st-edition-patrick-stalph/
ebookgate.com

Analysis of Variance Designs A Conceptual and


Computational Approach with SPSS and SAS 1st Edition Glenn
Gamst
https://ebookgate.com/product/analysis-of-variance-designs-a-
conceptual-and-computational-approach-with-spss-and-sas-1st-edition-
glenn-gamst/
ebookgate.com
Design and Analysis of
Experiments
Classical and Regression Approaches with SAS
Design and Analysis of
Experiments
Classical and Regression Approaches with SAS

Leonard C. Onyiah
St. Cloud State University
Minnesota, U.S.A.
CRC Press
Taylor & Francis Group
6000 Broken Sound Parkway NW, Suite 300
Boca Raton, FL 33487-2742

© 2008 by Taylor & Francis Group, LLC


CRC Press is an imprint of Taylor & Francis Group, an Informa business

No claim to original U.S. Government works


Version Date: 20110725

International Standard Book Number-13: 978-1-4200-6055-3 (eBook - PDF)

This book contains information obtained from authentic and highly regarded sources. Reasonable efforts
have been made to publish reliable data and information, but the author and publisher cannot assume
responsibility for the validity of all materials or the consequences of their use. The authors and publishers
have attempted to trace the copyright holders of all material reproduced in this publication and apologize to
copyright holders if permission to publish in this form has not been obtained. If any copyright material has
not been acknowledged please write and let us know so we may rectify in any future reprint.

Except as permitted under U.S. Copyright Law, no part of this book may be reprinted, reproduced, transmit-
ted, or utilized in any form by any electronic, mechanical, or other means, now known or hereafter invented,
including photocopying, microfilming, and recording, or in any information storage or retrieval system,
without written permission from the publishers.

For permission to photocopy or use material electronically from this work, please access www.copyright.
com (http://www.copyright.com/) or contact the Copyright Clearance Center, Inc. (CCC), 222 Rosewood
Drive, Danvers, MA 01923, 978-750-8400. CCC is a not-for-profit organization that provides licenses and
registration for a variety of users. For organizations that have been granted a photocopy license by the CCC,
a separate system of payment has been arranged.

Trademark Notice: Product or corporate names may be trademarks or registered trademarks, and are used
only for identification and explanation without intent to infringe.
Visit the Taylor & Francis Web site at
http://www.taylorandfrancis.com

and the CRC Press Web site at


http://www.crcpress.com
Contents

Preface xxi

Acknowledgments xxv

Author xxvii

1 Introductory Statistical Inference


and Regression Analysis 1
1.1 Elementary Statistical Inference . . . . . . . . . . . . . . . . 1
1.1.1 Unbiased and Efficient Estimators . . . . . . . . . . . 2
1.1.2 Point and Interval Estimation . . . . . . . . . . . . . . 4
1.1.3 Confidence Intervals for Parameters
of a Population . . . . . . . . . . . . . . . . . . . . . . 4
1.1.4 Confidence Intervals for the Means . . . . . . . . . . . 5
1.1.5 Confidence Intervals for Differences
between Two Means . . . . . . . . . . . . . . . . . . . 7
1.1.6 Confidence Intervals for Proportions . . . . . . . . . . 10
1.1.6.1 Confidence Interval for Difference
between Two Proportions . . . . . . . . . . . 10
1.1.7 Tests of Hypotheses . . . . . . . . . . . . . . . . . . . 12
1.1.7.1 The Null Hypothesis . . . . . . . . . . . . . . 12
1.1.7.2 The Alternative Hypothesis . . . . . . . . . . 12
1.1.7.3 Type I and Type II Errors . . . . . . . . . . 13
1.1.7.4 Level of Significance . . . . . . . . . . . . . . 13
1.1.7.5 Test of Hypothesis, Parametric Tests . . . . 13
1.1.8 Tests for a Single Parameter (Mean)
Involving the Normal Distribution . . . . . . . . . . . 14
1.1.9 Tests of Hypotheses for Single Means
Involving the Student’s t-Distribution . . . . . . . . . 19
1.1.10 Comparing Two Populations Using
t-Distribution . . . . . . . . . . . . . . . . . . . . . . . 21
1.1.10.1 Paired Comparison or Matched
Pair t-Test . . . . . . . . . . . . . . . . . . . 22
1.1.10.2 Pooled Variance t-Test . . . . . . . . . . . . 24
1.1.10.3 Two-Sample t-Test with Unknown
Variances . . . . . . . . . . . . . . . . . . . . 27
1.1.11 Operating Characteristic Curves . . . . . . . . . . . . 29

vii
viii Contents

1.1.12 The p-Value Approach to Decisions


in Statistical Inference . . . . . . . . . . . . . . . . . . 31
1.1.13 Making a Decision in Hypothesis Testing
with p-Value . . . . . . . . . . . . . . . . . . . . . . . 32
1.1.13.1 Applications to the Decisions Made
in Previous Examples . . . . . . . . . . . . . 32
1.2 Regression Analysis . . . . . . . . . . . . . . . . . . . . . . . 33
1.2.1 Simple Linear Regression . . . . . . . . . . . . . . . . 35
1.2.2 Checking Model Adequacy—Diagnosis
by Residual Plots . . . . . . . . . . . . . . . . . . . . . 40
1.2.3 Checking Model Adequacy—Lack of Fit Test . . . . . 45
1.2.4 Multiple Linear Regression . . . . . . . . . . . . . . . 48
1.2.5 Polynomial Regression . . . . . . . . . . . . . . . . . . 52
1.2.5.1 Fitting a Parabola . . . . . . . . . . . . . . . 53
1.2.6 Fitting Higher Order Polynomials . . . . . . . . . . . 57
1.2.7 Orthogonal Polynomials . . . . . . . . . . . . . . . . . 58
1.2.7.1 Fitting Orthogonal Polynomials . . . . . . . 59
1.2.7.2 SAS Analysis of the Data
of Example 1.4 . . . . . . . . . . . . . . . . . 62
1.2.8 Use of Dummy Variables in Regression Models . . . . 64
1.3 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

2 Experiments, the Completely Randomized


Design—Classical and Regression Approaches 75
2.1 Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.2 Experiments to Compare Treatments . . . . . . . . . . . . . 77
2.2.1 An Illustrative Example . . . . . . . . . . . . . . . . . 78
2.2.1.1 Idea I . . . . . . . . . . . . . . . . . . . . . . 78
2.2.1.2 Idea II . . . . . . . . . . . . . . . . . . . . . 79
2.2.1.3 Idea III . . . . . . . . . . . . . . . . . . . . . 79
2.3 Some Basic Ideas . . . . . . . . . . . . . . . . . . . . . . . . 82
2.4 Requirements of a Good Experiment . . . . . . . . . . . . . 83
2.5 One-Way Experimental Layout or the Completely
Randomized Design: Design and Analysis . . . . . . . . . . . 84
2.6 Analysis of Experimental Data
(Fixed Effects Model) . . . . . . . . . . . . . . . . . . . . . . 86
2.7 Expected Values for the Sums of Squares . . . . . . . . . . . 88
2.7.1 Estimating the Parameters of the Model . . . . . . . . 92
2.8 Analysis of Variance Table . . . . . . . . . . . . . . . . . . . 93
2.9 Follow-Up Analysis to Check for Validity of the Model . . . 96
2.9.1 Least Significant Difference Method . . . . . . . . . . 98
2.9.2 Duncan’s Multiple Range Test . . . . . . . . . . . . . 98
2.9.3 Tukey’s Studentized Range Test . . . . . . . . . . . . 99
Contents ix

2.9.4 SAS Program for Analysis of Responses


of the Experiment in Example 2.2 . . . . . . . . . . . 102
2.10 Checking Model Assumptions . . . . . . . . . . . . . . . . . 105
2.10.1 Analysis of Residuals . . . . . . . . . . . . . . . . . . . 106
2.10.2 Checking for Normality . . . . . . . . . . . . . . . . . 110
2.10.2.1 Histogram . . . . . . . . . . . . . . . . . . . 110
2.10.2.2 Normal Probability Plot . . . . . . . . . . . . 110
2.10.3 Nonhomogeneity of Variances . . . . . . . . . . . . . . 113
2.10.4 Modified Levene’s Test for Homogeneity
of Variances . . . . . . . . . . . . . . . . . . . . . . . . 114
2.10.4.1 Application of Data from Example 2.2
on Varieties of Nutrient Extractions
of Fruit . . . . . . . . . . . . . . . . . . . . . 115
2.10.5 Dealing with Heteroscedasticity . . . . . . . . . . . . . 116
2.10.5.1 Variance-Stabilizing Transformations . . . . 116
2.10.5.2 Use of Welch F -Test to Deal with
Responses with Unequal Variances . . . . . . 117
2.10.6 One-Way ANOVA with Unequal Observations
per Group . . . . . . . . . . . . . . . . . . . . . . . . . 117
2.11 Applications of Orthogonal Contrasts . . . . . . . . . . . . . 121
2.11.1 Analytical Study of Components of Treatment
Effect Using Orthogonal Contrasts . . . . . . . . . . . 121
2.11.1.1 SAS Program for Analysis of Data of
Example 2.3 . . . . . . . . . . . . . . . . . . 125
2.11.2 Fitting Response Curves in One-Way ANOVA
(CRD) Using Orthogonal Polynomial Contrasts . . . . 127
2.11.2.1 Fitting of Polynomials by the Least
Squares Regression Method . . . . . . . . . . 129
2.11.2.2 Fitting of Response Curves to Data
Using Orthogonal Contrasts . . . . . . . . . 133
2.12 Regression Models for the CRD (One-Way
Layout) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2.12.1 Regression Model for CRD (Effects Coding
Method) . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2.12.2 Regression Model for the Responses of
Example 2.2 . . . . . . . . . . . . . . . . . . . . . . . . 138
2.12.2.1 Analysis of Variance to Test the
Significance of the Fitted Model . . . . . . . 139
2.12.3 SAS Program for Analysis of Data of
Example 2.2 Using Regression Model (Effects
Coding Method) . . . . . . . . . . . . . . . . . . . . . 141
2.12.4 Regression Model for Cell Reference Method . . . . . 143
2.12.5 SAS Program for Regression Model for
Example 2.2 (Reference Cell Coding Method) . . . . . 146
x Contents

2.13 Regression Models for ANOVA for CRD Using


Orthogonal Contrasts . . . . . . . . . . . . . . . . . . . . . . 148
2.14 Regression Model for Example 2.2 Using Orthogonal
Contrasts Coding (Helmert Coding) . . . . . . . . . . . . . . 149
2.14.1 SAS Analysis of Data of Example 2.2 Using
Orthogonal Contrasts (Helmert Coding) . . . . . . . . 154
2.15 Regression Model for Example 2.3 Using Orthogonal
Contrasts Coding . . . . . . . . . . . . . . . . . . . . . . . . 156
2.15.1 SAS Analysis of Data of Example 2.3 Using
Orthogonal Contrasts (Helmert Coding) . . . . . . . . 160
2.16 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

3 Two-Factor Factorial Experiments and Repeated


Measures Designs 169
3.1 Full Two-Factor Factorial Experiment (Two-Way
ANOVA with Replication)—Fixed Effects Model . . . . . . . 169
3.1.1 SAS Analysis of Data of Example 3.1 . . . . . . . . . 175
3.1.2 Simple Effects of an Independent Variable . . . . . . . 178
3.1.3 Absence of Interaction in a Factorial Experiment . . . 179
3.1.4 Presence of Interaction in a Factorial Experiment . . . 181
3.1.5 Interpreting Interaction by Testing Simple Effects . . 184
3.1.5.1 Choosing the Simple Effects to Test . . . . . 184
3.1.5.2 Testing the Simple Effects . . . . . . . . . . 185
3.1.6 Examination of Interaction for Example 3.1
through Analysis of Simple Effects . . . . . . . . . . . 187
3.1.7 Testing for Homogeneity of Variances . . . . . . . . . 189
3.2 Two-Factor Factorial Effects (Random Effects Model) . . . . 190
3.2.1 SAS Analysis of Data of Example 3.2 . . . . . . . . . 194
3.3 Two-Factor Factorial Experiment (Mixed Effects Model) . . 196
3.3.1 SAS Analysis of Data of Example 3.2a
(Mixed Effects Model) . . . . . . . . . . . . . . . . . . 198
3.4 Repeated Measures Design (One-Way RMD) . . . . . . . . . 199
3.4.1 The Model . . . . . . . . . . . . . . . . . . . . . . . . 199
3.4.2 Mixed Randomized Complete Block Design . . . . . . 201
3.4.3 Mixed RCBD versus One-Way RMD . . . . . . . . . . 202
3.5 Mixed RCBD (Involving Two Factors) . . . . . . . . . . . . 207
3.5.1 SAS Analysis of Responses of Example 3.4 . . . . . . 211
3.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
Contents xi

4 Regression Approaches to the Analysis of Responses


of Two-Factor Experiments and Repeated
Measures Designs 219
4.1 Regression Models for the Two-Way ANOVA
(Full Two-Factor Factorial Experiment) . . . . . . . . . . . . 219
4.1.1 Regression Model for Two-Factor Factorial
Design with Effects Coding for Dummy
Variables . . . . . . . . . . . . . . . . . . . . . . . . . 220
4.1.2 Estimation of Parameters for the Regression
Model for the General Two-Factor Factorial
Design with Effect Coding for Dummy
Variables . . . . . . . . . . . . . . . . . . . . . . . . . 220
4.1.3 Application of the Regression Model for the
Two-Factor Factorial Design, with Effect
Coding for Dummy Variables to Example 3.1 . . . . . 221
4.1.4 Relations for Estimation of Parameters for the
Regression Model with Effect Coding for Dummy
Variables for Responses of Example 3.1 . . . . . . . . 221
4.1.5 Estimation of Parameters for the Regression
Model . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4.1.6 SAS Program for Example 3.1 (Effects Coding
for Dummy Variables) . . . . . . . . . . . . . . . . . . 226
4.1.7 Splitting Regression Sum of Squares according
to Factorial Effect and Performing ANOVA . . . . . . 229
4.2 Regression Model for Two-Factor Factorial
Experiment Using Reference Cell Coding for
Dummy Variables . . . . . . . . . . . . . . . . . . . . . . . . 231
4.2.1 Estimation of Parameters for the Regression
Model with Reference Cell Coding for Dummy
Variables (Example 3.1) . . . . . . . . . . . . . . . . . 232
4.2.1.1 SAS Program . . . . . . . . . . . . . . . . . . 236
4.3 Use of SAS for the Analysis of Responses of
Mixed Models . . . . . . . . . . . . . . . . . . . . . . . . . . 239
4.3.1 Implementation of the General Linear Mixed
Model in PROC MIXED in SAS . . . . . . . . . . . . 241
4.4 Use of PROC Mixed in the Analysis of Responses of
RMD in SAS . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
4.4.1 Choosing the Covariance Structure to Use . . . . . . . 244
4.4.2 Analysis of Responses of the Experiment on
Guinea-Pig Ventricular Mycotes (Example 3.3)
with PROC MIXED in SAS . . . . . . . . . . . . . . . 245
4.4.3 Residual Analysis for the Guinea-Pig Mycotes
Experiment (Example 3.3) . . . . . . . . . . . . . . . . 248
xii Contents

4.4.4 Analysis of Responses of Example 3.4 Using


PROC MIXED in SAS . . . . . . . . . . . . . . . . . . 251
4.4.4.1 Choosing Covariance Structure for
Example 3.4 . . . . . . . . . . . . . . . . . . 252
4.4.4.2 Specifying the Model and Analyzing
Responses of Example 3.4 . . . . . . . . . . . 253
4.4.4.3 Discussion of SAS Output for Example 3.4 . 256
4.5 Residual Analysis for the Vitamin Experiment
(Example 3.4) . . . . . . . . . . . . . . . . . . . . . . . . . . 256
4.6 Regression Model of the Two-Factor Factorial Design
Using Orthogonal Contrasts (Example 3.1) . . . . . . . . . . 259
4.7 Use of PROC Mixed in SAS to Estimate Variance
Components When Levels of Factors Are Random . . . . . . 268
4.7.1 SAS Program for Analysis of Data of
Example 4.1 . . . . . . . . . . . . . . . . . . . . . . . . 270
4.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275

5 Designs with Randomization


Restriction—Randomized Complete Block,
Latin Squares, and Related Designs 277
5.1 Randomized Complete Block Design . . . . . . . . . . . . . . 277
5.2 Testing for Differences in Block Means . . . . . . . . . . . . 283
5.2.1 Relative Efficiency of the RCBD to CRD . . . . . . . 285
5.2.1.1 Application to Example 5.1 . . . . . . . . . . 285
5.2.1.2 Residuals and Parameters Estimates
in the RCBD . . . . . . . . . . . . . . . . . . 286
5.2.2 SAS Analysis of Responses of Example 5.1 . . . . . . 288
5.2.3 SAS Analysis of Data of Example 5.2 . . . . . . . . . 292
5.2.4 SAS Analysis of Responses of Example 5.3 . . . . . . 295
5.3 Estimation of a Missing Value in the RCBD . . . . . . . . . 296
5.4 Latin Squares . . . . . . . . . . . . . . . . . . . . . . . . . . 298
5.4.1 Use of Latin Squares for Factorial Experiments . . . . 302
5.5 Some Expected Mean Squares . . . . . . . . . . . . . . . . . 302
5.5.1 Estimation of Treatment Effects and Confidence
Intervals for Differences between Two
Treatments . . . . . . . . . . . . . . . . . . . . . . . . 303
5.6 Replications in Latin Square Design . . . . . . . . . . . . . . 307
5.6.1 Treatment of Residuals in Latin
Squares . . . . . . . . . . . . . . . . . . . . . . . . . . 321
5.6.2 Estimation of Missing Value in Unreplicated
Latin Square Designs . . . . . . . . . . . . . . . . . . . 321
5.7 Graeco-Latin Square Design . . . . . . . . . . . . . . . . . . 324
5.7.1 SAS Analysis of Data of Example 5.9 . . . . . . . . . 329
Contents xiii

5.8 Estimation of Parameters of the Model


and Extraction of Residuals . . . . . . . . . . . . . . . . . . 331
5.8.1 Application to Data of Example 5.9 . . . . . . . . . . 331
5.9 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340

6 Regression Models for Randomized Complete Block,


Latin Squares, and Graeco-Latin Square Designs 341
6.1 Regression Models for the Randomized Complete
Block Design . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
6.1.1 Dummy Variables Regression Model for RCBD
with the Effects Coding Method . . . . . . . . . . . . 341
6.1.2 Estimation of Parameters of the Regression
Model for RCBD (Effects Coding Method) . . . . . . 342
6.1.3 Application of the RCBD Regression Model 6.1
to Example 5.1 (Effects Coding Method) . . . . . . . 344
6.1.4 Estimation of Model Parameters for Example 5.1 . . . 344
6.2 SAS Analysis of Responses of Example 5.1 Using
Dummy Regression (Effects Coding Method) . . . . . . . . . 346
6.2.1 SAS Program for Regression Analysis of Data
of Example 5.1 (Effects Coding Method for
Dummy Variables) . . . . . . . . . . . . . . . . . . . . 347
6.3 Dummy Variables Regression Model for the RCBD
(Reference Cell Method) . . . . . . . . . . . . . . . . . . . . 348
6.3.1 Regression Model for RCBD of Example 5.1
(Reference Cell Coding) . . . . . . . . . . . . . . . . . 350
6.3.2 Estimation of Parameters of the Model Fitted
to Responses of Example 5.1 (Reference
Cell Method) . . . . . . . . . . . . . . . . . . . . . . . 350
6.3.3 SAS Program for Regression Analysis of
Responses of Example 5.1 (Reference Cell
Coding for Dummy Variables) . . . . . . . . . . . . . . 353
6.4 Application of Dummy Variables Regression Model to
Example 5.2 (Effects Coding Method) . . . . . . . . . . . . . 355
6.4.1 Estimation of Parameters for the Regression
Model for Responses of Example 5.2
(Effects Coding Method) . . . . . . . . . . . . . . . . 355
6.4.2 SAS Program for Example 5.2 for the Regression
Model with Effects Coding for Dummy
Variables . . . . . . . . . . . . . . . . . . . . . . . . . 358
6.5 Regression Model for RCBD of Example 5.2
(Reference Cell Coding) . . . . . . . . . . . . . . . . . . . . . 360
6.5.1 SAS Analysis of Data of Example 5.2 Using
Regression Model with Reference Cell Coding
for Dummy Variables . . . . . . . . . . . . . . . . . . 362
xiv Contents

6.6 Regression Models for the Latin Square Design . . . . . . . . 366


6.6.1 Regression Model for the Latin Square Design
Using Effects Coding Method to Define
Dummy Variables . . . . . . . . . . . . . . . . . . . . 366
6.6.1.1 Relations for Estimating Model
Parameters (Effects Coding Method) . . . . 367
6.6.1.2 Estimation of Parameters of Regression
Model for Example 5.5 (Effects
Coding Method) . . . . . . . . . . . . . . . . 368
6.6.2 Extracting Residuals and Testing for Significance
of the Model . . . . . . . . . . . . . . . . . . . . . . . 368
6.6.3 SAS Program for the Analysis of Responses of
Example 5.5 (Effects Coding Method) . . . . . . . . . 368
6.7 Dummy Variables Regression Analysis for Example 5.5
(Reference Cell Method) . . . . . . . . . . . . . . . . . . . . 372
6.7.1 Estimation of Model Parameters (Reference Cell
Method) . . . . . . . . . . . . . . . . . . . . . . . . . . 373
6.7.2 SAS Program for Fitting Model 6.16 (Reference
Cell Method) for Experiment in Example 5.5 . . . . . 376
6.8 Regression Model for Example 5.7 Using Effects
Coding Method to Define Dummy Variables . . . . . . . . . 378
6.8.1 Estimation of Dummy Variables Regression
Model Parameters for Example 5.7 (Effects
Coding Method) . . . . . . . . . . . . . . . . . . . . . 379
6.8.2 SAS Program for Regression Analysis of Data of
Example 5.7 (Effects Coding Method) . . . . . . . . . 384
6.9 Dummy Variables Regression Model for Example 5.7
(Reference Cell Coding Method) . . . . . . . . . . . . . . . . 387
6.9.1 Estimation of Parameters of Regression Model
for Example 5.7 (Reference Cell Coding) . . . . . . . . 389
6.9.2 SAS Program for Analysis of Responses of
Example 5.7 (Reference Cell Coding Method) . . . . . 393
6.10 Regression Model for the Graeco-Latin Square Design . . . . 397
6.10.1 Regression Model for Graeco-Latin Squares
Using Effects Coding Method . . . . . . . . . . . . . . 397
6.10.2 Estimation of Regression Parameters for
Example 5.9 for the Effects Coding Model . . . . . . . 398
6.10.3 SAS Program for Responses of Example 5.9
Using Effects Coding Model . . . . . . . . . . . . . . . 401
6.11 Regression Model for Graeco-Latin Squares
(Reference Cell Method) . . . . . . . . . . . . . . . . . . . . 403
6.11.1 Estimation of Model Parameters for Reference
Cell Method . . . . . . . . . . . . . . . . . . . . . . . 404
6.11.2 Estimation of the Parameters of the Model
Applied to Example 5.9 . . . . . . . . . . . . . . . . . 405
Contents xv

6.11.3 SAS Program for Dummy Regression Analysis


of Responses of Example 5.9 Using Reference
Cell Method . . . . . . . . . . . . . . . . . . . . . . . 407
6.12 Regression Model for the RCBD Using Orthogonal
Contrasts (Example 5.1) . . . . . . . . . . . . . . . . . . . . 410
6.13 Regression Model for RCBD Using Orthogonal
Contrasts (Example 5.2) . . . . . . . . . . . . . . . . . . . . 414
6.14 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419

7 Factorial Designs—The 2k and 3k Factorial Designs 421


7.1 Advantages of Factorial Designs . . . . . . . . . . . . . . . . 422
7.1.1 The Concept of Interaction of Factors . . . . . . . . . 422
7.2 2k and 3k Factorial Designs . . . . . . . . . . . . . . . . . . . 425
7.2.1 22 Factorial Designs . . . . . . . . . . . . . . . . . . . 426
7.2.1.1 Standard Order for Treatment
Combinations in 2k Designs . . . . . . . . . . 426
7.3 Contrasts for Factorial Effects in 22 and 23
Factorial Designs . . . . . . . . . . . . . . . . . . . . . . . . . 430
7.3.1 The Models . . . . . . . . . . . . . . . . . . . . . . . . 433
7.4 General 2k Factorial Design . . . . . . . . . . . . . . . . . . . 443
7.4.1 Factorial Contrasts in 2k Factorial Designs . . . . . . 443
7.4.2 Link between Factorial Effects and Group
Theory . . . . . . . . . . . . . . . . . . . . . . . . . . 445
7.5 Factorial Effects in 2k Factorial Designs . . . . . . . . . . . . 445
7.5.1 2k Factorial Designs—A Single Replicate . . . . . . . 445
7.5.2 Obtaining Estimates of Responses . . . . . . . . . . . 449
7.5.3 Dealing with Significant Higher Order
Interactions in the Single and Half Replicates
of a 2k Factorial Design . . . . . . . . . . . . . . . . . 454
7.5.4 Collapsing a Single Replicate of 2k Factorial
Design into a Full 2k−1 Factorial Design . . . . . . . . 455
k
7.6 3 Factorial Designs . . . . . . . . . . . . . . . . . . . . . . . 456
7.6.1 33 Factorial Design . . . . . . . . . . . . . . . . . . . . 464
7.7 Extension to k Factors at Three Levels . . . . . . . . . . . . 472
7.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 478

8 Regression Models for 2k and 3k Factorial Designs 481


8.1 Regression Models for the 22 Factorial Design
Using Effects Coding Method (Example 7.1) . . . . . . . . . 481
8.1.1 Estimates of the Model Parameters . . . . . . . . . . . 482
8.1.2 Testing for Significance of the Fitted
Model 8.2 . . . . . . . . . . . . . . . . . . . . . . . . . 483
xvi Contents

8.1.3 SAS Analysis of Data of Example 7.1 under


the Model 8.1 . . . . . . . . . . . . . . . . . . . . . . . 484
8.2 Regression Model for Example 7.1 Using Reference
Cell to Define Dummy Variables . . . . . . . . . . . . . . . . 486
8.2.1 Estimates of the Model Parameters . . . . . . . . . . . 486
8.2.2 Testing for Significance of the Fitted Model . . . . . . 487
8.2.3 SAS Analysis of Data of Example 7.1
under the Model 8.1 . . . . . . . . . . . . . . . . . . . 488
8.3 General Regression Models for the Three-Way
Factorial Design . . . . . . . . . . . . . . . . . . . . . . . . . 490
8.3.1 Modeling the General Three-Way Factorial
Design Using Effects Coding Method to Define
Dummy Variables . . . . . . . . . . . . . . . . . . . . 490
8.3.2 Estimation of Parameters for the General
Three-Way Factorial Experiment with Effects
Code Definition for Dummy Variables . . . . . . . . . 491
8.3.3 Fitting the Regression Model 8.6 (Effects
Coding Method) for the Experimental Design
of Example 7.2 . . . . . . . . . . . . . . . . . . . . . . 492
8.3.4 Testing for Significance of the Fitted Model . . . . . . 494
8.3.5 SAS Analysis of Responses of a 23 Factorial
Design (Example 7.2) . . . . . . . . . . . . . . . . . . 495
8.4 The General Regression Model for a Three-Way
ANOVA (Reference Cell Coding Method) . . . . . . . . . . . 497
8.4.1 Regression Model for 23 Factorial Design and
Relations for Estimating Parameters (Reference
Cell Method) . . . . . . . . . . . . . . . . . . . . . . . 498
8.4.1.1 Application to Example 7.2 . . . . . . . . . . 499
8.4.2 Testing for Significance of the Fitted Model 8.6
for Example 7.2 . . . . . . . . . . . . . . . . . . . . . . 500
8.4.3 SAS Program for Analysis of Data of
Example 7.2 (Reference Cell Method) . . . . . . . . . 501
8.5 Regression Models for the Four-Factor Factorial Design
Using Effects Coding Method . . . . . . . . . . . . . . . . . . 503
8.5.1 Regression Model for the 24 Factorial Design
Using Effects Coding Method for Defining
Dummy Variables . . . . . . . . . . . . . . . . . . . . 505
8.5.2 Application of the Model to Example 7.3
(Effects Coding Method) . . . . . . . . . . . . . . . . 505
8.5.3 SAS Program for Analysis of Data of
Example 7.3 . . . . . . . . . . . . . . . . . . . . . . . . 509
8.6 Regression Analysis for a Four-Factor Factorial
Experiment Using Reference Cell Coding to Define
Dummy Variables . . . . . . . . . . . . . . . . . . . . . . . . 510
Contents xvii

8.6.1 Application of Regression Model (Using


Reference Cell Coding for Dummy Variables) to
Example 7.3 . . . . . . . . . . . . . . . . . . . . . . . . 512
8.6.1.1 Estimation of Parameters of the
Model . . . . . . . . . . . . . . . . . . . . . . 512
8.6.2 SAS Program for Analysis of Data of
Example 7.3 . . . . . . . . . . . . . . . . . . . . . . . . 515
8.7 Dummy Variables Regression Models for Experiment
in 3k Factorial Designs . . . . . . . . . . . . . . . . . . . . . 516
8.7.1 Dummy Variables Regression Model (Effects
Coding Method) for a 32 Factorial Design . . . . . . . 517
8.7.2 Relations for Estimating Parameters of the Model . . 517
8.7.3 Fitting the Model to Example 7.4 . . . . . . . . . . . 518
8.7.4 SAS Program and Analysis of Data for Example 7.4
(Effects Coding Model) . . . . . . . . . . . . . . . . . 520
8.7.5 Fitting the Model to Example 7.4 by Reference
Cell Method . . . . . . . . . . . . . . . . . . . . . . . 522
8.7.6 SAS Program and Analysis of Data for Example 7.4
(Reference Cell Model) . . . . . . . . . . . . . . . . . . 525
8.8 Fitting Regression Model for Example 7.5
(Effects Coding Method) . . . . . . . . . . . . . . . . . . . . 527
8.8.1 SAS Analysis of Data of Example 7.5 Using
Effects Coding Method . . . . . . . . . . . . . . . . . 531
8.9 Fitting Regression Model 8.22 (Reference Cell Coding
Method) to Responses of Experiment of Example 7.5 . . . . 534
8.9.1 SAS Analysis of Data of Example 7.5 . . . . . . . . . 538
8.10 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540

9 Fractional Replication and Confounding in 2k


and 3k Factorial Designs 543
9.1 Construction of the 2k−1 Fractional Factorial Design . . . . 543
9.1.1 Some Requirements of Good 2k−1 Fractional
Factorial Designs . . . . . . . . . . . . . . . . . . . . . 546
9.2 Contrasts of the 2k−1 Fractional Factorial Design . . . . . . 546
9.2.1 Estimation of the Effects of a 2k−1 Fractional
Design Using a Full 2k−1 Factorial Design . . . . . . . 547
9.3 General 2k−p Fractional Factorial Design . . . . . . . . . . . 551
9.4 Resolution of a Fractional Factorial Design . . . . . . . . . . 554
9.4.1 Resolution III Designs . . . . . . . . . . . . . . . . . . 555
9.4.2 Resolution IV Designs . . . . . . . . . . . . . . . . . . 557
9.4.3 Resolution V Designs . . . . . . . . . . . . . . . . . . 558
9.5 Fractional Replication in 3k Factorial Designs . . . . . . . . . 558
9.5.1 One-Third Fraction of the 34 Factorial Design . . . . . 563
9.6 General 3k−p Factorial Design . . . . . . . . . . . . . . . . . 564
xviii Contents

9.7 Confounding in 2k and 3k Factorial Designs . . . . . . . . . . 565


9.8 Confounding in 2k Factorial Designs . . . . . . . . . . . . . . 566
9.8.1 Blocking a Single Replicate of the 2k Factorial
Design . . . . . . . . . . . . . . . . . . . . . . . . . . . 572
9.8.2 Blocking Fractionals of the 2k Factorial Design . . . . 574
9.8.3 2k Factorial Design in 2p Blocks . . . . . . . . . . . . 575
9.9 Confounding in 3k Factorial Designs . . . . . . . . . . . . . . 578
9.9.1 Assignment of 3k Factorial Design in 3p
Blocks (p = 1) . . . . . . . . . . . . . . . . . . . . . . . 578
9.9.2 Assignment of the 3k Factorial Design into 3p
Blocks (p = 2) . . . . . . . . . . . . . . . . . . . . . . . 582
9.9.3 Assignment of the 3k Factorial Design into 3p
Blocks (p > 3) . . . . . . . . . . . . . . . . . . . . . . . 584
9.10 Partial Confounding in Factorial Designs . . . . . . . . . . . 585
9.10.1 Partial Confounding in 2k Factorial Design . . . . . . 585
9.10.2 Partial Confounding in 3k Factorial Design . . . . . . 587
9.10.3 Other Confounding Systems . . . . . . . . . . . . . . . 589
9.11 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593

10 Balanced Incomplete Blocks, Lattices,


and Nested Designs 595
10.1 Balanced Incomplete Block Design . . . . . . . . . . . . . . . 595
10.1.1 Balanced Incomplete Block Design—
The Model and Its Analysis . . . . . . . . . . . . . . . 596
10.1.2 Estimation of Treatment Effect and Calculation
of Treatment Sum of Squares for Balanced
Incomplete Block Design . . . . . . . . . . . . . . . . . 598
10.1.3 SAS Analysis of Responses of Experiment in
Example 10.1 . . . . . . . . . . . . . . . . . . . . . . . 600
10.1.4 Precision of the Estimates and Confidence
Intervals . . . . . . . . . . . . . . . . . . . . . . . . . . 602
10.1.4.1 An Aside . . . . . . . . . . . . . . . . . . . . 602
10.1.4.2 End of Aside . . . . . . . . . . . . . . . . . . 603
10.2 Comparison of Two Treatments . . . . . . . . . . . . . . . . 603
10.3 Orthogonal Contrasts in Balanced Incomplete
Block Designs . . . . . . . . . . . . . . . . . . . . . . . . . . 605
10.4 Lattice Designs . . . . . . . . . . . . . . . . . . . . . . . . . . 607
10.4.1 Balanced Lattice Designs . . . . . . . . . . . . . . . . 607
10.4.2 Adjustment of Treatment Totals and Further
Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . 612
10.5 Partially Balanced Lattices . . . . . . . . . . . . . . . . . . . 615
10.5.1 Analysis of Partially Balanced Lattices . . . . . . . . . 616
10.6 Nested or Hierarchical Designs . . . . . . . . . . . . . . . . . 621
Contents xix

10.6.1 The Model, Assumptions, and Statistical


Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . 622
10.6.2 Unbalanced Two-Stage Nested Design . . . . . . . . . 627
10.6.3 Higher Order Nested Designs . . . . . . . . . . . . . . 631
10.7 Designs with Nested and Crossed Factors . . . . . . . . . . . 632
10.7.1 SAS Program for Example 10.6 . . . . . . . . . . . . . 635
10.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 636
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 640

11 Methods for Fitting Response Surfaces and


Analysis of Covariance 643
11.1 Method of Steepest Ascent . . . . . . . . . . . . . . . . . . . 644
11.2 Designs for Fitting Response Surfaces . . . . . . . . . . . . . 646
11.2.1 Designs for Fitting First-Order Models . . . . . . . . . 646
11.3 Fitting a First-Order Model to the Response Surface . . . . 647
11.3.1 Designs for Fitting Second-Order Surfaces . . . . . . . 656
11.3.1.1 Use of 3k Factorial Designs . . . . . . . . . . 657
11.3.1.2 Central Composite Designs . . . . . . . . . . 657
11.4 Fitting and Analysis of the Second-Order Model . . . . . . . 660
11.5 Analysis of Covariance . . . . . . . . . . . . . . . . . . . . . 665
11.6 One-Way Analysis of Covariance . . . . . . . . . . . . . . . . 666
11.6.1 Using SAS to Carry Out Covariance Analysis . . . . . 673
11.7 Other Covariance Models . . . . . . . . . . . . . . . . . . . . 674
11.7.1 Tests about Significance of Regression . . . . . . . . . 681
11.7.2 Testing for Homogeneity of Slopes across
Levels of Factors and Cells . . . . . . . . . . . . . . . 684
11.7.3 Using Regression for ANCOVA
(Application to Two-Way ANCOVA) . . . . . . . . . . 686
11.7.4 Multiple Covariates in ANCOVA . . . . . . . . . . . . 689
11.7.5 Dealing with the Failure of the Homogeneity of
Slopes Assumption in ANCOVA . . . . . . . . . . . . 692
11.7.5.1 Blocking the Concomitant Variable . . . . . 692
11.7.5.2 The Johnson–Neyman Method . . . . . . . . 693
11.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 697

12 Multivariate Analysis of Variance (MANOVA) 699


12.1 Link between ANOVA and MANOVA . . . . . . . . . . . . . 699
12.2 One-Way MANOVA . . . . . . . . . . . . . . . . . . . . . . . 700
12.2.1 Tests for Equality of Vectors of Treatment
Effects . . . . . . . . . . . . . . . . . . . . . . . . . . . 702
12.2.2 Alternative Testing Methods . . . . . . . . . . . . . . 705
12.2.3 SAS Analysis of Responses of Example 12.1 . . . . . . 713
12.3 Multivariate Analysis of Variance—The Randomized
Complete Block Experiment . . . . . . . . . . . . . . . . . . 717
xx Contents

12.3.1 SAS Solution for Example 12.2 . . . . . . . . . . . . . 729


12.4 Multivariate Two-Way Experimental Layout with Interaction 734
12.4.1 SAS Program for Example 12.3 . . . . . . . . . . . . . 745
12.5 Two-Stage Multivariate Nested or Hierarchical
Design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 751
12.5.1 SAS Program for Example 12.4 . . . . . . . . . . . . . 757
12.6 Multivariate Latin Square Design . . . . . . . . . . . . . . . 762
12.6.1 SAS Program . . . . . . . . . . . . . . . . . . . . . . . 767
12.7 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 771
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 775

Appendix: Statistical Tables 777

Index 817
Preface

This book is intended for students who have had a mix of 100 and 200 level
classes of statistics, covering exploratory data analysis, basic descriptive data
analysis, basic probability, statistical distributions, confidence intervals, and
hypothesis testing. Knowledge of algebra of matrices, determinants, solutions
of simultaneous linear equations, and quadratic equations will be helpful. This
book contains the required computations. Graduate students in biology, psy-
chology, computer science, the physical sciences (physics and chemistry), and
the different fields of engineering have felt comfortable in my classes of STAT
440/540, which were taught from material in this book.
Books written on design and analysis of experiments have hitherto mostly
emphasized the classical approaches to the modeling and analysis of exper-
imental data. Design and Analysis of Experiments: Classical and Regression
Approaches with SAS not only includes classical experimental design theory
but also emphasizes regression approaches while teaching data analysis using
the invaluable tool, SAS, which is the widely used software in statistical data
analysis.
With the growth of statistical computing and availability of cutting-edge
software, the time has come for a new approach for the design and analysis of
experiments. Consequently, in addition to all the classical manual analyses in
this book, explicit SAS programs have been written to analyze the responses
of each experiment, in addition to presenting outputs that result from
the executions of the programs. This book presents explicit SAS codes for the
analyses of responses in the examples of designs presented in the text. The
SAS codes cover classical analyses and analyses based on regression models.
The example SAS codes presented in this book are aimed at providing help for
students and any user in writing their own SAS programs. The purpose of pre-
senting these codes is to help students/users become versatile in their ability
to analyze data, acquire the skills to do it manually or by using SAS, and writ-
ing their own programs and interpreting the outputs. Exercises provided at
the end of each chapter enable students/users to have hands-on SAS program-
ming experience in analyzing data for both classical and regression approaches.
This book, in addition to teaching design and analysis of experiments, is a
useful tool for learning statistical computing with SAS, which will prepare the
student/user for future work environments in which SAS is the software
used routinely for statistical data analysis. Chapters dealing with classical
designs are followed by the regression equivalents of the chapter. For instance,

xxi
xxii Preface

Chapter 4 treats the regression approaches to classical designs treated in


Chapter 3.
SAS analyses in this text mostly use PROC GLM, PROC ANOVA, PROC
MIXED, and PROC REG. For ANOVA using SAS, this text uses PROC
GLM for the more general and complicated analyses. PROC GLM is used to
carry out the bulk of the analyses, but occasionally uses PROC ANOVA for
the straightforward analyses of variance for balanced data. PROC MIXED
is employed mostly for the mixed randomized complete block designs and
repeated measures designs.
This book treats most of the different designs covered in a typical exper-
imental design course. It provides full coverage of the material needed for
undergraduate classes on experimental design and analysis and more. In some
institutions, the course that uses this text could be considered as Experimen-
tal Design and Regression, which could be run in two semesters for in-depth
treatment. This book introduces general regression in the first chapter. In the
other chapters, the treatment of regression emphasizes aspects of regression
concerned with modeling the designed experiments. The text covers enough
material for the first semester of a masters-level course in experimental design.
For institutions where experimental design is taught to graduate students of
disciplines other than statistics, this book contains material that would cover
more than a first course.
In using this text to teach STAT 440/540, the design and analysis of exper-
iments, I usually invite students to read Chapter 1 to review relevant basic
statistical concepts. We spend reasonable time on Chapter 2, which treats the
requirements for good experimentation, the completely randomized design
(CRD), use of orthogonal contrast to test hypotheses, and model adequacy
check. The model adequacy check is applicable to all designs treated in this
book; consequently, it is thoroughly treated, dealing with the theory to be
used for diagnostics in other designs treated later in the text. In Chapter 3, we
quickly work our way through two-factor factorial experiments learning about
fixed, random, mixed effects models, repeated measures, and their analyses.
We treat all these models and others from the general linear model and regres-
sion approaches, providing examples of manual analyses complemented by the
corresponding SAS analyses. Designs with randomization restrictions (ran-
domized complete block, Latin and Graeco-Latin square designs) are briefly
treated before we delve into the special cases of the 2k and 3k factorial designs
including fractional replication and confounding. We introduce response sur-
faces, and thereafter, treat balanced incomplete block or hierarchical designs.
Some of the designs in the text never get included in a typical undergraduate
course. Keeping in mind a class that is predominantly made up of graduate
students, the material is treated in more detail, and content is varied to cover
things like the MANOVA equivalents of the univariate designs and ANCOVA.
Material not thoroughly treated in class is fortified by assignments, exercises,
projects, and directed reading, which treat either the design or the analytical
aspects of the designs. If material in the text is followed in detail, it should
Preface xxiii

require two one-semester courses to treat each experimental design in this text
thoroughly.
I have provided a solutions manual for all the exercises in this book. This
manual can be purchased with the book to aid in understanding the material.
Exercises included in the book provide a mix of questions requiring manual
and SAS analyses. The problems cover classical and regression approaches.
Doing the exercises should help to induce a well-rounded understanding of
the theory.
Acknowledgments

The accomplishment of work of this magnitude uses the help of many. I am


therefore grateful to everybody who contributed to the successful completion
of this book.
I wish to thank my wife Constance Onyiah for support throughout the pro-
cess of writing this book. I am also grateful to all my children (Comfort
C. Onyiah, MD, Joseph C. Onyiah, MD, Leonard C. Onyiah, Jr, and
Constance I. Onyiah) whose support and encouragement formed a large part
of the inspiration needed to complete it. I am particularly very indebted to
Comfort C. Onyiah, MD, for taking time to read through the material and
making helpful suggestions and comments. I also thank Leonard C. Onyiah,
Jr, for designing the cover of this book.
I am very indebted to Ene I. Ette, PhD, FCP, FCCP, formerly of FDA
and Vertex Corp., now CEO Anoixis Corp, for friendship, encouragement,
support, and inspiration. I thank David G. Kleinbaum, PhD, Department of
Epidemiology, RSPH, Emory University for helpful material. I thank my vari-
ous students of STAT 440 at St. Cloud State University, St. Cloud, Minnesota,
who were taught from and read the earlier versions of the materials in this
book. I appreciate their helpful suggestions.
I thank my colleagues at the Department of Statistics and Computer Net-
working of St. Cloud State University for supporting the use of the material
to teach Experimental Design and Analysis, helping the material as it meta-
morphosed into a text on the subject. I appreciate the kind comments of
colleagues in the department who had read earlier versions of this book.
I thank Dr. Hui Xu who proofread the material.
I wish to thank Karin Duncan, Dennis Murphy, and Subigya Shagya of
the Learning Resources and Technology Services (LRTS) of St. Cloud State
University for their help with the production of quality graphics for this book.
The outputs, codes, and data analyses for this text were generated using
SAS software, which is a copyright of SAS Institute Inc. SAS and all other
SAS Inc. product or service names are registered trademarks of SAS Institute
Inc., Cary, North Carolina. I would also like to thank SAS Inc. for allowing
the use of their copyrighted material in this book.
I thank the various people in the Taylor & Francis Group who helped to get
this book out. In particular, I thank David Grubbs, editor for mathematics

xxv
xxvi Acknowledgments

and statistics; Jessica Vakili, project coordinator; and Richard Tressider, the
project editor for their invaluable contributions to the production of this book.
Lastly, but above all, I thank Jesus Christ, my Lord, for providing me with
health, strength, and knowledge to complete the writing and production of
this book.
Author

Leonard C. Onyiah is currently a professor of statistics and the director of


the statistics program in the Department of Statistics and Computer Network-
ing of St. Cloud State University, St. Cloud, Minnesota. He has several years
of experience in teaching statistics at the University of Northumbria, New-
castle upon Tyne, England; The Queen’s College, Glasgow (now, Glasgow
Caledonian University, Glasgow, Scotland); and Anambra State University
of Technology, Enugu, Nigeria. He holds the degrees of MPhil and PhD in
statistics from University of Strathclyde, Glasgow, Scotland, Great Britain.
He also holds the degrees of BSc in statistics from University of Nigeria,
Nsukka, Nigeria, and MSc in statistics from the University of Ibadan, Ibadan,
Nigeria.
He has published some papers in peer-reviewed journals and written SAS
Programming and Data Analysis: A Theory and Program-Driven Approach
(2005), University Press of America, Lanham. He contributed to the text:
Pharmacometrics: The Science of Quantitative Pharmacology, edited by Ette
and Williams.

xxvii
Chapter 1
Introductory Statistical Inference
and Regression Analysis

1.1 Elementary Statistical Inference


Generally, when statisticians try to draw some conclusions about a pop-
ulation of interest, it is often cheaper and more convenient to draw these
conclusions using a sample drawn from the population. Some of the samples
used may arise from experiments that are deliberately planned and executed to
elicit information of interest. Others may arise from pure observational stud-
ies in which the statistician does not control the process but simply observes
the responses of the process. Statistical inference, a major area of statisti-
cal endeavor, is built around a practical way of obtaining information about
populations, namely, sampling. One of the problems commonly dealt with in
inferential statistics is the estimation of population values called parameters.
A statistic can be used to estimate parameters like mean, median, and vari-
ance of a population. Population proportions and the rth moments about the
mean are also examples of parameters.

Population. The entire collection of attributes that are under study is called
a population. The attributes may refer to characteristics of objects such
as pencils, steel rods, cars, etc. They may also refer to characteristics of
human or animal subjects.

Sample. The subset of the population that is used in the actual study is
called a sample.

Statistical inference. The general field of statistical endeavor that uses sam-
ples and sample characteristics to make decisions (make inference) about
populations and population characteristics is called statistical inference.

Statistic. A value derived from a sample is called a statistic.

For clarity, we distinguish between an estimator and an estimate. If we wish


to estimate θ, the mean of the normal distribution, it is known that by max-
imum likelihood estimation (see Hogg and Craig, 1978, p. 202), the solution

1
2 Design and Analysis of Experiments
n
for θ that maximizes the likelihood function is i=1 xi /n. The estimator of θ
n
is the statistic θ̂ = i=1 Xi /n. The observed value of θ̂, say in an experiment,
 n
i=1 xi /n is an estimate of θ.

1.1.1 Unbiased and Efficient Estimators


Most of the inference made about a parameter is based on a statistic, which
is deemed to be an estimate of the parameter. Statisticians, therefore, endeavor
to choose the best statistic for inferential purposes. The way to arrive at the
best choice would depend on the qualities of the statistic. Two important
qualities that are generally considered in choosing the best statistic are unbi-
asedness and efficiency of the statistic. Let us look closely at the definitions
for an unbiased estimator:

Random variable. A function that associates a unique numeric value with


every outcome of an experiment is a random variable. Thus, the value of
the random variable will vary from one trial to another as the experiment
is repeated. For example, if we toss a coin six times, the random variable
Y , which is the number of heads, can take the values 0, 1, 2, . . . , 6. A
similar definition of a random variable is found in Hogg and Craig (1978,
p. 200) in which they state “We shall refer to a random variable X as
the outcome of a random experiment and the space of X as the sample
space.”

Unbiased estimator. Let θ be a parameter of the random variable Y .


If, E(θ̂ − θ) = 0, then θ̂ is an unbiased estimator of the parameter θ.
Otherwise, θ̂ is biased for estimating θ.

Forinstance, from statistical theory we know that the sample variance


n
s2 = ( i=1 (yi − ȳ)2 )/n − 1 is an unbiased estimator of the parameter σ 2 , the
population variance. We also know nthat the approximation (large sample defi-
nition) of sample variance s2 = ( i=1 (yi − ȳ)2 )/n is biased for estimating the
population variance σ 2 .

Example 1.1 
n
Show that s2 = i=1 (yi − ȳ)2 /n is a biased estimator of σ 2 .
Solution:
⎛ n ⎞
(yi − ȳ)2  n
E(s2 ) = E ⎝ i=1 ⎠= 1 E yi2 − E(nȳ 2 )
n n i=1

σ2 σ2 nμ2 + σ 2
Note: E(ȳ) = μ; E(ȳ)2 = ⇒ E(ȳ 2 ) = μ2 + =
n n n
Introductory Statistical Inference and Regression Analysis 3

Similarly,
2

n 
n 
n
E yi2 −E yi = nσ ⇒ E
2
yi2
i=1 i=1 i=1
 
n
1
= nσ 2 + n2 μ2 ⇒ E yi2 = σ 2 + nμ2
n i=1

1
n
nμ2 + σ 2
E(s2 ) = E yi2 − E(ȳ 2 ) = σ 2 + nμ2 −
n i=1 n
nσ 2 + nμ2 − nμ2 − σ 2 (n − 1)σ 2
= = = σ 2
n n
n
The conclusion reached above shows that s2 = i=1 (yi − ȳ)2/n is a biased
estimator of σ 2 .
Efficient estimator. An efficient estimator for a parameter is an unbiased
estimator with the minimum variance.
A statistic could be an unbiased estimator for a parameter but may
not be an efficient estimator.
Most efficient estimator. The estimator with the least variance of all possible
estimators of a parameter is termed the most efficient estimator for that
parameter.
It is desirable that an unbiased estimator of a parameter should be the most
efficient estimator.

Example 1.2
Show that for a sample of size n taken from a normal population, the sample
mean ȳ is a more efficient estimator of the population mean μ than the sample
median ȳ¯.

Solution:
There are several unbiased estimators of the population mean for the normal
distribution. Apart from the sample mean, another statistic that is unbiased
for the population mean is the median if sample data are normal.
E(ȳ) = μ (μ is the population mean)
E(ȳ¯) = μ (ȳ¯ is the sample median)
It is known from statistical theory (see Wackerly et al., 2002, p. 417) that
σ2
Var(ȳ) = (ȳ is the sample mean, and σ 2 is the population variance)
n
(1.253)2 σ 2
Var(ȳ¯) = (ȳ¯ is the sample median).
n
4 Design and Analysis of Experiments

(Proof is beyond the scope of this section)


The variance of the median is greater than the variance of the sample mean.
Therefore, the sample mean is a more efficient estimator of the population
mean than the sample median. (We can see that the sample mean ȳ and the
sample median ȳ¯ have the same mean μ, the population mean. This means
that both are unbiased estimators of the population mean μ. We have just
shown that the variance of the sample median is greater than the variance
for the sample mean, with the result that the sample mean is an efficient
estimator of the population mean, while the sample median is not an efficient
estimator of the mean.)
Therefore, the estimator with the smaller variance of two possible estimators
of the population mean would be considered to be the more efficient estimator
of the mean. In fact, the sample mean is a more efficient estimator of the
population mean μ than the median.

1.1.2 Point and Interval Estimation


We can estimate a parameter by a single number statistic called a point
estimator. Alternatively, we can also indicate that the parameter lies in an
interval, for example, the length equal to 7.8 ± 0.7 cm, where the length lies
between 7.1 and 8.5 cm. This type of estimate is termed an interval estimate.
Interval estimates are often preferred to point estimates because the former
contains a statement of error that indicates the reliability of the estimate.

1.1.3 Confidence Intervals for Parameters of a Population


An interval estimator usually depends on the values of the sample measure-
ments. And this is the rule that helps us to specify two numbers which are
the end points of the interval. The upper and lower ends of the interval are
called its upper and lower limits, respectively. The probability that an interval
will enclose the parameter of interest is called the confidence coefficient. The
confidence coefficient is a measure of the proportion of the times that if we
take repeated sampling measurements from the population, the parameter of
interest would be contained in the interval. This probability is an indication of
the confidence we can attach to that interval as an estimate of the parameter.
The interval is called a confidence interval (CI) estimate. The CIs are obtained
using the sampling distribution of the statistic which was chosen to estimate
the parameter. From sampling theory and large sample theory, we know that
most of the statistics used would be normally distributed. A table of such
statistics and their distributions has been presented in Spiegel (1974, p. 178).
Typically, the CI estimate for a parameter θ would be written as a 100(1 − α)%
CI, converting the probability attached to the CI into a percentage. Provided
that the estimator of θ is normally distributed, then the 100(1 − α)% CI for
θ is θ̂ ± Zα/2 σθ̂ where σθ̂ is the standard error of the statistic θ̂. Hence, for
the 95% CI for θ, α = 5%, and the CI would be written as 100(1 − 0.05)%
Introductory Statistical Inference and Regression Analysis 5

confidence limits for θ is θ̂ ± Z0.025 σθ̂ . These limits represent the lower and
upper ends of the CI (θ̂ − Z0.025 σθ̂ , θ̂ + Z0.025 σθ̂ ). The lower limit is obtained
when the value of the standard normal variate Z = −1.96, corresponding to
a probability of 0.025 (half of α). The upper limit is obtained when Z = 1.96
is the value of the standard normal variate corresponding to a probability
of 0.975 (equivalent of 1 − α/2) (see Appendices A1 and A2 for table of the
standard normal distribution).
To obtain the CI for a parameter, we need to address four points (1) the
sampling distribution of its estimator, (2) the values of the variate at extreme
ends of the interval based on the confidence of 100(1 − α)%, (3) the computed
value of the estimate from a sample of the population, and (4) the computed
value of standard error for the estimate, if it is known. These values are
substituted in the formula for 100(1 − α)% CI to obtain the desired limits
for the interval. Because the intervals have limits, it is often said that we are
looking for the 100(1 − α)% confidence limits. This is exactly the same thing
as CIs, for once we know the upper and lower limits, we know the interval.

1.1.4 Confidence Intervals for the Means


We stated earlier that if a random variable Y is normally distributed with
mean μ and variance σ 2 , the sample mean ȳ is an unbiased and efficient
estimator of the population mean μ. We also know from sampling theory that
the sample mean is normally distributed, so that

σ2
ȳ ∼ N μ,
n

We can easily set up the 100(1 − α)% confidence limits for the mean of the
population based on the sample mean as
σ
ȳ ± Zα/2 √
n

so that the corresponding interval is



σ σ
ȳ − Zα/2 √ , ȳ + Zα/2 √
n n

Sometimes, when the underlying distribution of the data is normal with


mean μ and variance σ 2 , which are unknown, we have to estimate such
variance from the sample data. Then, by sampling theory, the sample
mean is not √ normally distributed, but the standardized sample mean is
(ȳ − μ)/(s/ n) ∼ t(n −1), where n is the number of observations in the
sample or is the sample size. In such situations, σ is replaced by s
in the formula for the 100(1 − α)% CI. √ The resulting 100(1 − α)% con-
fidence limits are: ȳ ± t(n − 1, α/2)(s/ n). The corresponding interval is
6 Design and Analysis of Experiments
√ √
− 1, α/2)(s/ n), ȳ + t(n − 1, α/2)(s/ n)). Note that sample variance
(ȳ − t(n
n
is s2 = i=1 (yi − ȳ)2 /(n − 1).
We then need to refer to the table of the t-distribution in Appendix A3 to
obtain the values of t to be used in the above formula. For a small sample
size, we can use small sample theory to obtain the 100(1 − α)% CI for the
mean as:

s s
ȳ − t(n − 1, α/2) √ , ȳ + t(n − 1, α/2) √
n n

The central limit theorem states that if Y1 , Y2 , . . . , Yn are independent,


identically distributed random variables with E(Yi ) = μ and variance of
Yi is σ 2 < ∞, then ȳ is asymptotically normally distributed with mean μ and
variance σ 2 /n.
The conclusions of the central limit theorem can be applied to any random
sample Y1 ,Y2 , . . .,Yn drawn from any population as long as the mean E(Yi ) = μ
and variance Var(Yi ) = σ 2 are finite, and the sample size n is large.
Therefore, if the sample size is large, we can obtain the interval by using
the standard normal distribution as

s s
ȳ − Zα/2 √ , ȳ + Zα/2 √
n n

Example 1.3
The variance of the birth-weights of premature babies born in a large
metropolitan hospital is known to be 0.56 kg. Samples of 190 premature babies
were taken to estimate the population mean birth-weight for premature babies
in the metropolis, and a sample mean of 3.02 was found. Obtain (1) the 95%
and (2) the 99% CIs for mean birth-weights of premature babies born in the
metropolis.

Solution:
Let the birth-weights be Y . We know that by central limit theorem, the sample
2
mean ȳ ∼ N μ, σn :

0.56
ȳ = 3.02; σȳ = = 0.0543
190
1. 95% confidence limits = 100(1 − 0.05)% CI

= 3.02 ± Z(0.05/2) (σ/ n)
= 3.02 ± Z(0.025) (0.0543)
= 3.02 ± 0.1064
The 95% CI is (2.9136, 3.1264).
Introductory Statistical Inference and Regression Analysis 7

2. 99% confidence limits = 100(1 − 0.01)% CI



= 3.02 ± Z(0.01/2) (σ/ n)

= 3.02 ± Z(0.005) (σ/ n)
= 3.02 ± 2.57(0.0543)
= 3.02 ± 0.1396
99% CI is (2.8804, 3.1596).

Example 1.4
The following data represent the scores of 20 students in a general education
statistics course involving hundreds of students. Obtain a 95% CI for the mean
of the marks of students in this course. Assume that the scores in this class
are normally distributed. What is the 90% CI for the mean score?
75 45 67 88 90 78 83 89 74 68 44 73 84 91 77 56 64 55 79 72

Solution:
1452
ȳ = = 72.6;
20  
1 14522
2
s = (75 + 45 + · · · + 72 ) −
2 2 2
= 198.7 ⇒ s = 14.095
20 − 1 20
s 14.095
√ = √ = 3.15
n 20
s
100(1 − α)% CI = ȳ ± t(n − 1, α/2) √
n

1. 95% CI = 100(1 − 0.05)% CI


= 72.6 ± t(19,0.025)(3.15)
= 72.6 ± 2.09(3.15)
= 72.6 ± 6.584
95% CI is (66.02, 79.18).

2. 90% CI = 100(1 − 0.10)% CI


= 72.6 ± t(19,0.05)(3.15)
= 72.6 ± 1.73(3.15)
= 72.6 ± 5.45
90% CI is (67.15, 78.05).

1.1.5 Confidence Intervals for Differences


between Two Means
Sometimes, we need to establish the CI for the difference between the means
of two independent samples represented by Y1 and Y2 . In this case, we are
8 Design and Analysis of Experiments

looking for the CI for the difference in means μ1 − μ2 . If we have a large sample
(n ≥ 30), then we can assume that the difference between the means of the
samples ȳ1 − ȳ2 ∼ N (μ1 − μ2 , (σ12 /n1 ) + (σ22 /n2 )) and thus the 100(1 − α)% CI
for μ1 − μ2 is
(ȳ1 − ȳ2 ) ± Zα/2 σȳ1 −ȳ2

where σȳ1 −ȳ2 = (σ12 /n1 ) + (σ22 /n2 ) if the two samples are truly independent.
Unfortunately, we often do not know the values of the population variances
σ12 and σ22 , but when the sample sizes are large, we can substitute the sample
variances for the population variances, so that

s21 s2
σȳ1 −ȳ2 = + 2
n1 n2

Let us consider the following example:

Example 1.5
A survey of the heights of 18-year-old students (260 male and 200 female stu-
dents) in the North Jade County was made. The mean height for the males
was 1.68 m with variance 0.076 m. The mean height for the females was 1.57 m
with variance 0.065 m. Obtain the 94% confidence limits for the difference in
the mean heights of 18-year-old males and females from this county.

Solution:
Since the sample sizes are large, each being greater than 30, we can use large
sample theory. This means that the applicable CI is obtained by the formula

s21 s2
100(1 − α)% CI = (ȳ1 − ȳ2 ) ± Zα/2 + 2
n1 n2

0.076 0.065
⇒ 94% CI = 100(1 − 0.04) CI = (1.68 − 1.57) ± 1.88 +
260 200
= 0.11 ± 0.0467
The 94% CI is (0.0633, 0.1567).
When the sample size is not large, the large sample theory does not apply
and we cannot obtain a CI based on the assumption used above. We have to
resort to small sample theory. The difference between the means has a different
distribution, which is not normal. Suppose that sample Y1 contains n1 and
sample Y2 contains n2 observations, then there are two possibilities. If we have
reason to believe that the two small samples might have come from normal
populations with equal variance, and we know this common variance, we can
establish a CI for the difference between the two means by using the formula
 
1 1
100(1 − α)% CI = (ȳ1 − ȳ2 ) ± Zα/2 σ 2 +
n1 n2
Introductory Statistical Inference and Regression Analysis 9

However, if the variance is unknown, we can pool the variances of the two
samples to obtain an estimate of the common variance. Then the pooled
variance is estimated by

(n1 − 1)s21 + (n2 − 1)s22


s2p =
n1 + n2 − 2

The standard error for the difference in the two means is obtained as

1 1
σ(ȳ1−ȳ2 ) = sp +
n1 n2

Under the above conditions, the difference in means is distributed as t,


so that
(ȳ1 − ȳ2 )
 ∼ t(n1 + n2 − 2)
1 1
sp +
n1 n2

The 100(1 − α)% CI for the difference in the two means is obtained by using
the formula

1 1
(ȳ1 − ȳ2 ) ± t(n1 + n2 − 2, α/2)sp +
n1 n2

The second case arises when we have no reason to believe that the two
populations have equal variance. Here, we are comparing two independent
samples, just like the one considered earlier, but the sample sizes are small
(each of n1 and n2 , is less than 30). We will deal with this case later in this
chapter. To find the CI for the difference between the two means when this
condition arises, refer to the method used in Example 1.16.
When we believe that the variances of the two populations are equal, we
use the formulas presented above. We illustrate with an example.

Example 1.6
The skills of repairmen trained by managers A and B who use different styles
for training repairmen are being compared. A sample of 12 repairmen trained
by manager A was chosen, and the time taken by each repairmen to complete
a task in the repair process was obtained. The times of completion of the same
task by a sample of 14 repairmen trained by manager B were obtained. The
completion times they turned out (in minutes) are as follows:

A: 10, 20, 30, 14, 16, 25, 15, 18, 12, 16, 20, 23
B: 12, 22, 22, 27, 31, 16, 20, 24, 30, 10, 26, 24, 28, 31
10 Design and Analysis of Experiments

Obtain a 99% CI for the difference in the mean performance times for the
repairmen trained by managers A and B.

Solution:


12 
12   
1 2192
y1i = 219 2
y1i = 4355 s21 = 4355 − = 32.568
i=1 i=1
12 − 1 12


14 
14   
1 3232
y2i = 323 2
y2i = 8031 s22 = 8031 − = 44.53
i=1 i=1
14 − 1 14

(14 − 1)(44.53) + (12 − 1)(32.568)


s2p = = 39.048
14 + 12 − 2
 
1 1
σ(ȳ1 −ȳ2 ) = 39.048 + = 2.4583
14 12

The 100(1 − 0.01)% CI for the difference between the means for the
repairmen trained by managers B and A is obtained using the limits


323 219
− ± t(24, 0.005)σȳ1 −ȳ2 = 4.82 ± 2.797(2.4583) = 4.82 ± 6.88
14 12

The 99% CI between the means is (−2.055, 11.7).

1.1.6 Confidence Intervals for Proportions


Sometimes, we may sample from a binomial process in which p is the prob-
ability of success and q = 1 − p is the probability of failure. We can obtain the
CI for the proportion of successes, p, by using the proportion of successes in
our sample, so that the 100(1 − α)% confidence limit for p is p̂ ± Zα/2 σp̂ .
Provided that we are sampling from a very large or an infinite population,
or that we are sampling from a finite population with replacement, then the
CI can be written as [100(1 − α)% confidence limits]

p̂(1 − p̂)
p̂ ± Zα/2
n

1.1.6.1 Confidence Interval for Difference


between Two Proportions
Often our interest is in the CI for the difference between two proportions.
If n1 and n2 , the sizes of the samples from which estimates of the proportions
Introductory Statistical Inference and Regression Analysis 11

were obtained, are large (i.e., n1 , n2 ≥ 30), we can establish CIs for the
difference in the two proportions. The standard error for the difference is


p̂1 (1 − p̂1 ) p̂2 (1 − p̂2 )
σp̂1 −p̂2 = +
n1 n2

Since the sample sizes are large, the corresponding CI for the differ-
ence in the two proportions depends on the normal distribution. Hence, the
100(1 − α)% CI is

100(1 − α)% CI = (p̂1 − p̂2 ) ± Zα/2 σp̂1 −p̂2 ⇒ 100(1 − α)% CI



p̂1 (1 − p̂1 ) p̂2 (1 − p̂2 )
= (p̂1 − p̂2 ) ± Zα/2 +
n1 n2

Example 1.7
“The country is not yet ready for a female president.” In two surveys of this
political question in 1995 and 1999, the following figures were obtained from
the respondents:

Year Yes No Total


1995 125 348 473
1999 270 1905 2175

Obtain the 95% CI for (1) the proportion of those who said “no” in 1995
and (2) the difference in proportions of those who said “yes” in 1995 and 1999.

Solution:
To establish the CI, we first calculate the estimates of the proportions from
the samples and then apply the large sample theory since it is relevant in this
situation.

348 0.735729(1 − 0.735729)
1. p̂no = = 0.735729 σp̂no = = 0.020275
473 473

100(1 − 0.05)% CI = 0.735729 ± Z0.025 × 0.020275


= 0.735729 ± 1.96 × 0.020275
= 0.735729 ± 0.039738
= (0.695991, 0.775468).
12 Design and Analysis of Experiments
125 270
2. p̂1 = = 0.2642 p̂2 = = 0.1241
473 2175
100(1 − 0.05)% CI = (0.2642 − 0.1241) ± Z0.025

0.2642(1 − 0.2642) 0.1241(1 − 0.1241)
× +
473 2175

= 0.14 ± 1.96 0.000411 + 0.0000499
= 0.14 ± 0.042

The 95% CI for difference between the proportions is (0.098, 0.182).

1.1.7 Tests of Hypotheses


The statistician is frequently required to confirm or disprove a belief about a
population. Such beliefs are usually formulated into a hypothesis. An assump-
tion, a guess, a statement, or a postulate about the population, which is to
be proved or disproved. Since it is not often that the entire population is
available, a random sample is usually taken from the population, and the
data from the sample is used to prove or disprove the hypothesis. The deci-
sion is usually arrived at by carrying out a test of the hypothesis to establish
whether the hypothesis is true. To test a statistical hypothesis, we state the
main hypothesis to be tested and refer to it as the null hypothesis. Against
this hypothesis, we state an alternative hypothesis. Based on a statistic (a
sample value) whose distribution is known, a test statistic is calculated and
compared with some tabulated values; thereafter, a decision is made to reject
or not to reject the null hypothesis.

1.1.7.1 The Null Hypothesis


Although the statement to be tested is called the main hypothesis, we some-
times formulate this hypothesis to reject or nullify it. For instance, if we wish
to compare the effects of two different fertilizer treatments on the yield of
the same crop, we can state a null hypothesis that says “there is no differ-
ence between the mean yields of the crop under the two fertilizer treatments.”
If we take samples of yields after the application of these two fertilizers, any
difference we observe should only be attributable to random fluctuations. We
usually denote the null hypothesis by H0 . Once we reject this null hypoth-
esis, we accept the alternative. However, there may be borderline situations
in which we may reserve decisions until more sample information is available.
This happens when the value of the calculated test statistics falls on the line
bordering the rejection and acceptance regions.

1.1.7.2 The Alternative Hypothesis


This is the hypothesis that we intend to accept if the null hypothesis is
rejected. Often, this is the complement of the statement that appears in the
Introductory Statistical Inference and Regression Analysis 13

null hypothesis. For instance, we could say that the alternative hypothesis
to the null hypothesis stated above is “there is a difference in the mean
yield of the crop under the two fertilizer treatments.” We usually denote the
alternative hypothesis by H1 or HA.

1.1.7.3 Type I and Type II Errors


There are two types of errors that we could make in the process of testing
a hypothesis. These errors occur when wrong decisions are made. They are
called the type I and type II errors.

Type I error. This error occurs when we reject the null hypothesis when it
should have been accepted. In other words, type I error is made when
we fail to accept the null hypothesis when it is true.

Type II error. If we accept the null hypothesis when it should have been
rejected (or when the alternative is true), we make a type II error. A
good statistical test of hypothesis should be designed in such a way
as to minimize the sizes of the two errors. However, in practice, it is
often discovered that as we seek to minimize one error, the other error is
increased. A practical decision is usually reached by determining which of
the errors is more serious and this error is then minimized at the expense
of the less serious error, thereby achieving a compromise.

1.1.7.4 Level of Significance


Along with the null hypothesis, we set up a level of significance usually
denoted by α, representing the level of error we make if we wrongly decide
to reject the null hypothesis when it ought to be accepted, a type I error.
The level of significance represents the maximum probability with which we
are prepared to risk making a type I error. Since this error could be serious,
we make its risk as small as possible. Values of α ranging from 1% to 5% are
frequently used. Above 5%, the risk begins to be progressively less acceptable,
although values as high as 10% are sometimes used.

1.1.7.5 Test of Hypothesis, Parametric Tests


As mentioned earlier (Section 1.1.7), we take a sample from the population
for which we wish to test a hypothesis. Based on sampling theory, we calculate
a test statistic. There is always a test statistic for every hypothesis to be tested.
The test statistic is compared with some tabulated values. Normally, the tab-
ulated values obtained for the test are based on the distribution of the statistic
and on the level of significance α. From the comparison, we can decide whether
the findings from our sample data differ significantly from what is postulated
for the population. In the earlier example regarding two fertilizer treatments,
we determined whether the observed mean yields differ significantly from one
another. The process that enables us to arrive at this decision is called a test
14 Design and Analysis of Experiments

of hypothesis, or test of significance. Hypothesis testing is part of a subject


area in statistics called inferential statistics or statistical inference.

1.1.8 Tests for a Single Parameter (Mean) Involving


the Normal Distribution
In statistical theory, a parameter (a population value, a constant) may be
estimated by a statistic (a variable obtained from a sample). Some of these
statistics are known to follow the normal distribution. In such cases, assuming
a normal distribution, if Ys denotes the statistic, the mean will be μs and
variance will be σs2 . If the variance of the normal population σ 2 is known, we
use it to obtain σs2 . A hypothesis may be tested that its mean is, for example,
μ0 , against an alternative that it is not, requiring that a random sample of size
n be taken from the normal population to obtain the value of a test statistic.
The hypothesis is stated as follows:

H0 : μs = μ0 vs H1 : μs = μ0

The statistic associated with this test is the sample mean ȳ

ys = ȳ

We calculate the test statistic Zc , which is used in the test as follows:

ȳ − μ0
Zc = √
σ/ n

The above test has a two-sided or two-tailed alternative. We can also have
tests with one-sided or one-tailed alternatives. The test statistic obtained for
this test is compared with appropriate tabulated values of Z. This Z has the
standard normal distribution with mean 0 and variance 1. The value read
from the table depends on the chosen level of significance or size of type I
error, α.

Decision rules. There are three versions of possible hypotheses that can
be stated for the above problem (Section 1.1.8), and the three sets of
hypotheses can be tested using the same test statistic Zc . Two one-sided
alternatives are available along with the two-sided alternative stated ear-
lier. The choice of alternative hypotheses determines the differences in
the sets of hypotheses that can be tested. The choice is made according
to the interest of the researcher. Although the same test statistic would
do for the three versions of the test, the decision rules are different for
the three versions of the hypotheses.
Introductory Statistical Inference and Regression Analysis 15

Case 1: One-sided; H0 : μ = μ0 vs H1 : μ > μ0

Decision: If Zc > Zα reject H0 and accept H1

Case 2: One-sided; H0 : μ = μ0 vs H1 : μ < μ0

Decision: If Zc < −Zα reject H0 and accept H1

Case 3: Two-sided; H0 : μ = μ0 vs H1 : μ = μ0

Decision: If Zc < −Zα/2 or if Zc > Zα/2 reject H0 and accept H1

The critical or rejection regions and their sizes for the three cases
mentioned above are illustrated in Figures 1.1 through 1.3. We use an
example to illustrate the test of hypothesis under the normal distribution.

Example 1.8
It is known that the resting heart rates of a large number of students after
a given period on a treadmill are normally distributed with a variance of 53.
To test the hypothesis that the mean rate is 77/min, the following random

Acceptance region
(size  1  α) Rejection region
(size  α)

FIGURE 1.1: One-sided test with rejection region to the right.

Acceptance region
Rejection region (size  1  α)
(size  α)

FIGURE 1.2: One-sided test with rejection region to the left.


16 Design and Analysis of Experiments

Acceptance region
Rejection region (size  1  α) Rejection region
(size  α/2) (size  α/2)

FIGURE 1.3: Two-sided test with rejection regions to the right and left.

sample of 44 students was chosen. After running at a given rate on a treadmill,


the heart rates of the students were recorded as follows:

66 75 92 72 72 92
68 62 87 75 62 76
75 90 79 76 80 60
83 75 92 65 73 65
74 83 68 65 70
88 80 68 66 62
68 73 60 82 91
58 62 53 58 86

Carry out this test against an alternative that the mean rate is less than
77, using a level of significance α = 5%.
Solution:
First, we set up the null hypothesis and the alternative as
H0 : μ = 77 vs H1 : μ < 77
2
We know from statistical theory that ȳ ∼ N μ, σn .
The required test statistic Zc is distributed as standard normal variable
with mean 0 and variance 1 as
ȳ − μ
Zc = √ ∼ N (0,1)
σ/ n
The values of Z associated with a given level of significance α can be read
from the tables of the normal distribution.
Now,

44
1 
44
3227
yi = 3227 ⇒ ȳ = yi = = 73.34091
i=1
44 i=1 44

73.34091 − 77
Zc =  = −3.33397
(53/44)
Introductory Statistical Inference and Regression Analysis 17

Acceptance region
Rejection region (size  1  0.05  0.95)
(size  0.05)

3.33 1.65

FIGURE 1.4: Rejection and acceptance regions for Example 1.8.

Using α = 5%, we read from the table of N (0,1) that Zα = 1.65, so that
−Zα = −1.65.
Since our test corresponds to Case 2 above, we compare Zc with
−Z0.05 . Clearly, Zc = −3.33397 < −Zα = −1.65, so we reject the null hypoth-
esis and accept the alternative that the mean heart rate is less than
77/min. Alternatively, we can make our decision by drawing the figure of
the normal distribution and identifying the rejection and acceptance regions,
so that if Zc falls into the rejection region, we reject the null hypothesis;
otherwise, we accept it. This is illustrated in Figure 1.4.

Example 1.9
It is thought that a laboratory population of fruit flies is made up of flies of
about equal number of gray and black hues. A random sample of 300 flies
yielded 163 black flies. Can we conclude that the proportion of flies are equal
for the two colors? Use levels of significance (1) 5% and (2) 1%.
Solution:
To set up null and alternative hypotheses, we know that number of black
flies follows the binomial distribution. For large n, the number of trials,
the outcome is approximately normally distributed with mean np and vari-
ance npq if p = probability of a black fly and q = probability of a gray fly.
Since np = (1/2)(300) = 150 and npq = (1/2)(1/2)(300) = 75, the resulting
hypothesis is

H0 : p = 0.50 vs H1 : p = 0.50
18 Design and Analysis of Experiments

Acceptance region
Rejection region (size  1  0.05  0.95) Rejection region
(size  0.05/2  0.025) (size  0.05/2  0.025)

1.96 1.96

FIGURE 1.5: Rejection and acceptance regions for Example 1.9.

The number of outcomes of the experiment is used to obtain the test statistic
Zc as follows:
y − np 163 − 150
Zc = √ = √ = 1.50
npq 75
From the tables of the standard normal distribution (Appendices A1
and A2) for α = 5%, Zα/2 = 1.96 and −Zα/2 = −1.96. By the decision rule,
Case 3, we see that Zc lies between −1.96 and +1.96, so we conclude that the
null hypothesis H0 should not be rejected. This means that the proportions
of black and gray flies are probably equal. The decision rule applied here is
depicted in Figure 1.5.

Example 1.10
A biotech company claims that the time it takes for a unit biomass to degrade
is normally distributed with mean of 1500 h and variance of (110 h)2 . This is
disputed by a rival company, which believes that a unit biomass degrades in
less time. The lifetimes of a random sample of 20 units of these biomasses
were studied, and their mean degrading times was found to be 1494 h. Can
we support the claim of the producer at 5% level of significance?

Solution:
The null and alternative hypotheses to be tested are
H0 : μ = 1500 vs H1 : μ < 1500
The test statistic is
ȳ − μ 1494 − 1500
Zc = √ = = −0.2439
σ/ n 110

20
From the tables (Appendices A1 and A2), Z0.05 = −1.645, so we do not
reject the null hypothesis. The decision rule applied in this case is represented
in Figure 1.6.
Introductory Statistical Inference and Regression Analysis 19

Acceptance region
Rejection region (size  1  0.05  0.95)
(size  0.05)

1.645 0.24

FIGURE 1.6: Rejection and acceptance regions for Example 1.10.

1.1.9 Tests of Hypotheses for Single Means Involving


the Student’s t-Distribution
If a large sample (n ≥ 30) is taken from most distributions in statistical
theory, the distribution of many statistics obtained can be approximated by
the normal distribution. The larger we make the sample size, the better the
approximation we obtain if we represent the data by the normal distribution.
Problems arise when small samples are taken, which cannot be approximated
by the normal distribution. In fact, the smaller the sample size the less useful
is any attempt to use the normal distribution to approximate the distribution
of any statistic from the sample. Instead of using the normal distribution for
small samples, statisticians have found that the Student’s t-distribution gives
better results when used to represent the distributions of statistics calculated
from small samples drawn from a normal population. The results obtained
could equally be applied to large samples. This is because as the sample size
gets larger the t-distribution is a closer approximation of the standard normal
distribution.
For the tests in the previous section, regardless of the sample size, when
the distribution seems normal and population standard deviation is unknown,
the best test statistic to use has a t-distribution with n − 1 degrees of freedom
where n = sample size. Further, if the sample size is small, then the t-statistic
is the best to use. A small sample of size n may be taken from a population
that is believed to be normal with unknown standard deviation. The sample
standard deviation with some modifications could then be used in place of the
population standard deviation in the calculation of the test statistic. To test
the following hypotheses (represented by Cases 1–3)

Case 1: H0 : μ = μ0 vs H1 : μ > μ0
or
20 Design and Analysis of Experiments

Case 2: H0 : μ = μ0 vs H1 : μ < μ0
or
Case 3: H0 : μ = μ0 vs H1 : μ = μ0
we use
ȳ − μ0
tc = √
s/ n
n
where s2 = i=1 (yi − ȳ)2 /n − 1.
Under H0 , tc is t distributed with n − 1 degrees of freedom. The above
statistic will be used for testing the 2 one-sided and the 1 two-sided tests
stated above in Cases 1–3.
Decision rule. Let α% be the level of significance for the tests. Then, here
are the decision rules for the tests:
Case 1: If tc > t(n − 1, α) reject null hypothesis, accept the alternative.
Case 2: If tc < −t(n − 1, α) reject null hypothesis, accept the alternative.
Case 3: If tc > t(n − 1, α/2) or tc < −t(n − 1, α/2) reject null hypothesis,
accept the alternative.

Example 1.11
A manager of a market garden chain was planning for inventory purposes and
believed that a particular shop in the chain sold less than 60 plants per day
on average. He took a random sample of plant sales for 21 days and obtained
the following figures:

71 50 76
62 43 22
63 66 93
68 63 10
81 25 61
61 66 32
59 20 67

Assuming that a daily sale of plants is normally distributed, test the claim
of the manager using a level of significance of 5%.

Solution:
We state the hypothesis to be tested as follows:
H0 : μ = 60 vs H1 : μ < 60
Now, we calculate all the statistics required for the test ȳ, s2 , and tc as
follows:


21
1159
ȳ = yi = 1159 ⇒ ȳ = = 55.19948
i=1
21
Random documents with unrelated
content Scribd suggests to you:
(Poesías, CXLVII)

XXVII
Véase página 242, nota 2.

Scarco d’un’ importuna e greve salma,


Signor mio caro, e dal mondo disciolto,
Qual fragil legno, a te stanco rivolto
Da l’orribil procella in dolce calma[512]...

(Poesías, CLII)

Di giorno in giorno, insin da mie prim’ anni,


Signor, soccorso tu mi fusti e guida[513]...

(Poesías, CXLIX)

Le favole del mondo m’hanno tolto


Il tempo dato a contemplare Iddio.

......................................

Ammezzami la strada c’al ciel sale,


Signor mie caro...
Mettimi in odio quanto 'l mondo vale,
E quante suo bellezze onoro e colo,
C’anzi morte caparri eterna vita[514].

(Poesías, CL)

Carico d’anni e di peccati pieno[515]...

(Poesías, CLV)
Di morte certo, ma non già dell’ora[516]...

(Poesías, CLVII).

XXVIII
Véase página 246.

I’sto rinchiuso come la midolla


Da la sua scorza, qua pover’e solo.
......................................
Io teng’un calabron’in un orciuolo,
In un sacco di cuoio ossa e capresti,
Tre pillole di pec’in un bocciuolo[517].
Gl’occhi di biffa macinat’ e pesti,
I denti come tasti di stormento,
C’al moto lor, la voce suon’e resti.
La faccia mia ha forma di spavento;
......................................
Mi cova in un orecchio un ragnatelo,
Ne l’altro canta un grillo tutta notte;
Né dormo e russo al catarroso anelo.
......................................
L’arte pregiata, ov’alcun tempo fui
Di tant’opinion, mi rec’a questo;
Povero, vecchio e serv’in forz’altrui;
Ch’i’ son disfatto, s’i’non muoio presto.
......................................
Dilombato, crepat’, infrant’e rotto
Son già per le fatich’, e l’osteria
È morte...

(Poesías, LXXXI)
NOTAS:
[509] Yo que os he sido dado solamente por una hora, me he dado para siempre
a la muerte. Mientras más ha encantado mi belleza, más lágrimas ha causado:
hubiera sido mejor no haber nacido.
[510] Si alguna vez viví, sólo tú lo sabes, piedra que aquí me guardas. Y si alguno
se acuerda de mí, le parecerá soñar; tan rápida es la muerte, que al que ha sido,
le parece como si nunca hubiera sido.
[511] El que me llora muerto, espera en vano que al bañar mis huesos y mi
tumba, refloreceré como árbol seco y sin frutos; el hombre muerto no renace en
primavera.
[512] Libre de un pesado e importuno despojo, oh mi querido Señor, y
desprendido del mundo, como una barca frágil vuelvo a ti, cansado de la horrible
tempestad a la dulce calma...
[513] Día por día, desde mis primeros años, Señor, fuiste mi guiador y mi auxilio...
[514] Las quimeras mundanas me robaron el tiempo, que se me había dado para
contemplar a Dios...
Mi querido Señor, redúceme a la mitad el camino que sube al cielo, hazme odiar
todo lo que vale en el mundo, y todas sus bellezas a las cuales honro y sirvo, para
ganar con la muerte la vida eterna.
[515] Cargado de años y lleno de pecados...
[516] Seguro de la muerte, pero no de su hora...
[517] Alusión al mal de piedra del cual sufría. “Tre pietre nelle vesica”, según la
explicación de Frey.
BIBLIOGRAFÍA

I.—ESCRITOS DE MIGUEL ÁNGEL

A.—POESÍAS.
Rime di Michelagnolo Buonarroti, raccolte da Michelagnolo suo
nipote, Giunti, Florencia, 1623.
(Primera edición—defectuosa—del conjunto de las poesías de Miguel
Ángel, hecha por su sobrino nieto Miguel Ángel el joven).
Le Rime di M. A. B. cavate dagli autografi, e pubblicate da Cesare
Guasti, Florencia, 1863.
(Primera edición de las poesías que tiene carácter verdaderamente
histórico).
Die Dichtungen des Michelagniolo Buonarroti, herausgegeben und
mit kritischem Apparate versehen von Dr. Carl Frey, Professor der
neueren Kunstgeschichte an der Universitaet Berlin—mit einer
Portraetradierung von Albert Krüger, und einer Heliographie nach
Francesco da Hollanda,—G. Grote’sche Verlagsbuchhandlung, Berlín,
1897.
(Edición modelo, única exacta y completa, con un admirable
comentario filológico e histórico, una selección de poesías dirigidas a
Miguel Ángel, un cuadro cronológico, extractos de cartas relativas a
las poesías y un índice alfabético).
B.—CARTAS.
Le Lettere di Michel Angelo Buonarroti, pubblicate col Ricordi ed i
Contratti artistici per cura di Gaetano Milanesi, Le Monnier, Florencia,
1875.

II.—OBRAS RELATIVAS A LA VIDA DE MIGUEL


ÁNGEL

A.—DOCUMENTOS CONTEMPORÁNEOS.
Giorgio Vasari. Vite degli architetti, pittori e scultori, 1550 (primera
edición); 1568 (segunda edición).
Ascanio Condivi. Vita di Michel Angelo Buonarroti, Antonio Blado,
Roma, 1553.
Francisco da Hollanda. Cuatro conversaciones sobre la Pintura,
tenidas en Roma, en 1538-1539, arregladas en 1548 y publicadas
por Joaquim de Vasconcellos, traducción francesa en las Artes en
Portugal, por el conde A. Raczynski, Renouard, París, 1846.
Donato Giannotti. Dialoghi de’ giorni che Dante consumò nel cercare
l’Inferno e 'l Purgatorio, compuestos en 1545. Primera edición, 1859,
Florencia.
Paolo Giovio. Michaelis Angeli Vita, publicada primero por Tiraboschi;
Storia della lett. Ital., tomo IX, 1781, Módena.
Benvenuto Cellini. La Vita, escrita entre 1559 y 1562. Primera
edición, 1728, Nápoles.
Benedetto Varchi. Due Lezzioni, Florencia, 1549.
Benedetto Varchi. Orazione funerale recitata nelle esequie di Michel
Angelo Buonarroti, Giunti, Florencia, 1564.
Francesco Berni. Opere burlesche, Giunti, Florencia, 1548.

Á
Los Corresponsales de Miguel Ángel: I. Sebastiano del Piombo, texto
italiano publicado por primera vez por Gaetano Milanesi, con
traducción francesa de A. le Pileur, librería de El Arte, París, 1890.
Sammlung ausgewaehlter Biographien Vasaris, herausgegeben von
Carl Frey, Tomo II. Le Vite di M. A. B. (Edición crítica de todas las
biografías de Miguel Ángel, compuestas por sus contemporáneos).
Giovanni Gaye. Carteggio inedito d’artisti dei secoli XIV, XV, XVI,
Florencia, 1840.
Daelli. Carte Michelangiolesche inedite, Milán, 1865.
Sammlung ausgewaehlter Briefe an M. A. B., herausgegeben von
Cari Frey, Berlín, 1899.

B.—OBRAS MODERNAS.
Richard Duppa. The Life and literary works of M. A. B., Londres,
1806, 1807.
Quatremère de Quincy. Historia de la vida y las obras de M. A. B.,
París, 1835.
Hermann Grimm. Das Leben Michelangelos; primera edición, 1860,
Hanover, séptima y última, 1900 (con ilustraciones).
Aurelio Gotti. Vita di M. A. B., Florencia, 1875.
La obra y la vida de Miguel Ángel, dibujante, escultor, pintor,
arquitecto y poeta, por Charles Blanc, E. Guillaume, Paul Mantz,
Charles Garnier, Méziéres, A. de Montaiglon, G. Duplessis y Louis
Gonse, París, Gazette des Beaux-Arts, 1876.
C. Heath Wilson. Life and works of M. B., Londres, 1876.
Anton Springer. Raffael und Michelangelo, 1878, Leipzig.
Ludwig von Scheffler. Michelangelo, eine Renaissance Studie, 1892,
Altenburg.
John Addington Symonds. The Sonnets of M. A. B. and T.
Campanella, Londres, 1878.
John Addington Symonds. The Life of M. A. B., Londres, 1893.
Carl Just. Michelangelo, 1900, Leipzig.
Corrado Ricci. Michelangelo, 1901, Florencia.
Ernst Steinmann. Die Sixtinische Kapelle, 1905, Bruckmann, Munich,
tomo II (para la iconografía de Miguel Ángel y de Vittoria Colonna).
Dr. Paul Garnault. Los retratos de Miguel Ángel, 1913, París
(Fontemoing).
Henry Thode. Michelangelo und das Ende der Renaissance, tomo I.
Grote, Berlín, 1902; tomo II, ibid, 1903. (Esta obra considerable,
todavía no terminada, es el ensayo más importante que se haya
hecho de un estudio psicológico de Miguel Ángel y de su tiempo. Es
de lamentarse en esta obra, además de una obsesión wagneriana
desagradable y un poco exagerada, el abuso de las categorías
abstractas y de las divisiones escolásticas, que obscurecen el tema
en lugar de aclararlo, y que aumentan el desorden de la
composición, demasiado compacta. La he aprovechado con
abundancia, así como las admirables ediciones y estudios de Carl
Frey).

III. VITTORIA COLONNA.


Rime, primera edición, 1538, Parma; segunda edición, 1539; con
giunta di XVI Sonetti Spirituali, 1539; con giunta di XXIV Sonetti
Spirituali, e Trionfo della Croce, 1544, Venecia; numerosas ediciones
del siglo XVI.
Carteggio, publicado por Erm. Ferrero et Gius. Müller, Torchi, Turín,
1892. (Recopilación de las cartas de, o a Vittoria Colonna, y de los
documentos relativos a su vida, entre otras de la Vita di V. C. por
Filonico Alicarnasseo).
Lettere inedite, edición Salza, Florencia, 1898.
Il codice delle rime di V. C. appartenente a Margherita regina di
Navarra, scoperto ed illustrato da D. Tordi, Pistoia, 1900.
Henry Roscoe.—V. C., her Life and poems, Londres, 1868.
Giuseppe Campori.—V. C. (Atti e Memorie delle R. R. Deputazioni di
Storia Patria per le prov. dell’Emilia), tomo III, Módena, 1878.
Alfred de Reumont. Vittoria Colonna, Friburgo, 1881; traducción
italiana por Müller y Ferrero, 1892, Turín.
Alessandro Luzio. Vittoria Colonna (Riv. Storica Mantovana), tomo I,
Mantua, 1885.
VIDA DE TOLSTOI
LA LUZ QUE ACABA DE EXTINGUIRSE
La luz que acaba de extinguirse ha sido, para quienes pertenecen a
mi generación, la más pura que haya irradiado sobre nuestra
juventud; porque en el sombrío crepúsculo del siglo XIX que
termina, fué la estrella consoladora cuya mirada atraía y
tranquilizaba nuestras almas de adolescentes. Entre todos aquéllos
(que son muchos en Francia), para quienes Tolstoi fué más que un
artista amado, un amigo, el mejor—y para muchos el único y
verdadero amigo en todo el arte europeo—quiero rendir a su
memoria sagrada un tributo de gratitud y amor.
Los días en que yo aprendí a conocerlo no se borrarán nunca de mi
memoria. Fué en 1886. Después de algunos años de muda
germinación, las flores maravillosas del arte ruso acababan de
abrirse sobre la tierra de Francia. Las traducciones de Tolstoi y
Dostoievski se publicaban a la vez en todas las casas editoriales, con
febril apresuramiento. De 1885 a 1887 fueron editadas en París La
Guerra y la Paz, Ana Karenina, Infancia y Adolescencia, Polikushka,
La Muerte de Iván Ilich, los cuentos del Cáucaso y los cuentos
populares. En unos cuantos meses, en unas cuantas semanas, se
descubría ante nuestros ojos toda la obra de una gran vida, en la
cual se reflejaba un pueblo, un mundo nuevo.
Acababa yo de entrar a la Escuela Normal. Éramos, mis camaradas y
yo, muy distintos los unos de los otros. En nuestro pequeño grupo,
en el cual se encontraban reunidos espíritus realistas e irónicos,
como el filósofo Georges Dumas; poetas que se abrasaban en amor
al Renacimiento italiano, como Suarés; fieles a la tradición clásica,
stendhalianos y wagnerianos, ateos y místicos, se suscitaban
frecuentes discusiones y había muchos puntos de desacuerdo. Mas
durante algunos meses el amor a Tolstoi nos unió casi a todos.
Indudablemente que cada uno de nosotros lo amaba por distintas
razones; porque cada uno se reconocía a sí mismo en su obra, y
porque para todos era una puerta que se abría sobre el inmenso
universo, una revelación de la vida. En torno nuestro, en el seno de
nuestras familias, en nuestras provincias, la gran voz que venía de
los confines de Europa despertaba las mismas simpatías, algunas
veces inesperadas. Me acuerdo de mi sorpresa una vez que escuché
a unos burgueses, en mi Nivernais, a quienes no interesaba el arte y
no leían casi nada, hablar de la muerte de Iván Ilich con una
concentrada emoción.
He leído en críticos eminentes la tesis que sustenta que Tolstoi debía
lo mejor de sus ideas a nuestros escritores románticos, a Jorge
Sand, a Víctor Hugo. Sin discutir la inverosimilitud que habría en
hablar de una influencia de Jorge Sand sobre Tolstoi, que no la
podría sufrir, y sin negar el influjo mucho más real que sobre él han
tenido J. J. Rousseau y Stendhal, sería dudar de la grandeza de
Tolstoi y del poder de su fascinación sobre nosotros, si lo
atribuyésemos sólo a sus ideas. El círculo de ideas dentro del cual se
mueve el arte es de los más limitados. La fuerza del arte no está en
las ideas, sino en la expresión que les da, en el acento personal, en
el sello del artista, en el aroma de su vida.
Fuesen o no prestadas las ideas de Tolstoi (y esto lo veremos en
seguida), jamás una voz semejante a la suya había resonado antes
en Europa. ¿Cómo explicarnos, de otra suerte, el estremecimiento de
emoción que experimentamos entonces, al escuchar esta música del
alma, que esperábamos desde hacía largo tiempo y de la cual tanta
necesidad teníamos? No entraba para nada la moda en nuestros
sentimientos. La mayor parte de nosotros, como yo, no conocimos el
libro de Eugène-Melchior de Vogüé sobre la Novela Rusa, sino
después de haber leído a Tolstoi; y la admiración de Vogüé nos ha
parecido demasiado pálida junto a la nuestra, porque él juzgaba,
sobre todo, desde el punto de vista del literato. Mas para nosotros,
poco era admirar la obra: la vivíamos, era nuestra. Nuestra por su
pasión ardiente de la vida, por su juventud de corazón; nuestra por
su desencanto irónico, por su clarividencia despiadada y su
familiaridad con la muerte; nuestra por los ensueños de amor
fraternal y de paz entre los hombres; nuestra por su requisitoria
terrible contra las mentiras de la civilización. Y por su realismo, y por
su misticismo. Por su vívido aliento de Naturaleza, por su sentido de
las fuerzas invisibles y por su vértigo de lo infinito.
Estos libros han sido para un gran número de nosotros lo que fué
“Werther” para los de su tiempo: el espejo enigmático de nuestro
poder de amor y de nuestras debilidades, de nuestras esperanzas,
de nuestros terrores y nuestros desalientos. No nos preocupábamos
por poner en acuerdo todas estas contradicciones, ni menos por
hacer entrar esta alma múltiple—en la cual resonaba el universo—
dentro de las estrechas categorías religiosas o políticas, como lo
hacen la mayor parte de quienes en estos últimos tiempos han
hablado de Tolstoi, incapaces de apartarse de las luchas de los
partidos, trayéndolo al cauce de sus propias pasiones, a los límites
de sus banderías socialistas o clericales. ¡Como si nuestras banderías
pudieran ser la medida de un genio! ¡Y qué me importa a mí que
Tolstoi sea o no de mi partido! ¿Me ha preocupado acaso cuáles
fueron los partidos de Dante y Shakespeare, para respirar su soplo
de vida y beber su luz?
No digamos con estos críticos de ahora: “Hay dos Tolstoi, el de antes
de la crisis y el de después de la crisis; el uno es bueno y el otro no
lo es”. Para nosotros no ha habido más que uno, y lo hemos amado
todo entero, porque sentimos por instinto que en almas como la
suya todo cabe y todo se une.

Lo que nuestro instinto sentía, sin explicarlo, a nuestra razón toca


comprobarlo ahora. Esto es posible hoy que esta larga vida, llegada
a su término, se ofrece ante todos los ojos, sin velos, con un candor
y una sinceridad únicos. Nos sorprende inmediatamente apreciar
hasta qué punto permaneció siempre la misma, del principio al fin, a
despecho de las barreras que se ha querido levantar contra ella, de
trecho en trecho, y a despecho del mismo Tolstoi, quien como todo
hombre apasionado, se inclinaba a creer cuando amaba, cuando
creía, que amaba y creía por la vez primera y que de ahí databa el
principio de su vida. Principiar, volver a principiar. ¡Cuántas veces la
misma crisis, las mismas luchas, se produjeron en él! No se podría
hablar de la unidad de su pensamiento (no tuvo nunca esta unidad),
pero sí de la persistencia en sus ideas de los mismos elementos
diversos, ora unidos, ora contrarios, contrarios más a menudo. La
unidad no está en el espíritu ni en el corazón de Tolstoi, está en el
combate de sus pasiones dentro de sí mismo; está en la tragedia de
su arte y de su vida.
Arte y vida están unidos. Nunca ha habido una obra más
íntimamente ligada a la vida; casi tiene constantemente un carácter
autobiográfico. Desde la edad de 25 años podemos seguir a Tolstoi,
paso a paso, en las experiencias contradictorias de su carrera llena
de aventuras. Su Diario, comenzado antes de los 20 años y
continuado hasta su muerte,[518] y las noticias suministradas por él
a M. Birukov[519], completan este conocimiento y no sólo permiten
leer casi día por día en la conciencia de Tolstoi, sino también hacen
revivir el mundo en el cual arraigó su genio y las almas de las cuales
se nutrió su alma.
Una rica herencia: la de una doble raza (los Tolstoi y los Volkonski)
muy antigua y muy noble, que se vanagloriaba de remontar hasta
Rurik y contaba en sus anales a compañeros de Pedro el Grande, a
generales de la guerra de Siete Años, héroes de las luchas
napoleónicas, “decembristas” y deportados políticos. A sus recuerdos
de familia debió Tolstoi algunos de los tipos más originales de “La
Guerra y la Paz”, como el viejo príncipe Volkonski, su abuelo
materno, representante rezagado de la aristocracia de los tiempos
de Catarina II, volteriano y despótico; el príncipe Nicolás
Gregorevitch Volkonski, un primo hermano de su madre, herido en
Austerlitz y recogido del campo de batalla bajo la mirada de
Napoleón, como el príncipe Andrés; su padre, que tenía algunos
rasgos de Nicolás de Rostov;[520] su madre, la princesa María, la fea
dulcísima de ojos bellos, cuya bondad ilumina las páginas de “La
Guerra y la Paz”.
No conoció a sus padres. Las narraciones encantadoras de “Infancia
y Adolescencia”, tienen, como es bien sabido, poco de realidad. Su
madre murió cuando él no tenía aún dos años; y no pudo por lo
tanto recordar el rostro amable que el pequeño Nicolás Irteniev
evoca al través de un velo de lágrimas, el rostro de sonrisa luminosa,
que derramaba en torno suyo la alegría...
¡Ah, si pudiera entrever esta sonrisa en los momentos aciagos, yo no
sabría qué cosa es la pena...![521]
Pero indudablemente que de ella heredó la perfecta franqueza, la
indiferencia hacia la opinión y el don maravilloso que tuvo—según se
asegura—de contar historias que ella misma inventaba.
Al menos, de su padre sí pudo conservar algunos recuerdos. Era un
hombre amable y burlón, de ojos tristes, que vivía en sus tierras una
existencia independiente y desnuda de ambiciones. Nueve años de
edad tenía Tolstoi cuando murió; y su muerte le hizo “comprender
por la vez primera la amarga verdad, y llenó su alma de
desesperación”[522]. Primer encuentro de la infancia con el espectro
del terror que una parte de su vida debía consagrar a combatir, y la
otra a celebrarlo, transfigurándolo... La huella de esta angustia está
contenida en algunas líneas inolvidables de los últimos capítulos de
“Infancia”, en las cuales los recuerdos fueron aprovechados para la
narración de la muerte y del entierro de la madre.
Cinco niños quedaron en la vieja mansión de Yasnaia Poliana,[523]
en donde León Nicolaievich nació el 28 de agosto de 1828, y la cual
no debía abandonar sino para morir, 82 años más tarde. La menor,
una niña, María, se hizo después religiosa (y con ella fué a refugiarse
Tolstoi moribundo, cuando huyó de su casa y de los suyos). Eran
cuatro hombres: Sergio, egoísta y agradable, “sincero hasta un
grado que no he visto alcanzar jamás a otros”; Dmitri, apasionado,
concentrado, quien después, siendo estudiante, también se entregó
a prácticas religiosas con vehemencia, sin cuidarse de la opinión
pública, ayunando, buscando a los pobres y dando albergue a los
enfermos, para de pronto arrojarse en el desorden, con igual
violencia; y, en seguida, roído por los remordimientos, rescatar y
llevar a su casa a una muchacha que había conocido en una casa
pública, para morir de tisis a los 29 años;[524] Nicolás, el mayor, el
hermano más amado, quien heredó de la madre su imaginación para
contar historias,[525] irónico, tímido y delicado, fué más tarde oficial
en el Cáucaso y ahí adquirió la costumbre de alcoholizarse. De éste,
que, lleno también de ternura cristiana, vivía en chozas
compartiendo con los pobres cuanto poseía, decía Turguenef “que
ponía en práctica la humildad en la vida que su hermano León se
contentaba con desarrollar en teoría”.
Junto a los huérfanos estaban dos mujeres de gran corazón.
Una era la tía Tatiana,[526] “que tenía dos virtudes, dice Tolstoi: la
paz y el amor”; y cuya vida toda sólo era amor. Se consagraba a los
demás sin descanso...
“Ella me ha hecho conocer el placer moral de amar...”.
La otra, la tía Alejandra, servía siempre a los demás y evitaba que se
la sirviera, se privaba de criados y tenía por ocupaciones favoritas la
lectura de vidas de los santos y las charlas con los peregrinos y con
los “inocentes”. Muchos de estos “inocentes” vivían en la casa, y uno
de ellos, una vieja peregrina que recitaba salmos, era madrina de la
hermana de Tolstoi; otro, el inocente Gricha, solamente sabía orar y
llorar.
¡Oh, gran cristiano Gricha! Tu fe era tan fuerte que sentías la
proximidad de Dios; tu amor era tan ardiente que las palabras
brotaban de tus labios, sin que tu razón las ordenara. ¡Y cómo
celebrabas su magnificencia cuando, no encontrando ya palabras
para loarlo, bañado en lágrimas te prosternabas en el suelo!...[527]
¿Quién no advierte la parte que estas almas humildes tuvieron en la
formación de Tolstoi? Parece que en alguna de ellas se insinuaba ya,
se bosquejaba, el Tolstoi de los últimos días. Sus plegarias, su amor,
arrojaron en el espíritu del niño las simientes de la fe, de las cuales
debía el anciano coger los frutos.
Aparte del inocente Gricha, en los relatos de Infancia, Tolstoi no
habla de estos modestos colaboradores que lo ayudaron a edificar su
alma. Pero, en cambio, ¡cuánto se transparenta en las páginas del
libro esta alma de niño, “este corazón puro y amante, como un claro
rayo de luz que descubría siempre en los otros sus cualidades
mejores”; esta ternura infinita!... Siendo feliz, piensa en el único
hombre que sabe es infortunado, llora y querría consagrarse a él;
abraza a un viejo caballo, y le pide perdón por haberlo hecho sufrir;
es feliz por amar, aun no siendo amado. Se perciben ya los
gérmenes de su genio futuro: su imaginación que lo hace llorar con
sus propias historias; su cerebro siempre en trabajo, que lucha
siempre por saber qué piensan las gentes; su precoz facultad de
observación, y de memoria;[528] la mirada atenta que escruta
fisonomías, en medio de su duelo y de la verdad de su dolor. A los
cinco años sintió, dice él, por la vez primera, “que la vida no es una
diversión, sino una tarea demasiado ruda”[529].
Felizmente lo olvidó. En aquel tiempo se arrullaba con los cuentos
populares, con los bylines rusos, esos ensueños típicos y
legendarios; con narraciones de la Biblia,—sobre todo de la sublime
Historia de José que, ya anciano, aun lo presentaba como un modelo
de arte;—y de las Mil y una Noches que en la casa de su abuela,
cada velada, recitaba un narrador ciego, sentado en el umbral de la
ventana.

Hizo sus estudios en Kazan[530]. Estudios tan mediocres que se


decía de los tres hermanos:[531] “Sergio quiere y puede; Dmitri
quiere y no puede, y León ni quiere ni puede”.
Pasaba por lo que él llamó “el desierto de la adolescencia”, desierto
de arena batido por ráfagas de un viento abrasador de locura.
Acerca de este período los relatos de Adolescencia, y sobre todo los
de Juventud, son ricos en confesiones íntimas. Estaba solo; su
cerebro, en un estado de fiebre perpetua. Durante un año investiga
por su propia cuenta y ensaya todos los sistemas[532]. Estoico, se
martiriza con torturas físicas; epicúreo, se prostituye. Cree después
en la metempsícosis; y acaba por caer en un nihilismo demente: le
parecía que si se volviese con suma rapidez, podría ver la nada
frente a frente. Se analiza, se analiza...
“No pensaba ya en una cosa, pensaba que pensaba en una
cosa...”[533].
Este análisis perpetuo, este mecanismo de razonar que giraba en el
vacío, le quedará como hábito peligroso que, decía él, “lo perjudicó a
menudo en la vida”; pero del cual sacó su arte recursos
inesperados[534].
En este juego había perdido todas sus convicciones, o, al menos, así
lo pensaba. A los dieciséis años dejó de orar y de ir a la iglesia[535];
pero la fe no había muerto, estaba solamente germinando:
“Sin embargo, yo creía en algo. ¿En qué? No podría decirlo. Creía
aún en Dios, o más bien, no lo negaba. Pero ¿en cuál Dios? Lo
ignoraba. No negaba tampoco a Cristo y su doctrina; pero en qué
consistía esta doctrina, no habría sabido decirlo”[536].
Se sentía poseído, por momentos, de ensueños de bondad. Quería
vender su carruaje para dar el dinero a los pobres, hacerles el
sacrificio de una décima parte de su fortuna, privarse de sirvientes...
“Porque son ellos también hombres como yo”[537]. Escribió, durante
una enfermedad[538], sus Reglas de vida. Ingenuamente se atribuyó
el deber de “estudiar y profundizar todo: derecho, medicina,
lenguas, agricultura, geografía, matemáticas, alcanzar el grado más
alto de perfección en música y en pintura”, etc... Tenía “la convicción
de que el destino del hombre está en su incesante
perfeccionamiento”. Pero en modo insensible, al impulso de sus
pasiones de adolescente, de una sensualidad violenta y de un amor
propio inmenso,[539] esta fe, en ese extraviado perfeccionamiento,
perdía su carácter desinteresado y se hacía práctica y material. Si
deseaba perfeccionar su voluntad, su cuerpo y su espíritu, era para
vencer al mundo e imponerle el amor[540]. Deseaba agradar.
Esto no era fácil. Tenía entonces una fealdad simiesca: rostro brutal,
largo y pesado, cabello corto y calzándole la frente, ojos pequeños
que miraban con dureza, hundidos en sus órbitas sombrías; nariz
larga, labios gruesos y salientes y grandes orejas[541]. No pudiendo
hacerse ilusiones acerca de esta fealdad, que cuando era un niño ya
le causaba crisis de desesperación[542], pretendió realizar el ideal del
“hombre elegante”[543]. Este ideal lo llevó, para ser como los otros
“hombres elegantes“, a entregarse al juego, a endeudarse
estúpidamente y a hacer una vida de libertinaje[544].
Una cosa le salvó siempre: su absoluta sinceridad.
—¿Sabéis por qué os amo más que a los demás?—decía Nekhludov
a su amigo.—Porque tenéis una cualidad sorprendente y rara: la
franqueza.
—Sí, digo siempre todo, aun aquellas cosas que tengo vergüenza de
confesarme[545].
Hasta en sus peores extravíos se juzgó siempre con una clarividencia
despiadada.
“De hecho vivo bestialmente, escribió en su Diario; estoy
completamente deprimido”.
Y fiel a su manía de analizarse, registra minuciosamente las causas
de sus errores:
1.º Indecisión o falta de energía; 2.º Engaño de sí mismo; 3.º
Precipitación; 4.º Falsa vergüenza; 5.º Mal humor; 6.º Confusión; 7.º
Espíritu de imitación; 8.º Volubilidad; 9.º Irreflexión.
Esta misma independencia de criterio aplica, aún siendo estudiante,
a la crítica de las convenciones sociales y de las supersticiones
intelectuales. Se mofa de la ciencia universitaria, niega toda seriedad
a los estudios históricos y se expone a sufrir correctivos por sus
audacias de pensamiento. En esta época descubrió a Rousseau, las
Confesiones y el Emilio, y fué para él como un golpe de rayo.
“Le rendí culto; llevaba al cuello su retrato, en una medalla, como si
fuera una imagen santa”[546].
Sus primeros ensayos filosóficos no son sino comentarios sobre
Rousseau (1846-1847).
Sin embargo, disgustado de la Universidad y de los “hombres
elegantes”, retornó a soterrarse en sus campos de Yasnaia Poliana
(1847-1851), y volvió a ponerse en contacto con el pueblo. Intentó
consagrarse entonces a ayudar al pueblo, convertirse en su
benefactor y en su educador. Sus experiencias de este tiempo han
sido referidas en una de sus primeras obras, La Mañana de un Señor
(1852), novela notable, de la cual es protagonista su personaje
favorito, el príncipe Nekhludov[547].
Nekhludov tiene veinte años, y acaba de abandonar la Universidad
para consagrarse a sus campesinos. Un año hace que trabaja en
hacerles el bien; y, en una visita a la aldea, lo vemos estrellarse
contra la indiferencia burlona, la desconfianza arraigada, la rutina, la
imprevisión, los vicios, la ingratitud. Todos sus esfuerzos son en
vano. Regresa desalentado, pensando en sus ensueños de un año
antes, en su generoso entusiasmo, en “sus ideas sobre que el amor
y el bien constituían la felicidad y la verdad, las únicas verdad y
bondad posibles en el mundo”. Se siente vencido, avergonzado y
cansado.
“Se sienta ante el piano y su mano inconscientemente acaricia las
teclas. Una armonía brota, luego una segunda, otra tercera... Se
pone a tocar. Los acordes no eran completamente regulares; a
menudo parecían ordinarios hasta la banalidad y no revelaban
ningún talento musical; pero en ellos encontraba un placer
indefinible, triste. A cada cambio de armonías, con una anhelante
palpitación de corazón esperaba la que iba a surgir, y por la
imaginación suplía vagamente lo que faltaba. Escuchaba el coro, la
orquesta... Y su placer principal nacía de la obligada actividad de la
imaginación, que le presentaba aisladas, pero con una sorprendente
claridad, las imágenes y las escenas más variadas del pasado y del
porvenir...”.
Reveía a los “mujiks”, viciosos, desconfiados, mentirosos, holgazanes
y testarudos, con quienes charlaba hacía un instante; pero en esta
vez se los representaba con todo lo que tienen de bueno, ya no con
sus vicios; penetraba en sus corazones por la intuición del amor; leía
en ellos su paciencia, su resignación con la suerte que los abruma,
su perdón de los ultrajes, su consagración a la familia y las causas
de su fidelidad rutinaria y piadosa al pasado; evocaba sus jornadas
de fructuoso trabajo, fatigador y sano...
“Esto es bello, murmuraba... ¿Por qué no soy yo uno de ellos?”[548].
Todo Tolstoi está ya en el héroe de esta primera novela;[549] su
visión clarísima y sus ilusiones persistentes. Observa a las gentes
con un realismo sin desmayos; pero en el momento que cierra los
ojos, vuelven a apoderarse de él sus ensueños y su amor a los
hombres.

Tolstoi, en 1850, es menos paciente que Nekhludov; Yasnaia lo ha


aniquilado; tan cansado está del pueblo como de la “élite”; su misión
le pesa, y no tiene a qué consagrarse. Por otra parte, sus acreedores
lo asediaban.
En 1851 huye al Cáucaso, a unirse al Ejército, cerca de su hermano
Nicolás, que era oficial.
Y apenas llega a las serenas montañas, se tranquiliza, vuelve a
encontrar a Dios.
“La última noche[550] apenas he dormido... Me puse a orar a Dios.
Imposible es para mí describir la dulzura de sentimientos que
experimentaba mientras estuve orando. Recité mis plegarias
habituales y proseguí después largo tiempo en oración. Algo
deseaba yo, muy grande, muy hermoso... ¿Qué era? no podría
decirlo. Anhelaba confundirme en el Ser infinito, y le demandaba que
me perdonase mis faltas... Pero no, yo no demandaba nada: sentía
que, pues me había concedido aquel momento de ventura, me
perdonaba. Pedía y sentía a un tiempo mismo que nada tenía yo qué
pedir, ni podía ni sabía pedir. Y se lo agradecí, pero no con palabras,
no con pensamientos... Una hora había transcurrido apenas cuando
de nuevo escuchaba la voz del vicio. Me dormí soñando con la gloria,
y con las mujeres: era esto más fuerte que yo. ¡No importa! He dado
gracias a Dios por este momento de felicidad, porque me ha
mostrado mi pequeñez y mi grandeza. Quiero orar, pero no sé;
quiero comprender, pero no me atrevo... ¡Me abandono a tu
Voluntad!”[551].
La carne no estaba vencida (no lo estuvo jamás); la lucha se
proseguía en lo secreto del corazón, entre Dios y las pasiones.
Tolstoi anota, en su Diario, cuáles son los tres demonios que lo
devoran:
1.º La Pasión del juego. Lucha posible.
2.º La Sensualidad. Lucha muy difícil.
3.º La Vanidad. La más terrible de todas.
En el instante en que soñaba vivir para los otros y sacrificarse, sus
pensamientos voluptuosos y fútiles lo asediaban: la imagen de
alguna mujer cosaca, o “la desesperación que sufriría si su mostacho
izquierdo se levantase más que el derecho”[552]. “¡No importa!” Dios
estaba allí y no lo abandonaría. La efervescencia de la lucha misma
era fecunda, porque todas las potencias de vida en ella se exaltaban.
Pienso que la idea tan frívola que tuve de hacer un viaje al Cáucaso,
me fué de lo Alto inspirada. Me ha guiado la mano de Dios; y no
ceso de darle gracias. Comprendo que he llegado a ser mejor aquí, y
estoy firmemente persuadido que todo lo que pueda acontecerme
no será sino para mi bien, puesto que Dios mismo es quien lo ha
querido...[553]
Es el canto de acción de gracias de la tierra a la primavera. La tierra
se cubre de flores; todo está bien en ella; todo es bello. En 1852 el
genio de Tolstoi da sus primeras flores: Infancia, La Mañana de un
Señor, La Incursión, Adolescencia; y él da gracias al Espíritu de Vida
que lo ha fecundado[554].

LA HISTORIA DE MI INFANCIA
La Historia de mi Infancia fué comenzada en el Otoño de 1851, en
Tiflis, y concluida en Piatigorsk, en el Cáucaso, el 2 de julio de 1852.
Es curioso observar que en el cuadro de esta naturaleza que lo
embriagaba, en plena vida nueva y en medio de los peligros
inquietantes de la guerra, ocupado en descubrir un mundo de
caracteres y de pasiones que le eran completamente desconocidos,
Tolstoi se haya vuelto hacia los recuerdos de su vida pasada en esta
primera obra. Pero cuando escribió Infancia se encontraba enfermo,
su actividad militar bruscamente interrumpida; y durante los
prolongados ocios de la convalecencia, dolorido y solo, estaba en
una disposición sentimental de espíritu en la cual, ante sus ojos
enternecidos, revivía lo pasado[555]. Después de la agotadora
tensión de los últimos años, tan desagradables, era para él dulce de
reanimar “el período maravilloso, inocente, poético y alegre” de la
edad primera, y rehacerse un “corazón de niño, bueno, sensible y
capaz de amor”. Por otra parte, con el ardor de la juventud y sus
ilimitados proyectos, dado el carácter cíclico de su imaginación
poética, que raramente concebía un tema aislado y para la cual las
grandes novelas no eran sino eslabones de una larga cadena
histórica, fragmentos de vastos conjuntos que no pudo nunca
ejecutar[556], Tolstoi no podía ver en las narraciones de Infancia, en
aquel momento, sino los primeros capítulos de una Historia de
cuatro épocas, que también comprendería su vida en el Cáucaso y
concluiría, sin duda, en la revelación de Dios por la Naturaleza.
Más tarde, Tolstoi fué muy severo para las narraciones de Infancia, a
las cuales debió una gran parte de su popularidad.
“¡Es esto tan malo,—decía a Birukov;—está escrito con tan poca
honestidad literaria!... De eso no se puede sacar nada”.
En esta opinión estuvo solo. La obra manuscrita, enviada sin nombre
de autor a la gran revista rusa Sovremennik (El Contemporáneo), fué
en el acto publicada (el 6 de septiembre de 1832) y tuvo un éxito
unánime que después han confirmado todos los públicos de Europa;
y sin embargo, no obstante su encanto poético, su finura de
colorido, su emoción delicada, es fácil de comprender que más tarde
haya desagradado a Tolstoi. Le desagradó por las mismas razones
que gustaba a los demás; porque es necesario decirlo claramente: a
excepción de la pintura de algunos tipos locales y en un pequeño
número de páginas, que sorprenden por el sentimiento religioso o
por el realismo en la emoción[557], la personalidad de Tolstoi se
acusa débilmente en esta obra. Se extiende por sus páginas un
dulce, un tierno sentimentalismo, que después siempre le fué
antipático y que proscribió de sus demás novelas. Lo reconocemos, y
reconocemos este “humor” y estas lágrimas, que vienen de Dickens.
Entre sus lecturas favoritas, de los catorce a los veintiún años,
Tolstoi señala en su Diario: “Dickens, David Copperfield. Influencia
considerable”. Todavía en el Cáucaso releyó este libro.
Otras dos influencias señala él mismo: Sterne y Toepffer. “Entonces
estaba yo bajo la inspiración de ellos”[558].
¿Quién habría pensado que las “Nouvelles Genevoises” fueron el
primer modelo del autor de La Guerra y la Paz? Y basta, sin
embargo, saberlo para descubrir en las narraciones de Infancia la
bonhomía afectuosa y zumbona de Toepffer, trasplantada a una
naturaleza más aristocrática.
Encontró Tolstoi, al principiar, que ya era conocido, y su personalidad
no tardó mucho en afirmarse. Adolescencia (1853), menos pura y
menos perfecta que Infancia, descubre una psicología más original,
un sentimiento de la naturaleza más vivo y un alma atormentada,
alma con la cual Dickens y Toepffer se habrían sentido a disgusto. En
La Mañana de un Señor (octubre de 1852)[559], el carácter de Tolstoi
aparece netamente formado, con la intrépida sinceridad de sus
observaciones y su fe en el amor. Entre los notables retratos de
campesinos que pinta en esta novela se encuentra ya el bosquejo de
una de las más hermosas visiones de sus Cuentos Populares: el
anciano en el colmenar,[560] aquel viejecito bajo el abedul, con las
manos extendidas, los ojos en alto, su cabeza calva luciente al sol, y
en torno de ella, las abejas doradas que revuelan sin picarle,
formándole una corona...

LAS NARRACIONES DEL CÁUCASO


Pero las obras—tipo de este período son aquéllas que registran
inmediatamente sus emociones actuales: las narraciones del
Cáucaso. La primera, La Incursión, (concluida el 24 de diciembre de
1852), se impone por su magnificencia de paisajes: una salida de sol
en las montañas, a la orilla de un arroyo; un sorprendente cuadro
nocturno, en el cual sombras y ruidos están fijados con una
conmovedora intensidad; y el retorno, en la tarde, mientras a lo
lejos las cimas nivosas desaparecen en una bruma violeta y las
voces hermosas de los soldados que cantan ascienden y se pierden
en el aire transparente. Muchos de los personajes de La Guerra y la
Paz hacen allí su entrada en la vida, como el capitán Khlopov, héroe
verdadero, que no se bate por placer sino para cumplir su deber,
“una de esas fisonomías rusas, sencillas, tranquilas, que es tan fácil
y tan agradable mirar de lleno a los ojos”. Pesado, torpe, un poco
ridículo, indiferente a cuanto le rodea, no cambia en medio de la
batalla, cuando todos cambian; “permanece exactamente como se le
ha visto siempre, con los mismos movimientos tranquilos, la misma
voz igual, la misma expresión de sinceridad en su rostro ingenuo y
pesado”. Junto a él está el teniente que encarna a los héroes de
Lermontov, y que, siendo bueno, pone semblante de sentimientos
feroces; y el pobre pequeño subteniente, tan alegre por su primera
salida, que desborda en ternura y, presto a saltarle al cuello a
cualquiera, adorable y risible, se hace matar estúpidamente, como
Petia Rostov. En medio del cuadro está la figura de Tolstoi que
observa, sin mezclarse en los sentimientos de sus compañeros, y
que hace ya escuchar su grito de protesta contra la guerra.
¿No pueden los hombres vivir con tranquilidad en este mundo tan
hermoso, bajo el inmensurable cielo estrellado? ¿Cómo pueden
conservar aquí tales sentimientos de maldad, de venganza, de rabia
para destruir a sus semejantes? Cuanto de malo hay en el corazón
del hombre había de desaparecer al contacto de la naturaleza, que
es la más inmediata expresión de la belleza y del bien[561].
Otras narraciones del Cáucaso con observaciones de esta época no
fueron escritas sino más tarde, en 1854-1855, como La Tala en el
Bosque[562], de un realismo exacto y un poco frío, pero lleno de
notas curiosas acerca de la psicología del soldado ruso, (notas para
lo porvenir); en 1856 un Encuentro en el destacamento con un
conocido de Moscú[563], un hombre de mundo, fracasado, suboficial
degradado, haragán, ebrio y mentiroso que no puede acostumbrarse
a la idea de que pueda ser muerto como cualquiera otro de sus
soldados, a quienes desprecia, y de quienes el peor vale cien veces
más que él.

LOS COSACOS
Y por encima de estas obras se levanta, cumbre la más alta de esa
primera cadena de montañas, una de las más bellas novelas líricas
que Tolstoi haya escrito, el canto de su juventud, el poema del
Cáucaso, Los Cosacos[564]. El esplendor de las nevadas montañas
que destacan sus nobles líneas sobre el cielo luminoso, llena con su
música el libro entero. Y la obra es única por esta flor del genio, “el
todopoderoso dios de la juventud, como dice Tolstoi: ese ímpetu que
ya no se recobra más”. ¡Cuál torrente primaveral!... ¡Qué efusiones
de amor!
“¡Yo amo, amo tanto!... ¡Bravo! ¡Bueno!... repetía y deseaba llorar.
¿Por qué? ¿quién era bravo? ¿qué amaba? No lo sabía bien”[565].
Esta embriaguez del corazón se derrama desordenadamente. El
héroe Olenine, que ha llegado como Tolstoi a sumergirse en el
Cáucaso en una vida de aventuras, y que se ha enamorado de una
joven cosaca, se abandona al torbellino de sus aspiraciones
contradictorias. Ora piensa que “la felicidad está en vivir para los
otros, en sacrificarse” ora que el “sacrificio de sí mismo no es más
que una tontería”; entonces no está lejos de creer con el viejo
cosaco Erochka, que “todo está permitido y que Dios ha hecho todo
para placer del hombre. Nada es pecado. Gozar con una hermosa
muchacha no es pecado, es la salud”. Pero, ¿qué necesidad tiene de
pensar? Le basta con vivir. La vida es todo bien, toda felicidad, la
vida todopoderosa, la vida universal: la Vida es Dios. Un naturalismo
ardoroso enciende y devora al alma. Perdido en el bosque, en medio
de “la vegetación salvaje, de la multitud de bestias y de aves, de
nubes de moscos, entre la sombría verdura, en el aire cálido y
perfumado, entre pequeños caños de agua turbia que espejean por
doquiera bajo el follaje”, a dos pasos de las emboscadas del
enemigo, Olenine “es embargado de pronto por un sentimiento tal
de felicidad sin causa alguna, que, fiel a una costumbre de su
infancia, se persigna y se pone a dar gracias a alguien”. Como un
fakir indio goza al confesarse que está solo y perdido en este
torbellino de vida que le envuelve, en el cual miríadas de seres
invisibles acechan en este momento su muerte, ocultos por todas
partes, en que millares de insectos zumban en torno suyo, se
llaman:
“¡Por aquí, por aquí, compañeros! ¡Aquí hay alguien a quien picar!”
Y era bien claro para él que allí ya no era un gentilhombre ruso, de
la sociedad de Moscú, amigo y pariente de éstos y aquéllos, sino
simplemente un ser cualquiera como el mosquito, el faisán, el ciervo;
como aquéllos que vivían, que rondaban en torno suyo.
—Como ellos, yo viviré y moriré. Y la yerba crecerá encima de mí...
Y su corazón se llena de alegría.
Vive Tolstoi, en esta hora de juventud, en un delirio de fuerza y de
amor a la vida. Se abraza a la Naturaleza y se funde en ella; en ella
vierte, adormece y exalta sus penas, sus alegrías y sus amores[566];
mas nunca esta embriaguez romántica afecta a la lucidez de su
mirada. En ninguna otra página como en este ardiente poema los
paisajes son pintados con tamaño vigor, ni los tipos con más verdad.
La oposición entre la naturaleza y el mundo, que informa el fondo
del libro y que será toda su vida uno de los temas favoritos en las
ideas de Tolstoi, un artículo de su Credo, le hace encontrar ya, para
fustigar la comedia del mundo, algunos de los ásperos acentos de la
Sonata a Kreutzer[567]. Pero no es menos verídico con relación a
quienes ama, y los seres de la naturaleza, la hermosa cosaca y sus
amigos, son contemplados en plena luz, con sus egoísmos, sus
avaricias, sus engaños, con todos sus vicios.
Una ocasión iba a presentársele para poner a prueba esta veracidad
heroica.

En noviembre de 1853 fué declarada la guerra a Turquía. Tolstoi


entonces hizo que se le pasara al ejército de Rumania, del cual pasó
después al de Crimea, y llegó a Sebastopol el 7 de noviembre de
1854. Ardía en entusiasmo y fe patriótica. Cumplió bravamente con
su deber y a menudo estuvo en peligro, sobre todo en abril y mayo
de 1855, meses durante los cuales cada tercer día estaba de servicio
en la batería del cuarto baluarte.
De vivir meses y meses en una exaltación y una agitación continua
frente a frente con la muerte, su misticismo religioso se reavivó.
Conversa con Dios. En abril de 1855 anota en su Diario una plegaria
a Dios, en acción de gracias por haberlo protegido en los peligros y
para pedirle que continúe protegiéndolo, “a fin de alcanzar el objeto
eterno y glorioso de la existencia, que me es aún desconocido...”.
Este objeto de su vida no es ya el arte, sino la religión. El 5 de
marzo de 1855 escribía:
“He encontrado una gran idea, a cuya realización me siento capaz de
consagrar toda mi vida. Es esta idea la fundación de una religión
nueva, la religión de Cristo, pero purificada de dogmas y misterios...
Obrar con límpida conciencia, a fin de unir a los hombres por la
religión”[568].
Éste será el programa de su vejez.
Sin embargo, para distraerse de los espectáculos que lo rodeaban,
se entregó nuevamente a escribir. ¿Cómo pudo encontrar la libertad
de espíritu necesaria para componer, bajo una lluvia de granadas, la
tercera parte de sus Recuerdos, Juventud? El libro es caótico, y se
puede atribuir su desorden a las condiciones en las cuales nació y a
veces también a cierta sequedad de análisis abstractos, con
divisiones y subdivisiones a la manera de Stendhal[569]. Pero se
admira su tranquila penetración en el desorden de pensamientos y
de ensueños confusos que se agolpan en un cerebro joven. La obra
es de una rara franqueza consigo mismo; y por instantes, ¡cuánta
frescura poética, en el hermoso cuadro de la primavera en la ciudad,
en el relato de la confesión y del viaje al convento por el pecado
olvidado! Un apasionado panteísmo presta a algunas páginas una
belleza lírica cuyos acentos recuerdan las narraciones del Cáucaso,
como la descripción de esta noche de Estío:
El brillo sereno del luminoso creciente. El estanque resplandeciendo.
Los viejos abedules, cuyas ramas melenudas se argentan de un lado,
al claro de luna, cubren con sus sombras negras la maleza y el
camino. El grito de una codorniz detrás del estanque. El ruido
apenas perceptible de dos viejos árboles que se rozan. El zumbido
de los mosquitos y el golpe de una manzana que cae sobre las hojas
secas; las ranas que saltan hasta los peldaños de la terraza y cuyos
lomos verduzcos brillan en un rayo de luna... La luna asciende;
suspensa en el claro cielo, llena el espacio; el soberbio fulgor del
estanque se hace más brillante; las sombras se vuelven más negras,
la luz más transparente... Y yo, humilde gusanillo, manchado ya con
todas las pasiones humanas, pero con toda la inmensa fuerza del
amor, pienso en este momento que la naturaleza, la luna y yo,
somos sólo uno[570].
La realidad presente, empero, hablaba más alto que los sueños del
pasado, y se imponía, imperiosa. Juventud quedó sin concluir, y el
capitán segundo León Tolstoi, tras la protección de su baluarte, bajo
el sordo ruido de los cañones, en medio de su compañía, observaba
a los vivos y a los moribundos y recogía sus angustias y las suyas
propias en las inolvidables narraciones de Sebastopol.

LAS NARRACIONES DE SEBASTOPOL


Estas tres narraciones, (Sebastopol en diciembre de 1854,
Sebastopol en mayo de 1855 y Sebastopol en agosto de 1855), son
de ordinario comprendidas en un mismo juicio; y sin embargo, son
muy diferentes entre sí. Sobre todo la segunda se distingue de las
otras dos por el sentimiento y por el arte. Están dominadas éstas por
el patriotismo, mientras que sobre la segunda se extiende una
implacable verdad.
Se cuenta que después de haber leído la segunda narración[571] la
zarina lloró, y que el zar ordenó, movido por su admiración, que
fueran traducidas al francés estas páginas y que pusieran al autor a
cubierto de peligros. Se comprende esto fácilmente. Nada hay en
ellas que no exalte a la patria y a la guerra. Tolstoi acaba de llegar;
su entusiasmo está intacto; se sumerge en el heroísmo. Aún no
advierte entre los defensores de Sebastopol ni ambición ni amor
propio, ni ningún otro sentimiento mezquino. Para él es aquélla una
epopeya sublime, cuyos héroes “son dignos de la Grecia”. Por otra
parte, sus notas no atestiguan ningún esfuerzo de imaginación,
ningún ensayo de representación objetiva; el autor se pasea por la
ciudad; mira con lucidez, pero narra en una forma que carece de
libertad: “Veis... Entráis... Advertís...”. Todo esto es periodismo, con
algunas hermosas impresiones del natural.
Muy distinta es la escena segunda: Sebastopol en mayo de 1855.
Desde las primeras líneas se lee:
El amor propio de millares de hombres ha luchado aquí, se ha
apagado en la muerte...
Y más adelante:
...Y como había muchos hombres, había muchas vanidades...
¡Vanidad, vanidad, por todas partes vanidad, aun a las puertas de la
tumba! Es la enfermedad particular de nuestro siglo... ¿Por qué los
Homero y los Shakespeare hablan del amor, de la gloria, del dolor, y
por qué la literatura de nuestro siglo no es más que la historia sin
término de los vanidosos y de los advenedizos?
Welcome to our website – the ideal destination for book lovers and
knowledge seekers. With a mission to inspire endlessly, we offer a
vast collection of books, ranging from classic literary works to
specialized publications, self-development books, and children's
literature. Each book is a new journey of discovery, expanding
knowledge and enriching the soul of the reade

Our website is not just a platform for buying books, but a bridge
connecting readers to the timeless values of culture and wisdom. With
an elegant, user-friendly interface and an intelligent search system,
we are committed to providing a quick and convenient shopping
experience. Additionally, our special promotions and home delivery
services ensure that you save time and fully enjoy the joy of reading.

Let us accompany you on the journey of exploring knowledge and


personal growth!

ebookgate.com

You might also like