100% found this document useful (3 votes)
53 views

Buy ebook Learning Deep Learning Theory and Practice of Neural Networks Computer Vision Natural Language Processing and Transformers Using TensorFlow 1st Edition Magnus Ekman cheap price

Using

Uploaded by

nodenventim8
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
100% found this document useful (3 votes)
53 views

Buy ebook Learning Deep Learning Theory and Practice of Neural Networks Computer Vision Natural Language Processing and Transformers Using TensorFlow 1st Edition Magnus Ekman cheap price

Using

Uploaded by

nodenventim8
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 38

Get ebook downloads in full at ebookmeta.

com

Learning Deep Learning Theory and Practice of


Neural Networks Computer Vision Natural Language
Processing and Transformers Using TensorFlow 1st
Edition Magnus Ekman
https://ebookmeta.com/product/learning-deep-learning-theory-
and-practice-of-neural-networks-computer-vision-natural-
language-processing-and-transformers-using-tensorflow-1st-
edition-magnus-ekman/

OR CLICK BUTTON

DOWNLOAD NOW

Explore and download more ebook at https://ebookmeta.com


Recommended digital products (PDF, EPUB, MOBI) that
you can download immediately if you are interested.

Learning Deep Learning Theory and Practice of Neural


Networks Computer Vision NLP and Transformers using
TensorFlow 1st Edition Ekman Magnus
https://ebookmeta.com/product/learning-deep-learning-theory-and-
practice-of-neural-networks-computer-vision-nlp-and-transformers-
using-tensorflow-1st-edition-ekman-magnus/
ebookmeta.com

Deep Learning Approach for Natural Language Processing,


Speech, and Computer Vision: Techniques and Use Cases 1st
Edition L. Ashok Kumar
https://ebookmeta.com/product/deep-learning-approach-for-natural-
language-processing-speech-and-computer-vision-techniques-and-use-
cases-1st-edition-l-ashok-kumar/
ebookmeta.com

Deep Learning for Natural Language Processing Develop Deep


Learning Models for your Natural Language Problems Jason
Brownlee
https://ebookmeta.com/product/deep-learning-for-natural-language-
processing-develop-deep-learning-models-for-your-natural-language-
problems-jason-brownlee/
ebookmeta.com

Crime and the Chinese Dream 1st Edition Børge Bakken

https://ebookmeta.com/product/crime-and-the-chinese-dream-1st-edition-
borge-bakken/

ebookmeta.com
Understanding the Faith A Survey of Christian Apologetics
1st Edition Jeff Myers

https://ebookmeta.com/product/understanding-the-faith-a-survey-of-
christian-apologetics-1st-edition-jeff-myers/

ebookmeta.com

Intelligence and Abilities 1st Edition Cooper Colin

https://ebookmeta.com/product/intelligence-and-abilities-1st-edition-
cooper-colin/

ebookmeta.com

On Operads Bimodules and Analytic Functors 1st Edition


Nicola Gambino

https://ebookmeta.com/product/on-operads-bimodules-and-analytic-
functors-1st-edition-nicola-gambino/

ebookmeta.com

Quarantine East European Jewish Immigrants and the New


York City Epidemics of 1892 2nd Edition Howard Markel

https://ebookmeta.com/product/quarantine-east-european-jewish-
immigrants-and-the-new-york-city-epidemics-of-1892-2nd-edition-howard-
markel/
ebookmeta.com

Pain Medicine at a Glance 1st Edition Beth B. Hogans

https://ebookmeta.com/product/pain-medicine-at-a-glance-1st-edition-
beth-b-hogans/

ebookmeta.com
Medieval Bochet Mead Honey Liqueur Recipe Making Cooking 1
1st Edition Atlas Obscura

https://ebookmeta.com/product/medieval-bochet-mead-honey-liqueur-
recipe-making-cooking-1-1st-edition-atlas-obscura/

ebookmeta.com
Learning Deep Learning
This page intentionally left blank
Learning Deep Learning
THEORY AND PRACTICE OF NEURAL
NETWORKS, COMPUTER VISION, NATURAL
LANGUAGE PROCESSING, AND
TRANSFORMERS USING TENSORFLOW

MAGNUS EKMAN

Boston • Columbus • New York • San Francisco • Amsterdam • Cape Town


Dubai • London • Madrid • Milan • Munich • Paris • Montreal • Toronto • Delhi • Mexico City
São Paulo • Sydney • Hong Kong • Seoul • Singapore • Taipei • Tokyo
Many of the designations used by manufacturers and sellers to distinguish their products are claimed
as trademarks. Where those designations appear in this book, and the publisher was aware of a
trademark claim, the designations have been printed with initial capital letters or in all capitals.
The author and publisher have taken care in the preparation of this book, but make no expressed
or implied warranty of any kind and assume no responsibility for errors or omissions. No liability is
assumed for incidental or consequential damages in connection with or arising out of the use of the
information or programs contained herein.
NVIDIA makes no warranty or representation that the techniques described herein are free from any
Intellectual Property claims. The reader assumes all risk of any such claims based on his or her use of
these techniques.
For information about buying this title in bulk quantities, or for special sales opportunities (which may
include electronic versions; custom cover designs; and content particular to your business, training
goals, marketing focus, or branding interests), please contact our corporate sales department at
[email protected] or (800) 382-3419.
For government sales inquiries, please contact [email protected].
For questions about sales outside the U.S., please contact [email protected].
Visit us on the Web: informit.com/aw
Library of Congress Control Number: 2021937264
Copyright © 2022 NVIDIA Corporation
Cover image: R.Eva Robot design by Gavriil Klimov and Gregor Kopka
Figures P-4, 8-8, 8-10, 16-1, 16-6, 16-7, B-1, J-1, J-2: Magnus Ekman
All rights reserved. This publication is protected by copyright, and permission must be obtained from
the publisher prior to any prohibited reproduction, storage in a retrieval system, or transmission in any
form or by any means, electronic, mechanical, photocopying, recording, or likewise. For information
regarding permissions, request forms and the appropriate contacts within the Pearson Education
Global Rights & Permissions Department, please visit www.pearson.com/permissions.
ISBN-13: 978-0-13-747035-8
ISBN-10: 0-13-747035-5
ScoutAutomatedPrintCode
For my wife Jennifer, my children Sebastian and Sofia, my dog Babette,
and my parents Ingrid and Krister
This page intentionally left blank
Contents

Foreword by Dr. Anima Anandkumar���������������������������������������������������������������� xxi

Foreword by Dr. Craig Clawson ����������������������������������������������������������������������� xxiii

Preface������������������������������������������������������������������������������������������������������������������ xxv

Acknowledgments ������������������������������������������������������������������������������������������������� li

About the Author �������������������������������������������������������������������������������������������������� liii

1 THE ROSENBLATT PERCEPTRON 1

Example of a Two-Input Perceptron ������������������������������������������������������������������������������� 4

The Perceptron Learning Algorithm ������������������������������������������������������������������������������� 7

Limitations of the Perceptron����������������������������������������������������������������������������������������� 15

Combining Multiple Perceptrons ����������������������������������������������������������������������������������� 17

Implementing Perceptrons with Linear Algebra ��������������������������������������������������������20

Vector Notation ����������������������������������������������������������������������������������������������������������� 21

Dot Product ����������������������������������������������������������������������������������������������������������������� 23

Extending the Vector to a 2D Matrix ���������������������������������������������������������������������� 24

Matrix-Vector Multiplication ����������������������������������������������������������������������������������� 25

Matrix-Matrix Multiplication ����������������������������������������������������������������������������������� 26

Summary of Vector and Matrix Operations Used for Perceptrons����������������� 28

Dot Product as a Matrix Multiplication ����������������������������������������������������������������� 29

Extending to Multidimensional Tensors �������������������������������������������������������������� 29

vii
Contents

Geometric Interpretation of the Perceptron������������������������������������������������������������������30

Understanding the Bias Term������������������������������������������������������������������������������������������33

Concluding Remarks on the Perceptron������������������������������������������������������������������������34

2 GRADIENT-BASED LEARNING 37

Intuitive Explanation of the Perceptron Learning Algorithm ������������������������������������37

Derivatives and Optimization Problems ������������������������������������������������������������������������ 41

Solving a Learning Problem with Gradient Descent ���������������������������������������������������44

Gradient Descent for Multidimensional Functions ����������������������������������������������46

Constants and Variables in a Network���������������������������������������������������������������������������48

Analytic Explanation of the Perceptron Learning Algorithm ������������������������������������49

Geometric Description of the Perceptron Learning Algorithm ���������������������������������51

Revisiting Different Types of Perceptron Plots ������������������������������������������������������������52

Using a Perceptron to Identify Patterns ������������������������������������������������������������������������54

Concluding Remarks on Gradient-Based Learning������������������������������������������������������57

3 SIGMOID NEURONS AND BACKPROPAGATION 59

Modified Neurons to Enable Gradient Descent for Multilevel Networks������������������60

Which Activation Function Should We Use? ������������������������������������������������������������������66

Function Composition and the Chain Rule���������������������������������������������������������������������67

Using Backpropagation to Compute the Gradient���������������������������������������������������������69

Forward Pass��������������������������������������������������������������������������������������������������������������� 78

Backward Pass������������������������������������������������������������������������������������������������������������ 78

Weight Adjustment������������������������������������������������������������������������������������������������������ 79

Backpropagation with Multiple Neurons per Layer������������������������������������������������������81

Programming Example: Learning the XOR Function���������������������������������������������������82

viii
Contents

Network Architectures����������������������������������������������������������������������������������������������������� 87

Concluding Remarks on Backpropagation�������������������������������������������������������������������� 89

4 FULLY CONNECTED NETWORKS APPLIED TO


MULTICLASS CLASSIFICATION 91

Introduction to Datasets Used When Training Networks ������������������������������������������ 92

Exploring the Dataset ������������������������������������������������������������������������������������������������94

Human Bias in Datasets���������������������������������������������������������������������������������������������96

Training Set, Test Set, and Generalization ����������������������������������������������������������� 98

Hyperparameter Tuning and Test Set Information Leakage ������������������������ 100

Training and Inference��������������������������������������������������������������������������������������������������� 100

Extending the Network and Learning Algorithm to Do Multiclass


Classification ������������������������������������������������������������������������������������������������������������������ 101

Network for Digit Classification������������������������������������������������������������������������������������ 102

Loss Function for Multiclass Classification ��������������������������������������������������������������� 103

Programming Example: Classifying Handwritten Digits ��������������������������������������� 104

Mini-Batch Gradient Descent����������������������������������������������������������������������������������������114

Concluding Remarks on Multiclass Classification ����������������������������������������������������115

5 TOWARD DL: FRAMEWORKS AND NETWORK TWEAKS 117

Programming Example: Moving to a DL Framework�������������������������������������������������118

The Problem of Saturated Neurons and Vanishing Gradients ������������������������������ 124

Initialization and Normalization Techniques to Avoid Saturated Neurons������������ 126

Weight Initialization �������������������������������������������������������������������������������������������������126

Input Standardization ��������������������������������������������������������������������������������������������� 128

Batch Normalization������������������������������������������������������������������������������������������������ 128

Cross-Entropy Loss Function to Mitigate Effect of Saturated Output Neurons  130

Computer Implementation of the Cross-Entropy Loss Function ������������������ 135

ix
Contents

Different Activation Functions to Avoid Vanishing Gradient in


Hidden Layers �����������������������������������������������������������������������������������������������������������������136

Variations on Gradient Descent to Improve Learning ����������������������������������������������141

Experiment: Tweaking Network and Learning Parameters�������������������������������������143

Hyperparameter Tuning and Cross-Validation ����������������������������������������������������������146

Using a Validation Set to Avoid Overfitting����������������������������������������������������������148

Cross-Validation to Improve Use of Training Data���������������������������������������������� 149

Concluding Remarks on the Path Toward Deep Learning����������������������������������������150

6 FULLY CONNECTED NETWORKS APPLIED TO


REGRESSION153

Output Units ����������������������������������������������������������������������������������������������������������������������154

Logistic Unit for Binary Classification������������������������������������������������������������������� 155

Softmax Unit for Multiclass Classification ����������������������������������������������������������156

Linear Unit for Regression ������������������������������������������������������������������������������������� 159

The Boston Housing Dataset�������������������������������������������������������������������������������������������160

Programming Example: Predicting House Prices with a DNN ������������������������������� 161

Improving Generalization with Regularization ����������������������������������������������������������166

Experiment: Deeper and Regularized Models for House Price Prediction ����������169

Concluding Remarks on Output Units and Regression Problems �������������������������170

7 CONVOLUTIONAL NEURAL NETWORKS APPLIED TO


IMAGE CLASSIFICATION171

The CIFAR-10 Dataset ����������������������������������������������������������������������������������������������������173

Characteristics and Building Blocks for Convolutional Layers �������������������������������175

Combining Feature Maps into a Convolutional Layer�������������������������������������������������180

Combining Convolutional and Fully Connected Layers into a Network ����������������181

Effects of Sparse Connections and Weight Sharing �������������������������������������������������185

x
Contents

Programming Example: Image Classification with a Convolutional Network ���� 190

Concluding Remarks on Convolutional Networks ��������������������������������������������������� 201

8 DEEPER CNNs AND PRETRAINED MODELS 205

VGGNet������������������������������������������������������������������������������������������������������������������������������206

GoogLeNet������������������������������������������������������������������������������������������������������������������������ 210

ResNet ������������������������������������������������������������������������������������������������������������������������������ 215

Programming Example: Use a Pretrained ResNet Implementation ���������������������223

Transfer Learning������������������������������������������������������������������������������������������������������������226

Backpropagation for CNN and Pooling������������������������������������������������������������������������228

Data Augmentation as a Regularization Technique���������������������������������������������������229

Mistakes Made by CNNs ������������������������������������������������������������������������������������������������ 231

Reducing Parameters with Depthwise Separable Convolutions ���������������������������232

Striking the Right Network Design Balance with EfficientNet���������������������������������234

Concluding Remarks on Deeper CNNs������������������������������������������������������������������������235

9 PREDICTING TIME SEQUENCES WITH RECURRENT


NEURAL NETWORKS 237

Limitations of Feedforward Networks������������������������������������������������������������������������ 241

Recurrent Neural Networks������������������������������������������������������������������������������������������242

Mathematical Representation of a Recurrent Layer ������������������������������������������������243

Combining Layers into an RNN ������������������������������������������������������������������������������������245

Alternative View of RNN and Unrolling in Time���������������������������������������������������������246

Backpropagation Through Time ���������������������������������������������������������������������������������248

Programming Example: Forecasting Book Sales ���������������������������������������������������250

Standardize Data and Create Training Examples ��������������������������������������������� 256

Creating a Simple RNN ������������������������������������������������������������������������������������������ 258

xi
Contents

Comparison with a Network Without Recurrence����������������������������������������������262

Extending the Example to Multiple Input Variables�������������������������������������������263

Dataset Considerations for RNNs��������������������������������������������������������������������������������� 264

Concluding Remarks on RNNs ������������������������������������������������������������������������������������� 265

10 LONG SHORT-TERM MEMORY 267

Keeping Gradients Healthy ��������������������������������������������������������������������������������������������267

Introduction to LSTM������������������������������������������������������������������������������������������������������ 272

LSTM Activation Functions ������������������������������������������������������������������������������������������� 277

Creating a Network of LSTM Cells ������������������������������������������������������������������������������ 278

Alternative View of LSTM ��������������������������������������������������������������������������������������������� 280

Related Topics: Highway Networks and Skip Connections ������������������������������������ 282

Concluding Remarks on LSTM ������������������������������������������������������������������������������������ 282

11 TEXT AUTOCOMPLETION WITH LSTM AND


BEAM SEARCH 285

Encoding Text ������������������������������������������������������������������������������������������������������������������ 285

Longer-Term Prediction and Autoregressive Models ��������������������������������������������� 287

Beam Search ������������������������������������������������������������������������������������������������������������������ 289

Programming Example: Using LSTM for Text Autocompletion������������������������������ 291

Bidirectional RNNs ��������������������������������������������������������������������������������������������������������� 298

Different Combinations of Input and Output Sequences������������������������������������������ 300

Concluding Remarks on Text Autocompletion with LSTM��������������������������������������� 302

12 NEURAL LANGUAGE MODELS AND WORD


EMBEDDINGS303

Introduction to Language Models and Their Use Cases ������������������������������������������ 304

Examples of Different Language Models ������������������������������������������������������������������ 307

xii
Contents

n-Gram Model ���������������������������������������������������������������������������������������������������������� 307

Skip-Gram Model ���������������������������������������������������������������������������������������������������� 309

Neural Language Model������������������������������������������������������������������������������������������ 309

Benefit of Word Embeddings and Insight into How They Work �������������������������������313

Word Embeddings Created by Neural Language Models ����������������������������������������315

Programming Example: Neural Language Model and Resulting


Embeddings ����������������������������������������������������������������������������������������������������������������������319

King − Man + Woman! = Queen ������������������������������������������������������������������������������������ 329

King − Man + Woman ! = Queen������������������������������������������������������������������������������������ 331

Language Models, Word Embeddings, and Human Biases ������������������������������������ 332

Related Topic: Sentiment Analysis of Text������������������������������������������������������������������ 334

Bag-of-Words and Bag-of-N-Grams ������������������������������������������������������������������ 334

Similarity Metrics ��������������������������������������������������������������������������������������������������� 338

Combining BoW and DL ������������������������������������������������������������������������������������������ 340

Concluding Remarks on Language Models and Word Embeddings ��������������������� 342

13 WORD EMBEDDINGS FROM word2vec AND GloVe343

Using word2vec to Create Word Embeddings Without a Language Model ��������� 344

Reducing Computational Complexity Compared to a Language Model ������ 344

Continuous Bag-of-Words Model ������������������������������������������������������������������������ 346

Continuous Skip-Gram Model ������������������������������������������������������������������������������ 348

Optimized Continuous Skip-Gram Model to Further Reduce


Computational Complexity �������������������������������������������������������������������������������������349

Additional Thoughts on word2vec ������������������������������������������������������������������������������ 352

word2vec in Matrix Form ��������������������������������������������������������������������������������������������� 353

Wrapping Up word2vec ������������������������������������������������������������������������������������������������ 354

xiii
Contents

Programming Example: Exploring Properties of GloVe Embeddings ������������������ 356

Concluding Remarks on word2vec and GloVe �����������������������������������������������������������361

14 SEQUENCE-TO-SEQUENCE NETWORKS AND NATURAL


LANGUAGE TRANSLATION 363

Encoder-Decoder Model for Sequence-


to-Sequence Learning ��������������������������������������������������������������������������������������������������� 366

Introduction to the Keras Functional API ������������������������������������������������������������������ 368

Programming Example: Neural Machine Translation ����������������������������������������������371

Experimental Results ���������������������������������������������������������������������������������������������������� 387

Properties of the Intermediate Representation��������������������������������������������������������� 389

Concluding Remarks on Language Translation��������������������������������������������������������� 391

15 ATTENTION AND THE TRANSFORMER 393

Rationale Behind Attention ��������������������������������������������������������������������������������������������394

Attention in Sequence-to-Sequence Networks��������������������������������������������������������� 395

Computing the Alignment Vector���������������������������������������������������������������������������400

Mathematical Notation and Variations on the Alignment Vector �������������������402

Attention in a Deeper Network�������������������������������������������������������������������������������404

Additional Considerations ��������������������������������������������������������������������������������������405

Alternatives to Recurrent Networks ��������������������������������������������������������������������������� 406

Self-Attention ������������������������������������������������������������������������������������������������������������������ 407

Multi-head Attention �������������������������������������������������������������������������������������������������������410

The Transformer ������������������������������������������������������������������������������������������������������������� 411

Concluding Remarks on the Transformer������������������������������������������������������������������� 415

xiv
Other documents randomly have
different content
Y el jardinero no dejó de hacerlo como había dicho; pero pasaron días y
meses sin que pudiese encontrar un barco que saliera para la isla de Ébano.
Esto en cuanto á Kamaralzamán.

Pero respecto á Sett Budur, le ocurrieron cosas tan maravillosas y


sorprendentes, ¡oh rey afortunado! que me apresuro á hablarte de ella.
¡Verás!
Efectivamente, en cuanto Sett Budur se despertó, su primer movimiento
fué abrir los brazos para estrechar entre ellos á Kamaralzamán. Y su
asombro fué grande al no encontrarle á su lado, y extraordinaria su sorpresa
al enterarse de que el calzón se le había desatado y el cordón de seda había
desaparecido con la cornalina talismánica. Pero creyó que Kamaralzamán,
que todavía no la había visto, la habría sacado afuera para mirarla mejor. Y
aguardó pacientemente.
Cuando, pasado un buen rato, vió que Kamaralzamán no volvía, empezó
á alarmarse mucho, y pronto apoderóse de ella una aflicción inconcebible.
Y cuando llegó la noche sin que hubiera regresado Kamaralzamán, ya no
supo qué pensar de aquella desaparición, pero dijo para sí: «¡Ya Alah! ¿Qué
cosa tan extraordinaria habrá podido obligar á Kamaralzamán á alejarse,
cuando no puede pasar una hora apartado de mí? Pero ¿por qué se habrá
llevado el talismán? ¡Ah! ¡Maldito talismán! ¡tú eres la causa de nuestra
desdicha! ¡Y á ti, maldito Marzauán, confúndate Alah por haberme regalado
una cosa tan funesta!»
Pero cuando Sett Budur vió que pasados dos días no regresaba su
esposo, en vez de aturdirse, como lo habría hecho cualquier mujer en tales
circunstancias, encontró dentro de la desgracia una firmeza de la cual no
suelen estar provistas las personas de su sexo. Nada quiso decir á nadie
respecto á su desaparición, por temor á que sus esclavas la traicionasen ó la
sirvieran mal; ocultó su dolor dentro del alma, y prohibió á la doncella que
la acompañaba que dijera palabra de ello. Después, como sabía que se
parecía perfectamente á Kamaralzamán, abandonó en seguida su traje de
mujer, cogió de un cajón la ropa de Kamaralzamán, y empezó á vestírsela.
Lo primero que se puso fué un hermoso ropón rayado, bien ajustado á la
cintura, y que dejaba el cuello al aire; se ciñó un cinturón de filigrana de
oro, en el cual colocó un puñal con mango de jade incrustado de rubíes;
envolvióse la cabeza en un pañuelo de seda de muchos colores, que se
apretó á la frente con una triple cuerda de pelo sedoso de camello joven, y
hechos tales preparativos, cogió un látigo, cimbreó la cintura, y mandó á su
esclava que se vistiera con la ropa que Budur acababa de quitarse, y que
anduviera detrás de ella. De tal modo, todo el mundo, al ver á la doncella,
podía decir: «¡Es Sett Budur!» Salió entonces de la tienda, y dió la señal de
marcha.
Sett Budur, disfrazada de Kamaralzamán, se puso á viajar, seguida por su
escolta, durante días y noches, hasta que llegó á una ciudad situada á orillas
del mar. Entonces mandó armar las tiendas á las puertas de la plaza, y
preguntó: «¿Cuál es esta ciudad?» Y le contestaron: «Es la capital de la isla
de Ébano.» Preguntó otra vez: «¿Cuál es su rey?» Y contestaron: «Se llama
el rey Armanos.» Volvió á preguntar: «¿Tiene hijos?» Y le contestaron:
«Tiene sólo una hija, la virgen más hermosa del reino, y su nombre es
Hayat-Alnefus...»[E].
En este momento de su narración, Schahrazada vió aparecer la mañana,
y se calló discretamente.
ÍNDICE
Páginas
HISTORIA ENCANTADORA DE LOS ANIMALES Y DE LAS
AVES 9-66
Empieza en la 146.ª noche y termina en la 151.ª, y contiene:
CUENTO DE LA OCA, EL PAVO REAL Y LA PAVA REAL 9-27
EL PASTOR Y LA JOVEN 28-32
CUENTO DE LA TORTUGA Y EL MARTÍN PESCADOR 32-37
CUENTO DEL LOBO Y EL ZORRO 37-50
Se encuentra intercalado:
EL CUENTO DEL HALCÓN Y LA PERDIZ 44-45
CUENTO DEL RATÓN Y LA COMADREJA 51-53
CUENTO DEL CUERVO Y EL GATO DE ALGALIA 53-55
CUENTO DEL CUERVO Y EL ZORRO 55-66
Comprende intercalado:
LA PULGA Y EL RATÓN 57-63
EL BUITRE 64
EL GORRIÓN 65-66
HISTORIA DE ALÍ BEN-BEKAR Y LA BELLA
SCHAMSENNAHAR 69-143
Empieza en la 152.ª noche y termina al final de la 169.ª
HISTORIA DE KAMARALZAMÁN Y LA PRINCESA BUDUR, 145-
LA LUNA MÁS BELLA ENTRE TODAS LAS LUNAS 240
Comprende en este tomo desde la 170.ª noche hasta la 208.ª

NOTAS:
[A] Sol de un día hermoso.
[B] Obsérvese que desde este momento el joyero es quien hace el relato, sin
transición.
[C] La Luna del Siglo.
[D] Como las noches anteriores ocupan cada una pocos renglones en el texto
árabe, he suprimido las indicaciones de su orden numérico para no interrumpir el
relato con demasiada frecuencia. Lo mismo procederé en adelante, siempre que se
presente el mismo caso.—N. del T.
[E] Vida de las Almas.
*** END OF THE PROJECT GUTENBERG EBOOK EL LIBRO DE LAS
MIL NOCHES Y UNA NOCHE; T. 6 ***

Updated editions will replace the previous one—the old editions will
be renamed.

Creating the works from print editions not protected by U.S.


copyright law means that no one owns a United States copyright in
these works, so the Foundation (and you!) can copy and distribute it
in the United States without permission and without paying
copyright royalties. Special rules, set forth in the General Terms of
Use part of this license, apply to copying and distributing Project
Gutenberg™ electronic works to protect the PROJECT GUTENBERG™
concept and trademark. Project Gutenberg is a registered trademark,
and may not be used if you charge for an eBook, except by following
the terms of the trademark license, including paying royalties for use
of the Project Gutenberg trademark. If you do not charge anything
for copies of this eBook, complying with the trademark license is
very easy. You may use this eBook for nearly any purpose such as
creation of derivative works, reports, performances and research.
Project Gutenberg eBooks may be modified and printed and given
away—you may do practically ANYTHING in the United States with
eBooks not protected by U.S. copyright law. Redistribution is subject
to the trademark license, especially commercial redistribution.

START: FULL LICENSE


THE FULL PROJECT GUTENBERG LICENSE
PLEASE READ THIS BEFORE YOU DISTRIBUTE OR USE THIS WORK

To protect the Project Gutenberg™ mission of promoting the free


distribution of electronic works, by using or distributing this work (or
any other work associated in any way with the phrase “Project
Gutenberg”), you agree to comply with all the terms of the Full
Project Gutenberg™ License available with this file or online at
www.gutenberg.org/license.

Section 1. General Terms of Use and


Redistributing Project Gutenberg™
electronic works
1.A. By reading or using any part of this Project Gutenberg™
electronic work, you indicate that you have read, understand, agree
to and accept all the terms of this license and intellectual property
(trademark/copyright) agreement. If you do not agree to abide by all
the terms of this agreement, you must cease using and return or
destroy all copies of Project Gutenberg™ electronic works in your
possession. If you paid a fee for obtaining a copy of or access to a
Project Gutenberg™ electronic work and you do not agree to be
bound by the terms of this agreement, you may obtain a refund
from the person or entity to whom you paid the fee as set forth in
paragraph 1.E.8.

1.B. “Project Gutenberg” is a registered trademark. It may only be


used on or associated in any way with an electronic work by people
who agree to be bound by the terms of this agreement. There are a
few things that you can do with most Project Gutenberg™ electronic
works even without complying with the full terms of this agreement.
See paragraph 1.C below. There are a lot of things you can do with
Project Gutenberg™ electronic works if you follow the terms of this
agreement and help preserve free future access to Project
Gutenberg™ electronic works. See paragraph 1.E below.
1.C. The Project Gutenberg Literary Archive Foundation (“the
Foundation” or PGLAF), owns a compilation copyright in the
collection of Project Gutenberg™ electronic works. Nearly all the
individual works in the collection are in the public domain in the
United States. If an individual work is unprotected by copyright law
in the United States and you are located in the United States, we do
not claim a right to prevent you from copying, distributing,
performing, displaying or creating derivative works based on the
work as long as all references to Project Gutenberg are removed. Of
course, we hope that you will support the Project Gutenberg™
mission of promoting free access to electronic works by freely
sharing Project Gutenberg™ works in compliance with the terms of
this agreement for keeping the Project Gutenberg™ name associated
with the work. You can easily comply with the terms of this
agreement by keeping this work in the same format with its attached
full Project Gutenberg™ License when you share it without charge
with others.

1.D. The copyright laws of the place where you are located also
govern what you can do with this work. Copyright laws in most
countries are in a constant state of change. If you are outside the
United States, check the laws of your country in addition to the
terms of this agreement before downloading, copying, displaying,
performing, distributing or creating derivative works based on this
work or any other Project Gutenberg™ work. The Foundation makes
no representations concerning the copyright status of any work in
any country other than the United States.

1.E. Unless you have removed all references to Project Gutenberg:

1.E.1. The following sentence, with active links to, or other


immediate access to, the full Project Gutenberg™ License must
appear prominently whenever any copy of a Project Gutenberg™
work (any work on which the phrase “Project Gutenberg” appears,
or with which the phrase “Project Gutenberg” is associated) is
accessed, displayed, performed, viewed, copied or distributed:
This eBook is for the use of anyone anywhere in the United
States and most other parts of the world at no cost and with
almost no restrictions whatsoever. You may copy it, give it away
or re-use it under the terms of the Project Gutenberg License
included with this eBook or online at www.gutenberg.org. If you
are not located in the United States, you will have to check the
laws of the country where you are located before using this
eBook.

1.E.2. If an individual Project Gutenberg™ electronic work is derived


from texts not protected by U.S. copyright law (does not contain a
notice indicating that it is posted with permission of the copyright
holder), the work can be copied and distributed to anyone in the
United States without paying any fees or charges. If you are
redistributing or providing access to a work with the phrase “Project
Gutenberg” associated with or appearing on the work, you must
comply either with the requirements of paragraphs 1.E.1 through
1.E.7 or obtain permission for the use of the work and the Project
Gutenberg™ trademark as set forth in paragraphs 1.E.8 or 1.E.9.

1.E.3. If an individual Project Gutenberg™ electronic work is posted


with the permission of the copyright holder, your use and distribution
must comply with both paragraphs 1.E.1 through 1.E.7 and any
additional terms imposed by the copyright holder. Additional terms
will be linked to the Project Gutenberg™ License for all works posted
with the permission of the copyright holder found at the beginning
of this work.

1.E.4. Do not unlink or detach or remove the full Project


Gutenberg™ License terms from this work, or any files containing a
part of this work or any other work associated with Project
Gutenberg™.

1.E.5. Do not copy, display, perform, distribute or redistribute this


electronic work, or any part of this electronic work, without
prominently displaying the sentence set forth in paragraph 1.E.1
with active links or immediate access to the full terms of the Project
Gutenberg™ License.

1.E.6. You may convert to and distribute this work in any binary,
compressed, marked up, nonproprietary or proprietary form,
including any word processing or hypertext form. However, if you
provide access to or distribute copies of a Project Gutenberg™ work
in a format other than “Plain Vanilla ASCII” or other format used in
the official version posted on the official Project Gutenberg™ website
(www.gutenberg.org), you must, at no additional cost, fee or
expense to the user, provide a copy, a means of exporting a copy, or
a means of obtaining a copy upon request, of the work in its original
“Plain Vanilla ASCII” or other form. Any alternate format must
include the full Project Gutenberg™ License as specified in
paragraph 1.E.1.

1.E.7. Do not charge a fee for access to, viewing, displaying,


performing, copying or distributing any Project Gutenberg™ works
unless you comply with paragraph 1.E.8 or 1.E.9.

1.E.8. You may charge a reasonable fee for copies of or providing


access to or distributing Project Gutenberg™ electronic works
provided that:

• You pay a royalty fee of 20% of the gross profits you derive
from the use of Project Gutenberg™ works calculated using the
method you already use to calculate your applicable taxes. The
fee is owed to the owner of the Project Gutenberg™ trademark,
but he has agreed to donate royalties under this paragraph to
the Project Gutenberg Literary Archive Foundation. Royalty
payments must be paid within 60 days following each date on
which you prepare (or are legally required to prepare) your
periodic tax returns. Royalty payments should be clearly marked
as such and sent to the Project Gutenberg Literary Archive
Foundation at the address specified in Section 4, “Information
about donations to the Project Gutenberg Literary Archive
Foundation.”

• You provide a full refund of any money paid by a user who


notifies you in writing (or by e-mail) within 30 days of receipt
that s/he does not agree to the terms of the full Project
Gutenberg™ License. You must require such a user to return or
destroy all copies of the works possessed in a physical medium
and discontinue all use of and all access to other copies of
Project Gutenberg™ works.

• You provide, in accordance with paragraph 1.F.3, a full refund of


any money paid for a work or a replacement copy, if a defect in
the electronic work is discovered and reported to you within 90
days of receipt of the work.

• You comply with all other terms of this agreement for free
distribution of Project Gutenberg™ works.

1.E.9. If you wish to charge a fee or distribute a Project Gutenberg™


electronic work or group of works on different terms than are set
forth in this agreement, you must obtain permission in writing from
the Project Gutenberg Literary Archive Foundation, the manager of
the Project Gutenberg™ trademark. Contact the Foundation as set
forth in Section 3 below.

1.F.

1.F.1. Project Gutenberg volunteers and employees expend


considerable effort to identify, do copyright research on, transcribe
and proofread works not protected by U.S. copyright law in creating
the Project Gutenberg™ collection. Despite these efforts, Project
Gutenberg™ electronic works, and the medium on which they may
be stored, may contain “Defects,” such as, but not limited to,
incomplete, inaccurate or corrupt data, transcription errors, a
copyright or other intellectual property infringement, a defective or
damaged disk or other medium, a computer virus, or computer
codes that damage or cannot be read by your equipment.

1.F.2. LIMITED WARRANTY, DISCLAIMER OF DAMAGES - Except for


the “Right of Replacement or Refund” described in paragraph 1.F.3,
the Project Gutenberg Literary Archive Foundation, the owner of the
Project Gutenberg™ trademark, and any other party distributing a
Project Gutenberg™ electronic work under this agreement, disclaim
all liability to you for damages, costs and expenses, including legal
fees. YOU AGREE THAT YOU HAVE NO REMEDIES FOR
NEGLIGENCE, STRICT LIABILITY, BREACH OF WARRANTY OR
BREACH OF CONTRACT EXCEPT THOSE PROVIDED IN PARAGRAPH
1.F.3. YOU AGREE THAT THE FOUNDATION, THE TRADEMARK
OWNER, AND ANY DISTRIBUTOR UNDER THIS AGREEMENT WILL
NOT BE LIABLE TO YOU FOR ACTUAL, DIRECT, INDIRECT,
CONSEQUENTIAL, PUNITIVE OR INCIDENTAL DAMAGES EVEN IF
YOU GIVE NOTICE OF THE POSSIBILITY OF SUCH DAMAGE.

1.F.3. LIMITED RIGHT OF REPLACEMENT OR REFUND - If you


discover a defect in this electronic work within 90 days of receiving
it, you can receive a refund of the money (if any) you paid for it by
sending a written explanation to the person you received the work
from. If you received the work on a physical medium, you must
return the medium with your written explanation. The person or
entity that provided you with the defective work may elect to provide
a replacement copy in lieu of a refund. If you received the work
electronically, the person or entity providing it to you may choose to
give you a second opportunity to receive the work electronically in
lieu of a refund. If the second copy is also defective, you may
demand a refund in writing without further opportunities to fix the
problem.

1.F.4. Except for the limited right of replacement or refund set forth
in paragraph 1.F.3, this work is provided to you ‘AS-IS’, WITH NO
OTHER WARRANTIES OF ANY KIND, EXPRESS OR IMPLIED,
INCLUDING BUT NOT LIMITED TO WARRANTIES OF
MERCHANTABILITY OR FITNESS FOR ANY PURPOSE.

1.F.5. Some states do not allow disclaimers of certain implied


warranties or the exclusion or limitation of certain types of damages.
If any disclaimer or limitation set forth in this agreement violates the
law of the state applicable to this agreement, the agreement shall be
interpreted to make the maximum disclaimer or limitation permitted
by the applicable state law. The invalidity or unenforceability of any
provision of this agreement shall not void the remaining provisions.

1.F.6. INDEMNITY - You agree to indemnify and hold the Foundation,


the trademark owner, any agent or employee of the Foundation,
anyone providing copies of Project Gutenberg™ electronic works in
accordance with this agreement, and any volunteers associated with
the production, promotion and distribution of Project Gutenberg™
electronic works, harmless from all liability, costs and expenses,
including legal fees, that arise directly or indirectly from any of the
following which you do or cause to occur: (a) distribution of this or
any Project Gutenberg™ work, (b) alteration, modification, or
additions or deletions to any Project Gutenberg™ work, and (c) any
Defect you cause.

Section 2. Information about the Mission


of Project Gutenberg™
Project Gutenberg™ is synonymous with the free distribution of
electronic works in formats readable by the widest variety of
computers including obsolete, old, middle-aged and new computers.
It exists because of the efforts of hundreds of volunteers and
donations from people in all walks of life.

Volunteers and financial support to provide volunteers with the


assistance they need are critical to reaching Project Gutenberg™’s
goals and ensuring that the Project Gutenberg™ collection will
remain freely available for generations to come. In 2001, the Project
Gutenberg Literary Archive Foundation was created to provide a
secure and permanent future for Project Gutenberg™ and future
generations. To learn more about the Project Gutenberg Literary
Archive Foundation and how your efforts and donations can help,
see Sections 3 and 4 and the Foundation information page at
www.gutenberg.org.

Section 3. Information about the Project


Gutenberg Literary Archive Foundation
The Project Gutenberg Literary Archive Foundation is a non-profit
501(c)(3) educational corporation organized under the laws of the
state of Mississippi and granted tax exempt status by the Internal
Revenue Service. The Foundation’s EIN or federal tax identification
number is 64-6221541. Contributions to the Project Gutenberg
Literary Archive Foundation are tax deductible to the full extent
permitted by U.S. federal laws and your state’s laws.

The Foundation’s business office is located at 809 North 1500 West,


Salt Lake City, UT 84116, (801) 596-1887. Email contact links and up
to date contact information can be found at the Foundation’s website
and official page at www.gutenberg.org/contact

Section 4. Information about Donations to


the Project Gutenberg Literary Archive
Foundation
Project Gutenberg™ depends upon and cannot survive without
widespread public support and donations to carry out its mission of
increasing the number of public domain and licensed works that can
be freely distributed in machine-readable form accessible by the
widest array of equipment including outdated equipment. Many
small donations ($1 to $5,000) are particularly important to
maintaining tax exempt status with the IRS.

The Foundation is committed to complying with the laws regulating


charities and charitable donations in all 50 states of the United
States. Compliance requirements are not uniform and it takes a
considerable effort, much paperwork and many fees to meet and
keep up with these requirements. We do not solicit donations in
locations where we have not received written confirmation of
compliance. To SEND DONATIONS or determine the status of
compliance for any particular state visit www.gutenberg.org/donate.

While we cannot and do not solicit contributions from states where


we have not met the solicitation requirements, we know of no
prohibition against accepting unsolicited donations from donors in
such states who approach us with offers to donate.

International donations are gratefully accepted, but we cannot make


any statements concerning tax treatment of donations received from
outside the United States. U.S. laws alone swamp our small staff.

Please check the Project Gutenberg web pages for current donation
methods and addresses. Donations are accepted in a number of
other ways including checks, online payments and credit card
donations. To donate, please visit: www.gutenberg.org/donate.

Section 5. General Information About


Project Gutenberg™ electronic works
Professor Michael S. Hart was the originator of the Project
Gutenberg™ concept of a library of electronic works that could be
freely shared with anyone. For forty years, he produced and
distributed Project Gutenberg™ eBooks with only a loose network of
volunteer support.
Project Gutenberg™ eBooks are often created from several printed
editions, all of which are confirmed as not protected by copyright in
the U.S. unless a copyright notice is included. Thus, we do not
necessarily keep eBooks in compliance with any particular paper
edition.

Most people start at our website which has the main PG search
facility: www.gutenberg.org.

This website includes information about Project Gutenberg™,


including how to make donations to the Project Gutenberg Literary
Archive Foundation, how to help produce our new eBooks, and how
to subscribe to our email newsletter to hear about new eBooks.
back

You might also like