100% found this document useful (2 votes)
24 views

Pattern recognition algorithms for data mining scalability knowledge discovery and soft granular computing 1st Edition Sankar K. Pal - Own the complete ebook set now in PDF and DOCX formats

The document promotes the book 'Pattern Recognition Algorithms for Data Mining' by Sankar K. Pal, which focuses on scalability, knowledge discovery, and soft granular computing. It provides links to download the book and other related ebooks or textbooks. The book includes various topics such as data mining, feature selection, and active learning, along with bibliographical references.

Uploaded by

idehgrala74
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
100% found this document useful (2 votes)
24 views

Pattern recognition algorithms for data mining scalability knowledge discovery and soft granular computing 1st Edition Sankar K. Pal - Own the complete ebook set now in PDF and DOCX formats

The document promotes the book 'Pattern Recognition Algorithms for Data Mining' by Sankar K. Pal, which focuses on scalability, knowledge discovery, and soft granular computing. It provides links to download the book and other related ebooks or textbooks. The book includes various topics such as data mining, feature selection, and active learning, along with bibliographical references.

Uploaded by

idehgrala74
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 47

Visit ebookfinal.

com to download the full version and


explore more ebooks or textbooks

Pattern recognition algorithms for data mining


scalability knowledge discovery and soft granular
computing 1st Edition Sankar K. Pal

_____ Click the link below to download _____


https://ebookfinal.com/download/pattern-recognition-
algorithms-for-data-mining-scalability-knowledge-discovery-
and-soft-granular-computing-1st-edition-sankar-k-pal/

Explore and download more ebooks or textbook at ebookfinal.com


Here are some recommended products that we believe you will be
interested in. You can click the link to download.

Pattern Recognition Algorithms for Data Mining 1st Edition


Sankar K. Pal

https://ebookfinal.com/download/pattern-recognition-algorithms-for-
data-mining-1st-edition-sankar-k-pal/

Data Mining and Knowledge Discovery Technologies Advances


in Data Warehousing and Mining 1st Edition David Taniar

https://ebookfinal.com/download/data-mining-and-knowledge-discovery-
technologies-advances-in-data-warehousing-and-mining-1st-edition-
david-taniar/

Knowledge Discovery and Data Mining Challenges and


Realities Xingquan Zhu

https://ebookfinal.com/download/knowledge-discovery-and-data-mining-
challenges-and-realities-xingquan-zhu/

Cloud Computing Solutions 1st Edition Souvik Pal

https://ebookfinal.com/download/cloud-computing-solutions-1st-edition-
souvik-pal/
Pattern Recognition 1st Edition William Gibson

https://ebookfinal.com/download/pattern-recognition-1st-edition-
william-gibson/

Pattern Recognition and Trading Decisions Chris Satchwell

https://ebookfinal.com/download/pattern-recognition-and-trading-
decisions-chris-satchwell/

Pattern Recognition 4ed Edition Sergios Theodoridis

https://ebookfinal.com/download/pattern-recognition-4ed-edition-
sergios-theodoridis/

Data Mining for Bioinformatics 1st Edition Sumeet Dua

https://ebookfinal.com/download/data-mining-for-bioinformatics-1st-
edition-sumeet-dua/

Algorithms and Data Structures The Science of Computing


Electrical and Computer Engineering Series 1st Edition
Douglas Baldwin
https://ebookfinal.com/download/algorithms-and-data-structures-the-
science-of-computing-electrical-and-computer-engineering-series-1st-
edition-douglas-baldwin/
Pattern recognition algorithms for data mining scalability
knowledge discovery and soft granular computing 1st
Edition Sankar K. Pal Digital Instant Download
Author(s): Sankar K. Pal, Pabitra Mitra
ISBN(s): 1584884576
Edition: 1
File Details: PDF, 2.51 MB
Year: 2004
Language: english
Pattern Recognition
Algorithms for
Data Mining
Scalability, Knowledge Discovery and Soft
Granular Computing

Sankar K. Pal and Pabitra Mitra


Machine Intelligence Unit
Indian Statistical Institute
Calcutta, India

CHAPMAN & HALL/CRC


A CRC Press Company
Boca Raton London New York Washington, D.C.

Cover art provided by Laura Bright


(http://laurabright.com).
http://www.ciaadvertising.org/SA/sping_03/391K/
lbright/paper/site/report/introduction.html

© 2004 by Taylor & Francis Group, LLC


C4576 disclaimer.fm Page 1 Tuesday, April 6, 2004 10:36 AM

Library of Congress Cataloging-in-Publication Data

Pal, Sankar K.
Pattern recognition algorithms for data mining : scalability, knowledge discovery, and
soft granular computing / Sankar K. Pal and Pabitra Mitra.
p. cm.
Includes bibliographical references and index.
ISBN 1-58488-457-6 (alk. paper)
1. Data mining. 2. Pattern recognition systems. 3. Computer algorithms. 4. Granular
computing / Sankar K. Pal and Pabita Mitra.

QA76.9.D343P38 2004
006.3'12—dc22 2004043539

This book contains information obtained from authentic and highly regarded sources. Reprinted material
is quoted with permission, and sources are indicated. A wide variety of references are listed. Reasonable
efforts have been made to publish reliable data and information, but the author and the publisher cannot
assume responsibility for the validity of all materials or for the consequences of their use.

Neither this book nor any part may be reproduced or transmitted in any form or by any means, electronic
or mechanical, including photocopying, microfilming, and recording, or by any information storage or
retrieval system, without prior permission in writing from the publisher.

The consent of CRC Press LLC does not extend to copying for general distribution, for promotion, for
creating new works, or for resale. Specific permission must be obtained in writing from CRC Press LLC
for such copying.

Direct all inquiries to CRC Press LLC, 2000 N.W. Corporate Blvd., Boca Raton, Florida 33431.

Trademark Notice: Product or corporate names may be trademarks or registered trademarks, and are
used only for identification and explanation, without intent to infringe.

Visit the CRC Press Web site at www.crcpress.com

© 2004 by CRC Press LLC

No claim to original U.S. Government works


International Standard Book Number 1-58488-457-6
Library of Congress Card Number 2004043539
Printed in the United States of America 1 2 3 4 5 6 7 8 9 0
Printed on acid-free paper

© 2004 by Taylor & Francis Group, LLC


To our parents

© 2004 by Taylor & Francis Group, LLC


Contents

Foreword xiii

Preface xxi

List of Tables xxv

List of Figures xxvii

1 Introduction 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Pattern Recognition in Brief . . . . . . . . . . . . . . . . . . 3
1.2.1 Data acquisition . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Feature selection/extraction . . . . . . . . . . . . . . . 4
1.2.3 Classification . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Knowledge Discovery in Databases (KDD) . . . . . . . . . . 7
1.4 Data Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Data mining tasks . . . . . . . . . . . . . . . . . . . . 10
1.4.2 Data mining tools . . . . . . . . . . . . . . . . . . . . 12
1.4.3 Applications of data mining . . . . . . . . . . . . . . . 12
1.5 Different Perspectives of Data Mining . . . . . . . . . . . . . 14
1.5.1 Database perspective . . . . . . . . . . . . . . . . . . . 14
1.5.2 Statistical perspective . . . . . . . . . . . . . . . . . . 15
1.5.3 Pattern recognition perspective . . . . . . . . . . . . . 15
1.5.4 Research issues and challenges . . . . . . . . . . . . . 16
1.6 Scaling Pattern Recognition Algorithms to Large Data Sets . 17
1.6.1 Data reduction . . . . . . . . . . . . . . . . . . . . . . 17
1.6.2 Dimensionality reduction . . . . . . . . . . . . . . . . 18
1.6.3 Active learning . . . . . . . . . . . . . . . . . . . . . . 19
1.6.4 Data partitioning . . . . . . . . . . . . . . . . . . . . . 19
1.6.5 Granular computing . . . . . . . . . . . . . . . . . . . 20
1.6.6 Efficient search algorithms . . . . . . . . . . . . . . . . 20
1.7 Significance of Soft Computing in KDD . . . . . . . . . . . . 21
1.8 Scope of the Book . . . . . . . . . . . . . . . . . . . . . . . . 22

vii
© 2004 by Taylor & Francis Group, LLC
viii

2 Multiscale Data Condensation 29


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Data Condensation Algorithms . . . . . . . . . . . . . . . . . 32
2.2.1 Condensed nearest neighbor rule . . . . . . . . . . . . 32
2.2.2 Learning vector quantization . . . . . . . . . . . . . . 33
2.2.3 Astrahan’s density-based method . . . . . . . . . . . . 34
2.3 Multiscale Representation of Data . . . . . . . . . . . . . . . 34
2.4 Nearest Neighbor Density Estimate . . . . . . . . . . . . . . 37
2.5 Multiscale Data Condensation Algorithm . . . . . . . . . . . 38
2.6 Experimental Results and Comparisons . . . . . . . . . . . . 40
2.6.1 Density estimation . . . . . . . . . . . . . . . . . . . . 41
2.6.2 Test of statistical significance . . . . . . . . . . . . . . 41
2.6.3 Classification: Forest cover data . . . . . . . . . . . . 47
2.6.4 Clustering: Satellite image data . . . . . . . . . . . . . 48
2.6.5 Rule generation: Census data . . . . . . . . . . . . . . 49
2.6.6 Study on scalability . . . . . . . . . . . . . . . . . . . 52
2.6.7 Choice of scale parameter . . . . . . . . . . . . . . . . 52
2.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3 Unsupervised Feature Selection 59


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2 Feature Extraction . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3 Feature Selection . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.3.1 Filter approach . . . . . . . . . . . . . . . . . . . . . . 63
3.3.2 Wrapper approach . . . . . . . . . . . . . . . . . . . . 64
3.4 Feature Selection Using Feature Similarity (FSFS) . . . . . . 64
3.4.1 Feature similarity measures . . . . . . . . . . . . . . . 65
3.4.2 Feature selection through clustering . . . . . . . . . . 68
3.5 Feature Evaluation Indices . . . . . . . . . . . . . . . . . . . 71
3.5.1 Supervised indices . . . . . . . . . . . . . . . . . . . . 71
3.5.2 Unsupervised indices . . . . . . . . . . . . . . . . . . . 72
3.5.3 Representation entropy . . . . . . . . . . . . . . . . . 73
3.6 Experimental Results and Comparisons . . . . . . . . . . . . 74
3.6.1 Comparison: Classification and clustering performance 74
3.6.2 Redundancy reduction: Quantitative study . . . . . . 79
3.6.3 Effect of cluster size . . . . . . . . . . . . . . . . . . . 80
3.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

4 Active Learning Using Support Vector Machine 83


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2 Support Vector Machine . . . . . . . . . . . . . . . . . . . . 86
4.3 Incremental Support Vector Learning with Multiple Points . 88
4.4 Statistical Query Model of Learning . . . . . . . . . . . . . . 89
4.4.1 Query strategy . . . . . . . . . . . . . . . . . . . . . . 90
4.4.2 Confidence factor of support vector set . . . . . . . . . 90

© 2004 by Taylor & Francis Group, LLC


ix

4.5 Learning Support Vectors with Statistical Queries . . . . . . 91


4.6 Experimental Results and Comparison . . . . . . . . . . . . 94
4.6.1 Classification accuracy and training time . . . . . . . 94
4.6.2 Effectiveness of the confidence factor . . . . . . . . . . 97
4.6.3 Margin distribution . . . . . . . . . . . . . . . . . . . 97
4.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

5 Rough-fuzzy Case Generation 103


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 Soft Granular Computing . . . . . . . . . . . . . . . . . . . . 105
5.3 Rough Sets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.3.1 Information systems . . . . . . . . . . . . . . . . . . . 107
5.3.2 Indiscernibility and set approximation . . . . . . . . . 107
5.3.3 Reducts . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.3.4 Dependency rule generation . . . . . . . . . . . . . . . 110
5.4 Linguistic Representation of Patterns and Fuzzy Granulation 111
5.5 Rough-fuzzy Case Generation Methodology . . . . . . . . . . 114
5.5.1 Thresholding and rule generation . . . . . . . . . . . . 115
5.5.2 Mapping dependency rules to cases . . . . . . . . . . . 117
5.5.3 Case retrieval . . . . . . . . . . . . . . . . . . . . . . . 118
5.6 Experimental Results and Comparison . . . . . . . . . . . . 120
5.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

6 Rough-fuzzy Clustering 123


6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.2 Clustering Methodologies . . . . . . . . . . . . . . . . . . . . 124
6.3 Algorithms for Clustering Large Data Sets . . . . . . . . . . 126
6.3.1 CLARANS: Clustering large applications based upon
randomized search . . . . . . . . . . . . . . . . . . . . 126
6.3.2 BIRCH: Balanced iterative reducing and clustering us-
ing hierarchies . . . . . . . . . . . . . . . . . . . . . . 126
6.3.3 DBSCAN: Density-based spatial clustering of applica-
tions with noise . . . . . . . . . . . . . . . . . . . . . . 127
6.3.4 STING: Statistical information grid . . . . . . . . . . 128
6.4 CEMMiSTRI: Clustering using EM, Minimal Spanning Tree
and Rough-fuzzy Initialization . . . . . . . . . . . . . . . . . 129
6.4.1 Mixture model estimation via EM algorithm . . . . . 130
6.4.2 Rough set initialization of mixture parameters . . . . 131
6.4.3 Mapping reducts to mixture parameters . . . . . . . . 132
6.4.4 Graph-theoretic clustering of Gaussian components . . 133
6.5 Experimental Results and Comparison . . . . . . . . . . . . 135
6.6 Multispectral Image Segmentation . . . . . . . . . . . . . . . 139
6.6.1 Discretization of image bands . . . . . . . . . . . . . . 141
6.6.2 Integration of EM, MST and rough sets . . . . . . . . 141
6.6.3 Index for segmentation quality . . . . . . . . . . . . . 141

© 2004 by Taylor & Francis Group, LLC


x

6.6.4 Experimental results and comparison . . . . . . . . . . 141


6.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

7 Rough Self-Organizing Map 149


7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.2 Self-Organizing Maps (SOM) . . . . . . . . . . . . . . . . . . 150
7.2.1 Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.2.2 Effect of neighborhood . . . . . . . . . . . . . . . . . . 152
7.3 Incorporation of Rough Sets in SOM (RSOM) . . . . . . . . 152
7.3.1 Unsupervised rough set rule generation . . . . . . . . 153
7.3.2 Mapping rough set rules to network weights . . . . . . 153
7.4 Rule Generation and Evaluation . . . . . . . . . . . . . . . . 154
7.4.1 Extraction methodology . . . . . . . . . . . . . . . . . 154
7.4.2 Evaluation indices . . . . . . . . . . . . . . . . . . . . 155
7.5 Experimental Results and Comparison . . . . . . . . . . . . 156
7.5.1 Clustering and quantization error . . . . . . . . . . . . 157
7.5.2 Performance of rules . . . . . . . . . . . . . . . . . . . 162
7.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

8 Classification, Rule Generation and Evaluation using Modu-


lar Rough-fuzzy MLP 165
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.2 Ensemble Classifiers . . . . . . . . . . . . . . . . . . . . . . . 167
8.3 Association Rules . . . . . . . . . . . . . . . . . . . . . . . . 170
8.3.1 Rule generation algorithms . . . . . . . . . . . . . . . 170
8.3.2 Rule interestingness . . . . . . . . . . . . . . . . . . . 173
8.4 Classification Rules . . . . . . . . . . . . . . . . . . . . . . . 173
8.5 Rough-fuzzy MLP . . . . . . . . . . . . . . . . . . . . . . . . 175
8.5.1 Fuzzy MLP . . . . . . . . . . . . . . . . . . . . . . . . 175
8.5.2 Rough set knowledge encoding . . . . . . . . . . . . . 176
8.6 Modular Evolution of Rough-fuzzy MLP . . . . . . . . . . . 178
8.6.1 Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . 178
8.6.2 Evolutionary design . . . . . . . . . . . . . . . . . . . 182
8.7 Rule Extraction and Quantitative Evaluation . . . . . . . . . 184
8.7.1 Rule extraction methodology . . . . . . . . . . . . . . 184
8.7.2 Quantitative measures . . . . . . . . . . . . . . . . . . 188
8.8 Experimental Results and Comparison . . . . . . . . . . . . 189
8.8.1 Classification . . . . . . . . . . . . . . . . . . . . . . . 190
8.8.2 Rule extraction . . . . . . . . . . . . . . . . . . . . . . 192
8.9 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199

© 2004 by Taylor & Francis Group, LLC


xi

A Role of Soft-Computing Tools in KDD 201


A.1 Fuzzy Sets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
A.1.1 Clustering . . . . . . . . . . . . . . . . . . . . . . . . . 202
A.1.2 Association rules . . . . . . . . . . . . . . . . . . . . . 203
A.1.3 Functional dependencies . . . . . . . . . . . . . . . . . 204
A.1.4 Data summarization . . . . . . . . . . . . . . . . . . . 204
A.1.5 Web application . . . . . . . . . . . . . . . . . . . . . 205
A.1.6 Image retrieval . . . . . . . . . . . . . . . . . . . . . . 205
A.2 Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . 206
A.2.1 Rule extraction . . . . . . . . . . . . . . . . . . . . . . 206
A.2.2 Clustering and self organization . . . . . . . . . . . . . 206
A.2.3 Regression . . . . . . . . . . . . . . . . . . . . . . . . . 207
A.3 Neuro-fuzzy Computing . . . . . . . . . . . . . . . . . . . . . 207
A.4 Genetic Algorithms . . . . . . . . . . . . . . . . . . . . . . . 208
A.5 Rough Sets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
A.6 Other Hybridizations . . . . . . . . . . . . . . . . . . . . . . 210

B Data Sets Used in Experiments 211

References 215

Index 237

About the Authors 243

© 2004 by Taylor & Francis Group, LLC


Foreword

Indian Statistical Institute (ISI), the home base of Professors S.K. Pal and P.
Mitra, has long been recognized as the world’s premier center of fundamental
research in probability, statistics and, more recently, pattern recognition and
machine intelligence. The halls of ISI are adorned with the names of P.C. Ma-
halanobis, C.R. Rao, R.C. Bose, D. Basu, J.K. Ghosh, D. Dutta Majumder,
K.R. Parthasarathi and other great intellects of the past century–great intel-
lects who have contributed so much and in so many ways to the advancement
of science and technology. The work of Professors Pal and Mitra, ”Pattern
Recognition Algorithms for Data Mining,” or PRDM for short, reflects this
illustrious legacy. The importance of PRDM is hard to exaggerate. It is a
treatise that is an exemplar of authority, deep insights, encyclopedic coverage
and high expository skill.
The primary objective of PRDM, as stated by the authors, is to provide
a unified framework for addressing pattern recognition tasks which are es-
sential for data mining. In reality, the book accomplishes much more; it
develops a unified framework and presents detailed analyses of a wide spec-
trum of methodologies for dealing with problems in which recognition, in one
form or another, plays an important role. Thus, the concepts and techniques
described in PRDM are of relevance not only to problems in pattern recog-
nition, but, more generally, to classification, analysis of dependencies, system
identification, authentication, and ultimately, to data mining. In this broad
perspective, conventional pattern recognition becomes a specialty–a specialty
with deep roots and a large store of working concepts and techniques.
Traditional pattern recognition is subsumed by what may be called recog-
nition technology. I take some credit for arguing, some time ago, that de-
velopment of recognition technology should be accorded a high priority. My
arguments may be found in the foreword,” Recognition Technology and Fuzzy
Logic, ”Special Issue on Recognition Technology, IEEE Transactions on Fuzzy
Systems, 2001. A visible consequence of my arguments was an addition of
the subtitle ”Soft Computing in Recognition and Search,” to the title of the
journal ”Approximate Reasoning.” What is important to note is that recogni-
tion technology is based on soft computing–a coalition of methodologies which
collectively provide a platform for the conception, design and utilization of in-
telligent systems. The principal constitutes of soft computing are fuzzy logic,
neurocomputing, evolutionary computing, probabilistic computing, rough set
theory and machine learning. These are the methodologies which are de-
scribed and applied in PRDM with a high level of authority and expository

xiii
© 2004 by Taylor & Francis Group, LLC
xiv

skill. Particularly worthy of note is the exposition of methods in which rough


set theory and fuzzy logic are used in combination.
Much of the material in PRDM is new and reflects the authors’ extensive
experience in dealing with a wide variety of problems in which recognition and
analysis of dependencies play essential roles. Such is the case in data mining
and, in particular, in the analysis of both causal and non-causal dependencies.
A pivotal issue–which subsumes feature selection and feature extraction–
and which receives a great deal of attention in PRDM, is that of feature
analysis. Feature analysis has a position of centrality in recognition, and
its discussion in PRDM is an order of magnitude more advanced and more
insightful than what can be found in the existing literature. And yet, it
cannot be claimed that the basic problem of feature selection–especially in
the context of data mining–has been solved or is even close to solution. Why?
The reason, in my view, is the following. To define what is meant by a feature
it is necessary to define what is meant by relevance. Conventionally, relevance
is defined as a bivalent concept, that is, if q is a query and p is a proposition or
a collection of propositions, then either p is relevant to q or p is not relevant
to q, with no shades of gray allowed. But it is quite obvious that relevance is a
matter of degree, which is consistent with the fact that in a natural language
we allow expressions such as quite relevant, not very relevant, highly relevant,
etc. In the existing literature, there is no definition of relevance which makes
it possible to answer the question: To what degree is p relevant to q? For
example, if q is: How old is Carol? and p is: Carol has a middle-aged mother,
then to what degree is the knowledge that Carol has a middle-aged mother,
relevant to the query: How old is Carol? As stated earlier, the problem is that
relevance is not a bivalent concept, as it is frequently assumed to be; rather,
relevance is a fuzzy concept which does not lend itself to definition within the
conceptual structure of bivalent logic. However, what can be found in PRDM
is a very thorough discussion of a related issue, namely, methods of assessment
of relative importance of features in the context of pattern recognition and
data mining.
A difficult problem which arises both in assessment of the degree of relevance
of a proposition, p, and in assessment of the degree of importance of a feature,
f, relates to combination of such degrees. More concretely, if we have two
propositions p−1 and p2 with respective degrees of relevance r1 and r2 , then
all that can be said about the relevance of (p1 , p2 ) is that it is bounded
from below by max(r1 , r2 ). This makes it possible for both p1 and p2 to be
irrelevant (r1 = r2 = 0), and yet the degree of relevance of (p1 , p2 ) may be
close to 1.
The point I am trying to make is that there are many basic issues in pattern
recognition–and especially in relation to its role in data mining–whose reso-
lution lies beyond the reach of methods based on bivalent logic and bivalent–
logic-based probability theory. The issue of relevance is a case in point. An-
other basic issue is that of causality. But what is widely unrecognized is that
even such familiar concepts as cluster and edge are undefinable within the

© 2004 by Taylor & Francis Group, LLC


xv

conceptual structure of bivalent logic. This assertion is not contradicted by


the fact that there is an enormous literature on cluster analysis and edge de-
tection. What cannot be found in this literature are formalized definitions of
cluster and edge.
How can relevance, causality, cluster, edge and many other familiar concepts
be defined? In my view, what is needed for this purpose is the methodology
of computing with words. In this methodology, the objects of computation
are words and propositions drawn from a natural language. I cannot be more
detailed in a foreword.
Although PRDM does not venture into computing with words directly, it
does lay the groundwork for it, especially through extensive exposition of
granular computing and related methods of computation. It does so through
an exceptionally insightful discussion of advanced methods drawn from fuzzy
logic, neurocomputing, probabilistic computing, rough set theory and machine
learning.
In summary, “Pattern Recognition Algorithms in Data Mining” is a book
that commands admiration. Its authors, Professors S.K. Pal and P. Mitra are
foremost authorities in pattern recognition, data mining and related fields.
Within its covers, the reader finds an exceptionally well-organized exposition
of every concept and every method that is of relevance to the theme of the
book. There is much that is original and much that cannot be found in the
literature. The authors and the publisher deserve our thanks and congrat-
ulations for producing a definitive work that contributes so much and in so
many important ways to the advancement of both the theory and practice of
recognition technology, data mining and related fields. The magnum opus of
Professors Pal and Mitra is a must reading for anyone who is interested in the
conception, design and utilization of intelligent systems.

March 2004 Lotfi A. Zadeh


University of California
Berkeley, CA, USA

© 2004 by Taylor & Francis Group, LLC


Foreword

Data mining offers techniques of discovering patterns in voluminous databases.


In other words, data mining is a technique of discovering knowledge from
large data sets (KDD). Knowledge is usually presented in the form of decision
rules easy to understand and used by humans. Therefore, methods for rule
generation and evaluation are of utmost importance in this context.
Many approaches to accomplish this have been developed and explored in
recent years. The prominent scientist Prof. Sankar K. Pal and his student
Dr. Pabitra Mitra present in this valuable volume, in addition to classi-
cal methods, recently emerged various new methodologies for data mining,
such as rough sets, rough fuzzy hybridization, granular computing, artificial
neural networks, genetic algorithms, and others. In addition to theoretical
foundations, the book also includes experimental results. Many real life and
nontrivial examples given in the book show how the new techniques work and
can be used in reality and what advantages they offer compared with classical
methods (e.g., statistics).
This book covers a wide spectrum of problems related to data mining, data
analysis, and knowledge discovery in large databases. It should be recom-
mended reading for any researcher or practitioner working in these areas.
Also graduate students in AI get a very well-organized book presenting mod-
ern concepts and tools used in this domain.
In the appendix various basic computing tools and data sets used in exper-
iments are supplied. A complete bibliography on the subject is also included.
The book presents an unbeatable combination of theory and practice and
gives a comprehensive view on methods and tools in modern KDD.
The authors deserve the highest appreciation for this excellent monograph.

January 2004 Zdzislaw Pawlak


Polish Academy of Sciences
Warsaw, Poland

xvii
© 2004 by Taylor & Francis Group, LLC
Foreword

This is the latest in a series of volumes by Professor Sankar Pal and his col-
laborators on pattern recognition methodologies and applications. Knowledge
discovery and data mining, the recognition of patterns that may be present in
very large data sets and across distributed heterogeneous databases, is an ap-
plication of current prominence. This volume provides a very useful, thorough
exposition of the many facets of this application from several perspectives.
The chapters provide overviews of pattern recognition, data mining, outline
some of the research issues and carefully take the reader through the many
steps that are involved in reaching the desired goal of exposing the patterns
that may be embedded in voluminous data sets. These steps include prepro-
cessing operations for reducing the volume of the data and the dimensionality
of the feature space, clustering, segmentation, and classification. Search al-
gorithms and statistical and database operations are examined. Attention is
devoted to soft computing algorithms derived from the theories of rough sets,
fuzzy sets, genetic algorithms, multilayer perceptrons (MLP), and various hy-
brid combinations of these methodologies.
A valuable expository appendix describes various soft computing method-
ologies and their role in knowledge discovery and data mining (KDD). A sec-
ond appendix provides the reader with several data sets for experimentation
with the procedures described in this volume.
As has been the case with previous volumes by Professor Pal and his col-
laborators, this volume will be very useful to both researchers and students
interested in the latest advances in pattern recognition and its applications in
KDD.
I congratulate the authors of this volume and I am pleased to recommend
it as a valuable addition to the books in this field.

February 2004 Laveen N. Kanal


University of Maryland
College Park, MD, USA

xix
© 2004 by Taylor & Francis Group, LLC
Preface

In recent years, government agencies and scientific, business and commercial


organizations are routinely using computers not just for computational pur-
poses but also for storage, in massive databases, of the immense volumes of
data that they routinely generate or require from other sources. We are in the
midst of an information explosion, and there is an urgent need for method-
ologies that will help us bring some semblance of order into the phenomenal
volumes of data. Traditional statistical data summarization and database
management techniques are just not adequate for handling data on this scale,
and for extracting intelligently information or knowledge that may be useful
for exploring the domain in question or the phenomena responsible for the data
and providing support to decision-making processes. This quest had thrown
up some new phrases, for example, data mining and knowledge discovery in
databases (KDD).
Data mining deals with the process of identifying valid, novel, potentially
useful, and ultimately understandable patterns in data. It may be viewed as
applying pattern recognition (PR) and machine learning principles in the con-
text of voluminous, possibly heterogeneous data sets. Two major challenges
in applying PR algorithms to data mining problems are those of “scalability”
to large/huge data sets and of “discovering knowledge” which is valid and
comprehensible to humans. Research is going on in these lines for developing
efficient PR methodologies and algorithms, in different classical and modern
computing frameworks, as applicable to various data mining tasks with real
life applications.
The present book is aimed at providing a treatise in a unified framework,
with both theoretical and experimental results, addressing certain pattern
recognition tasks essential for data mining. Tasks considered include data
condensation, feature selection, case generation, clustering/classification, rule
generation and rule evaluation. Various theories, methodologies and algo-
rithms using both a classical approach and hybrid paradigm (e.g., integrating
fuzzy logic, artificial neural networks, rough sets, genetic algorithms) have
been presented. The emphasis is given on (a) handling data sets that are
large (both in size and dimension) and involve classes that are overlapping,
intractable and/or have nonlinear boundaries, and (b) demonstrating the sig-
nificance of granular computing in soft computing frameworks for generating
linguistic rules and dealing with the knowledge discovery aspect, besides re-
ducing the computation time.
It is shown how several novel strategies based on multi-scale data con-

xxi
© 2004 by Taylor & Francis Group, LLC
xxii

densation, dimensionality reduction, active support vector learning, granular


computing and efficient search heuristics can be employed for dealing with
the issue of scaling up in large scale learning problem. The tasks of encoding,
extraction and evaluation of knowledge in the form of human comprehensible
linguistic rules are addressed in a soft computing framework by different in-
tegrations of its constituting tools. Various real life data sets, mainly large in
dimension and/or size, taken from varied domains, e.g., geographical informa-
tion systems, remote sensing imagery, population census, speech recognition
and cancer management, are considered to demonstrate the superiority of
these methodologies with statistical significance.
Examples are provided, wherever necessary, to make the concepts more
clear. A comprehensive bibliography on the subject is appended. Major
portions of the text presented in the book are from the published work of the
authors. Some references in the related areas might have been inadvertently
omitted because of oversight or ignorance.
This volume, which is unique in its character, will be useful to graduate
students and researchers in computer science, electrical engineering, system
science, and information technology both as a text and a reference book for
some parts of the curriculum. The researchers and practitioners in industry
and research and development laboratories working in fields such as system
design, pattern recognition, data mining, image processing, machine learning
and soft computing will also benefit. For convenience, brief descriptions of
the data sets used in the experiments are provided in the Appendix.
The text is organized in eight chapters. Chapter 1 describes briefly ba-
sic concepts, features and techniques of PR and introduces data mining and
knowledge discovery in light of PR, different research issues and challenges,
the problems of scaling of PR algorithms to large data sets, and the signifi-
cance of soft computing in knowledge discovery.
Chapters 2 and 3 deal with the (pre-processing) tasks of multi-scale data
condensation and unsupervised feature selection or dimensionality reduction.
After providing a review in the respective fields, a methodology based on a
statistical approach is described in detail in each chapter along with experi-
mental results. The method of k-NN density estimation and the concept of
representation entropy, used therein, are explained in their respective chap-
ters. The data condensation strategy preserves the salient characteristics of
the original data at different scales by representing the underlying probability
density. The unsupervised feature selection algorithm is based on computing
the similarity between features and then removing the redundancy therein
without requiring any search. These methods are scalable.
Chapter 4 concerns the problem of learning with support vector machine
(SVM). After describing the design procedure of SVM, two active learning
strategies for handling the large quadratic problem in a SVM framework are
presented. In order to reduce the sample complexity, a statistical query model
is employed incorporating a trade-off between the efficiency and robustness in
performance.

© 2004 by Taylor & Francis Group, LLC


xxiii

Chapters 5 to 8 highlight the significance of granular computing for dif-


ferent mining tasks in a soft paradigm. While the rough-fuzzy framework is
used for case generation in Chapter 5, the same is integrated with expectation
maximization algorithm and minimal spanning trees in Chapter 6 for cluster-
ing large data sets. The role of rough sets is to use information granules for
extracting the domain knowledge which is encoded in different ways. Since
computation is made using the granules (clump of objects), not the individual
points, the methods are fast. The cluster quality, envisaged on a multi-spectral
image segmentation problem, is also improved owing to the said integration.
In Chapter 7, design procedure of a rough self-organizing map (RSOM) is
described for clustering and unsupervised linguistic rule generation with a
structured network.
The problems of classification, and rule generation and evaluation in a su-
pervised mode are addressed in Chapter 8 with a modular approach through a
synergistic integration of four soft computing tools, namely, fuzzy sets, rough
sets, neural nets and genetic algorithms. A modular evolutionary rough-fuzzy
multi-layered perceptron is described which results in accelerated training,
compact network, unambiguous linguistic rules and improved accuracy. Dif-
ferent rule evaluation indices are used to reflect the knowledge discovery as-
pect.
Finally, we take this opportunity to thank Mr. Robert B. Stern of Chapman
& Hall/CRC Press, Florida, for his initiative and encouragement. Financial
support to Dr. Pabitra Mitra from the Council of Scientific and Industrial
Research (CSIR), New Delhi in the form of Research Associateship (through
Grant # 22/346/02-EMR II) is also gratefully acknowledged.

Sankar K. Pal
September 13, 2003 Pabitra Mitra

© 2004 by Taylor & Francis Group, LLC


List of Tables

2.1 Comparison of k-NN density estimation error of condensation


algorithms (lower CR) . . . . . . . . . . . . . . . . . . . . . . 43
2.2 Comparison of k-NN density estimation error of condensation
algorithms (higher CR) . . . . . . . . . . . . . . . . . . . . . 44
2.3 Comparison of kernel (Gaussian) density estimation error of
condensation algorithms (lower CR, same condensed set as Ta-
ble 2.1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.4 Comparison of kernel (Gaussian) density estimation error of
condensation algorithms (higher CR, same condensed set as
Table 2.2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.5 Classification performance for Forest cover type data . . . . . 58
2.6 β value and CPU time of different clustering methods . . . . 58
2.7 Rule generation performance for the Census data . . . . . . . 58

3.1 Comparison of feature selection algorithms for large dimen-


sional data sets . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.2 Comparison of feature selection algorithms for medium dimen-
sional data sets . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.3 Comparison of feature selection algorithms for low dimensional
data sets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.4 Comparison of feature selection algorithms for large data sets
when search algorithms use FFEI as the selection criterion . . 79
s
3.5 Representation entropy HR of subsets selected using some al-
gorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.6 Redundancy reduction using different feature similarity mea-
sures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

4.1 Comparison of performance of SVM design algorithms . . . . 96

5.1 Hiring: An example of a decision table . . . . . . . . . . . . . 107


5.2 Two decision tables obtained by splitting the Hiring table S
(Table 5.1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.3 Discernibility matrix MAccept for the split Hiring decision table
SAccept (Table 5.2(a)) . . . . . . . . . . . . . . . . . . . . . . 112
5.4 Rough dependency rules for the Iris data . . . . . . . . . . . 121
5.5 Cases generated for the Iris data . . . . . . . . . . . . . . . . 121
5.6 Comparison of case selection algorithms for Iris data . . . . . 121

xxv
© 2004 by Taylor & Francis Group, LLC
xxvi

5.7 Comparison of case selection algorithms for Forest cover type


data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.8 Comparison of case selection algorithms for Multiple features
data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

6.1 Comparative performance of clustering algorithms . . . . . . 139


6.2 Comparative performance of different clustering methods for
the Calcutta image . . . . . . . . . . . . . . . . . . . . . . . . 144
6.3 Comparative performance of different clustering methods for
the Bombay image . . . . . . . . . . . . . . . . . . . . . . . . 146

7.1 Comparison of RSOM with randomly and linearly initialized


SOM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
7.2 Comparison of rules extracted from RSOM and FSOM . . . . 162

8.1 Rough set dependency rules for Vowel data along with the input
fuzzification parameter values . . . . . . . . . . . . . . . . . . 191
8.2 Comparative performance of different models . . . . . . . . . 193
8.3 Comparison of the performance of the rules extracted by vari-
ous methods for Vowel, Pat and Hepatobiliary data . . . . . . 195
8.4 Rules extracted from trained networks (Model S) for Vowel
data along with the input fuzzification parameter values . . . 196
8.5 Rules extracted from trained networks (Model S) for Pat data
along with the input fuzzification parameter values . . . . . . 196
8.6 Rules extracted from trained networks (Model S) for Hepato-
biliary data along with the input fuzzification parameter values 197
8.7 Crude rules obtained via rough set theory for staging of cervical
cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
8.8 Rules extracted from the modular rough MLP for staging of
cervical cancer . . . . . . . . . . . . . . . . . . . . . . . . . . 199

© 2004 by Taylor & Francis Group, LLC


List of Figures

1.1 The KDD process [189]. . . . . . . . . . . . . . . . . . . . . . 9


1.2 Application areas of data mining. . . . . . . . . . . . . . . . . 13

2.1 Multiresolution data reduction. . . . . . . . . . . . . . . . . . 31


2.2 Representation of data set at different levels of detail by the
condensed sets. ‘.’ is a point belonging to the condensed set;
the circles about the points denote the discs covered that point.
The two bold circles denote the boundaries of the data set. . 36
2.3 Plot of the condensed points (of the Norm data) for the mul-
tiscale algorithm and Astrahan’s method, for different sizes of
the condensed set. Bold dots represent a selected point and the
discs represent the area of F1 − F2 plane covered by a selected
point at their center. . . . . . . . . . . . . . . . . . . . . . . . 46
2.4 IRS images of Calcutta: (a) original Band 4 image, and seg-
mented images using (b) k-means algorithm, (c) Astrahan’s
method, (d) multiscale algorithm. . . . . . . . . . . . . . . . . 50
2.5 Variation in error in density estimate (log-likelihood measure)
with the size of the Condensed Set (expressed as percentage of
the original set) with the corresponding, for (a) the Norm data,
(b) Vowel data, (c) Wisconsin Cancer data. . . . . . . . . . . 53
2.6 Variation of condensation ratio CR (%) with k. . . . . . . . . 54

3.1 Nature of errors in linear regression, (a) Least square fit (e),


(b) Least square projection fit (λ2 ). . . . . . . . . . . . . . . . 68
3.2 Feature clusters. . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3 Variation in classification accuracy with size of the reduced
subset for (a) Multiple features, (b) Ionosphere, and (c) Cancer
data sets. The vertical dotted line marks the point for which
results are reported in Tables 3.1−3.3. . . . . . . . . . . . . . 78
3.4 Variation in size of the reduced subset with parameter k for (a)
multiple features, (b) ionosphere, and (c) cancer data. . . . . 81

4.1 SVM as maximum margin classifier (linearly separable case). 87


4.2 Incremental support vector learning with multiple points (Al-
gorithm 1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.3 Active support vector learning with statistical queries (Algo-
rithm 2). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

xxvii
© 2004 by Taylor & Francis Group, LLC
xxviii

4.4 Variation of atest with CPU time for (a) cancer, (b) ionosphere,
(c) heart, (d) twonorm, and (e) forest cover type data. . . . . 98
4.5 Variation of confidence factor c and distance D for (a) cancer,
(b) ionosphere, (c) heart, and (d) twonorm data. . . . . . . . 99
4.6 Variation of confidence factor c with iterations of StatQSVM
algorithm for (a) cancer, (b) ionosphere, (c) heart, and (d)
twonorm data. . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.7 Margin distribution obtained at each iteration by the StatQSVM
algorithm for the Twonorm data. The bold line denotes the fi-
nal distribution obtained. . . . . . . . . . . . . . . . . . . . . 101
4.8 Margin distribution obtained by some SVM design algorithms
for the Twonorm data set. . . . . . . . . . . . . . . . . . . . . 102

5.1 Rough representation of a set with upper and lower approxi-


mations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.2 π−Membership functions for linguistic fuzzy sets low (L), medium
(M) and high (H) for each feature axis. . . . . . . . . . . . . . 114
5.3 Generation of crisp granules from linguistic (fuzzy) represen-
tation of the features F1 and F2 . Dark region (M1 , M2 ) indi-
cates a crisp granule obtained by 0.5-cuts on the µ1medium and
µ2medium functions. . . . . . . . . . . . . . . . . . . . . . . . . 115
5.4 Schematic diagram of rough-fuzzy case generation. . . . . . . 116
5.5 Rough-fuzzy case generation for a two-dimensional data. . . . 119

6.1 Rough-fuzzy generation of crude clusters for two-dimensional


data (a) data distribution and rough set rules, (b) probability
density function for the initial mixture model. . . . . . . . . . 133
6.2 Using minimal spanning tree to form clusters. . . . . . . . . . 134
6.3 Scatter plot of the artificial data Pat. . . . . . . . . . . . . . . 137
6.4 Scatter plot of points belonging to four different component
Gaussians for the Pat data. Each Gaussian is represented by a
separate symbol (+, o, , and ). . . . . . . . . . . . . . . . . 138
6.5 Variation of log-likelihood with EM iterations for the Pat data. 138
6.6 Final clusters obtained using (a) hybrid algorithm (b)
k-means algorithm for the Pat data (clusters are marked by
‘+’ and ‘o’). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6.7 Block diagram of the image segmentation algorithm. . . . . . 142
6.8 Segmented IRS image of Calcutta using (a) CEMMiSTRI, (b)
EM with MST (EMMST), (c) fuzzy k-means algorithm (FKM),
(d) rough set initialized EM (REM), (e) EM with k-means ini-
tialization (KMEM), (f) rough set initialized k-means (RKM),
(g) EM with random initialization (EM), (h) k-means with ran-
dom initialization (KM). . . . . . . . . . . . . . . . . . . . . . 145
6.9 Segmented IRS image of Bombay using (a) CEMMiSTRI, (b)
k-means with random initialization (KM). . . . . . . . . . . . 146

© 2004 by Taylor & Francis Group, LLC


Discovering Diverse Content Through
Random Scribd Documents
The Project Gutenberg eBook of A bord de la
Junon
This ebook is for the use of anyone anywhere in the United
States and most other parts of the world at no cost and with
almost no restrictions whatsoever. You may copy it, give it away
or re-use it under the terms of the Project Gutenberg License
included with this ebook or online at www.gutenberg.org. If you
are not located in the United States, you will have to check the
laws of the country where you are located before using this
eBook.

Title: A bord de la Junon

Author: Gaston Lemay

Release date: November 5, 2023 [eBook #72035]

Language: French

Original publication: Paris: Charpentier, 1879

Credits: Laurent Vogel and the Online Distributed Proofreading


Team at https://www.pgdp.net (This book was
produced from images made available by the
HathiTrust Digital Library.)

*** START OF THE PROJECT GUTENBERG EBOOK A BORD DE


LA JUNON ***
A BORD
DE
LA JUNON
GIBRALTAR. — MADÈRE.
LES ILES DU CAP-VERT. — RIO-DE-JANEIRO.
MONTEVIDEO. — BUENOS-AYRES.
LE DÉTROIT DE MAGELLAN.
LES CANAUX LATÉRAUX DES CÔTES DE PATAGONIE.
VALPARAISO ET SANTIAGO. — LE CALLAO ET LIMA.
L’ISTHME DE PANAMA. — NEW-YORK.

PAR

GASTON LEMAY

PARIS
G. CHARPENTIER, LIBRAIRE-ÉDITEUR
13, RUE DE GRENELLE-SAINT-GERMAIN, 13

1879
Tous droits réservés.
PARIS. — IMPRIMERIE Vve P. LAROUSSE ET Cie
19, RUE MONTPARNASSE, 19
A mes compagnons de voyage

MM. ALLARD (Miguel).


AUDEOUD (Alfred).
BALLI (Émile).
BERTRAND (Alfred).
COURTIN (Jules).
CROZET DE LA FAY (Henri).
DEMACHY (Édouard).
LAGRANGE (Georges de).
LA ROULLIÈRE (René de).
LATOUR (Jules de).
LATOUR (René de).
REMBIELINSKI (Constantin).
RIPPERT (Charles).
SCHLESINGER (Georges).
SCHLUMBERGER (Jules).
SCHMALZER (Édouard).
SCHRYVER (Eugène de).
SLEUYTERMAN VAN LOO (Le docteur).
SOROKOMOWSKI (Paul).
TAVERNOST (Antoine de).

A l’État-major
et à l’Équipage de la JUNON

Gaston Lemay.
A MONSIEUR GEORGES BIARD
LIEUTENANT DE VAISSEAU

Mon cher commandant,

Lorsque j’ai réuni mes correspondances au journal le Temps,


pour faire un récit plus complet de mes impressions et de mes
études, vous avez bien voulu me communiquer vos notes de
voyage ; j’y ai trouvé des éléments nouveaux et des renseignements
précieux.
J’en ai usé et abusé ; en sorte que, tout autant que moi, vous
pourriez mettre votre nom à la première page de ce livre. Vous ne le
voulez pas, c’est votre droit ; mais moi, je veux qu’on le sache, c’est
mon devoir.
Nos amis de la Junon retrouveront donc dans ces pages
quelques-unes de vos appréciations, la plupart de vos idées.
Si ce beau voyage, qui devait comprendre le tour de la terre, n’a
pu être effectué qu’en partie, ils savent que les circonstances ont été
plus fortes que votre volonté, et que votre chagrin a été aussi
profond que grande notre déception.
Ils se joindront à moi pour vous remercier de votre collaboration à
cet ouvrage modeste, mais sincère, qui aura au moins le mérite
d’attirer de nouveau l’attention sur une idée excellente et patriotique,
dont vous pouvez être fier d’avoir été le promoteur.
Je vous renouvelle, mon cher commandant, l’expression de mes
sentiments très affectueux, et je signe,

Votre dévoué collaborateur,


Gaston Lemay.
Paris, le 30 juin 1879.
Notre voyage à bord de la Junon devait être un voyage autour du
monde. Après avoir parcouru et visité, ainsi que nous l’avons fait, les
côtes orientale et occidentale de l’Amérique du Sud, jusqu’à
Panama, notre caravane de touristes et d’étudiants se proposait de
faire une grande excursion dans les États-Unis. Revenue à San-
Francisco, elle se serait de nouveau embarquée sur la Junon qui lui
aurait fait traverser l’océan Pacifique, en touchant aux archipels, en
Australie et en Calédonie ; poursuivant sa route par le Japon, la
Chine, les îles de la Sonde, l’Hindoustan, son retour par le canal de
Suez aurait achevé un des voyages de circumnavigation les plus
complets et les plus intéressants qui aient encore été exécutés.
La mauvaise fortune, ou, pour mieux dire, les difficultés
opposées à cette expédition par les propriétaires du navire ont
obligé la Société des voyages d’études à arrêter le voyage à New-
York, au grand désespoir de chacun de nous, de notre commandant
et de tout le personnel de la Junon.
Avant d’entrer en matière, je dirai quelques mots de cette
Société, afin de faire bien comprendre quel but elle voulait atteindre
par la création de ces grandes promenades à travers le monde.
En 1876, M. le lieutenant de vaisseau Biard avait soumis à
plusieurs personnes très compétentes un projet de voyages
d’instruction autour du monde, devant être accomplis par un navire
spécial. Encouragé à donner une suite à cette idée, il ne tarda pas à
réunir un groupe de vingt fondateurs, parmi lesquels on remarquait
les noms de MM. Ferd. de Lesseps, Hipp. Passy, amiral de La
Roncière, marquis de Turenne, Lavalley, Ephrussi, Dupuy de Lôme,
E. Levasseur, Ed. André, Bischoffsheim, Wolowski, vicomte A. de
Chabannes, etc.
L’intention de ces messieurs était de réunir les fonds suffisants
pour faire construire un navire à vapeur, rapide, emménagé tout
exprès, et dont M. Dupuy de Lôme, président du comité chargé de
continuer les études du projet, avait déjà fait les plans. Une société
anonyme, propriétaire de ce bâtiment, aurait été ainsi formée, et
l’expérience faite aujourd’hui montre bien que, si ce plan avait été
mis à exécution, il eût été couronné d’un entier succès.
Malheureusement, la situation politique de l’Europe à ce moment,
le commencement des hostilités en Orient détournèrent l’attention
d’un projet qui, à toute autre époque, eût trouvé bien vite les
éléments de sa réalisation. Le capital nécessaire ne put être formé
en temps utile.
On renonça, au moins pour la première expédition, à faire
construire un bâtiment, et on se décida à employer un paquebot que
la Société des voyages, constituée alors au capital de cent mille
francs seulement, devait affréter lorsqu’elle aurait réuni un nombre
de voyageurs suffisant pour que les dépenses de l’expédition
fussent couvertes par les recettes d’une façon certaine.
C’est dans ces conditions que le voyage de 1878 put être
entrepris. Sans les obstacles résultant d’une mauvaise volonté qu’on
n’a pu vaincre, j’ai la conviction qu’il eût été mené à bonne fin. Le
rapport adressé à leurs collègues par les anciens directeurs de la
Société, à la suite de la rupture du voyage, en fournit la preuve,
appuyée sur des documents officiels et des chiffres indiscutables.

Cette tentative, qui, malgré son échec, sera certainement


renouvelée, était conçue dans un esprit très libéral.
Elle tenait compte, en même temps, de l’utilité de fournir aux
jeunes voyageurs des éléments instructifs sérieux et de la nécessité
de ne pas les maintenir sous une réglementation trop sévère, qui eût
paru pénible au plus grand nombre d’entre eux. Elle convenait ainsi,
non seulement à des jeunes gens terminant leur éducation par une
année d’humanités pratiques, mais encore à des hommes faits, qui
trouvaient dans une organisation intelligente, dans un milieu
distingué, ce qu’ils eussent vainement cherché ailleurs.
Grâce à son haut patronage, à sa notoriété, à son caractère
spécial approuvé par une quantité de sociétés savantes françaises
et étrangères, notre expédition a rencontré dans chaque port des
facilités exceptionnelles ; ses membres ont pu se trouver dès le
premier jour en relation avec les personnages notables du pays,
puiser des renseignements aux meilleures sources, organiser
d’intéressantes excursions, en un mot tirer le plus de fruits possible
de leurs courses rapides dans ces contrées lointaines.
Nos ministres, nos consuls, nos compatriotes, heureux de
pouvoir être utiles à une œuvre française, qui faisait honneur à notre
pavillon, nous ont constamment témoigné une bonne grâce et une
obligeance parfaites, et, dans tous les pays que nous avons
parcourus, les autorités locales ont marqué leur sympathie pour
l’expédition de la manière la plus courtoise.
Je me fais un devoir, en terminant cette courte notice, de
remercier ces amis de toute nationalité, dont la bienveillance nous a
été si précieuse, et de leur répéter ici combien nous avons été
sensibles à l’accueil plein de cordialité qu’ils nous ont fait sur les
rives des deux Océans.

G. L.
DE MARSEILLE A GIBRALTAR

Arrivée à bord. — Partirons-nous ? — Un voyageur in partibus. —


Appareillage. — Présentation au lecteur. — En mer. — La première messe à
bord. — Les colonnes d’Hercule.

En rade de Marseille, 1er août 1878.

Le jour même de son départ la Junon présentait le spectacle le


plus singulier. Dire qu’elle était encombrée, ce n’est rien dire ; il n’y a
pas de mot qui puisse exprimer un pareil enchevêtrement de choses
disparates ; des caisses de toutes formes et de toutes dimensions,
des sacs, des cartons, des provisions, des armes couvraient le pont,
malgré le va-et-vient continuel des garçons et des matelots
s’efforçant de mettre chaque chose à sa place, soit dans les cales,
soit dans les chambres. De chaque côté, deux grands chalands, que
des hommes de peine déchargeaient en toute hâte, et dont le
contenu venait obstruer les passages, s’accumuler au pied des mâts
et le long des claires-voies. C’étaient des pièces de machine, des
cordes, des fanaux, de la vaisselle… Enfin, le plus complet et le
moins artistique désordre qui se puisse voir.
Au milieu… que dis-je ? par-dessus tout cela, une foule
compacte et remuante d’amis, de curieux, de négociants, d’ouvriers
du port, de marins, etc…
Plus agités, ou tout au moins plus émus que cette foule, partagés
entre les soins de leurs bagages et le plaisir de distribuer
d’innombrables poignées de main, mes vingt compagnons de
voyage cherchaient à se reconnaître au sein de ce dédale.
Curieux comme un touriste doublé de reporter, je tenais à savoir
si véritablement la Junon allait appareiller, ce qui me semblait peu
vraisemblable, et pourquoi tant de hâte au dernier jour. Je
m’adressai au commandant :
— Monsieur, me répondit-il, nous quitterons le port vers dix
heures pour aller mouiller en rade, et nous prendrons la mer demain
matin.
C’était net. Cependant, je dois avouer qu’il fallait une certaine
confiance dans la parole de notre leader pour que mille objections
ne vinssent pas à l’esprit. J’allais risquer de nouvelles questions,
lorsque s’avança vers moi un grand jeune homme mince et blond,
vêtu d’une redingote d’uniforme correctement boutonnée, l’air de fort
bonne humeur et qui, tout en évoluant de droite et de gauche,
répondait à vingt personnes à la fois, sans perdre un instant cette
physionomie souriante qui m’avait plu tout d’abord :
— Vous cherchez votre chambre, sans doute ?…
— Oui, monsieur ; j’arrive à l’instant de Paris, et…
— Je suis le secrétaire de l’expédition. En l’absence de notre
commissaire, je me ferai un plaisir de vous la montrer.
— M. de Saint-Clair Stevenson ?
— Oui, monsieur. Voulez-vous descendre avec moi ?
— Mille remerciements.
J’allais donc être renseigné. Nous arrivâmes jusqu’à la cabine. Je
ne vous la décrirai pas. Toutes les cabines se ressemblent ; elles me
font l’effet d’un nécessaire de voyage incomplet, assez grand pour
tenir deux personnes ayant bon caractère, avec un trou rond nommé
hublot, en guise de fermoir. On y trouve, comme partout, la gaieté
qu’on y apporte. Les marins prétendent qu’on y peut vivre, lire et
travailler, mais les marins ne sont pas des gens comme les autres.
Quel sera mon compagnon ? C’est M. E. de S…, l’unique
représentant de la Belgique. Il arrive au même instant ; la poignée de
main est cordiale, et la fusion complète entre Bruges et Paris.
Nous ne jetons qu’un coup d’œil distrait sur notre nouveau logis,
que nous déclarons charmant, et je reprends mon interrogatoire :
— Nous ne partons pas aujourd’hui, n’est-ce pas ? ni demain…
Le jeune secrétaire me regarda d’un air profondément surpris :
— Et pourquoi ?… A moins que le commandant ne vous ait
dit ?…
— Il m’a dit que la Junon serait en rade ce soir, et en mer demain
matin. Mais il me semble que nous ne sommes pas prêts.
— Oui, il y a un peu d’encombrement. On arrangera cela après le
départ. Rassurez-vous, vous serez en mer demain à midi.
— Vous en êtes sûr ?
— Parfaitement sûr.
— Très bien. Mais, dites-moi, si ce n’est trop indiscret, pourquoi
ce matériel n’est-il pas embarqué depuis plusieurs jours ?
— Je vous expliquerai cela plus tard… Je n’ai pas une minute.
Excusez-moi si je vous quitte si brusquement… Ah ! à propos, nous
dînons à six heures. Vous avez encore une heure à vous.
— Nous dînons… où cela ? ici ?
— Sans doute.
— Mais les assiettes ne sont pas encore embarquées !
— Elles le seront. Mille excuses. A tout à l’heure.
A six heures… et quelques minutes, le dîner était servi. Nous
pûmes constater avec satisfaction que le cuisinier méritait notre
estime. C’est là un point fort important à bord d’un navire ; je me suis
laissé raconter maintes fois par des officiers de marine que
« mauvaise gamelle est mère de mauvaise humeur ». Voilà un écueil
qui me paraît évité, et si ce n’est le plus dangereux, c’était peut-être
celui qu’on avait le plus de chance de rencontrer.
J’eus, pendant le repas, l’explication de cet indescriptible
désordre qui me paraissait compromettre les bonnes conditions du
départ.
Voici ce qui s’était passé :
Vous comprenez bien qu’on n’installe pas en vingt-quatre heures
un bateau qui va faire une campagne d’un an autour du monde ;
aussi, du jour où la Société des voyages fut d’accord avec les
armateurs pour l’affrétement, supposa-t-elle que ceux-ci allaient
pousser les travaux d’installation avec la plus grande rapidité. Ils
furent, au contraire, conduits si lentement, que, le 29 juillet (on aurait
dû être déjà parti), le bruit courait que la Junon serait prête
probablement vers le 10 août.
Bon nombre de mes compagnons, réunis à Marseille depuis une
huitaine, impatients de partir et fatigués d’attendre, parlaient de se
désister. L’expédition était compromise.
C’est alors que M. Biard, ayant reçu le commandement le 31,
avait annoncé le départ pour le lendemain 1er août, et mené
l’ouvrage de telle sorte qu’en douze heures de travail on avait
obtenu le résultat dont je viens de parler. Mais à sept heures du soir
les feux de la machine étaient allumés ; il n’y avait plus à douter, la
Junon allait partir.
Quelques mots sur notre nouveau logis. C’est un steamer à
hélice de construction anglaise, un peu lourd de formes, point jeune
mais solide, et capable assurément de remplir la rude mission qu’on
lui a imposée. Il mesure 76 mètres de long sur 9 de large et jauge
750 tonnes. Installé primitivement plutôt pour le transport des
marchandises que pour celui des voyageurs, le nombre de cabines
était insuffisant ; aussi a-t-il fallu en construire de nouvelles à notre
intention.
La Junon n’est pas un marcheur de premier ordre ; cependant
elle peut atteindre une vitesse de onze nœuds, et sa mâture est
assez forte pour pouvoir bien utiliser les vents favorables.
En somme, c’est un bon navire.
Après dîner, comme il nous restait quelques heures de liberté,
j’en profitai pour me mettre à la recherche d’un de nos compagnons
de route qui n’avait pas paru à bord. C’était M. de R…, un étranger,
mais grand ami de la France et grand voyageur, fort riche, d’âge
respectable et parfait gentleman. Je le trouvai à son hôtel,
tranquillement installé devant un excellent menu.
— Eh bien ! la Junon va appareiller. Vous ne venez pas ?…
— Ma foi ! non. Vous êtes venu pour moi, vous êtes bien
aimable… Asseyez-vous, je vous en prie. Un verre de
champagne ?…
— Vous renoncez au voyage ?
— Oh ! pas du tout ; mais j’ai réfléchi. Ce n’est pas la peine de
me mettre en route maintenant. Qu’allez-vous voir pour
commencer ? Gibraltar, Tanger, Madère. J’ai vu tout ça. Je vous
rejoindrai à Rio… ou à Buenos-Ayres.
— Mais, à ce compte-là, vous avez vu aussi, je crois, le Brésil et
la Plata ?
— Oui, c’est vrai. Moi, voyez-vous, dans ce voyage, il n’y a guère
que les îles Fiji qui m’intéressent véritablement. Vous n’y êtes pas
allé ?
Je regardai M. de R…; il était sérieux.
— Non ! je ne suis pas allé aux îles Fiji.
— Eh bien ! je tiens beaucoup à les voir. C’est un point fort
intéressant… Je vous prie de dire à M. Biard de ne pas m’attendre,
mais de garder cependant ma cabine. Du reste, je verrai sans doute
demain M. de Chabannes, le directeur de la Société, qui est ici, et je
lui ferai savoir où je compte rejoindre la Junon. Ce sera sans doute à
Buenos-Ayres.
. . . . . . . . . . . . . . . . . . . .
A onze heures du soir, la Junon largue ses amarres du vieux port
et se dégage doucement des navires environnants. Une foule
nombreuse, attirée par les feux multicolores d’une triple rangée de
lanternes vénitiennes dont nous avons joyeusement enguirlandé le
gaillard d’arrière, mous envoie de sympathiques adieux.
L’hélice commence ses évolutions, et dans la nuit sombre nous
franchissons la passe de la Canebière. Là quelques derniers « Bon
voyage ! » nous sont encore jetés par des amis inconnus, juchés sur
les rochers des forts Saint-Jean et Saint-Nicolas, et que nous
entrevoyons à peine à la lueur rougeâtre de falots vacillants.
« Merci ! Au revoir ! » Nous entrons dans la rade, et bientôt le fracas
de la chaîne entraînée par le poids de l’ancre nous annonce que la
Junon s’est arrêtée.
. . . . . . . . . . . . . . . . . . . .
Me voici dans cette cabine où j’ai été conduit il y a quelques
heures. Il faisait alors grand jour ; j’étais entouré de gens qui sont
maintenant paisiblement chez eux et qui demain, à pareille heure, y
seront encore ; je n’avais que quelques pas à faire pour fouler le sol
de mon cher pays ; je voyais des rues, des maisons, des passants ;
je vivais de la vie de tout le monde.
Comme tout cela est changé. La nuit est profonde, l’agitation a
cessé comme par enchantement. Pas de bruit. L’équipage fatigué se
repose, et le silence absolu n’est troublé que par le petit clapotement
de l’eau le long de la muraille du navire. Par mon hublot ouvert, je ne
vois que quelques lumières disséminées et de grandes ombres
derrière ces lumières. Demain, à pareille heure, je ne verrai même
pas cela. Décidément, le dernier lien est rompu…
Permettez-moi, lecteur, en attendant que le sommeil me gagne,
de me présenter à vous. Puisqu’il vous a plu d’ouvrir ce livre, sachez
quel compagnon vous emmène avec lui dans sa promenade à
travers le monde.
J’aimais les voyages avant d’avoir une idée bien nette de ce que
ce pouvait être. A huit ans, je lisais fièvreusement la France
maritime, d’Amédée Gréhan ; à dix ans, je m’évadais du collège,
résolu à m’embarquer comme mousse et à visiter… tous les pays ;
les gendarmes m’arrêtèrent à Saint-Cloud et ma famille déclara que
je « tournerais mal ».
J’espère ne pas avoir justifié ces sévères prévisions ; cependant
l’Europe, l’Asie et l’Afrique n’ont pas encore assouvi mon humeur
vagabonde.
Il y a à peine trois ans, j’ai accompagné Largeau à Ghadamès ;
avec deux autres vaillants compagnons, Say et Faucheux, nous
avons exploré cette oasis du grand désert, riche entrepôt des
produits du Soudan, et nous en sommes revenus par hasard la vie
sauve, nous estimant heureux de rapporter quelques
renseignements utiles pour l’avenir de notre plus belle colonie.
Le sort nous a bien dispersés depuis. Largeau s’est brisé à la
peine et est rentré en France ; Say étudie toujours la question
commerciale aux confins du désert, et Faucheux, comme colon
explorateur, est aujourd’hui à Sumatra.
Puis de l’Atlas, je suis passé au delà des Balkans, en Serbie, où
j’ai assisté à tous les détails du prologue de la guerre aujourd’hui
terminée, présent à toutes les affaires, avec Leschanine à Zaïtchar,
avec Horvatowitch à Kniajéwatz, avec Tchernaïeff sous Aleksinatz.
Enfin ma dernière pérégrination s’est accomplie en Arménie, où
pendant de longs mois, sous Kars, j’ai suivi les mouvements de
l’armée turque d’Asie.
Quelle différence entre ces voyages et celui que je vais
entreprendre ! Il me semble que celui-ci est la récompense des
fatigues de mes excursions passées. Je n’ai plus cette fois qu’à me
laisser conduire ; point de soucis, pas de transbordements : je vais
voir le monde entier tout à mon aise.
Y a-t-il des dangers ? Je ne les prévois guère. Le bateau est
solide et bien commandé, l’équipage, m’a-t-on dit, est excellent, et
mes compagnons paraissent fort aimables. Cependant bien des
gens ont fait le tour du monde, chacun le peut faire aujourd’hui, les
pays que je vais visiter ont été cent fois décrits, et je me demande si
ces notes, forcément incomplètes, auront quelque intérêt pour
d’autres que pour moi. Vous seul, lecteur, pourrez le dire ; mais
puisque je me suis promis de vous raconter ce que j’aurai vu et
appris, laissez-moi vous faire cette humble et sincère profession de
foi :
Je n’ai point de prétention à la science, n’étant ni géographe, ni
botaniste, ni géologue, ni astronome, ni même astrologue, ni rien
enfin qui puisse me permettre de prétendre à un titre scientifique
quelconque. Je vous dirai mes impressions et mes opinions, je
n’augmenterai ni ne diminuerai rien des unes ni des autres ; je
n’aurai ni complaisances ni sévérités ; je me tromperai peut-être,
mais je vous promets de ne pas vous tromper.
Je sais que nous devons voir le monde assez vite, mais je sais
aussi que nous serons bien placés pour le voir, nous puiserons dans
l’expérience des plus expérimentés ; n’est-ce pas le meilleur moyen
pour savoir ce qui est et supposer ce qui sera ?
L’entendez-vous ainsi ? Oui. En ce cas, vous voilà, comme moi,
passager de la Junon. Votre place est marquée, votre bagage à
bord. A bientôt, et puisque vous êtes franchement décidé, n’oubliez
pas que nous partons demain à midi.

En mer, 2 août.

Le départ s’est fait simplement. Point d’émotions, point de


tapage. J’en excepte le treuil de l’avant (machine à virer les
chaînes), qui remplit son office un peu bruyamment. A midi,
l’équipage était aux postes d’appareillage. Quelques minutes après,
la Junon, rasant la fameuse île du château d’If, faisait route en filant
neuf nœuds et demi à dix nœuds, sur une mer presque calme et
sous un ciel presque bleu.
Nos regards sont restés longtemps fixés sur la ville, puis sur les
montagnes ; enfin, le mince ruban qui bordait l’horizon s’est effacé,
la terre a disparu.
Nous sommes maintenant entre le ciel et l’eau. France, au
revoir !
On a travaillé activement à réparer le désordre de la veille, et je
me suis aperçu que c’était chose plus facile que je ne le pensais tout
d’abord. Chacun de nous, dans sa cabine, procède à une première
installation. Hâtons-nous, car la mer peut devenir mauvaise, et sans
doute il nous faudra payer notre tribut à ce dieu prudent qui prévient
les navigateurs novices que tout n’est pas rose dans le métier de
marin.

3 août.

A la tombée de la nuit, un violent orage a passé sur nous. Les


éclairs se succédaient sans interruption. Les voiles goélettes
établies pour diminuer les mouvements de roulis ont dû être serrées,
non sans peine ; une pluie battante a contraint de fermer les
panneaux. Nos estomacs commencent à faiblir, des catastrophes
sont imminentes. Nous nous réfugions dans nos cabines en proie à
de vives émotions.
Tristes épreuves qui nous ont fait oublier en un moment et patrie
et famille ! Notre maître coq, un démissionnaire du Splendide hotel,
s’il vous plaît, est complètement navré, et nous le sommes encore
plus que lui. Que d’excellentes choses il nous avait servies et dont
nous n’avons pas pu profiter !
La dunette, où nous nous sommes réfugiés après le grain,
étendus sur de longs fauteuils en osier, inertes et comme anéantis,
ressemble à s’y méprendre à une ambulance, avec cette
complication que notre jeune docteur est également gisant. Quelle
meilleure excuse peut-il nous donner ! Impuissant à nous guérir, il
veut au moins partager nos maux. Quel mémorable exemple offert à
tous ses confrères !
Terre ! Ce sont les îles Baléares. Voici la grande île Majorque,
puis Iviça, là-bas, dans la brume, Minorque, Formentera et Cabrera
sont invisibles. Peu nous importe. Un peu moins de tangage et pas
du tout de Baléares ferait bien mieux notre affaire.

4 août.

La nuit s’est bien passée. La mer s’est radoucie, et nous voilà


redevenus parfaitement dispos. Nous n’avons pas, d’ailleurs, ralenti
notre marche. Vers deux heures du matin, on a reconnu la terre
d’Espagne et constaté, paraît-il, une fois de plus, l’existence d’un
Welcome to our website – the ideal destination for book lovers and
knowledge seekers. With a mission to inspire endlessly, we offer a
vast collection of books, ranging from classic literary works to
specialized publications, self-development books, and children's
literature. Each book is a new journey of discovery, expanding
knowledge and enriching the soul of the reade

Our website is not just a platform for buying books, but a bridge
connecting readers to the timeless values of culture and wisdom. With
an elegant, user-friendly interface and an intelligent search system,
we are committed to providing a quick and convenient shopping
experience. Additionally, our special promotions and home delivery
services ensure that you save time and fully enjoy the joy of reading.

Let us accompany you on the journey of exploring knowledge and


personal growth!

ebookfinal.com

You might also like