Metodos y Tecnicas de Trabajo Social - Rodriguez Aleman
Metodos y Tecnicas de Trabajo Social - Rodriguez Aleman
Trabajo Social
Nº 4
Métodos y técnicas de
Trabajo Social
2006
COLECCIÓN: Manuales docentes de Trabajo Social
Nº 3 - TALLER DE TRABAJO SOCIAL
© del texto:
Rosalía Rodríguez Alemán
© de la edición:
Universidad de Las Palmas de Gran Canaria,
Vicerrectorado de Planificación y Calidad
Maquetación y diseño:
Servicio de Publicaciones de la ULPGC
ISBN:
84-96718-12-3
Depósito Legal:
GC 618-2006
Impresión:
Servicio de Reprografía, Encuadernación y Autoedición ULPGC
Queda rigurosamente prohibida, sin la autorización escrita de los titulares del «Copyright», bajo las
sanciones establecidas por las leyes, la reproducción parcial o total de esta obra por cualquier medio o
procedimiento, comprendidos la reprografía y el tratamiento informático.
Índice
PRESENTACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .9
GUÍA ACADÉMICA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .11
PRESENTACIÓN DE LA SIGNATURA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .13
OBJETIVOS GENERALES DE LA ASIGNATURA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14
CONTENIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14
Módulo 1. Las ciencias sociales y la investigación social . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14
Módulo 2. La observación (I): la observación experimental y la observación documental . . . . .15
Módulo 3. La observación (II) basada en la estandarización: la encuesta por muestreo.
Las técnicas cuantitativas (I) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .15
Módulo 4. La observación (II) basada en la estandarización: la encuesta por muestreo.
Las técnicas cuantitativas (II) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .16
Módulo 5. Las técnicas cualitativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .16
ESTRATEGIAS DIDÁCTICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .16
MATERIAL DIDÁCTICA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .16
BIBLIOGRAFÍA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17
EVALUACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17
OBJETIVOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .83
ESQUEMA DE LOS CONTENIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .84
EXPOSICIÓN DE LOS CONTENIDOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .84
1. La encuesta por muestreo en la investigación social . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .84
1.1. La pregunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .85
2. El cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .86
3. La formulación de las preguntas y respuestas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .88
4. La técnica de escalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .91
4.1. Preguntas de respuesta graduada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .92
4.2. Escala de Likert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .93
5. La recogida de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .96
6. La organización de la recogida de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .99
7. Análisis secundario de encuestas por muestro y encuestas longitudinales . . . . . . . . . . . . . . . .99
8. La producción de datos secundarios en las encuestas por muestro y las encuestas
longitudinales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .101
ACTIVIDADES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .103
BIBLIOGRAFÍA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .104
EJERCICIOS DE AUTOEVALUACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .105
SOLUCIONES A LOS EJERCICIOS DE AUTOEVALUACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .107
MATERIALES COMPLEMENTARIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .108
ANEXO I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .108
ANEXO II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .110
GLOSARIO DE TÉRMINOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .125
La Universidad de Las Palmas de Gran Canaria es consciente que la función de una universidad
moderna no puede limitar su actividad docente a la enseñanza presencial. Nuestra vocación de
servicio en el marco de un contexto geográfico discontinuo y nuestras conexiones con África y
América, nos urgen a buscar alternativas para acercar la formación superior a sectores que no pueden
cumplir las especificaciones de la enseñanza presencial.
Tras la exitosa experiencia de la Licenciatura de Psicopedagogía en Línea, que ya cuenta con
tres promociones de egresados, Turismo y Magisterio que inician el segundo curso y la puesta en
marcha de Relaciones Laborales en modalidad no presencial, nuestra universidad apuesta por
Trabajo Social, una carrera ampliamente demandada por un público adulto con dificultades para
acceder de manera presencial a la universidad.
La formación superior en modalidad no presencial exige materiales docentes de calidad que
faciliten los procesos de enseñanza-aprendizaje. Por esta razón, y con la experiencia de 46 manuales
editados para la Licenciatura de Psicopedagogía, Magisterio y Turismo en modalidad no presencial,
iniciamos la edición de una colección de manuales docentes que se publican a la vez en formato
papel y en soporte electrónico con distintos volúmenes que responden a los contenidos de las asig-
naturas de Trabajo Social en modalidad no presencial elaborados por profesores de la Universidad
de Las Palmas de Gran Canaria.
Estos manuales presentan el mismo diseño instruccional y de publicación que incluye, en primer
lugar, la guía académica de la asignatura y desarrolla, posteriormente, cada uno de los módulos con
un esquema común que incorpora el índice del módulo, el esquema de la asignatura, los contenidos
del módulo, el esquema o mapa conceptual de los contenidos, la exposición de los contenidos, las
actividades a desarrollar por los estudiantes, la bibliografía básica para el estudio del módulo y las
referencias bibliográficas, los ejercicios de autocontrol y las correspondientes soluciones, un glo-
sario de términos y los anexos.
Queremos expresar nuestro agradecimiento a los autores que ha realizado un esfuerzo para ela-
borar unos materiales rigurosos y adaptados una nueva forma de enseñar y aprender. Al Servicio
de Publicaciones de la Universidad de Las Palmas de Gran Canaria por su dedicación, diligencia y
eficiencia. Y a la colaboración institucional prestada por los departamentos responsables de la docen-
cia en esta titulación y a la Facultad de Ciencias Jurídicas que ha hecho posible la cristalización de este
proyecto.
Esperamos que estos manuales docentes sean una herramienta útil para nuestros estudiantes y
les ayuden a construir conocimientos significativos. Esta es nuestra apuesta institucional que pre-
tende acercar la formación universitaria a todos los miembros de la sociedad canaria.
Guía Académica
Guía académica
PRESENTACIÓN DE LA ASIGNATURA
A través de este Manual, de carácter introductorio, el alumnado conocerá qué se entiende por
investigación social, cuáles son los paradigmas que guían la investigación en las ciencias sociales,
qué finalidad tienen y cuál es la instrumentación técnica que proponen para conocer la realidad
social.
• Reflexionar sobre el conocimiento científico como guía para la aproximación a la realidad social.
• Conocer los paradigmas que guían la investigación social, su filosofía y su proceder.
• Introducir en los principios de la investigación social, sus potencialidades y limitaciones.
• Generar una visión global y pragmática de la investigación social.
• Identificar las diferentes fases de una investigación social como requisitos imprescindibles para
la contribución a la aproximación del conocimiento de los procesos y estructuras básicas de la
sociedad.
• Facilitar los criterios de decisión para la selección de las técnicas de investigación social.
• Proporcionar herramientas conceptuales y operacionales para intervenir en la realidad social y
hacerla perfectible.
• Introducir en la recogida de información y en los procedimientos básicos de análisis y trata-
miento de los datos.
• Facilitar la interpretación de los acontecimientos sociales en general, y los relacionados con los
sectors más vulnerables de la sociedad en particular.
• Desarrollar una capacidad crítica para valorar los trabajos de investigación.
CONTENIDOS
El manual consta de cinco módulos, en tanto que, la asignatura tiene 4,5 créditos: 3,5 teóricos
y 1 práctico.
Este módulo caracteriza a las ciencias sociales, y expone los principales paradigmas que guían
la investigación social, sus similitudes y las diferencias que los separan.
Así mismo, se expone la crítica a dichos paradigmas, y se establece la correspondencia con los
métodos y las técnicas de investigación social que les son propios.
• Técnicas cuantitativas
• Técnicas cualitativas
La encuesta por muestreo, como su nombre indica, interroga a los sujetos que forman parte de
una muestra representativa de la población total. El módulo, -continuación del anterior- trata
sobre el tamaño de la muestra y los tipos de muestreo. Así mismo, para afrontar el tratamiento de
los datos recogidos se exponen algunos criterios básicos del análisis estadístico descriptivo e infe-
rencial.
La investigación cualitativa no sólo requiere de técnicas distintas a las cuantitativas, sino a una
filosofía muy diferente, que no pretende describir o explicar la realidad, sino interpretarla.
Estas técnicas se pueden agrupar en tres grandes categorías basadas en la observación directa,
la entrevista en profundidad o el empleo de documentos que se corresponden respectivamente
con las acciones de observar, preguntar y leer. Así pues, el módulo trata de la observación y la
observación participante; las técnicas de conversación: entrevista en profundidad, técnicas biográ-
ficas y grupos de discusión; y la lectura de documentos personales.
ESTRATEGIAS DIDÁCTICAS
MATERIAL DIDÁCTICO
BIBLIOGRAFÍA
EVALUACIÓN
Módulo 1
Las ciencia sociales y la investigación social
PRESENTACIÓN
Este módulo primero, relativamente amplio debido a su carácter introductorio, resulta impres-
cindible para conocer las bases sobre las que se levantan las distintas técnicas en la investigación
social. Se presentan aquí los orígenes filosóficos de los paradigmas que han generado las dos gran-
des familias de técnicas de investigación social: las cuantitativas y las cualitativas.
Ciertamente, como se evidenciará en el desarrollo del manual, los procedimientos e instrumen-
tos utilizados por cada paradigma son muy distintos, pero aunque pudiera parecer que los tipos de
conocimientos a los que se accede son diferentes, lo cierto es que cuantas más formas de aproxi-
mación al objeto de estudio tanto mejor se conocerá el mismo.
El ser humano es ontólogo por naturaleza, su curiosidad innata le ha llevado a indagar cons-
tantemente su realidad. Tal curiosidad es un motor imprescindible para la construcción del cono-
cimiento y por tanto, un aliciente para la investigación social. Este módulo centra, igualmente, su
atención en esta actividad humana que pretende descubrir algo o aumentar los conocimientos
sobre los procesos y estructuras básicas de las sociedades históricamente construidas.
En virtud de su objeto, las sociedades humanas, la investigación social presenta respecto de las
ciencias naturales ciertas particularidades que han de estar presentes durante todo el proceso de
investigación. Proceso que, necesariamente, tiene que atravesar unas fases, que de modo simplifi-
cado son:
• Identificación de y formulación del problema de investigación
• Diseño de la investigación
• Recogida de datos
• Análisis de los datos y presentación de resultados
OBJETIVOS
4. Despertar el interés por la pregunta como aliciente para la investigación social y, por tanto, para
la construcción del conocimiento.
5. Diferenciar los tipos de investigación social en función de su finalidad, profundidad o ampli-
tud.
6. Conocer las fases de la investigación social que hacen posible la verificación empírica de cual-
quier explicación de la realidad.
7. Recordar que el proceso de conocimiento se completa si partiendo de la teoría existente, se des-
ciende hasta la realidad empírica, para luego ascender a la teoría para enriquecerla.
1. LA CIENCIA
La palabra ciencia deriva, etimológicamente, del vocablo latino scientia y, según la Real
Academia de Española, es el conjunto de conocimientos obtenidos mediante la observación y el
razonamiento, sistemáticamente estructurados y de los que se deducen principios y leyes generales.
Otras acepciones se refieren al saber y la erudición o a la habilidad, maestría o conjunto de cono-
cimientos de cualquier cosa.
En su origen, la ciencia se equiparó a toda clase de saber; mientras que, en la evolución histó-
rica del concepto, su uso se quedó restringido al conjunto de conocimiento sistematizado sobre
una materia. Definición reservada actualmente al concepto de disciplina. Con el desarrollo del saber
experimental, el concepto de ciencia se equiparó al conocimiento teórico, generalmente inductivo
y sistemático sobre la realidad, derivado de la observación y experimentación metódicas.
La ciencia, al igual que otro tipo de conocimientos, está formada por ideas, ya que el ser huma-
no sólo puede captar la realidad conceptualmente. Pero, lo que caracteriza y distingue a la cien-
cia, de ese otro tipo de conocimientos (filosóficos, artísticos, etcétera), es el uso del método cien-
tífico.
Según su objeto de conocimiento se puede distinguir entre las ciencias físico-naturales, las cien-
cias humanas y las ciencias sociales. Las primeras observan aquella realidad que se corresponde
con la naturaleza, universo sensible o mundo, excepto al ser humano y sus sociedades, que son el
objeto y la realidad observable para las ciencias humanas y las ciencias sociales, respectivamente.
Las ciencias sociales lo son, en tanto que, se puede aplicar el método científico a los fenóme-
nos sociales. Ahora bien, el método científico presenta, en el caso de estas ciencias, algunas parti-
cularidades debido a las peculiaridades de su objeto de estudio: la sociedad. La sociedad es, sim-
plificando al extremo, un entramado de relaciones sociales que, aunque se materialicen de formas
muy diversas son, en esencia, inmateriales. Inmaterial es, por ejemplo, la normativa social, los prin-
cipios, las creencias o la moralidad. Por su parte, lo material se manifiesta de forma compleja y está
sujeto al cambio social. Además, en el análisis de la realidad social se ha de tener en cuenta un ele-
mento que introduce cierta indeterminación en el análisis, cual es la libertad humana.
Un paradigma es una visión del mundo, que orienta y guía los criterios de elección de un inves-
tigador/a. En cuanto se aprende un paradigma, se adquieren teorías, métodos y criterios para cons-
truir un modelo explicativo.
Un paradigma, compartido por una comunidad científica, puede ser desplazado por otro en
cuanto éste último se presenta como un modelo más adecuado para explicar la realidad, así por
ejemplo, la mecánica newtoniana fue sucedida por la mecánica einsteiniana.
Kuhn (1962)1 entiende por ciencia normal aquellas fases de una disciplina científica durante las
cuales predomina un determinado paradigma, compartido por la comunidad científica. En estas
fases la ciencia se desarrolla según un modelo de proceder lineal y acumulativo. La tarea de la cien-
cia normal no es la de descubrir nuevos géneros de fenómenos, sino la de articular los fenómenos
y teorías proporcionados por el paradigma. Y ello hasta que el paradigma operante sea sustituido
de manera “revolucionaria” por otro.
En las ciencias sociales, sin embargo, es infrecuente la existencia de un único paradigma
ampliamente compartido por toda la comunidad científica. El pensamiento de Kuhn, en este
punto, precisa de una redefinición, de modo que se mantendrían todos los elementos originales, a
excepción de uno.
Así, el paradigma en las ciencias sociales, es una perspectiva o visión teórica que: a) define la
relevancia de los hechos sociales, b) proporciona las hipótesis interpretativas, c) orienta las técni-
cas de investigación teórica, y carece de la última característica: d) el carácter del consenso por
parte de la comunidad científica, al menos en la fase de ciencia normal. Se abre así la posibilidad
de la convivencia entre varios paradigmas, y por tanto, de la de la existencia de ciencias multipa-
radigmáticas.
Dos paradigmas fundacionales han guiado la investigación social: el positivista y el interpretativo.
Dos modos distintos de conocer la realidad, que han generado dos bloques, coherentes y muy
diferenciados entre sí, de técnicas de investigación social.
La forma en que ambos se enfrentan a los interrogantes fundamentales de toda investigación
social, o sea, a las cuestiones ontológicas (esencia), epistemológicas (conocimiento) y metodológicas (método)
es, igualmente, muy diferente.
1 Kuhn, T. S. (1975). La estructura de las revoluciones científicas. Fondo de Cultura Economica, México.
El paradigma positivista nació, en el siglo XIX, de la mano del empirismo en el afán de equi-
parar las ciencias sociales, y concretamente la naciente sociología, a las ciencias naturales. Comte
sostenía que los fenómenos sociales son hechos naturales, están sometidos a leyes naturales, y que
es posible conocer estas últimas a través del método científico. Sin embargo, fue Durkheim, quien
se esforzó en dar los primeros pasos en la práctica empírica, el que consideró que los hechos socia-
les debían ser tratados como “cosas”, aunque carezcan de entidad material.
Los hechos sociales, desde esta perspectiva, no están sujetos a la voluntad del ser humano, pues
tienen sus propias reglas, y éstas pueden ser estudiadas objetivamente. Así las cosas, la manera de
proceder es fundamentalmente inductiva, esto es, mediante el paso de lo particular a lo general.
Por tanto, el positivismo cree en la existencia de unos principios organizadores de carácter universal
que pueden ser descubiertos a través del método científico, estableciendo el nexo causa-efecto.
A esta visión de los hechos sociales se le ha criticado su ciega confianza en los métodos de las cien-
cias naturales. Precisamente por ello, a lo largo del siglo XX, dentro del positivismo se han revisado
ciertos supuestos, como la seguridad en unas leyes inmutables. En cambio, se mantienen al menos,
dos premisas fundamentales: a) la de que el mundo existe independientemente de nuestro cono-
cimiento y, b) la que defiende la observación empírica como medio para conocer dicho mundo.
2.2. El neopositivismo
Una de las primeras revisiones al positivismo la llevó a cabo la escuela del positivismo lógico,
en torno a los años treinta del siglo pasado, dando lugar al neopositivismo. En esta corriente, las
cuestiones epistemológicas se vuelven centrales, y se considera que el sentido de una afirmación
deriva de su verificación empírica. Es lo que se conoce como el lenguaje de las variables, pues éstas
gozan de las características de neutralidad, objetividad y operatividad matemática.
Cada objeto social, incluidos los individuos, pueden ser definidos analíticamente sobre la base
de una serie de atributos y propiedades (las variables), y es precisamente, la relación entre varia-
bles la que permite acceder al conocimiento de los fenómenos sociales. De este modo, todos los
fenómenos sociales podían ser registrados, medidos, relacionados y formalizados, y las teorías
podrían ser demostradas o falsificadas de manera objetiva y sin ambigüedad.
Así, el nuevo positivismo se desvincula de las leyes deterministas para asumir la connotación
de probabilidad (cambio al que contribuyó el paso de la física clásica a la cuántica). La ley probabi-
lística implica la existencia de la accidentalidad, la perturbación o la fluctuación.
Se introduce así la categoría de falsabilidad, de modo que, la comparación entre la teoría y el
descubrimiento empírico no puede formularse en positivo, sino en negativo, mediante la “no fal-
sación” o lo que es lo mismo, la constatación de que los datos no contradicen la hipótesis, puesto
que, tales datos podrían ser compatibles también con otras hipótesis teóricas. De esta interpreta-
ción deriva el sentido de provisionalidad de cada hipótesis teórica, ya que nunca es válida defini-
tivamente y está siempre expuesta a una posible falsación. Por ello, Popper (1962)2 sostiene que
el ser humano no puede conocer, sólo conjeturar.
Una de las últimas revisiones del positivismo, apunta que la observación empírica depende
tanto del posicionamiento teórico, como de los condicionamientos sociales y culturales. La creen-
cia en la falta de certeza en la objetividad de los datos obtenidos, así como en la falta de neutrali-
dad del lenguaje observador, alejan esta visión aún más del positivismo originario.
En fin, el nuevo positivismo redefine los presupuestos iniciales, pero conserva el modo de pro-
ceder empíricamente, en base a los principios de operacionalización, cuantificación y generalización.
El paradigma interpretativo se aleja del empirista, pues éste último asimila la realidad social y la
acción humana a algo que se puede estudiar de manera objetiva, silenciando la dimensión indivi-
dual, subjetiva. Para el paradigma interpretativo, la dimensión subjetiva, que no puede ser percibida
por los métodos cuantitativos, es precisamente el objeto de investigación.
Lógicamente las diferencias de fondo implican diferencias de técnicas y procedimientos de
investigación. Así mientras el positivista o empirista hace uso del lenguaje de las variables, de las
técnicas de investigación cuantitativas; el humanista o interpretativo lo hace de las técnicas de
investigación cualitativas.
proceder, sencillamente, no es ciencia; y los/as del criterio cualitativo, que los/as otros/as son
incapaces de captar la esencia de la realidad social.
Sin embargo, desde una segunda postura, ciertos/as neopositivistas no niegan que las técnicas
cualitativas puedan aportar una contribución válida a la producción y análisis de los datos, si bien
sólo las consideran relevantes para la fase exploratoria de la investigación, aquella en la que se
anda en busca de impresiones e ideas iniciales, de modo que, les otorgan un carácter pre-científico.
Finalmente, y en oposición frontal a la primera, la tercera postura sostiene la plena utilidad, dig-
nidad e igual legitimidad de los dos enfoques, y defiende que según las circunstancias y oportuni-
dades, se opte por uno u otro enfoque o por ambos a la vez. Esta última postura cada vez encuen-
tra más seguidores/as a consecuencia del reconocimiento de que ambos enfoques han hecho con-
tribuciones imprescindibles para las ciencias sociales, y que las diferencias que los separan no son
epistemológicas, sino estrictamente técnicas, ya que los procedimientos e instrumentos utilizados
son muy distintas. Y aunque se pueda aducir que los tipos de conocimientos a los que se accede
son diferentes, lo cierto es que cuantas más formas de aproximación al objeto de estudio, tanto
mejor se conocerá el mismo.
5. LA INVESTIGACIÓN SOCIAL
El ser humano es ontólogo por naturaleza, su curiosidad innata le ha llevado a indagar cons-
tantemente su realidad y hacerla perfectible. Históricamente, la curiosidad ha sido un motor
imprescindible para la construcción del conocimiento y por tanto, se constituye como un alicien-
te para la investigación social.
La investigación es una actividad humana que pretende descubrir algo o aumentar los conoci-
mientos sobre determinada materia. En el caso de la investigación social la finalidad última es cono-
cer los procesos y estructuras básicas de las sociedades históricamente construidas. La investiga-
ción social será científica si se realiza de forma sistemática, aplicando el método científico y las
técnicas correspondientes.
La investigación social enfrenta ciertas particularidades que guardan relación a) con la natura-
leza del objeto de estudio –como se apuntó en el apartado 1.1– , las sociedades humanas. La rea-
lidad social se presenta, en muchas ocasiones, de tal manera que lo que se observa, lo visible, ocul-
ta factores relevantes para la investigación como actitudes, mores, intereses e ideologías, por otra
parte, difíciles de observar y someter a la medición. Tal dificultad introduce unos coeficientes de
error más elevados que en las ciencias naturales.
Otras particularidades de la investigación social son: b) la multiplicidad de variables que pue-
den intervenir en un fenómeno dado; c) la variabilidad de este tipo de fenómenos en el tiempo y
el espacio; d) la utilización limitada e imperfecta del experimento sobre los seres humanos y e) la
inexistencia de instrumentos de observación potentes y precisos.
De igual manera, se debe tener presente que: f) entre las variables que influyen en el objeto de
estudio se encuentra la misma actuación investigadora, así como que, g) la difusión de los resulta-
dos de la investigación hace que pase a formar parte de la sociedad y por tanto, impacte en la
misma. Y la última particularidad, y acaso una de las más importantes, es que: h) el investigador o
la investigadora forma parte de la sociedad en la que vive y participa de sus creencias y valores.
Quien investiga es parte del objeto de estudio y ello incrementa la dificultad para alejarse del
mismo y no introducir la subjetividad.
El requisito de la neutralidad valorativa parece difícil de satisfacer, pues todo ser humano inde-
pendientemente de la labor que desempeña tiene sus propias convicciones, sin embargo, existe la
obligación de evitar toda falta de objetividad consciente. La neutralidad valorativa no implica des-
prenderse de los propios valores, sino atenerse a los hechos y abstenerse de adulterar o falsificar los
resultados, obviamente por razones de ética científica.
Tales peculiaridades hacen que la investigación social, y en general, las ciencias sociales en
mayor medida que otras, precisen de una mayor capacidad de observación de intuición y de racio-
cinio.
Según su finalidad la investigación puede ser básica o aplicada. La investigación básica preten-
de únicamente explicar un hecho social; mientras que la investigación aplicada persigue poder
controlar el fenómeno social y transformarlo.
El alcance temporal seccional se reserva a aquellas investigaciones que están referidas a un
momento específico o a un tiempo único. Seccional se refiere al “corte” perpendicular de una
situación en un momento dado, por lo que son consideradas sincrónicas. El alcance longitudinal,
en cambio, se refiere a una sucesión de momentos temporales. Son investigaciones diacrónicas que
permiten estudiar la evolución, pasada (retrospectiva) o presente y futura (prospectiva) de un fenó-
meno social. Se usa la denominación de panel si en la investigación longitudinal se observa siem-
pre a los mismos individuos, y de tendencia si en esas investigaciones sucesivas los individuos son
diferentes.
La profundidad da pie a las investigaciones descriptivas y a las explicativas. Son descriptivas
aquellas que, como su nombre indica, únicamente pretenden describir la realidad mediante la
medición de variables; mientras que las explicativas pretenden estudiar las relaciones de influencia
entre las variables a fin de conocer, con la mayor profundidad posible, los factores que intervie-
nen en los fenómenos sociales y su dinámica.
La amplitud diferencia las investigaciones microsociológicas que miden las variables y sus rela-
ciones en grupos pequeños y medianos; de las macrosociológicas, que lo hace en el seno de gran-
des grupos o sociedades humanas.
La caracterización de una investigación como primaria o secundaria viene dada por la natura-
leza de la fuente de información. Los datos o hechos en los que se basa la investigación son pri-
marios si han sido recogidos expresamente para la investigación y por quienes la efectúan, es decir,
son datos de primera mano; mientras que son secundarios los que han sido recogidos por otras
personas con otra finalidad. Es posible la existencia de investigaciones mixtas en las que exploten
datos primarios y secundarios.
El carácter alude a los dos enfoques que históricamente han marcado la investigación social.
La metodología cuantitativa se centra en los aspectos objetivos y susceptibles de cuantificación de
los fenómenos sociales y se dirige preferentemente a grandes poblaciones. La metodología cuali-
tativa trata de descubrir significados y generalmente se reserva a grupos pequeños. Ambas formas
de proceder, sin embargo, no deben considerarse opuestas e incompatibles, antes bien, es conve-
niente combinarlas para conocer un fenómeno social en profundidad.
Dada su naturaleza, las investigaciones son documentales si se apoyan en la observación de
tales fuentes; experimentales cuando hacen uso de la observación provocada o manipulada en un
laboratorio o ambientes artificiales; y empíricas, en el caso de que se trabaje sobre hechos no mani-
pulados de experiencia directa. Los trabajos doctrinales tratan de cuestiones puramente teóricas o
supraempíricas.
El marco diferencia entre los ambientes superficiales o de laboratorio y los naturales, que se
apoyan en el trabajo de campo o sobre el terreo.
El objeto social de una investigación social se refiere a las instituciones sociales y los sectores
sociales que se desean conocer.
Las investigaciones dan lugar a estudios piloto si preceden a una investigación mayor. Los estu-
dios evaluativos tratan de valorar diversos aspectos de los programas de acción social tales como
su diseño, grado de ejecución, satisfacción de los objetivos para introducir los reajustes precisos.
A diferencia de las monografías o estudios específicos de un aspecto, los informes sociales reco-
gen todos los aspectos de una comunidad o región. Los estudios de caso se apoyan en los datos
de la trayectoria vital de una persona, familia, institución o país, a fin de conocer el caso en pro-
fundidad y en sus diferentes aspectos. Las encuestas se asimilan a los informes, en tanto que, se
extienden a amplios sectores de la población con el objeto de indagar sobre múltiples aspectos,
pero a diferencia de aquellos, las encuestas se apoyan únicamente en la técnica de los cuestiona-
rios. Los sondeos de opinión son un tipo de encuestas que se caracterizan por tener un ámbito de
investigación más concreto y reducido. Los estudios de replicación repiten investigaciones en
ambientes y condiciones nuevas.
La teorización –apartado 9–, en tanto que, concepción racional que intenta dar una explicación
sobre cualquier realidad, precisa partir de ideas para terminar nuevamente en ideas. Tránsito que
requiere de la investigación social para hacer posible la verificación empírica:
La investigación es una actividad compleja, un proceso integrado por distintas fases de actua-
ción. Las etapas fundamentales para satisfacer las exigencias del método científico son las
de observación, clasificación y análisis. Estas etapas precisan de una serie de pasos, que de manera
ideal, son:
1. En el momento en que nos formulamos un interrogante sobre la realidad social surge el pro-
blema que da origen a una investigación. La investigación se inicia con una formulación vaga e
imprecisa del problema, que se va precisando en las fases subsiguientes hasta que, cuando fina-
liza la misma, se está en disposición de ofrecer una respuesta lo más ajustada posible a la rea-
lidad.
2. La revisión de la literatura existente facilita la concreción del problema de investigación. Para
realizar la concreción es preciso estudiar a fondo el tema, conocer las distintas teorías o cono-
cimientos científicos que versan sobre él.
3. Una vez se ha llevado a cabo la labor de documentación, se está en disposición de enunciar el
problema de forma concreta y precisa, así como de fijar los objetivos de la investigación. La
formulación de la hipótesis supone ofrecer de antemano una solución al problema que se inves-
tiga, orientando la investigación, y posibilitando que el trabajo se desarrolle de forma ordena-
da e inteligente.
4. El diseño de la investigación es la fase en la que se planifica la forma en que se va a realizar la
prueba de la hipótesis, para proceder a su aceptación o rechazo, y en su caso, de las subhipóte-
sis. La planificación supone especificar las pautas de recogida y tratamiento de los datos para
proceder a la prueba, ciertos requisitos son imprescindibles para ello en la fase de diseño:
a) Delimitar el campo de observación en el espacio y en el tiempo, y definir las unidades de
observación (individuos, grupos sociales, instituciones, y objetos culturales obra del ser
humano) que incluirá la investigación.
b) Detallar las variables y las relaciones que se les supone, y que van a ser objeto de la investi-
gación.
c) Especificar aquellas otras variables que, no siendo objeto de investigación, pueden influir en
los resultados, y determinar los procedimientos para su control.
d) Precisar, respecto de las variables, qué datos son necesarios, dónde obtenerlos y el modo en
que van a ser tratados.
e) Frecuentemente, en lugar de observar el universo (población) se opta por una parte repre-
sentativa o muestra, para la que se determina su tamaño y error.
f) Seleccionar las técnicas cuantitativas y/o cualitativas de acuerdo con las variables que han de
ser observadas y formular su plan de empleo.
g) Construir, si no es que se encuentran elaboradas, las herramientas para la recogida de datos.
h) Finalmente, se ha de aplicar la herramienta a una muestra muy reducida para probar su vali-
dez, prueba que se denomina pre-test –módulo 3.6–.
5. A continuación, se realiza la fase de trabajo de campo, en la que se aplica la herramienta
(encuesta, entrevista o cualquiera otra que se estime conveniente) a la muestra o población
seleccionada. En caso de que la recogida de datos fuera realizada por un equipo de personas
habrá que instruirlas en el manejo de la herramienta.
6. El análisis o tratamiento de los datos varía en función del tipo de investigación del que se trate.
En el caso de una investigación cuantitativa, se ha de explicar la variación en los valores
de la variable dependiente, es decir, las causas que provocan la variación de las variables
dependientes entre los sujetos. En las investigaciones cualitativas, en cambio, el objeto de
análisis ya no es la variable, sino el individuo en su totalidad. De ahí que en el caso de las
investigaciones cuantitativas, se prevean las tablas de datos (matriz de datos) necesarias para su
tratamiento y los tipos de análisis estadísticos a que serán sometidos; mientras que en el caso
de investigaciones cualitativas se transcribe el discurso, la narración, para su ulterior análisis.
La posibilidad de ofrecer informaciones suficientemente generales es más común en las inves-
tigaciones cuantitativas, pues a través de la técnica estadística es posible cuantificar el peso de
los distintos componentes causales. En las investigaciones cualitativas la generalización es más
difícil, por lo que frecuentemente se recurre a la identificación de tipos ideales, una solución
weberiana.
Obtenidas las conclusiones se deben contrastar con la hipótesis, y subhipótesis si las
hubiera, para verificarla integrando las conclusiones a la teoría fundamento de la cuestión
investigada. La propuesta de nuevas investigaciones a realizar contribuye al desarrollo de la
ciencia, y es absolutamente imprescindible en el caso de que haya que rechazar la hipótesis for-
mulada inicialmente.
7. Finalmente, se comunican los resultados a la comunidad científica y a la sociedad, a fin de faci-
litar su conocimiento, y posibilitar la crítica y revisión de dichos resultados.
Los resultados pueden abrir el camino a nuevas investigaciones.
Etimológicamente, hipótesis deriva de las palabras griegas thesis, que significa lo que se pone, e
hipo, debajo; esto es, lo que se pone debajo o se supone. Las hipótesis son enunciados teóricos
supuestos, no verificados pero probables, que se refieren a las relaciones entre variables. Son, por
tanto, suposiciones que se tratan de verificar en el proceso de investigación, y en último término,
afirmaciones o negaciones sobre la realidad.
La finalidad de la hipótesis es guiar el trabajo de comprobación científica, para no proceder a
ciegas y sin orden. La hipótesis están integradas por las unidades de observación y las variables,
las relaciones que las unen y las que unen a las variables entre sí. La hipótesis vendría a ser la forma
más inteligente de dar solución al problema, y en ese sentido se orienta la investigación.
La unidad de observación o unidad de análisis en la investigación social es el elemento que se
somete a observación. Frecuentemente es el individuo, aunque en ocasiones, los individuos apa-
recen como un conjunto definido sobre un criterio territorial municipal, provincial, de comunidad
autónoma o cualquiera otro (por ejemplo, porcentaje de universitarios/as), ya como colectivo inte-
grado en grupos, organizaciones e instituciones (por ejemplo, la familia). Así mismo, pueden for-
mar estas unidades los productos culturales (por ejemplo, la programación televisiva).
A la hora de construir gramaticalmente una hipótesis, las unidades de observación se convierten en
el sujeto y las variables en los atributos. Sirva de ejemplo la hipótesis: “la juventud canaria tiene
dificultades de inserción laboral”, en la que la unidad de observación es “la juventud canaria” y la
variable “inserción laboral” aparece ligada, en una relación de dependencia, con diversas variables
como el sexo, la edad, el nivel de estudios, la experiencia profesional o el municipio de residencia,
entre otras.
Las hipótesis han de satisfacer al menos seis requisitos:
a) tienen que estar en conexión con las teorías precedentes, pues con un logro científico se pre-
tende enriquecer, revisar, transformar o puntualizar descubrimientos anteriores
b) tienen que ser conceptualmente claras, precisas y fácilmente comprensibles
c) sus términos se han de referir a la realidad empírica, y
d) esos términos tienen que poder ser verificados empíricamente mediante el empleo de técnicas
asequibles
e) han de ser específicas, y en el caso de que se formulen en términos demasiado amplios y gene-
rales, se ha de concretar su sentido y desarrollarlo en subhipótesis o hipótesis aclaratorias, y
f) han de facilitar una respuesta posible al problema de investigación originalmente planteado.
Estructuralmente, las hipótesis pueden ser de tres tipos, según contengan una, dos o más
variables:
1. Las hipótesis de una sola variable son descriptivas y señalan la existencia de uniformidades o
regularidades empíricas en una población o universo, aunque también pueden describir la pro-
ducción sucesiva de una circunstancia en una población.
2. En el caso de contener dos o más variables, estas pueden señalar una relación de asociación o
una relación de dependencia:
2.1. Las hipótesis de dos o más variables, pueden establecer una relación simple de asociación
entre ellas, que apunta que el cambio en una variable es acompañado de un cambio correla-
tivo en la otra, del mismo o distinto signo, sin que sea preciso establecer la influencia de una
variable en la otra. Las relaciones que señalan pueden ser de reciprocidad, igualdad, inferiori-
dad, superioridad, precedencia o sucesión, pero no de causalidad.
2.2. Mientras que la las hipótesis de dos o más variables que establecen una relación de depen-
dencia explican las causas o efectos de los fenómenos. Estas son las que resultan más intere-
santes desde el punto de vista científico.
Las hipótesis –como se apuntó en el apartado 8.1– establecen las relaciones entre las variables y
obviamente, ambas están referidas a determinadas unidades de observación. Todas las cosas y rea-
lidades del mundo pueden ser consideradas variables, porque pueden ser categorías de realidades
más amplias que las engloban. De ahí que una misma cosa pueda ser establecida como unidad de
observación o como una variable, y el hacerlo depende de cada caso y situación, es algo relativo y
circunstancial. Así por ejemplo, las mujeres pueden constituir una unidad de observación, pero
pueden ser una categoría dentro de la población de un país.
Las variables pueden ser definidas como ciertas características observables que son suscepti-
bles de variación. Susceptibles de reflejar los aspectos en los que difieren entre sí los individuos o
casos, aunque es posible también observar la variación de un mismo caso a lo largo del tiempo.
En tanto que conceptos, las variables representan una porción de realidad que se expresa en forma
de ideas, por lo que se han de expresar de forma muy precisa a fin de que sean perfectamente iden-
tificables, y no den cabida a confusión con otras similares.
Las variables se diferencian entre sí según su grado de operacionalización: generales o indica-
dores; según su naturaleza: cualitativa o cuantitativa; según su tipología: nominales, ordinales y car-
dinales o de intervalo; y según su función: dependientes o independientes.
a) Operacionalización. Para poder evidenciar las variaciones, las variables (generales) que son de
naturaleza teórica, se convierten en variables empíricas o conceptos operacionalizados, definidas con-
ceptual y operacionalmente facilitando las bases de medición, esto es, se convierten en indica-
dores, observables y operativos. Así, por ejemplo, para hacer operativa la variable clase social
se puede considerar el nivel de estudios, la ocupación y la renta. Y, a su vez, para hacer opera-
tiva la renta, se puede medir los sueldos, rendimientos de inmuebles e intereses del capital, por
ejemplo. Estos últimos elementos empíricos son los denominados indicadores.
La decisión de cómo operacionalizar un concepto está encomendada al investigador/a que
solamente debe explicar y justificar sus decisiones. Ello es básico para que la misma investiga-
ción pueda ser repetida por otros/as investigadores/as.
b) Naturaleza. Obviamente, las variables pueden ser de naturaleza cualitativa o cuantitativa. Las
cualitativas o de atributo son aquellas cuyos elementos de variación tienen carácter cualitativo
o no numérico; mientras que las cuantitativas son numéricas y en base a ellas se pueden estu-
diar las variaciones más comunes a nivel estadístico.
c) Tipología. Estas últimas variables (numéricas) se diferencian entre sí según qué operaciones se
pueden efectuar sobre ellas. Operaciones lógicas o matemáticas a las que se pueden someter
sus valores, y que determinan qué tratamiento estadístico se puede aplicar, si fuera el caso. La
clasificación más frecuente diferencia las variables nominales, ordinales y cardinales o de inter-
valo.
Variables nominales. La propiedad estudiada de los casos sólo puede agruparse en categorías lógi-
camente exhaustivas y mutuamente excluyentes. De esta manera se pueden establecer equivalencias o
diferencias (= , ≠). Con las variables nominales se consigue hacer una operación básica, la de cla-
sificar. Así se buscan categorías, y a cada una de ella se le asignan atributos, que pueden ser tanto
nombres como números.
Muchas variables son nominales, como por ejemplo, la ocupación (empresario/a, autónomo/a,
ocupado/a, por cuenta ajena, desempleado/a, inactivo/a) o el tipo de convivencia (soltero/a,
pareja de hecho, casado/a, separado/a, divorciado/a, viudo/a). Obviamente, con las variables
nominales no se pueden llevar a cabo operaciones aritméticas (+ - : x), aunque en ocasiones su
tratamiento estadístico exige cuantificarlas (codificarlas), para ello basta asignar a cada categoría
un número. Así, respecto de la posición ideológica, la extrema izquierda se correspondería con el
1, la izquierda con el 2, el centroizquierda con el 3 y así hasta el 7 de la extrema derecha, y aún se
podría añadir el 8, para categorizar a quienes se declaran apolíticos/as.
EI I CI C CD D ED
1 2 3 4 5 6 7
Variables ordinales. A las propiedades de las variables nominales, se añade en este caso la pro-
piedad de que sus categorías pueden ser ordenadas en el sentido de menor que (<) o mayor que (>).
En otras palabras, no sólo se pueden distribuir los fenómenos o individuos en categorías diferen-
tes, sino que además se pueden ordenar esas categorías.
Otras muchas variables sociológicas son ordinales, por ejemplo, el estatus de un grupo puede
ser categorizado como alto, medio-alto, medio, medio-bajo o bajo. Tal y como en el caso anterior,
podemos asignar a las categorías los numerales 5, 4, 3, 2 y 1. Obviamente, ello no ofrece informa-
ción de la magnitud de las diferencias entre las cinco categorías, únicamente nos permite afirmar
que 5> 4> 3> 2> 1. Precisamente por ello, tampoco se pueden realizar operaciones aritméticas
con estas variables.
Variables cardinales. A las características de las variables nominales y ordinales, las cardinales
suman el que sus categorías son unidades de medición, y así lo son, por ejemplo, la edad, el tamaño
de la familia o los ingresos. Por tanto, estas son las variables cuyas categorías son números, lo cual
permite expresar equivalencias o diferencias, ordenar de mayor a menor y realizar operaciones arit-
méticas (+ - x :), a la vez que, permiten la interpretación de la diferencia entre dos medidas.
Las cardinales discretas especifican la distancia existente entra las distintas categorías, y por
tanto, adoptan valores que son números enteros, como el coeficiente intelectual, mientras que en
las continuas tal distancia no existe, ya que pueden adoptar infinitos valores fraccionados, como
el peso o el tamaño cefalítico. Generalmente aparecen ambas bajo la denominación de variables
de intervalo.
8.3. La muestra
Una vez que se ha definido el problema de investigación, se han formulado las hipótesis y se
han operacionalizado las variables, se procede a la recogida de datos mediante las técnicas elegidas.
a) En el caso de la metodología cuantitativa, previamente, se ha tenido que especificar si los datos se
van a extraer del universo (población) o una parte representativa de este, la muestra.
El universo o población es el conjunto de casos o unidades que tienen en común una serie deter-
minada de características y sobre la que se desea obtener alguna información, como por ejem-
plo, el alumnado de las universidades o los habitantes de un municipio. Excepto en el caso de
poblaciones muy pequeñas, las ciencias sociales generalmente recurren a las muestras de las pobla-
ciones, lo que permite economizar tiempo, recursos materiales y esfuerzo en la recogida y tra-
tamiento de los datos.
Una muestra es una parte representativa, lo más exacta posible, de un conjunto, población o uni-
verso. Los resultados válidos que se deriven de la muestra han de poder ser extensibles al uni-
verso, mediante inferencia (estadística) o generalización. De ahí las exigencias del muestreo,
que tienen un fundamento matemático estadístico y se basa en las leyes del azar y el cálculo
probabilístico –aspectos en los que se profundiza en el módulo 4-. En una muestra probabilís-
tica cada individuo debe tener una probabilidad conocida de poder ser incluido en la muestra.
En el muestreo no probabilístico se desconoce la probabilidad de selección que tiene cada unidad.
Los requisitos que han de satisfacer las muestras, generalmente, son:
b) En el caso de las investigaciones cualitativas las tareas de selección muestral se centran en los casos.
Los casos individuales deberían presentar una relativa heterogeneidad, esto es, cierta variación,
pero no muy extrema, sino próxima a la tipicidad (casos tipo). Además, deben responder al cri-
terio de accesibilidad, o sea, que estén disponibles.
Más allá de la obtención y el tratamiento de los datos, la validez mide en qué medida la conver-
sión de un concepto en una variable efectivamente logra registrar el concepto. La validez permite
realizar el control del error sistemático o derivado de la herramienta o el/la observador/a. La vali-
dez es más difícil de conocer y de medir, especialmente cuando se pasa del concepto al indicador.
Así el estudio de la práctica religiosa se llevaría a cabo de modo muy parcial si utilizamos las cate-
gorías muy religiosa, bastante, poco o nada. Mientras que, la validez aumentaría si accedemos al
dato de asistencia a las ceremonias religiosas.
La fiabilidad, en cambio, garantiza que los resultados obtenidos se obtendrían de igual mane-
ras tantas veces como se repitiera la investigación. La fiabilidad controla el error aleatorio, más
fácil de conocer. La fiabilidad puede ser controlada procediendo a la repetición de la observación,
con los mismos sujetos, y al cálculo de la correlación entre los dos resultados obtenidos. Esta
opción es difícil de llevar a la práctica en el ámbito de las ciencias sociales, debido a la posible reac-
ción de los sujetos o a la introducción de cambios por su parte. La alternativa a esa prueba de esta-
bilidad es la de equivalencia, donde se busca la correlación entre dos procedimientos distintos, aun-
que muy similares. Una última solución es la de variar el procedimiento y las preguntas que con-
tiene, buscando la correlación entre estas últimas entre sí. Estas modalidades han sido puestas en
práctica mediante el test psicológico, pero ofrecen dificultades en el caso de fenómenos como el
voto electoral. En todo caso, siempre se puede controlar recurriendo a la repetición con diferentes
instrumentos.
9. LA TEORÍA
Paralelamente al proceso metodológico, que se desarrolla siguiendo las citadas etapas (observa-
ción, clasificación y análisis), ha de tener lugar un proceso lógico sobre los elementos conceptuales.
Proceso en el que, en primer lugar, se parte de la teoría existente y se desciende hasta la realidad
empírica, para luego partir de esa realidad y ascender a la teoría para enriquecerla.
La palabra teoría deriva, etimológicamente, de los términos griegos teoría que significa visión,
contemplación, especulación mental y theoreo mirar, observar, contemplar. En la actualidad, teoría
se refiere a toda concepción racional que intenta dar una explicación sobre cualquier realidad. Un
conocimiento especulativo, en tanto que, siguiendo el proceso lógico descrito -en el párrafo ante-
rior-, se parte de ideas para terminar nuevamente en ideas.
Corbetta (2003)4 define la teoría como un conjunto de proposiciones orgánicamente relacio-
nadas, que se formulan con un alto grado de abstracción y generalización respecto a la realidad
empírica, que son deducidas de realidades empíricas y de las cuales pueden deducirse previsiones
empíricas.
El cuerpo de una teoría está integrado por una serie de proposiciones conectadas de manera
lógica y ordenada conocidas como leyes. Tales proposiciones pueden ser resultado de su verifica-
ción empírica, deducidas lógicamente de algo que se ha contrastado empíricamente, si bién también
pueden constituir verdades básicas (axiomas) que se aceptan sin demostración o principios racio-
nales que no son axiomáticos y aún no verificados empíricamente.
Respecto del campo que abarca una ciencia (físico-natural, humano o social), todas las teorías
existentes forman objetivamente dicha ciencia.
4 Cobetta, P (2003). Metodología y técnicas de investigación social. McGraw Hill Interamericana de España.
Madrid.
ACTIVIDADES
1. Teniendo en cuenta los aspectos y relaciones básicas que se pueden distinguir entre los fenó-
menos sociales, enumere algunas cuestiones que puedan ser objeto de estudio al abordar la
familia.
2. Popper sostiene que el ser humano no puede conocer, sólo conjeturar. Cite un ejemplo que
haga evidente tal afirmación.
3. Si deseamos abordar un estudio sobre el seguimiento que la población española hace del con-
flicto de Oriente Próximo y las causas de un mayor o menor seguimiento, ¿a qué metodología
recurriríamos?
4. Y ¿si deseamos abordar un estudio sobre las causas que conducen al ejercicio de la prostitu-
ción en la voz de sus protagonistas?
5. En lo relativo a la forma de convivencia, ¿qué tipo de investigación es cada una de las que se
presentan a continuación?
a)
b)
“Toda mi vida he vivido junto a mis padres, pero ahora acabo de alquilar un piso, ciertamente los alqui-
leres están muy caros, pero... quiero probar a vivir sola, por lo menos un año, para conocerme bien, y
luego, me iré a vivir con mi novio. Un año, antes no”.
(Mujer, 25 años)
“A mi se me murió mi padre cuando estaba recién casada, y decidí traerme a mi madre conmigo.
Aunque ahora estoy pensando en que mis otros hermanos y hermanas podrían compartir esto que es
una responsabilidad, pero también un disfrute”.
(Mujer, 30 años)
6. De los siguientes pares de variables ¿cuáles están formados por variables independientes entre
sí (sin aparente relación) y cuáles están relacionadas, desde un punto de vista lógico? Establezca
en este último caso la relación.
Estrés y ocupación
Consumo de tabaco y nivel de estudios
Isla de nacimiento y edad
7. Dadas las siguientes variables, construya al menos tres hipótesis. Indique, en cada caso, cuál es
la variable dependiente, la independiente y la de control si la hubiera:
Posición ideológica
Educación de los hijos e hijas
Conflicto familiar
Jornada laboral
Sexo
8. Clasifique, según su carácter nominal, ordinal o cardinal discreta y continua, las variables: sexo,
tipo de convivencia, nivel educativo, altura, nacionalidad, grado de satisfacción con el transpor-
te público, coeficiente de inteligencia, peso, ingresos percibidos, nacionalidad, ideología, grado
de afición al cine, deportes practicados. Razone sus criterios.
10. ¿Se puede extraer una muestra probabilística entre las personas matriculadas en la Universidad
de Las Palmas de Gran Canaria? Y ¿entre las personas que frecuentan la cafetería de la
Facultad?
BIBLIOGRAFÍA
Andreu Abela, J. (2004). Investigación aplicada de clásicos de la sociología: viejos y nuevos problemas de inves-
tigación social. Sevilla: Fundación Centro de Estudios Andaluces.
Cea D’ancona, M. A. (2001). Metodología cuantitativa. Estrategias y técnicas de investigación social. Madrid:
Síntesis.
Boudon, R. y Lazarsfeld, P. (1984). Metodología de las ciencias sociales. Barcelona: Laia.
Corbetta, P. (2003). Metodología y técnicas de investigación social. Madrid: McGraw Hill Interamericana
de España.
Cruz Beltrán, F. y Gualda Caballero, E. (2001). Métodos y técnicas de investigación social. Huelva:
Estudio Sociales e Intervención Social.
Gambara, H. (1998). Diseño de investigaciones. Cuaderno de prácticas. Madrid: McGraw-Hill.
García Ferrando, M. (1989). Socioestadística. Madrid: Alianza.
García Ferrando, M.; Ibáñez, J. y Alvira, F. (Comp.) (1989). El análisis de la realidad social. Métodos y
técnicas de investigación. Madrid: Alianza.
García Santiago, A. y Zubieta Irún, J. C. (2001). Técnicas de investigación social, procedimientos,
aplicaciones y ejemplos. Santander: Tratamiento Gráfico del Documento.
Kaufman, R.: (1999). El pensamiento estratégico. Una guía para identificar y resolver los problemas. Madrid:
Editorial Centro de Estudios Ramón Areces.
León, O. y Montero, I. (1997). Diseño de investigaciones. Madrid: McGraw-Hill.
Mannheim, K. (1997). Ideología y utopía. Madrid: FCE, Madrid.
Minués Vela, A. y Fuentes Blasco, M. (2004). Cómo hacer una investigación social. Valencia: Librería
Tirant lo Blanch.
Taylor, S. J. y Bogdan, R. (1992). Introducción a los métodos cualitativos de investigación. Barcelona: Paidós.
Valles, M. S. (1999). Técnicas cualitativas de investigación social. Síntesis: Madrid.
Van Dijk, T. A. (1999). Ideología. Una aproximación multidisciplinaria. Barcelona: Gedisa.
EJERCICIOS DE AUTOEVALUACIÓN
4. El proceso lógico referido a la teorización y los elementos conceptuales para tratar de aprehen-
der la realidad ¿son independientes del proceso metodológico?
a) Efectivamente, son independientes.
b) Son relativamente independientes.
c) Deben ir en paralelo.
7. Se podría afirmar que la frase “en la sociedad de servicios la movilidad vertical es más intensa
entre las personas jóvenes que entre las adultas” ¿es una hipótesis?
a) Si.
b) No.
1c
2c
3b
4c
5a
6b
7a
8b
9b
10 b
GLOSARIO DE TÉRMINOS
Módulo 2
La observación (I): la observación experimental y
la observación documental
PRESENTACIÓN
Explicar la realidad significa establecer una relación constante entre dos fenómenos, la causa y
el efecto, siendo que el efecto sólo puede ser generado por la causa. Esto, que inicialmente pare-
ce sencillo, es un tema controvertido, particularmente en el caso de las ciencias sociales, debido a
la dificultad de experimentar con los seres humanos o los fenómenos sociales.
Ante un fenómeno social se dispone de dos formas de recoger información: la observación y
la interrogación. La observación es la forma directa e inmediata de recogida de información de los
fenómenos manifiestos.
Este módulo se centra en la observación y explica, en primer lugar, la situación artificial del
experimento en la que los datos que se analizan son producidos por el/la investigador/a. Y, en
segundo lugar, la observación documental, un material informativo sobre un determinado fenó-
meno social que, elaborado por un individuo o institución, existe con independencia de la acción
del investigador/a y que permite estudiar la sociedad indirectamente.
Diarios, memorias, autobiografías, ensayos, sentencias judiciales, obras técnicas o noticias
periodísticas sobre fenómenos sociales, registros públicos y privados, la historia oral, imágenes y
sonidos, e incluso, los objetos de cualquier clase son todos ellos documentos, que recogen desde
las experiencias más íntimas hasta los acontecimientos más relevantes de una época, pasando por
los juicios o la visión del mundo.
Estos datos, que poseen un carácter secundario o indirecto, pueden ser sometidos a un análi-
sis primario, si el/la investigador/a trabaja los documentos como materia prima o a un análisis
secundario, en el caso de que acuda a datos obtenidos y analizados anteriormente con la intención
de ofrecer nuevas interpretaciones. Generalmente, los documentos son analizados mediante téc-
nicas cualitativas –módulo 5-, sin embargo, pueden ser sometidos a un tratamiento cuantitativo
mediante el análisis de contenido.
Se consideran documentos públicos, las estadísticas oficiales, que ponen a disposición de los/as
analistas un volumen impresionante de datos recabados por un amplio grupo de unidades guber-
namentales. El tratamiento cuantitativo de estos datos se denomina “explotación de datos secun-
darios”.
OBJETIVOS
1. Conocer los fundamentos de la causalidad y sus exigencias, esto es, la covariación entre dos
variables, la dirección de la relación causal y el control sobre otras posibles causas.
2. Identificar los requisitos necesarios para llevar a cabo un experimento social que posibilite el
análisis de datos producidos directamente por el/la investigador/a.
3. Comprender la potencialidad de la observación documental y de los datos de carácter secun-
dario o indirecto.
4. Discernir entre el análisis primario y el análisis secundario de los datos secundarios o indirectos.
1. LA CAUSALIDAD
A una causa le sigue un efecto, pero para determinar un principio de causalidad no basta con
que la causa se de en algunas ocasiones. Explicar la realidad significa establecer una relación cons-
tante entre dos fenómenos, la causa y el efecto, siendo que el efecto sólo puede ser generado por
la causa. La realidad, sin embargo, es independiente de quien la observa y de sus percepciones.
Además, esto que inicialmente parece sencillo, es un tema controvertido en todas las ciencias,
y lo es particularmente en el caso de las ciencias sociales, puesto que resulta casi imposible recurrir
al experimento. Los fenómenos sociales ocurren en un marco muy complejo en el que múltiples
variables se encuentran interrelacionadas. Por ello, respecto de la realidad, sólo podemos limitarnos
a afirmar que una variación en una variable (dependiente) es seguida de la variación en otra (inde-
pendiente), si manteniendo constantes todas las otras posibles causas, contamos con un mecanismo
adecuado que nos permita corroborar una hipótesis de esa relación causal.
Establecer la covariación entre dos variables, la independiente (que influye) y la dependiente
(influida); la dirección de la relación causal; y el control sobre otras posibles causas:
a) El procedimiento, se inicia con la consideración de las variaciones de la que consideramos la
causa, la variable independiente (X), mediante la comparación de grupos o fenómenos, por
ejemplo. Al variar la variable independiente (X), simultáneamente, se debería dar una variación
en la variable dependiente (Y), es decir, de debería observar una covariación.
b) En segundo lugar, se tiene que considerar que la covariación debe seguir una dirección, al pro-
ducir la variación en la variable independiente (X). Entonces estamos en disposición de decir
que la relación causal va de Y a X, y no a la inversa. Este tipo de observaciones sólo es posi-
ble llevarlas a cabo a través del experimento, que permite variar artificialmente (manipular) una
de las dos variables. En caso de no poder llevarlo a cabo, se recurre a la sucesión temporal, obser-
vación que permite afirmar que la variación en la variable independiente (X) precede siempre
a la variación de la variable dependiente (Y).
c) Por último, cuando forzamos a la variable independiente (X) a variar, hemos de controlar otras
posibles variables manteniéndolas constantes, de modo que podamos asegurar que no son estas
otras las responsables de los cambios en la variable dependiente. Por ejemplo, si la tasa de acci-
dentes automovilísticos varía en función de la edad, hemos de asegurarnos de que el sexo no
interviene. Se debe tener presente en todo momento que, es posible que exista covariación sin
que exista causalidad, por ejemplo, puede aumentar la esperanza de vida y el número de egre-
sados de la universidad de un país. Ambas aumentan, pero entre ellas no hay relación de cau-
salidad, pues son efecto de las mejoras sociales.
Por tanto, puede suceder que encontremos una relación espúrea, es decir, que la covariación
entre dos variables, no derive de una relación causal sino de la influencia sobre ambas de una ter-
cera variable (Z). Por ejemplo, podría darse una correlación entre la residencia en municipios rura-
les de interior (X) y la participación electoral (Y), pero pudiera ser que la causa que orienta al voto
no sea la residencia en tales municipios, sino la edad, dado que es en esos municipios donde en
término medio hay más personas ancianas, que suelen ejercer su derecho al derecho al voto.
Para mantener bajo control la edad la podemos hacerla constante, por ejemplo, agrupando a las
personas en grupo de edad (jóvenes, adultas y ancianas), si en todos ellos se mantiene la covaria-
ción, entonces se puede sostener una relación entre la residencia rural y la participación electoral.
Se puede hacer uso del recurso de la correlación parcial si desea controlar una variable externa (Z)
a través de procesos estadísticos.
En el caso de que las variables externas sean numerosas, se ha de acudir necesariamente al pro-
ceso de la regresión múltiple u otros procesos multivariados, salvo que a través de los datos se
pueda conocer la relación de las variables externas entre sí y con la variable dependiente (Y), para
luego proceder a calcular la correlación entre X e Y –módulo 4–.
Las dos técnicas empleadas para el control de una relación causal son, por una parte, el análi-
sis de la covariación es su realización natural, –tal y como se ha expuesto en el apartado anterior
y como se desarrolla en el módulo 4–, en el que los datos son tratados sin manipulación previa. Y
por otra, la situación artificial del experimento -objeto de este módulo-, en la que los datos que se
analizan son producidos por el/la investigador/a.
En este caso, se provoca una variación de X en una situación controlada y luego se mide cuán-
to varía Y. Para ello, generalmente se procede a la conformación de dos grupos igualados, integra-
dos por sujetos que, elegidos por sorteo, no se diferencian entre sí más que en las características
relacionadas con la variable Y. Uno de los grupos o grupo de observación, se somete al experimento y
el otro actúa como grupo de control. En este tipo de experimentos, los sujetos pueden ser implica-
dos en una situación prediseñada, observados o ser requeridos para dar una opinión.
El desarrollo de la técnica del experimento comprende una serie de pasos, el primero, es la
selección de dos grupos o situaciones idénticas, en su defecto, similares. A continuación se reali-
za una medición inicial de ambos grupos. Para luego, proceder a la modificación de uno de los
grupos, haciendo incidir sobre él la variable X, que actúa como estímulo. Finalmente, se realiza una
nueva medición de ambos grupos, especialmente en lo referido a la variación producida por el estí-
mulo. La comparación de la diferencia entre la situación inicial y la final en los dos grupos o fenó-
menos arrojan los resultados del experimento.
En cuanto a las operaciones preparatorias, el análisis de la hipótesis no ofrece particularidades
en relación a lo ya expuesto. El estímulo, es la variable independiente, que se hace variar, sobre la
dependiente, cuya observación es el objeto del experimento. Ahora bien, es posible que interven-
gan variables relevantes o irrelevantes, las primeras son importantes en relación al grupo o fenó-
meno observado, y por ello, se deben controlar manteniéndolas a lo largo del estudio sin varia-
ción, a fin de controlar su influencia. Las irrelevantes, en cambio, lo son porque su influencia es
despreciable o aleatoria, y se anula en conjunto. Para la medición de los grupos se puede disponer
de entrevistas, cuestionarios, escalas de actitud, test, etcétera.
Dado que en el experimento es posible tener bajo control todas las posibles variables externas
que intervienen y aún otras no preestablecidas, el experimento resulta más rico que la covariación,
pues ésta limita el número de variables a controlar, pero la aplicación del experimento en las cien-
cias sociales es menor debido a la dificultad de manipular las variables sociales. Por ejemplo, resul-
ta relativamente sencillo estudiar la influencia de la publicidad de los medios de comunicación en
el consumo juvenil, exponiendo a un grupo a esos medios y manteniendo al otro alejado de ellos,
pero no resulta tan sencillo estudiar el suicidio de los jóvenes japoneses/as en relación con el acce-
so a la red.
Los experimentos se pueden llevar a cabo en una situación artificial o en el contexto de la vida
real. Los primeros, los experimentos realizados en un laboratorio, permiten tener controladas las
variables externas no deseadas y observar hasta los detalles aparentemente más insignificantes. Ese
aislamiento favorece la flexibilidad, puesto que es posible introducir artificialmente situaciones que
se diferencian entre sí sólo en pequeños detalles.
En el caso de los experimentos desarrollados en el contexto de la vida real o experimentos de
campo, en los que no se puede controlar algunas de las variables ambientales, es frecuente recu-
rrir a su aleatorización, siempre que se puedan realizar las repeticiones del experimento que sean
necesarias. En este caso se hace que las variables externas o incontroladas intervengan en cada
experimento con valores distintos (altos, medios, bajos) lo que permite detectar su influencia.
Las limitaciones del experimento, especialmente el de laboratorio, están relacionadas con la
misma artificialidad que crea situaciones excepcionales aisladas del contexto, o sea, un ambiente
artificial, que a su vez influye en la reactividad de los sujetos al sentirse observados. A estas limi-
taciones, se suma un problema de mayor envergadura, la no representatividad de la muestra, debi-
do a su pequeña amplitud, aunque la finalidad del experimento no es la de generalizar los resulta-
dos, sino la de establecer las relaciones causa-efecto.
Los cuasi-experimentos son aquellos que carecen de alguno de los elementos imprescindibles,
como el grupo de control.
3. LA OBSERVACIÓN DOCUMENTAL
Los seres humanos han utilizado y utilizan la escritura para consignar diarios, memorias, auto-
biografías, ensayos, sentencias judiciales, obras técnicas o noticias periodísticas sobre fenómenos
sociales, que recogen desde las experiencias más íntimas hasta los acontecimientos más relevantes
de una época, pasando por los juicios o la visión del mundo. Los organismos públicos y privados
llevan a cabo un registro regular de los hechos más importantes de la vida social: demográficos,
económicos, financieros, laborales, educativos, sanitarios, etcétera. Es posible también hacer aco-
pio de los recuerdos de las personas o de la historia oral.
Otros registros de interés son los que conservan imágenes y sonidos de toda clase de sucesos.
Incluso, los objetos de cualquier clase, desde un grandioso monumento hasta un simple utensilio,
pasando por una obra de arte. Todos estos objetos tienen un valor documental, en tanto que como
productos de una sociedad determinada reflejan su organización o nivel de desarrollo.
Los documentos escritos poseen un carácter secundario o indirecto. Secundario en tanto que
no ofrecen los fenómenos que han tenido lugar, sino los resultados de la percepción o interpreta-
ción de sus autores/as. Indirecto pues no permiten el contacto directo con el hecho. Dado que
muchos de estos documentos, a excepción de las estadísticas oficiales y algunos estudios privados,
no han sido producidos con fines científicos, es condición necesaria para su utilización en la inves-
tigación social, someterlos a un examen riguroso que permita evaluar su fiabilidad.
De cara a evaluar la fiabilidad, es conveniente distinguir entre:
a) los hechos y fenómenos que se describen,
b) las interpretaciones que se den de ellos,
c) las opiniones y actitudes contenidas y expresadas.
Sierra Bravo (1997)1 destaca los siguientes elementos a tener en cuenta en el juicio de la fiabi-
lidad, que hasta cierto punto, son aplicables a los documentos estadísticos públicos o privados:
• Autenticidad.
• Alteración por interpolaciones o lagunas.
• Competencia del autor/a y su conocimiento directo del tema tratado.
• Marco teórico e ideología en la que se sitúa el autor/a.
• Pertenencia del autor/a a algún partido político o grupo de presión.
• Coyuntura política y social en la que fue producido.
• Problemas anejos a la lengua y el sentido exacto según la época del escrito.
• Fin pretendido con la publicación del documento.
Los documentos pueden ser sometidos a un análisis primario, si el/la investigador/a trabaja
los documentos como materia prima, o a un análisis secundario, en el caso de que acuda a datos
obtenidos y analizados anteriormente con la intención de ofrecer nuevas interpretaciones.
En el análisis primario, a su vez, la finalidad puede ser la de un análisis global o la de un aná-
lisis pormenorizado. En primero, el análisis como un todo global, es aquel que parte de la consi-
deración del documento mismo como un hecho social del que se trata de conocer sus caracterís-
1 Sierra Bravo, R. (1997) Técnicas de investigación social. Teoría y ejercicios. Thomson. Madrid.
ticas, con el objeto de deducir de ellas consecuencias de interés social. En cambio, en el análisis
pormenorizado se establecen aquellas variables y sus categorías sobre las que se pretende recoger
información en los documentos, con el objetivo de hacer la prueba de la hipótesis. El análisis de
contenido de documentos es una técnica frecuentemente utilizada en el análisis primario
El análisis de contenido de documentos es una técnica que trabaja sobre el contenido manifiesto,
aquel que se puede observar directamente, en busca de lo objetivo (que cualquiera pueda verifi-
car), sistemático (siguiendo una pauta objetiva) y cuantitativo (que se pueda cifrar numéricamente)
con el fin de interpretarlo e inferir consecuencia relevantes de naturaleza histórica, sociológica,
politológica, etcétera. Aunque se analice el contenido manifiesto, es posible indagar también sobre
los contenidos latentes, si se dispone de indicadores manifiestos que sean expresión de los mis-
mos. Habitualmente, los resultados se recogen en tablas numéricas.
En realidad este tipo de análisis permite la aplicación del método científico a estos materiales,
en tanto que se satisfacen las exigencias de observación, clasificación, análisis y explicación. Ciertas
particularidades se han de tener en consideración, por ejemplo, de cara al muestreo. Este se puede
realizar sobre la fuente o los espacios dentro de la fuente, así por ejemplo, se pueden numerar
espacios iguales y sortear su elección. En el caso de fechas, si estas son periódicas, se puede hacer
un muestreo rotatorio, en que, por ejemplo, se vayan cambiando al tomar meses distintos en los
sucesivos años.
Otra particularidad está relacionada con la determinación de las unidades de análisis, que pueden
ser palabras, oraciones, secciones o temas. Así por ejemplo, una unidad de análisis puede ser el
deporte en la prensa española, y así se buscan los deportes de los que se habla en la prensa con el
objeto de ver qué importancia se le da a los diferentes deportes, qué lugar ocupan, qué extensión,
con qué frecuencia se repiten, etcétera. Las unidades se extraen, se codifican y se analizan cuatita-
tivamente.
Igualmente, la elección de las categorías que integran las variables es relevante, porque señala los
elementos a buscar en la investigación, y permiten clasificarlos. Así por ejemplo, podemos buscar
en las revistas editadas en la Dictadura Franquista respecto de la variable “represión de la sexuali-
dad”, actitudes favorables a la represión, neutras y desfavorables, que a su vez se pueden cruzar
con la variable sexo, lo cual nos permite buscar actitudes favorables, neutras y desfavorables y cla-
sificarlas según si la ha adoptado un hombre o una mujer.
Finalmente, en el análisis de contenido la elaboración de un cuadro permite la observación. A
cada unidad de observación se le asigna un cuadro, en el que se incluyen todas las categorías que
se manejan en la investigación.
La elaboración de las primeras estadísticas se remonta a las civilizaciones antiguas, que en torno
al IV - II milenio a.C., iniciaron los censos de población. La palabra estadística deriva de “estado”
e históricamente significó la ciencia que describe los Estados, para referirse posteriormente a la
descripción cuantitativa de las características más importantes de un país.
En la actualidad el término posee dos acepciones, la primera está relacionada con su concep-
ción original y se refiere a la recogida de datos sobre una población, que tiene como finalidad, ofrecer
una visión global de la misma; mientras que, la segunda se refiere a la ciencia que, en base a las mate-
máticas y el cálculo de probabilidades, estudia los fenómenos sociales. El objeto de atención de este subepí-
grafe recae en la primera, la de estadística como sinónimo de dato estadístico demográfico, eco-
nómico, político o de otra naturaleza.
Los datos estadísticos pueden derivar de una recogida indirecta a través de los actos adminis-
trativos, que tienen estrictamente una finalidad burocrática. De este modo, se puede acceder a las
estadísticas demográficas de nacimientos, matrimonio, divorcios, cambios de domicilio y falleci-
mientos; de la misma manera que, se puede conocer el número de empresas que operan en un
territorio, el número de personas que se inscriben cada año en las universidades y las que finali-
zan sus estudios superiores o el número y procedencia de los/as emigrantes extracomunitarios/as
que se regularizan.
En general los datos obtenidos por los diferentes institutos estadísticos son datos factuales, es
decir, son meros registros de acciones o comportamientos, y no contemplan opiniones, actitudes
o motivaciones. El dato estadístico suele registrar a toda la población, como en el caso de naci-
mientos o fallecimientos, es lo que se denomina un registro exhaustivo.
Este último se diferencia del registro parcial o muestral, de empleo más reciente a nivel oficial.
Ciertos fenómenos escapan a los actos administrativos como la contabilización de los nuevos
tipos de familia, el empleo de trabajadoras domésticas cuya situación no se regulariza o la explo-
tación de inmigrantes indocumentados/as en el sector agrícola. Por este motivo, los institutos
nacionales de estadística, en los últimos años, han comenzado a realizar investigaciones por mues-
treo ad hoc con fines cognoscitivos, sobre sectores específicos. Así por ejemplo, en España se rea-
lizan anualmente encuestas para contabilizar el comercio al por menor.
Las investigaciones ad hoc se realizan sobre muestras de considerables dimensiones, que sue-
len implicar de entre 2.500 a 10.000 individuos. La razón es la conservación del carácter descrip-
tivo con el que nacieron las estadísticas oficiales, así como la voluntad de reflejar las dimensiones
territoriales. En la actualidad, las posibilidades de la informática y el cruce de archivos administra-
tivos existentes, puede evitar la realización de algunas encuestas de este tipo.
Otras veces, el dato estadístico es producto de la recogida directa o intencionada, esto es, la
información se recoge expresamente con la finalidad de conocer un determinado fenómeno
social. Este es el caso del Censo -que se aborda en el siguiente apartado-. En ciertos países euro-
peos como Alemania se han iniciado los censos sobre una muestra del uno por cien de la pobla-
ción. Las ventajas aparejadas al muestreo sobre un país o región son la reducción de los costes
dinerarios, de recursos humanos a movilizar y de tiempo.
Las investigaciones que realizan fundaciones, institutos, empresas o particulares, por razones
de economía dineraria y de tiempo, se suelen hacer sobre muestras de 1.000 o 2.000 individuos.
En cuanto a la unidad de análisis en las estadísticas oficiales, y aunque la información se recoge
sobre el individuo (unidad de registro), generalmente está disponible de modo agregado (unidad
de análisis), de modo que los individuos aparecen agrupados con un criterio territorial, esto es, por
municipios, provincias o comunidades autónomas.
Esos datos no individuales se denominan datos agregados o sumados. Inversamente, cuando
podemos referirnos a los individuos de manera particular según ciertas características estamos
ante datos desagrados por sexo, edad o cualquier otra variable de interés. La ventaja de los datos
agregados es que se pueden consultar de manera inmediata, mientras que la consulta de los datos
desagregados, aunque contiene más información, requiere de procedimientos técnicos.
El metadato es la información que acompaña a los datos y los hacen comprensibles. Suele con-
tener el/los título/s, una descripción de los datos (números absolutos, porcentajes o medias, por
ejemplo), su fuente, la entidad productora, su cobertura y la fecha. La proliferación de estadísticas
y su accesibilidad a través de internet, en ocasiones apareja el descuido en la elaboración de meta-
datos, lo cual ha puesto de manifiesto la necesidad de homogeneizar unos estándares bien defini-
dos para ordenar la información.
La explotación de datos secundarios es utilizada por entidades gubernamentales, agencias de
noticias, docentes, empresas o particulares en busca de un dato que apoye sus argumentos. Y cons-
tituyen un valioso caudal de información para la investigación social, al menos en cuatro áreas fun-
damentales, como son el estudio de la estructura social (crecimiento vegetativo, flujos migratorios,
mercado de trabajo, movilidad social, etcétera), las demarcaciones territoriales subnacionales (dife-
rencias entre comunidades autónomas, medio urbano y rural, la intención de voto, etcétera), los
estudios comparados entre países (contraste entre naciones en lo referido a la esperanza de vida,
escolarización o ingresos per cápita, por ejemplo) y los estudios longitudinales o con una secuencia
temporal de años, décadas o siglos (la trayectoria demográfica, la evolución del empleo, estudio de
rentas, etcétera).
El empleo de datos estadísticos en la investigación social comporta algunas limitaciones, pues-
to que los datos existen y son recogidos con una finalidad distinta a la que la investigación propo-
ne y por ello es posible que no colmen las exigencias del investigador/a, de ahí que se deba pres-
tar la máxima atención a la validez (correspondencia entre los indicadores y los conceptos estu-
diados). Por otro lado, los datos estadísticos son de naturaleza objetiva y conductual, pero no
informan de las razones que mueven a las personas. Finalmente, si los datos están editados a esca-
la territorial dificultan el conocimiento de los comportamientos individuales y limitan las conclu-
siones del análisis.
Las estadísticas oficiales –como se afirmó en el apartado anterior- son aquellos datos estadís-
ticos producidos por la administración pública, recogidos generalmente mediante procedimientos
administrativos ordinarios, y con menor frecuencia, mediante encuestas por muestreo.
La organización del sistema estadístico de un país se encomienda a una agencia u organismo
público especializado. En el Estado Español, el Instituto Nacional de Estadística (INE, www.ine.es),
adscrito al Ministerio de Economía es el que, en virtud de la Ley de la Función Estadística Pública,
de 9 de mayo de 1989, tiene atribuida la realización de operaciones estadísticas de gran enverga-
dura, como los censos demográficos, las cuentas nacionales, las estadísticas sociales o la elabora-
ción del censo electoral, entre otras.
La mayoría de los datos del INE se encuentran publicados, editados en soporte magnético y
son accesibles a través de internet en Inebase, que recoge la información estadística que produce
el Instituto y la que provienen de todo el sistema estadístico nacional y en Tempus, que recoge
series temporales, como el Índice de Precios al Consumo (IPC) o la Encuesta de Población Activa
(EPA), entre otras.
La explotación estadística del Padrón a la misma fecha, 1 de enero, se realiza a partir del fiche-
ro derivado de la base padronal del INE del que se obtiene la propuesta de las cifras oficiales,
depurándose las variables básicas que contiene el Padrón susceptibles de explotación estadística.
Se realizan cruces por lugar de residencia, sexo, edad, nacionalidad y lugar de nacimiento hasta un
nivel de desagregación municipal y por sexo, nacionalidad y edad hasta el nivel de sección censal.
El INE elabora igualmente el Censo de Población, un recuento exhaustivo de la población que
la legislación obliga a realizar cada diez años, para conocer las características sociales y demográ-
ficas de los habitantes. El primer censo moderno de población, es decir, tomando como unidad
de estudio a todos los habitantes, se realizó en España en 1768 por el Conde de Aranda bajo el
reinado de Carlos III, aunque el primer Censo oficial data de 1857.
Simultáneamente a los Censos de Población se realizan los Censos de Viviendas, pues así se per-
mite relacionar las características de los habitantes con las viviendas que ocupan. El último Censo
de Población y Viviendas de 2001, con referencia al 1 de noviembre de 2001, precisó de más de
35.000 agentes censales.
La realización de un Censo tiene numerosas finalidades. De la información censal se pueden
derivar conclusiones tan importantes como:
a) Cuántos somos y cómo estamos distribuidos atendiendo al sexo, a la edad, lugar de nacimien-
to, estado civil, lugar de residencia, etc.
b) El modo en que están estructurados los hogares en la actualidad, atendiendo a las formas de
convivencia.
c) El número de personas que hay trabajando, pudiendo clasificarse por actividades, por situación
profesional... así como el número de personas que están en paro y en situación de buscar tra-
bajo. Igualmente, el número de personas que hay estudiando y en qué sector o qué tipo de estu-
dios poseen.
d) El número de desplazamientos diarios y medio de transporte que empleamos para dirigirnos a
nuestro lugar de trabajo o estudio.
e) Características de las viviendas, de los edificios y los locales. Los problemas o deficiencias que
presentan las viviendas donde habitamos y su entorno, el tipo de instalaciones que poseen, la
disponibilidad de ascensor, etc. La disponibilidad de una segunda vivienda.
Y de esta forma, utilizar esta información para planificar políticas demográficas, sanitarias, edu-
cativas, asistenciales, medioambientales, etc., así como evaluar los resultados de las mismas. También,
y debido a que un Censo recoge toda la información de la población residente en territorio espa-
ñol, puede servir de marco para las encuestas por muestreo del INE y la selección de las unidades
estadísticas (secciones censales, municipios, manzanas); ser base para asignar recursos económicos
procedentes del Estado y la Unión Europea a Comunidades Autónomas y Ayuntamientos para
desarrollo rural, construcción de carreteras, etcétera.
La tabla siguiente, elaborada a partir de los datos del Censo de Población y Viviendas, está des-
agregada por sexo y grupos quinquenales de edad y agregada por nacionalidad. A partir de ella,
por ejemplo, se puede construir la pirámide de población española, calcular el índice de juventud,
el índice de envejecimiento o la sex ratio.
España. Población según nacionalidad (agregada) y sexo, por edad (grupos quinquenales)
Elaboración propia.
Fuente: INE, Censo de Población y viviendas, 2001. Resultados definitivos.
Además del INE, dentro de la administración general del Estado, otros organismos producen
datos estadísticos y publicaciones específicas, como por ejemplo, el Ministerio de Educación, el
Ministerio de Trabajo y Asuntos Sociales o el Instituto de la Mujer de España.
El INE tiene atribuidas las competencias en materia de relación y coordinación con las ofici-
nas estadísticas de las comunidades autónomas. El Inventario de Operaciones Estadísticas (IOE)
de la Administración General del Estado, fue creado por el INE para facilitar la coordinación y
recoge entre otras cosas que los distintos rangos de desagregación de los datos se ordenan de
mayor a menor: nacional, autonómico, provincial, municipal, inferior u otros. En ese genérico
otros, y por debajo del nivel municipal, se encuentran los distritos y las secciones censales. Las sec-
ciones son utilizadas siempre que se precisan divisiones inframunicipales, como en el caso de las
secciones electorales que tienen que reunir un máximo de 2.000 electores/as y un mínimo de 500.
Desde la citada Ley de la Función Estadística Pública, la mayoría de las comunidades han asu-
mido competencias en esta materia, creando sus respectivos institutos. En la Comunidad
Autónoma Canaria, el Instituto Canario de Estadística (ISTAC, www.gobcan.es/istac/) publica, edita
y ofrece información en internet sobre territorio y medio ambiente, población, sectores de la eco-
nomía, mercado laboral, sanidad, educación, cultura, justicia, urbanismo, ciencia y tecnología,
entre otros. Los datos suelen estar desagregados por provincias, islas o municipios.
Las actividades humanas, en general y particularmente, los actos institucionales o las activida-
des organizadas, son habitualmente documentadas. En la esfera pública se han producido duran-
te siglos multitud de documentos que hablan de la sociedad y la cultura, mientras que la sociedad
moderna se autodocumenta continuamente. La historia y también la sociología encuentran en
estos productos de la vida institucionalizada una base empírica para el estudio de la realidad.
La variedad es inmensa pues podemos encontrar documentos administrativos como contratos,
denuncias, sentencias judiciales, registros civiles, planes de estudio, programas electorales o testa-
mentos; y documentos empresariales o comerciales, como ofertas y demandas de trabajo, anun-
cios publicitarios, organigramas empresariales; y en general, todo aquello que permita conocer la
realidad social incluidos, los documentos que elaboran los medios de comunicación o los cuentos.
Igualmente caben aquí las estadísticas oficiales, sobre las que se tratará en el siguiente apartado.
Las ventajas de la utilización de este tipo de documentos es que evita la reactividad de los suje-
tos, reduce los costes y facilita el análisis diacrónico. Los inconvenientes son que su diseño fue rea-
lizado con una finalidad distinta de los objetivos de la investigación por lo que pueden presentar
una información incompleta, y que en ocasiones pueden presentar una visión distorsionada de la
realidad, dado que presentan una versión oficial de la realidad, que no tiene por qué coincidir exac-
tamente con su representación objetiva.
Este tipo de documentos, pueden ser analizados mediante un tratamiento cualitativo, si se inter-
pretan en su globalidad y desde el punto de vista de su significado. Al igual que pueden ser sometidos
a un tratamiento cuantitativo, si se subdividen los aspectos homogéneos para relacionarlos des-
pués entre sí, a través del análisis de contenido, en el que primeramente se descomponen los textos
con el fin de codificarlos en una matriz de datos, que posteriormente se somete a tratamiento esta-
dístico.
Documentos administrativos. Ayuntamientos, escuelas, hospitales, colegios profesionales y otras
instituciones producen documentos que pueden facilitar el conocimiento de la realidad en la que
trabajan, de las políticas públicas, y la clasificación de los temas que predominan en un contexto
sociocultural.
Material judicial. Las sentencias de los tribunales de justicia y concretamente, la jurisprudencia
laboral, fiscal, civil o contenciosa-administrativa permite conocer comportamientos ilegales, prác-
ticas y prejuicios sociales.
Documentos de la vida política. Los actos parlamentarios, discursos políticos, programas elec-
torales, la propaganda o los eslóganes permiten conocer el clima político, la cultura política o el
uso de los símbolos, nacionales (patria, enemigo, agresión, etc.), morales (solidaridad, disciplina,
etc.), liberales (ciudadanía, libertad, fraternidad, etc.) o de otro tipo.
Los diarios, las cartas o las memorias de personajes relevantes han sido de gran utilidad en la
investigación histórica. La investigación social considera igualmente valiosos los documentos de
tal naturaleza producidos por cualquier individuo, en tanto que, a través de ellos es posible recons-
truir las relaciones sociales del momento, en base a las vivencias de sus protagonistas en la vida
cotidiana. La cotidianidad ofrece multitud de documentos en los que los/as autores/as se expre-
san y expresan su visión de lo que les rodea: diarios, autobiografías, correspondencia, cartas a la
prensa, testimonios orales, memorias, apuntes, graffitis, fotografías, etcétera.
La principal limitación de este tipo de documentos es que su carácter de expresión personal
hace más que dudosa su generalización, por lo que en la investigación social son frecuentemente
utilizados con carácter auxiliar.
Frente a la utilización de estos documentos es frecuente encontrar dos posturas, la una los sitú-
an en el ámbito pre-científico dado que su lectura puede dar pie a diferentes interpretaciones, por lo
que se cuestiona su suficiencia para validar una teoría científica, si bien se reconoce su utilidad para
contribuir a adquirir conocimientos del tipo de realidad que se está estudiando. La otra, defenso-
ra del criterio interpretativo, considera su validez como fuente de información empírica, dado que el
objetivo que defiende no es de explicar, sino el de comprender. En este sentido, los documentos
ACTIVIDADES
1. La realidad supone identificar las causas que la hacen posible pero ¿qué requisitos son precisos
para determinar una relación causal?
2. Se podría afirmar que la relación entre desempleo y pobreza es espúrea. Razone la respuesta.
3. Explique razonadamente si, la observación sistemática del comportamiento de unos escolares
en una escuela, mediante la medición de sus reacciones a los estímulos del profesorado, por
parte de varios/as investigadores/as, constituye un experimento sociológico.
4. Explique razonadamente si en el caso del experimento de Hawthorne, realizado entre 1924 y
1933, en la Westterm Electric, bajo la dirección de Mayo con la finalidad de establecer la rela-
ción entre las condiciones de la iluminación y la eficiencia en la producción, con un grupo de
observación y otro de control, constituye un experimento sociológico.
5. ¿En qué medida la observación documental permite estudiar la sociedad indirectamente?
Justifique por qué hay que prestar atención a los hechos que describen, las interpretaciones que
se den de ellos y las opiniones o actitudes que pueden contener?
6. ¿Qué diferencias existen entre los datos factuales y los datos muestrales que ofrecen los insti-
tutos estadísticos? Cite un ejemplo.
7. Establezca la diferencia entre el INE y el ISTAC, acceda a sus páginas web y detalle la infor-
mación estadística que ponen a disposición de cualquier usuario/a.
8. Se puede otorgar fiabilidad a los datos que se ofrece la tabla que se muestra a continuación.
Qué tipo de datos contiene. Haga un breve comentario sobre ellos.
Población española (1) de 16 años y más por relación con la actividad económica
9. Especifique la unidad de análisis de la siguiente tabla, si los datos están agregados o desagrega-
dos y elabore el metadato, sabiendo que la fuente es el Censos de Población y Viviendas, 2001
del Instituto Nacional de Estadística (INE).
10. Diseñe una tabla que recoja una relación de documentos públicos y de documentos persona-
les, así como las ventajas e inconvenientes de su utilización en la investigación social.
BIBLIOGRAFÍA
EJERCICIOS DE AUTOEVALUACIÓN
3. Se puede afirmar que son fiables los datos del Padrón municipal de fecha 1 de enero de 2004
que ofrece el INE.
a) son absolutamente fiables, dado que el Padrón municipal es el registro administrativo donde
constan los/as vecinos/as del municipio. Su formación, mantenimiento, revisión, custodia y
actualización corresponde a los respectivos ayuntamientos.
b) es fiable, en tanto que, que el Padrón municipal, es elaborado por muestreo probabilístico.
c) no son absolutamente fiables, dado que el Padrón municipal, es elaborado por muestreo no
probabilístico.
4. Se puede defender que las cifras de series históricas de población que ofrece el INE, desde
1900, se pueden tomar sin reserva si se tiene en cuenta que, en el período 1900 -1991 los datos
están referidos a población de hecho, son decenales y proceden de los censos de población de
cada año; que para el período 1986 -1995 los datos corresponden a población de derecho, son
anuales y derivan de las renovaciones padronales para 1986 y 1991 (cifras oficiales referidas a
1 de abril y 1 de marzo) y de las rectificaciones padronales para los demás años (referidas a 1
de enero); y que en 1996 se llevó a cabo una modificación de la normativa padronal, quedan-
do establecido un nuevo sistema de gestión continua e informatizada de los Padrones munici-
pales, basado en la coordinación de todos ellos por parte del INE, en el que se elimina la dis-
tinción entre poblaciones de hecho y derecho.
a) si, aunque no es homogéneo el colectivo poblacional que se considera en cada período.
b) no, porque no homogéneo el colectivo poblacional que se considera en cada período.
6. Se puede afirmar con rotundidad que son fiables las estadísticas fiscales basadas en las decla-
raciones de los/as contribuyentes respecto de las actividades económicas gravadas.
a) Son absolutamente fiables, puesto que son editadas por el organismo público encargado de la
recaudación.
b) No son fiables en absoluto, porque se basan en las declaraciones de los/as interesados/as, que
tienen intención de declarar lo menos posible para tributar poco, lo cual se verifica al indagar
sobre la defraudación en esta materia.
8. En un análisis de las noticias sobre el maltrato de género en los periódicos de tirada provincial
correspondiente a los 5 últimos años ¿qué tipo de análisis es el pertinente?
a) Sólo cabe el tratamiento cualitativo, global o de significado.
b) Sólo cabe un tratamiento cuantitativo, a través del análisis de contenido.
c) Cabe un tratamiento cualitativo, global o de significado, pero lo óptimo es un tratamiento
cuantitativo a través del análisis de contenido.
9. ¿Qué permite conocer los programas electorales de los distintos partidos políticos?
a) Quién gobernará en la próxima legislatura.
b) La abstención en la próxima cita electoral .
c) El grado de cumplimiento de las promesas electorales de los partidos que han accedido al
poder, el marketing político, el clima político o la cultura política, entre otros aspectos.
1 c
2 c
3 a
4 b
5 c
6 b
7 a
8 c
9 c
10 a
GLOSARIO DE TÉRMINOS
Principio de causalidad: relación constante entre dos fenómenos, la causa y el efecto, siendo que el
efecto sólo ha sido generado por la causa.
Variable dependiente: aquella que experimenta una variación.
Variable independiente: aquella cuya variación afecta a la variable dependiente.
Variable de control: otras posibles variables responsables de los cambios en la variable dependiente
Covariación: relación de variación entre dos variables, la independiente (que influye) y la dependiente
(influida).
Relación espúrea: covariación entre dos variables, no derivada de una relación causal sino de la
influencia sobre ambas de una tercera variable.
Correlación: control de la variable externa a través de procesos estadísticos.
Experimento: situación artificial del experimento en la que se provoca una variación de una varia-
ble independiente en una situación controlada y luego se mide cuánto varía la variable depen-
diente.
Grupo de observación: grupo que se somete al experimento mediante estímulo.
Grupo de control: grupo igualado con el grupo de observación al que no se somete a estimulo para
facilitar la medición de las variaciones en el grupo de observación.
Aleatorización: repeticiones de un experimento desarrollado en el contexto de la vida real en el que
no se puede controlar algunas de las variables ambientales.
Cuasi-experimentos: aquellos que carecen de alguno de los elementos imprescindibles del experimen-
to, como el grupo de control.
Documento: material informativo sobre un determinado fenómeno social que, elaborado por un
individuo o institución, existe con independencia de la acción del investigador/a.
Fiabilidad: confiabilidad de la fuente.
Análisis primario: análisis de los documentos como materia prima.
Análisis secundario: análisis de datos obtenidos y analizados anteriormente con la intención de ofre-
cer nuevas interpretaciones.
Análisis de contenido: técnica que trabaja sobre el contenido manifiesto en busca de lo objetivo, sis-
temático y cuantitativo cuyos resultados se recogen en tablas numéricas.
Explotación de datos secundarios: técnica usual en la investigación social que explota las estadísticas
oficiales.
Metadato: información que acompaña a los datos y los hacen comprensibles. Estadísticas oficiales:
datos estadísticos producidos por la administración pública, recogidos mediante procedimien-
tos administrativos ordinarios o muestreo.
Padrón municipal: registro administrativo donde constan los vecinos y vecinas del municipio.
Censo de Población: recuento exhaustivo de la población que se realiza cada diez años, para conocer
las características sociales y demográficas de los habitantes de un país.
Módulo 3
La observación (II): basada en la estandarización: la encuesta
por muestreo. Las técnicas cuantitativas (I)
PRESENTACIÓN
Explicar la realidad, como se expuso anteriormente, significa establecer una relación de causali-
dad. Ante un fenómeno social se dispone de dos formas de recogida de información para el estable-
cimiento de tal relación: la observación y la interrogación. La observación –objeto del módulo
anterior– es la forma directa e inmediata de recogida de información de los fenómenos manifiestos.
En este módulo, se aborda la interrogación en tanto que herramienta para la recogida de datos.
La pregunta es el instrumento adecuado para acceder a la exploración de las motivaciones, actitu-
des, creencias y expectativas.
La estrategia de recoger información interrogando directamente a los sujetos implicados en los
fenómenos sociales se lleva a cabo a través la encuesta por muestreo, la técnica mas difundida en
la investigación social.
La pregunta es el elemento central de la encuesta, y debe realizarse mediante un procedimien-
to estandarizado, con la finalidad de comparar las respuestas y analizarlas estadísticamente. En este
módulo se tratará con detenimiento cómo se elabora un cuestionario y cómo se formula las pre-
guntas, ya que ambas tareas requieren mucha precaución, pues de la calidad del instrumento
depende la calidad de los datos, y de ambos, la calidad de la investigación misma.
Los aspectos metodológicos de la encuesta por muestreo, relacionados con las muestras y el
tratamiento de datos, son tratados en el módulo 4.
OBJETIVOS
Ante un fenómeno social, individual o agregado se dispone de dos formas de recoger informa-
ción: la observación y la interrogación. La observación –expuesta en el módulo anterior– es la forma
directa e inmediata de recogida de información de los fenómenos manifiestos. La interrogación, en
cambio, es la herramienta para acceder a la exploración de las motivaciones, actitudes, creencias,
expectativas.
La estrategia de recoger información interrogando directamente a los sujetos implicados en los
fenómenos sociales se lleva a cabo a través la encuesta por muestreo, la técnica mas difundida en
la investigación social.
Esta técnica cuenta con una antigua historia en la investigación social, pues fue empleada para
estudiar las condiciones de vida, el trabajo en la fábrica o en el campo por Marx en 1880 y Weber
entre 1880 y 1910 (Corbetta)1, en el convencimiento de que mientras no se midiera la naturaleza
y la extensión de los fenómenos sociales, poco podría hacerse para conocerlos en profundidad y
enfrentarse a ellos.
La encuesta por muestreo es una técnica para la recogida de información, en la que se interro-
ga a los mismos sujetos que son objeto de estudio, y que forman parte de una muestra represen-
tativa, mediante un cuestionario o encuesta, con la finalidad de establecer relaciones de causalidad
entre las variables.
Dado que normalmente la población objeto de estudio está compuesta por un elevado núme-
ro de individuos, y es imposible interrogar a todos ellos, se impone la necesidad de seleccionar una
muestra de esa población que sea la que proporcione la información. La muestra ha de ser repre-
sentativa, por tanto, debe reproducir las características de la población objeto de estudio. La mues-
tra debe ser consistente, y los individuos deben ser seleccionados siguiendo reglas muy precisas,
establecidas por la estadística –véase módulo 4–.
1.1. La pregunta
EI I CI C CD D ED
1 2 3 4 5 6 7
2. EL CUESTIONARIO
La formulación de un cuestionario es una tarea compleja, que requiere mucha atención, y res-
pecto de la que no hay unas reglas precisas. En general, para proceder a la redacción de un buen
cuestionario es necesario tener conocimientos sobre el objeto de estudio, disponer de cierta expe-
riencia en la elaboración de cuestionarios, y formular claramente las hipótesis de investigación. La
falta de experiencia se puede suplir con la consulta de otros cuestionarios análogos, que lejos de
asimilarse a una mala práctica permite realizar comparaciones y acumular conocimientos, puesto
que la mejor forma de hacer una pregunta puede haber sido ya contrastada en la realidad. Las pre-
guntas pueden versar sobre actitudes y comportamientos o recabar datos sociodemográficos.
Las actitudes sean opiniones, juicios, valores, sentimientos, motivaciones, etcétera, son los datos
más difíciles de explorar, en tanto que es más sencillo responder a la descripción de un compor-
tamiento que exponer los pensamientos, pero difícilmente se podrían recoger de otra forma, más
que a través de la pregunta directa. La complicación se incrementa dado que las respuestas pue-
den ser influidas por el lugar que ocupe la pregunta en el cuestionario o la forma de formularla, y
porque las actitudes suelen ser multidimensionales, esto es, dependen de las circunstancias.
Los comportamientos, en cambio, han sido llevados o no a la práctica, y por tanto, a la pregun-
ta le debería seguir una respuesta inequívoca. El comportamiento además es observable y empíri-
camente verificable, por lo que resulta más difícil distorsionar la respuesta.
Las preguntas relativas a las propiedades sociodemográficas suelen estar presentes en todas las
encuestas, pues generalmente operan como variables independientes. Y es que el análisis de una
variable es relevante, pero se obtiene más información estableciendo relaciones entre variables,
pues el objetivo a la hora de estudiar un fenómeno social es fundamental identificar los factores
que inciden o están correlacionados con él.
Las propiedades sociodemográficas, por tanto, responden a la descripción de las características
básicas del individuo, entre las que se diferencian las demográficas (sexo, edad, lugar de nacimien-
to, etcétera); las sociales heredadas de la familia o estabilizadas en la etapa juvenil (clase social ori-
ginaria, nivel de estudios, etcétera); y las que definen un cierto periodo del ciclo vital (profesión,
estado civil, etcétera). Existen formulaciones estándares para recabar esta información.
Las preguntas cerradas son aquellas en las que al entrevistado/a se le presenta las respuestas
estandarizadas, de modo que ha de escoger la más apropiada. Esas respuestas están codificadas y
su expresión numérica se trascribe a una matriz de datos. Las respuestas están precodificadas. Las
preguntas cerradas, al ofrecer un abanico de posibles respuestas, clarifica al entrevistado/a el
marco de referencia propuesto, estimula la reflexión, y hace fácilmente comparable las respuestas.
El cuestionario es una herramienta muy sensible. La manera en la que se formula una pregunta
puede influir en la respuesta, incluso pequeñas modificaciones en su expresión verbal pueden dar
pie a sensibles variaciones en la respuesta. Por ello en la redacción de la pregunta y en la elaboración
de las opciones de respuesta se deben extremar las precauciones. Consideraciones a tener en cuenta:
Lenguaje.
Sintaxis.
Extensión.
Concreción.
Significado.
Formulación.
Preguntas no discriminantes
Preguntas de respuesta dirigidas
Preguntas filtro.
La batería de preguntas. La técnica de escalas
Alternativas de respuesta
Número de respuestas.
Falta de opinión.
Deseabilidad social.
Situaciones embarazosas.
Aquiescencia.
Comportamientos y actitudes.
Intensidad de las actitudes.
El tiempo.
Efecto memoria.
Tamaño del cuestionario.
Orden de las preguntas.
Secuencialidad.
Lenguaje. Claro. Dada la estandarización de las preguntas y la necesidad de que sean accesibles
para todas las personas, las preguntas han de ser formuladas en un lenguaje muy claro. Debe ade-
cuarse a la muestra estudiada y evitar, si fuera preciso, el uso de tecnicismos. El cuestionario auto-
cumplimentado exige un lenguaje más sencillo que el que se realiza con entrevistador/a. Véase
Anexo II. Cuestionario INE, p. 7.
Sintaxis. Lineal y simple. Las dobles negaciones, por ejemplo, complican el enunciado e inducen
a error. En general, se deben sortear las negaciones, así como las condenas y desaprobaciones
sobre seres, comportamientos, acontecimientos y objetos. Véase Anexo II. Cuestionario INE, p. 11.
Extensión. Concisa. Las preguntas muy largas pueden dificultar su recuerdo íntegro o pueden
incidir en la disminución de la atención a lo largo del cuestionario. Las preguntas largas se reser-
van para cuestiones personales delicadas, que requieran de la memoria o que precisen una refle-
xión. Véase Anexo II. Cuestionario INE, p. 9.
Concreción. La concreción dificulta el mal entendido, facilita la identificación del problema y
la reflexión. Las preguntas abstractas, en cambio, pueden dar lugar a respuestas superficiales, gené-
ricas o sometidas a la deseabilidad social. Ante una idea abstracta se propone sondear en base a
un caso hipotético. Véase Anexo II. Cuestionario INE, p. 9.
Significado. Conviene evitar el uso de conceptos ambiguos y que carezcan de un significado
unívoco que den pie a confusiones. De igual manera, es preferible evitar los términos con una
carga de significado emotivo, especialmente si la carga es negativa, con la finalidad de no predis-
poner al entrevistado/a. Véase Anexo II. Cuestionario INE, p. 18.
Formulación. Las preguntas no deben tener una respuesta múltiple, esto es, se debe evitar la
posibilidad de que se responda con un depende; es preferible hacer dos preguntas separadas.
Véase Anexo II. Cuestionario INE, p. 27 y 28.
Preguntas no discriminantes. Las preguntas que no producen diferencias entre las respuestas
de los entrevistados/as es una pregunta inútil. Ello suele suceder si entre las respuestas se encuen-
tra una que atrae todas las elecciones.
Preguntas de respuesta dirigidas. Las preguntas tendenciosas que orientan al encuestado/a
hacia una de las posibles respuestas deber ser evitadas en favor de una presentación equilibrada.
Véase Anexo II. Cuestionario INE, p. 23.
Preguntas filtro. Los acontecimientos no se deben anticipar, para preguntar acerca de un hecho
hay que sondear si se ha producido. Las preguntas filtro permiten seleccionar a los/as entrevista-
dos/as antes de plantear una pregunta que no concierne a todos/as. En contrapartida, las preguntas
condicionadas son las que se plantean sólo si se ha respondido a la pregunta filtro de una manera
determinada. Véase Anexo II. Cuestionario INE, p. 23 a.
La batería de preguntas. Las preguntas en las que sólo varía el objeto al que se refieren, pero
están formuladas de manera similar y cerradas en base a las mismas opciones, se presentan en un
único bloque. La fórmula de condensar preguntas en una misma formulación tiene por objeto
ahorrar espacio en el cuestionario y tiempo en la encuesta, además facilita la comprensión del
mecanismo de respuesta. Es frecuente su uso cuando se responde: muy, bastante, poco o nada de
acuerdo con una afirmación u otra o se responde sobre las rutinas. Véase Anexo II. Cuestionario
INE, p. 22. Las baterías también se usan en la técnica de escalas, y particularmente, en la medición
de actitudes.
Alternativas de respuesta. Salvo en el caso de la batería de preguntas, en el que las opciones
están estandarizadas, las respuestas ofrecidas al encuestado/a deben ser todas las posibles, y for-
de los acontecimientos pasados o la indagación en las trayectorias vitales. Véase Anexo II.
Cuestionario INE, p. 26.
Efecto memoria. Las preguntas relativas a acontecimientos ocurridos en el pasado implican difi-
cultades relacionadas con lagunas o distorsiones del recuerdo. Los límites temporales también faci-
litan el recuerdo, al igual que la referencia a acontecimientos más o menos relevantes. Si el tiem-
po de referencia discurre entre el pasado, el presente y el futuro se puede recurrir a un diario.
Véase Anexo II. Cuestionario INE, p. 25 y 26.
Tamaño del cuestionario. El principio general es la economía en el número de preguntas, claro
que si se pretende profundizar en un aspecto habrá que incrementar el número de preguntas, lo
cual encarece el coste del cuestionario; por ello, a menudo se descuida la intensidad, y se pregun-
ta a través de las categorías: muy, bastante, poco o nada de acuerdo con esta o aquella afirmación.
Orden de las preguntas. La primera parte del cuestionario debe ser concebida para que el entre-
vistado/a se sienta cómodo y confiado, por ello, las primeras preguntas deben ser fáciles, ni indis-
cretas ni personales, basadas en hechos más que en opiniones. A mitad del cuestionario es reco-
mendable introducir las preguntas más embarazosas, aunque se pueden situar al final si se siente
el temor de que se va a interrumpir la cumplimentación del cuestionario. Los datos sociodemo-
gráficos se suelen situar al final, dado que una vez que se haya comprobado que el cuestionario no
es comprometido, se facilitan con mayor tranquilidad.
Secuencialidad. En general, lo apropiado es pasar de lo general a lo particular, abordando los
temas con una cierta coherencia interna que permita hacer aflorar algo similar a una conversación
normal, sin saltos bruscos en lo referido a los temas o los acontecimientos pasados. Conviene
introducir una llamada de atención al cambiar de tema. Se produce un efecto contaminación, cuan-
do la respuesta a una pregunta puede estar influenciada por la pregunta anterior.
En la presentación de los datos, se satisfacen los criterios de transparencia y replicabilidad, y por
tanto, de cientificidad, si se aporta la formulación exacta de la pregunta que produjo los datos.
4. LA TÉCNICA DE ESCALAS
Entre los años treinta y sesenta del pasado siglo, las ciencias del comportamiento popularizaron
las técnicas de escala, con un objetivo tan ambicioso como ingenuo, el de medir al ser humano y
a la sociedad. Si bien la medición de los conceptos se ha mostrado muy compleja, las técnicas son
válidas para conocer al ser humano a través de sus comportamientos u opiniones, las cuales a su
vez, suelen derivar de una propiedad subyacente.
La medición es el proceso que permite transformar en operaciones empíricas los conceptos
complejos, como los estados anímicos, las actitudes políticas o las escalas de valores. Muchos con-
ceptos relativos al ser humano y a la sociedad como el autoritarismo, la conflictividad, la partici-
pación, la anomia o la exclusión social, no son fácilmente traducibles al lenguaje de la investiga-
ción social, y tampoco son directamente observables. En cambio, se pueden observar los compor-
tamientos u opiniones que derivan de la propiedad subyacente y que están influidos por ésta.
Como se apuntó en el módulo 1, un concepto general puede operacionalizarse mediante un
concepto específico que se denomina indicador, ligado a aquel por una relación parcial de signifi-
cado. Así, por ejemplo, se puede operacionalizar la religiosidad a través de la práctica religiosa. Las
escalas, en cambio, proponen conocer un concepto a través de un conjunto coherente y orgánico
de indicadores o ítems (en lugar de uno o unos pocos), cuya superposición es controlada.
Los elementos que integran la escala son los componentes individuales: afirmación, pregunta,
comportamiento, atributo o test. Mientras que el concepto subyacente es la variable latente.
La medida de las actitudes es la aplicación más frecuente de las escalas en sociología y psicolo-
gía social, también es una escala un test que arroja al final una puntuación única para medir una
habilidad y o una batería de preguntas orientadas a conocer algún rasgo de personalidad. En la
medición de las actitudes, y dado que son disposiciones no registrables directamente, se opera con
las opiniones. En otros términos, la unidad de análisis es el individuo, el concepto general es una
actitud, y los conceptos específicos o indicadores son opiniones.
Desde las primeras aplicaciones en los años veinte se han elaborado centenares de escalas para
la medición de las actitudes, y en general, rasgos latentes de la personalidad humana: tendencias
políticas, relaciones sociales, necesidades, estados emocionales o rasgos psicológicos. Además de
la sociología y la psicología, las ciencias de la educación han elaborado herramientas similares para
registrar el grado de aprendizaje, habilidades y capacidades. Aparte de registrar las propiedades de
los individuos ante unos estímulos, la técnica es igualmente válida para atribuir una puntuación a
personas, grupos, instituciones o comunidades.
En cuanto al tipo de variable producida por esta técnica, no se ha podido especificar su natu-
raleza, de modo que se considera cuasicardinal, ya que los significados de las escalas no son pura-
mente numéricos. Los avances teóricos e informáticos han abierto la posibilidad de darle un tra-
tamiento más próximo al registro de su naturaleza, la propiedad continua (continuum).
La escala se construye seleccionando cuidadosamente las frases o ítems, con un criterio válido,
fiable y preciso para la medición del fenómeno estudiado. A continuación se expone a los indivi-
duos a la serie de afirmaciones, pidiendo que se exprese la opinión sobre ellas. Combinando ade-
cuadamente las respuestas se llega a una puntuación individual que estima la posición de cada suje-
to respecto a la actitud en cuestión.
Dado que se supone la equidistancia entre los distintos valores, se denominan a estas variables
cuasicardinales, y generalmente son tratadas como cardinales. Sin embargo, cada individuo se ubica
de manera subjetiva en la escala y establece sus divisiones, establece su grado de acuerdo es ese
continuo, por ello se consideran de escala. Un ejemplo clásico es la valoración de líderes políticos
en una escala de 1 a 10, siendo 1 la peor valoración y 10 la mejor.
Tony Blair 1 2 3 4 5 6 7 8 9 10
Hugo Chávez 1 2 3 4 5 6 7 8 9 10
Vladimir Putin 1 2 3 4 5 6 7 8 9 10
Angela Merkel 1 2 3 4 5 6 7 8 9 10
Romano Prodi 1 2 3 4 5 6 7 8 9 10
José Luis Rodríguez Zapatero 1 2 3 4 5 6 7 8 9 10
Alan García 1 2 3 4 5 6 7 8 9 10
Evo Morales 1 2 3 4 5 6 7 8 9 10
En las encuestas telefónicas, en las que resulta imposible utilizar soportes visuales, se ha gene-
ralizado otra forma de proceder que consiste en preguntar si se está de acuerdo o en desacuerdo
con un ítem, y en caso afirmativo, se pregunta si mucho o bastante.
El número de categorías de respuesta que se ofrecen suelen ser pocas e incluso dos (elección
binaria: si/no) si el número de ítems es alto, e inversamente, si es bajo se presentan 5 ó 7alterna-
tivas. Obviamente, el grado de precisión aumenta si se considera un número de adecuado de ítem,
al igual que si se ofrece algo más que una respuesta binaria. Las gradaciones se suelen presentar
en una secuencia numérica (de 1 a 10 como en el ejemplo anterior o de 1 a 7), en casillas vacías,
en un “termómetro de sentimientos” (de 1 a 100), y en una línea continua. Esta última con la idea
de obtener una representación física, no semántica.
El psicométrico Likert dio nombre a esta técnica y bajo tal denominación caben una variedad
de escalas que se conocen también como escalas aditivas (summated rating scales), a consecuen-
cia de la mejora de las propuestas iniciales de Likert en el estudio de actitudes. El procedimiento
de base es sencillo, se trata de atribuir una puntuación total mediante la suma de puntuaciones de
pruebas individuales. La escala consiste en la formulación de una serie de afirmaciones para las
que se ha de responder si se esta de acuerdo y en qué grado, mediante respuestas de autonomía
semántica parcial. La construcción de la escala atraviesa cuatro fases:
a) Formulación de las afirmaciones. La primera es una fase teórica en la que se establecen las
dimensiones de la actitud estudiada y se formulan las afirmaciones que cubren sus diferentes
aspectos. Los conceptos complejos contienen múltiples dimensiones que la escala necesaria-
mente tiene que cubrir. Las operaciones matemáticas permitirán rechazar las afirmaciones más
incongruentes y dar mayor coherencia a la escala.
b) Administración de las preguntas. En esta fase, la escala se expone a una muestra de individuos
que se enfrentan a afirmaciones tales como: “la causa de los accidentes de tráfico está en lo
defectos de fabricación de las máquinas” o “es preferible bajar la presión impositiva que
aumentar el gasto público”. Dado que se pueden obtener respuestas dadas al azar o mecánica-
mente, es deseable hacer variar el sentido de las afirmaciones para provocar la reflexión, así
como introducir la respuesta “no sé”. La escala de “sentimiento de eficacia política” del Survey
Research Center2 de la Universidad de Michigan, elaborada en 1954 está integrada por nueve
afirmaciones, cinco referidas a política general y cuatro a la política municipal.
c) Determinación de la capacidad de la escala. En la tercera fase, una vez recogidos los datos, se
plantea la capacidad de la escala para recoger la información para la que fue construida y se
determina su unidimensionalidad. Para ello se utilizan dos instrumentos matemático básicos:
en primer lugar, la correlación elemento-escala o correlación parte-todo que identifica un elemento ambi-
guo o malinterpretado, pero en todo no congruente con el resto que debe ser eliminado,
mediante el cálculo del coeficiente de correlación entre la puntuación individual y la global (que varía
entre 1 en caso positivo y -1), esta última tiene que tomar en cuenta el resto de los elementos.
Ello se evidencia si al atribuir a una persona una puntuación elevada, esta la obtiene en todas
las respuestas menos en una, y si además este caso se repite en un número elevado de indivi-
duos. Y en segundo lugar, la coherencia interna de la escala para cuya valoración se han elaborado
algunos criterios, el más conocido es el alfa de Cronbach, que se basa en la matriz de relación
entre todos los elementos y en su número. Alfa toma un valor positivo entre 0 y 1, siendo desea-
ble un valora alto, en torno a 0.70, para poder aceptar la escala. Un alfa inferior significa que
los elementos de la escala tienen poco en común o que su número es demasiado bajo.
nr
æ = _____________________
1 + r (n-1)
Por último, la unidimensionalidad trata de ir más allá de la mera correlación entre los ítems,
pues es posible que estos impliquen propiedades distintas. El análisis factorial (procedimiento com-
plejo pero fácilmente accesible a través de un programa de análisis estadístico) tiene por objeto
reducir una serie de variables relacionadas entre sí a un número inferior de hipotéticas variables
independientes entre sí, cuyas correlaciones son explicadas por la existencia de factores subyacen-
tes. El análisis permite establecer si la escala es unidimensional o bidimensional, y en este ultimo
caso, se recomienda dividir la escala en dos.
Las escalas de Likert son las técnicas más difundidas en el registro de propiedades continuas, y
en particular, en el caso de las actitudes, por la simplicidad de su estructura teórica y la facilidad
de su aplicación. Sin embargo, las dificultades están relacionadas con la puntuación asignada a cada
elemento, que no es más que una variable ordinal, de autonomía semántica parcial con varias
modalidades (desde muy, hasta nada de acuerdo), a la que se le asigna puntuaciones de escala simple
(1, 2, 3, ... 5) que son luego tratadas como escalas cardinales, además, la puntuación final no repre-
senta una variable cardinal. También se considera una limitación la falta reproducibilidad de la escala,
pues esa puntuación final es global. Se exponen a continuación, sin abundar en ellas, otras técnicas
de escala que parten de las propuestas de Likert.
El escalograma de Guttman es la propuesta que trata de resolver uno de los principales puntos
débiles de la escala de Likert. La escala se construye con una sucesión de elementos que presen-
tan una dificultad creciente, de modo que, quien contesta afirmativamente a una pregunta tiene
que haberlo hecho en todas las que le preceden, por lo que se denomina escala acumulativa. Un
ejemplo clásico es la Escala de Distancia Social de Bogardus (1925)3 para medir el nivel de con-
tacto deseable con personas de otros grupos étnicos, de modo que la secuencia de preguntas: si
estaría dispuesto/a a aceptar a un africano/a como visitante en su país; si estaría dispuesto/a a
aceptarle como vecino/a; como amigo/a; y a casarse con el/ella.
La técnica del diferencial semántico de Osgood se desarrolló a fin de crear un instrumento para
determinar, con la máxima estandarización, el significado que los conceptos adquieren para los
individuos. Cuando se pregunta qué significa esto para ti (padre, naturaleza, nación), tenemos que
tener en cuenta que los conceptos son complejos, y que contienen aspectos filosóficos y psicoló-
gicos. Los significados son fundamentales para estudiar los comportamientos, ahora bien, cada
cual los puede expresar con mayor o menor precisión y difícilmente lo que describan distintos
sujetos podrá ser comparable. Así, el diferencial semántico se basa en asociaciones de opuestos o
de atributos bipolares. Así respecto de este manual, podemos preguntar si es:
Interesante/ Aburrido
Claro/ Lioso
Me ha gustado / Nada
Fácil de manejar / Difícil de manejar
El test sociométrico de Moreno, a diferencia de los anteriores, trata de poner de manifiesto las
relaciones interpersonales existentes en el interior de un grupo. Inicialmente se diseñó para el estu-
dio de las relaciones afectivas, y luego se ha aplicado a las relaciones funcionales y a los procesos
comunicativos. El cuestionario, con unas pocas preguntas, gira en torno al tema preferencia-rechazo,
esto es, con quién te gustaría o no pasar de curso, ir al cine, a una celebración, a la playa, invitar a
tu casa, etc. De ahí se pueden obtener representaciones gráficas de los retratos psicosociales indi-
viduales y del perfil grupal. El test se presta al análisis de los grupos estructurados (una clase, una
oficina), pero es poco adecuado para los grupos informales.
Las escalas multidimensionales. Estas suponen la existencia de una única dimensión fundamen-
tal subyacente bajo un conjunto de observaciones, y para ponerlas de manifiesto se articulan unos
elementos. En el caso de las escalas multidimensionales se parte de las observaciones preguntan-
do cuántas y qué dimensiones latentes hay detrás de ellas. Para ello, lo primero es ver si entre todos
los individuos que han respondido hay un espacio común, cuántas dimensiones tiene ese espacio,
y darle nombre.
5. LA RECOGIDA DE DATOS
La forma tradicional de realizar una encuesta es mediante la interacción cara a cara. El encareci-
miento de los costes de las encuestas y la desconfianza de la ciudadanía hacia los/as extraños/as
han llevado a muchos/as investigadores/as a privilegiar la encuesta telefónica. Junto a estas modali-
dades de recogida, siempre ha estado presente la modalidad del cuestionario autocumplimentado.
Recientemente se comienza a generalizar el cuestionario telemático. Lo anteriormente expuesto en lo
referente a la elaboración del cuestionario es válido para todas las modalidades, aunque hay aspec-
tos específicos de cada una.
Encuesta cara a cara. La encuesta por muestreo requiere habitualmente de muestras que con-
tienen uno o dos millares de individuos, que son contactados por un número de encuestadores/as
que puede rondar la decena o la veintena. De ahí que las personas del investigador/a y del encues-
tador/a no suelan coincidir, de modo que el peso de la encuesta recae sobre el segundo/a dado
que, de la manera en la que plantee y conduzca la relación con el/la encuestado/a, dependerá en
gran medida la calidad de los datos.
La explicación de los objetivos de la investigación favorece la implicación de los/as encuestadores/as
en la misma y beneficia el desarrollo de la investigación. Los encuentros preliminares de instruc-
ción irán acompañados de instrucciones escritas. A estos encuentros preparatorios, deben seguir
los encuentros de control durante el trabajo de campo, y en caso de necesidad, se recurre a la figura
del supervisor/a de campo. Este/a puede tener tanto una función de asesoramiento al solucionar
los problemas que surgen en el trabajo de campo, como de control al comprobar que las encuestas
han sido efectivamente realizadas.
La formación previa tiene también la finalidad de estandarizar el comportamiento de los/as
encuestadores/as y reducir el margen de discrecionalidad. En esta fase preliminar se instruye sobre
el manejo del cuestionario y se solicita que se abstengan de influir sobre el encuestado/a, de modo
que no se exprese aprobación o desaprobación ante comentarios o carencia de conocimientos, y
que se conteste con frases o gestos ambiguos cuando se es interpelado/a, aunque tampoco se debe
permanecer inalterable ante malentendidos o peticiones de aclaración. Además, se precisa mos-
trarse cordial, tener la habilidad de conducir el cuestionario hasta el final, y mantener en todo
momento la atención del encuestado/a.
Capi (Computer assisted personal interviewing) es una versión de la entrevista cara a cara en la
que los datos son introducidos en el ordenador según se producen. Desaparecen así las fases de
codificación e introducción de los datos, que pueden ser enviados al final de la jornada al centro
de recogida de datos. Capi permite agilizar el uso de cuestionarios complejos, al automatizar los
saltos de las preguntas condicionadas o los controles de coherencia.
Encuesta telefónica. Esta modalidad se ha hecho muy popular en los países que una elevada
proporción de la población dispone de teléfono. Sus ventajas son numerosas, y destacan entre
ellas, la rapidez en la ejecución del trabajo de campo ya que con un diseño adecuado se puede
encuestar a un millar de personas en un día o dos a lo sumo, por lo que se utilizan cuando se quie-
re valorar la influencia de un acontecimiento relevante; la reducción de costes que puede oscilar
entre el 50 y el 75%; la menor concentración de la muestra al alcanzarse con facilidad áreas peri-
féricas; la posibilidad de introducir los datos directamente en el ordenador, cati (Computer assis-
ted Telephone interviewing), que permite automatizar los saltos en las preguntas condicionadas,
lo que reduce las posibilidades de error; la menor resistencia del encuestado/a que percibe cierta
garantía de anonimato y presenta menor grado de desconfianza; y un mayor control hacia los
encuestadores/as.
Las desventajas son las propias de una interacción mediatizada por un aparato, el teléfono, que
impide la relación personal, en la que un menor implicación puede conllevar respuestas más super-
ficiales; la encuesta es más corta por lo que de una media de cuarenta minutos se reduce a unos
veinte, lo que obliga a simplificar los interrogantes y a formular únicamente los esenciales; no existen
los recursos visuales como las tarjetas de respuesta, lo que exige reducir el número de opciones de
respuesta; se carece de información complementaria no verbal como el estado de la vivienda, su
accesibilidad, etcétera; alguno sectores sociales no cuentan con este tipo de recursos y quedan
fuera; las personas mayores y de bajo nivel educativo suelen estar subrepresentadas por su menor
disposición o la interferencia de algún miembro de la familia. La reflexión tiene escasa cabida y los
tiempos muertos son embarazosos. Por tanto, se gana en inmediatez y se pierde en profundidad.
Encuesta autocumplimentada. El cuestionario se rellena por el encuestado/a, sin mediación
alguna. Se incluye en esta modalidad las encuestas enviadas por correo postal, las que se entregan
en un establecimiento o servicio, las que se suministran a un grupo o las que entrega un encues-
tador/a en un domicilio y pasa a recoger al cabo de unos días. Los cuestionarios deben ser cortos,
concisos y sencillos.
La encuesta autocumplimentada grupal es muy recomendable pues un/a entrevistador/a acude
al lugar donde el grupo se reúne, entrega los cuestionarios, está disponible para las aclaraciones, y
en la recogida comprueba que todos han sido rellenados. La bondad de la encuesta individual, en
cambio está relacionada con su vinculación, esto es, si quien entrega la encuesta regresa a buscar-
la, puede evitar que la entrega quede al arbitrio del encuestado/a y controlar los posibles errores.
Esta modalidad es la que habitualmente siguen los institutos nacionales de estadística para recabar
los datos censales, y también se emplea en los estudios que reflejan el paso de la semana, a través
de unas fichas-diario. El cuestionario autocumplimentado postal se envía a una lista de nombres
representativos de la población estudiada, con una carta de presentación de la investigación, el
cuestionario y un sobre para la devolución con el franqueo a cargo del remitente.
La principal ventaja es el enorme ahorro de costes, a la que se suma la mayor garantía de ano-
nimato para el encuestado/a, pues el cuestionario devuelto no debe contener elementos de iden-
tificación; la mayor flexibilidad en tanto que se puede rellenar en cualquier momento; la ausencia
de distorsiones debidas al entrevistador/a; y la accesibilidad a zonas alejadas o aisladas.
Las desventajas radican en el bajo porcentaje de respuestas obtenidas y la baja representativi-
dad en caso de desvinculación, pues la devolución del cuestionario depende de la voluntad del
encuestado/a, que en buena medida será quien tenga más instrucción, juventud o motivación; los
errores cometidos por parte de quien rellena la encuesta, pues no es una persona instruida en su
manejo y puede que no familiarizada con la comunicación escrita; la falta de control sobre la cum-
plimentación si responde una persona que no es la elegida; y la extensión del cuestionario, que ha
de ser muy breve.
Las desventajas se sortean con más menor dificultad si quien envía el cuestionario es una enti-
dad reconocida y si quien firma la carta es un responsable institucional. Idealmente, la solicitud de
devolución puede estar articulada en cuatro fases: envío de la carta y el cuestionario, solicitud pos-
tal de devolución, nueva carta de solicitud acompañada de un nuevo cuestionario por si se ha
extraviado, y una llamada telefónica de solicitud.
La teleentrevista o entrevista telemática es aquella en la que el encuestado o encuestada lee las
preguntas en la pantalla e introduce los datos desde un periférico por tanto es, autocumplimenta-
da. Las ventajas son la eliminación del encuestador/a, la posibilidad de sondear a la opinión públi-
ca en el momento en que acaece algún acontecimiento relevante, y la de hacer estudios longitudi-
nales. Mientras que la principal desventaja es la reactividad del sujeto y la falta de control acerca
de quién realiza la encuesta.
El análisis secundario de encuestas por muestro es aquel que permite realizar una investigación
original con datos de encuesta por muestreo, recogidos previamente para otra investigación, en
forma de matriz de datos original.
El análisis secundario es un reanálisis de bases de datos ya existentes, debido a que las investi-
gaciones efectuadas en el pasado ofrecen márgenes para nuevas y originales profundizaciones. La
investigación no tiene por qué ser un proceso autosuficiente y cerrado, en el que cada quien produce
datos y los analiza. Las razones son varias, los datos pudieron ser explotados parcialmente, no en
su conjunto; el desarrollo teórico puede haber dado pie a la aparición de nuevos interrogantes; y
sin duda, las nuevas técnicas de elaboración estadística permiten responder a viejos interrogantes
con nuevos instrumentos de análisis. La informática hace fácilmente accesible bases de datos pues-
tas a disposición de los/as investigadores/as por la misma comunidad científica, algunas de ellas
dirigidas exclusivamente al análisis secundario. En general, se busca realizar sobre esos datos aná-
lisis más sofisticados o ampliar la base original de los datos.
Entre las ventajas de este proceder se encuentra la garantía de rigor, los bajos costos, la posi-
bilidad de realizar estudios de gran envergadura, y la de repetir en el tiempo la misma indagación,
si las bases de datos se editan con periodicidad. La desventajas son, la imposibilidad de valorar la
calidad de los datos si no se trata de sondeos dirigidos expresamente al análisis secundario; la limi-
tación de la investigación al no haber sido los datos recabados con la finalidad de satisfacer sus
interrogantes; y el data set, o sea, la definición de la investigación a partir de los datos disponibles,
algo que puede llevar a resultados triviales y previsibles.
El metaanálisis, a diferencia del análisis secundario, se apoya en los resultados de diferentes
estudios, y no en los datos. Es un método para seleccionar, integrar y sintetizar estudios que tie-
nen el mismo objeto de análisis. El desarrollo de la técnica se ha apoyado en la consolidación de
repertorios bibliográficos informatizados en los que la utilización de una palabra clave facilita la
búsqueda.
Las encuestas longitudinales tienen la finalidad de analizar los cambios experimentados por una
variable a lo largo del tiempo. Para ello, basta con repetir la indagación, pasado un tiempo, sobre
una muestra, constituida siempre por los mismos sujetos. Los estudios longitudinales permiten ir
más allá de la foto fija que ofrecen los estudios trasversales (cross-sectional) descritos con anteriori-
dad. Este tipo de encuesta, repetida sobre los mismos individuos se denomina panel.
Las desventajas que lleva aparejadas son que el individuo se puede sentir estudiado y altere su
comportamiento normal; y la posible reducción de la muestra en cada nueva oleada (rechazos,
traslados, muertes, etc.).
Encuestas trasversales repetidas. Esta técnica registra las mismas informaciones en momentos
temporales diferentes, pero no realiza sobre los mismos sujetos, sino en distintas muestras de indi-
viduos comparables entre sí. El diseño de la muestra debe ser siempre idéntico, a fin de asegurar
que las diferencias no se deben a la composición muestral. Obviamente, la información recogida
se refiere al cambio agregado, no al individual. Su uso es clásico en los barómetros sociales.
La principal limitación de las encuestas longitudinales es su coste puesto que, un estudio con-
sistente sobre el cambio, debería apoyarse en más de dos recogidas de datos. Dado que tales estu-
dios se pueden desarrollar durante décadas, se suelen encomendar a instituciones permanente
capaces de garantizar la continuidad.
Otra posibilidad para incluir la variable tiempo es el estudio longitudinal retrospectivo, en el que
los interrogantes se plantean referidos al pasado. Obviamente, los datos quedan sujetos a las posi-
bles lagunas de la memoria o a la alteración en el relato del pasado.
Y, una última, es la que ofrece la conexión de bases de datos censales y administrativos con la
finalidad de recoger la variación en el tiempo de los datos registrados por la misma fuente o de
distintas fuentes en tiempos distintos. La limitación radica en el tipo de datos, generalmente, socio-
demográficos.
ACTIVIDADES
1. Anote tres actitudes y tres comportamientos que se puedan indagar a través de una encuesta
por muestreo.
2. Indique si las siguientes preguntas responden a las orientaciones generales a cerca de la formu-
lación de las cuestiones de una encuesta por muestreo. Razone las respuestas.
a) Cree usted que la movilidad intergeneracional es ahora más intensa que en el pasado.
b) No cree usted que la tensión política no beneficia el diálogo social.
c) ¿Esta usted a favor o en contra de la interrupción voluntaria del embarazo?
d) Dado que todos los seres humanos son sujetos de derechos y que están reconocidos en la De-
claración Universal de los Derechos Humanos ¿cree usted que son legítimas las detenciones
ilegales practicadas por Estados Unidos en su lucha contra el terrorismo?
e) En alguna ocasión ¿ha pegado usted a su hijo/a?
f) ¿Qué prefiere el deporte individual, en equipo o en la naturaleza?
3. Elabore una “batería de preguntas” sobre el ocio.
4. Ofrezca las “alternativas de respuesta” a la pregunta: ¿Cuál fue el motivo principal que le con-
dujo a cursar esta titulación?
5. ¿Con que tipo de herramienta o cuestionario recogería la información sobre el Índice de Masa
Corporal (peso) de los/as adolescentes de un municipio?
6. Se va a realizar una encuesta, encargada por la Consejería de Sanidad, para conocer la práctica
del consumo de drogas legales e ilegales entre la población canaria. Diseñe el texto que da pie
al “contacto inicial”.
7. Indique la variedad de técnicas que caben bajo la denominación de Escala Likert.
8. Diseñe una encuesta telefónica sobre la afición por el cine.
9. Ejemplifique la diferencia entre una posible encuesta longitudinal de panel y un estudio tras-
versal (cross-sectional).
10. Introdúzcase en la página web del Centro de Investigaciones Sociológicas, y respecto del últi-
mo barómetro, indique qué información proporciona.
BIBLIOGRAFÍA
EJERCICIOS DE AUTOEVALUACIÓN
5. ¿Qué es Capi?
a) Una técnica de escala.
b) Una entrevista cara a cara en la que los datos son introducidos en el ordenador.
c) Una encuesta autocumplimentada.
6. ¿Cómo se denomina la prueba previa a la realización del trabajo de campo, que se realiza a
pequeña escala, al objeto de identificar las modificaciones que precisa el cuestionario?
a) Estudio exploratorio.
b) Pre-test.
c) Codificación.
1c
2c
3c
4c
5b
6b
7c
8a
9c
10 b
MATERIALES COMPLEMENTARIOS
ANEXO I.
Satisfacción laboral: encuesta de evaluación
Redactor: Francisco Javier Cantera López
Ministerio de Trabajo y Asuntos Sociales de España
ANEXO II.
Encuesta de Empleo del Tiempo 2002-2003
INE (Instituto Nacional de Estadística)
GLOSARIO DE TÉRMINOS
Pregunta: instrumento adecuado para acceder a la exploración de las motivaciones, actitudes, cre-
encias y expectativas.
Pregunta estandarizada: aquella que se plantea a todos los individuos con la misma formulación.
Encuesta por muestreo: técnica en la que se interroga a los mismos sujetos que son objeto de estudio,
y que forman parte de una muestra representativa, mediante un cuestionario o encuesta, con la
finalidad de establecer relaciones de causalidad entre las variables.
Cuestionario: relación de preguntas estandarizadas y respuestas estandarizadas o no.
Preguntas cerradas: aquellas en las que se presentan las respuestas estandarizadas y codificadas.
Preguntas abiertas: aquellas que buscan la espontaneidad de las respuestas. Son postcodificadas.
Preguntas semicerradas: preguntas cerradas con alternativas de respuestas no contempladas.
Preguntas no discriminantes: las que no producen diferencias entre las respuestas de los entrevista-
dos/as, una pregunta inútil.
Preguntas de respuesta dirigidas: preguntas tendenciosas que orientan al encuestado/a hacia una de las
posibles respuestas.
Preguntas filtro: las que permiten seleccionar a los/as entrevistados/as antes de plantear una pre-
gunta que no concierne a todos/as.
Batería de preguntas: aquellas en las que sólo varía el objeto al que se refieren, están formuladas de
manera similar y cerradas en base a las mismas opciones, y se presentan en un único bloque.
Alternativas de respuesta: todas las posibles respuestas formuladas de manera excluyente y exclusiva.
Preguntas de respuesta múltiple: las que reciben más de una respuesta.
Técnicas de escalas: las que tienen por objetivo medir al ser humano y a la sociedad, a través de sus
comportamientos u opiniones, respecto de una propiedad subyacente.
Escalas de autoposicionamiento: aquella en la que los extremos están dotados de significados, mientras
que entremedias se coloca un continuum, en el que el encuestado/a ubica su posición.
Escala de Likert o escalas aditivas: aquella que busca una puntuación total mediante la suma de pun-
tuaciones de pruebas individuales, mediante la formulación de una serie de afirmaciones para
las que se ha de responder si se esta de acuerdo y en qué grado.
Escalograma de Guttman: escala que se construye con una sucesión de elementos que presentan una
dificultad creciente.
Técnica del diferencial semántico de Osgood: instrumento que busca determinar, con la máxima estanda-
rización, el significado que los conceptos mediante asociaciones de opuestos.
Test sociométrico de Moreno: cuestionario que gira en torno al tema preferencia-rechazo.
Escalas multidimensionales: aquellas que parten de las observaciones preguntando cuántas y qué
dimensiones latentes hay detrás de ellas.
Encuesta cara a cara: la que se precisa de la interacción entre el/la encuestador/a y el encuestado/a.
Encuesta telefónica: modalidad popular en los países que una elevada proporción de la población dis-
pone de teléfono.
Encuesta autocumplimentada: rellenada por el encuestado/a, sin mediación alguna, que a su vez puede
ser grupal o individual.
Teleentrevista o entrevista telemática: modalidad que se comienza a popularizar en los países que una
elevada proporción de la población dispone de ordenador.
Estudio exploratorio: aquel que se realizan de manera previa a la elaboración del cuestionario,
mediante técnicas cualitativas.
Pre-test: encuesta a pequeña escala realizada para identificar las modificaciones que precisa el cues-
tionario antes de la recogida definitiva de datos.
Análisis secundario de encuestas por muestro: investigación original con datos de encuesta por estreo
recogidos previamente para otra investigación.
Metaanálisis: se apoya en los resultados de diferentes estudios, no en los datos.
Encuestas longitudinales: aquellas que analiza los cambios experimentados por una variable a lo largo
del tiempo, para lo que se repite la indagación sobre una muestra constituida por los mismos
sujetos.
Encuestas trasversales repetidas: registra las mismas informaciones en momentos temporales diferen-
tes, pero en distintas muestras de individuos comparables entre sí.
Módulo 4
La observación (II): basada en la estandarización: la encuesta
por muestreo. Las técnicas cuantitativas (II)
PRESENTACIÓN
La encuesta por muestreo, como su nombre indica, se aplica a los mismos sujetos que son obje-
to de estudio y que forman parte de una muestra representativa. El procedimiento del muestreo
es una operación empírica que introduce a quien hace uso de ella en las leyes del azar y el cálculo
probabilístico.
Este módulo trata del concepto de “muestra” en el ámbito de la investigación cualitativa y par-
ticularmente, en el de la investigación cuantitativa. Así mismo, se expone con detenimiento la
cuestión del tamaño, pues de ello depende la representatividad de la muestra, que consiste en saber
si el grupo elegido es verdaderamente representativo del conjunto. Por último, se exponen los dis-
tintos tipos de muestreo que requiere la investigación cuantitativa: probabilístico y no probabilís-
tico.
Al efectuar el muestreo, si se desconoce la probabilidad no se puede realizar la inferencia esta-
dística, y aunque la muestra sea muy representativa, solamente cabe someterla a la estadística des-
criptiva. El muestreo probabilístico, en cambio, permite que los resultados válidos que se deriven
de la muestra sean extensibles al universo, mediante inferencia o generalización.
Por esta razón, el módulo se cierra con unas nociones básicas sobre estadística descriptiva y
sobre estadística inferencial. La estadística descriptiva hace uso de medidas resumen para descri-
bir a un grupo de individuos, características o ítems. La estadística inferencial, en cambio, es ade-
cuada para obtener generalizaciones que sean aplicables a elementos que no hayan formado parte
de la muestra y se lleva a cabo estimando los parámetros de la población a partir de los datos de
la muestra.
OBJETIVOS
1. LA POBLACIÓN Y LA MUESTRA
El universo o población –tal y como se apuntó en el módulo 1–, es el conjunto de casos o unidades
que tienen en común una serie determinada de características y sobre la que se desea obtener algu-
na información. El universo o población puede estar integrado por individuos u objetos (viviendas,
empresas, territorios, etcétera). Se entiende por población un conjunto N (tamaño de la población)
de unidades n (unidades estadísticas o unidades de análisis).
De dichas unidades de análisis, estudiamos sus propiedades mediante el empleo de las variables.
Estudiarlas significa ver cómo se comportan las variables o cómo se relacionan entre sí, y así se
puede obtener distintos parámetros de la población: una media, una proporción o una correlación.
Seleccionar una muestra permite observar una parte para sacar conclusiones sobre el todo, pues
la muestra es una parte representativa, lo más exacta posible, de un conjunto, población o univer-
so. Los resultados válidos que se deriven de la muestra han de poder ser extensibles al universo,
mediante inferencia o generalización. De ahí las exigencias del muestreo, que tienen un fundamento
matemático estadístico y se basa en las leyes del azar y el cálculo probabilístico. Se entiende por n
(tamaño de la muestra) el conjunto de las unidades de muestreo (casos) seleccionadas entre las N
unidades que componen la población.
Los requisitos indispensables que han de satisfacer las muestras –señalados en el módulo 1–
son que comprendan una parte del universo y no a la totalidad de este y que sean reflejo fiel del
universo, de modo que, si este contiene sectores diferenciados que presentan características espe-
ciales, las muestras deberán comprenderlos en la misma proporción. Las ventajas del muestreo son
evidentes en término de costes, pero a diferencia de una investigación sobre el total, la muestra
nos facilita sólo una estimación del parámetro que se desea conocer, por ello se especifica el error
de muestreo.
2. EL TAMAÑO DE LA MUESTRA
ésta, con una menor proporción podemos alcanzar la representatividad, aunque en igualdad de
otras condiciones, los estadísticos calculados con muestras grandes son más precisos que los cal-
culados con muestras pequeñas. Obviamente, cuanto mayor sea la muestra más se acercará al uni-
verso, pero ello no quiere decir que sea la mejor opción. En general, se ha de tomar la muestra que
mejor represente el universo y que se pueda costear con los medios de los que se dispone. En oca-
siones basta tomar 200unidades, en otras 2.000 ó 10.000.
Tabla para la determinación de una muestra sacada de una población finita, para márgenes
de error 1, 2, 3, 4, 5, 10 por ciento, en la hipótesis de p=50 por ciento.
Nivel de confianza del 95,5 por ciento1.
El tamaño ideal de la muestra no existe. Una muestra debe ser lo suficientemente grande
como para ser representativa, pero el número de elementos varía de una investigación a otra.
Cuanto más homogénea es una población en lo relativo a la/s característica/s, más fácil resulta
obtener muestras representativas sin necesidad de que sean grandes A efectos descriptivos, se con-
sidera una muestra grande cuando n > 30.
El tamaño de la muestra viene condicionado por el tanto por ciento de la característica que esta-
mos estudiando. Cuando no se conoce, es conveniente hacer algún pequeño estudio inicial con
una muestra mucho menor, para tener alguna idea de ese porcentaje. Cuando se dispone de una
proporción p de la característica del 50% estamos ante “el caso más desfavorable” que exige una
muestra mayor. Si no conocemos la proporción, se asigna el 50% como la opción más segura en
los cálculos de la muestra (p = q = 0.5).
El tamaño de la muestra también depende del tipo de muestreo que se lleve a cabo –aspecto
que se abordará en el siguiente apartado–, así por ejemplo, el error es menor en las muestras estra-
tificadas que en las no estratificadas. El tipo de datos que se desea recoger y el medio que se va a
emplear son condicionantes que influyen igualmente en la menor o mayor reducción de la mues-
tra seleccionada, ya que recoger la información en un aula, en días y horario lectivo no es lo mismo
que hacerlo a través de un cuestionario enviado por correo.
El error muestral es la diferencia entre el resultado obtenido de la muestra (estadístico) y el
resultado que se habría obtenido de la población (parámetro). La precisión de las estimaciones
depende fundamentalmente del tamaño de la muestra y de la variabilidad de la distribución del
fenómeno estudiado dentro de la población. Obviamente, la precisión disminuye a medida que se
reduce la dimensión de la muestra y al aumentar la variabilidad del fenómeno estudiado. El máxi-
mo error tolerable se se suele situar en el 6% ó 5%, de modo que, si se realiza una investigación
de la población total y se obtiene que la renta media es de 950 euros, al hacer una investigación
por muestreo con un 5% de error se afirmaría que existe un 95% de probabilidades de que la renta
media de la población sea de 925 ± 25 euros. Esta afirmación no es segura, es únicamente proba-
ble, la renta media puede caer en el intervalo comprendido entre 900 y 950, pero existe un 5 por
ciento restante de probabilidad de que el valor real de la renta media este fuera de ese intervalo.
Dado que se ofrece un intervalo, con un mínimo y un máximo, se dice que la estimación compor-
ta un grado de confianza.
El nivel de confianza que se pretende que alcancen los resultados también influye en el tamaño
que se da a la muestra. El nivel de confianza es el límite o intervalo donde figura la probabilidad
de que la media de la muestra corresponda a la media de la población. Respeto de la curva de dis-
tribución normal de Gauss, entre +2 y -2 s (sigmas) a partir de la µ (media), está incluido el 95.5%
de la población, lo que quiere decir que se tiene una probabilidad del 95% de que coincidan con
los pa´rmetros de la población total. Si se desea alcanzar una mayor certidumbre se abarca entre
+3 y -3 sigmas, lo que significa que el riesgo de que exista diferencia entre los estadísticos de la
muestra y los parámetros de la población serán de 99.7%, para lo cual se eleva el número de ele-
mentos de la muestra.
Para determinar el volumen de la muestra, de acuerdo con el nivel de confianza, existen tablas,
si bien los niveles más recurridos son:
Entre -1 sigma y + 1 sigma s 68.3% de probabilidad
Entre -2 sigma y + 2 sigma s 95.5% de probabilidad
Entre -3 sigma y + 3 sigma s 99.7% de probabilidad
Por último, el error sistemático es el que se produce de igual modo en todas las mediciones que
se realizan de una magnitud, y por tanto, no tiene relación con el azar o la probabilidad, puede ser
originado por un defecto del instrumento, por las condiciones en las que se realiza la medición o
por el experimentador/a. Este error puede ser eliminado si se conoce su causa.
En fin, determinar el tamaño de la muestra es un tema complejo, pero se puede decir que los
referentes imprescindibles son: la amplitud del universo (infinito o no), la representatividad, las varia-
bles (tipo de datos, valores de la misma, homogeneidad/variabilidad de los datos), el tipo de mues-
treo, el proceso y medios de recogida de los datos, los análisis estadísticos que se planifiquen, el
error muestral, el error de estimación y el nivel de confianza con el que deseemos trabajar entre
otras consideraciones.
Determinación estadística del tamaño de la muestra. Conociendo el nivel de confianza que que-
remos que alcancen los datos se puede aplicar una ecuación matemática para estimar el tamaño de la
muestra. Según se trate de poblaciones infinitas o finitas, la determinación variará, según las
siguientes ecuaciones:
a) Población infinita. Para un universo infinito o cuya población sea mayor a 100.000 individuos,
el tamaño de la muestra viene dado por la siguiente fórmula general:
n= pqs2
E2
donde,
n = número buscado de elementos de la muestra
s = nivel de confianza elegido (2 ó 3 sigmas)
p = tanto por ciento estimado de la característica a investigar, y q = 100-p
E = error de estimación permitido
b) Población finita. Para un universo finito o cuya población sea menor a 100.000 individuos, el
tamaño de la muestra viene dado por la siguiente fórmula general:
n= pqNs2
E2(N-1+ s2pq
donde,
N = número de elementos del universo
n = número de elementos de la muestra
s = nivel de confianza elegido (2 o 3 sigmas)
p = tanto por ciento estimado, y q = 100-p
E = error de estimación permitido
Así, por ejemplo, para calcular el tamaño de una muestra de una población de 10.000 sujetos,
y dado que se trata de una población finita, primero elegimos el error máximo usualmente permi-
tido que es del 6% (0.06), y tomando p=q=0.5 (ese 50% que supone la opción más segura en los
cálculos de la muestra), para un nivel de confianza de 95,5% es decir de 2, la fórmula queda sim-
plificada de la siguiente forma:
n= 50×50×10.000×4
36× 9.999 + 4×50×50
n= 100.000.000
36× 9.999 + 10.000
n= 100.000.000
369.964
Si aminoramos el error permitido, y en lugar del 6%, lo situamos en el 2%, obviamente la mues-
tra es mayor, unos 2.000, aproximadamente:
n= 50×50×10.000×4
4× 9.999 + 4×50×50
3. TIPOS DE MUESTREO
Las técnicas de muestreo se clasifican atendiendo a distintos criterios, sin embargo, lo habitual
es diferenciar entre el muestreo probabilístico y el muestreo no probabilístico. En el caso de las
investigaciones cuantitativas, algunos/as investigadores/as estiman que sólo es científicamente
relevante el muestreo de probabilidad o muestreo aleatorio, pero esto no resulta siempre posible,
por lo que a veces se tiene que recurrir a muestras arbitrarias o no probabilísticas.
Como ya se expuso, para determinar las muestras en las investigaciones cualitativas – y se abunda
en el módulo 5– raramente se recurre a las leyes del azar y el cálculo probabilístico. En su lugar, se
suelen fijar de antemano determinadas características que deben satisfacer los casos tipo o infor-
mantes: sexo, edad, posición socioeconómica, y cualquiera otra que sea relevante para solucionar
el problema de investigación, según la técnica cualitativa que se emplee. Los casos individuales,
deberían presentar una relativa heterogeneidad, esto es, cierta variación, pero no muy extrema, sino
próxima a la tipicidad. Dado que este tipo de muestra persigue significados, no representatividad,
puede alterarse la muestra según evoluciona el trabajo de campo. El tamaño de la muestra suele
seguir los criterios de saturación o redundancia. Además, debe responder al criterio de accesibilidad,
o sea, que los recursos estén disponibles.
El muestreo probabilístico es aquel en el que cada individuo u objeto tiene la misma probabilidad
conocida de poder ser incluido en la muestra (equiprobabilidad). Siempre que sea posible, se prefiere
el muestreo aleatorio, pues es el que permite calcular el intervalo de confianza. Si la probabilidad no
se conoce no se puede realizar la inferencia estadística, dado que no se puede calcular el margen de
error. En este último caso, aunque la muestra sea muy representativa solamente cabe someterla a
la estadística descriptiva. El muestreo no probabilístico, por tanto, es aquel en el que se desconoce
la probabilidad de selección que tiene cada unidad.
El muestreo no probabilístico se basa en un diseño muestral arbitrario. Este tipo de muestreo posi-
bilita la obtención de muestras muy representativas, pero se debería evitar en la medida de lo posible,
puesto que no permite conocer el intervalo de confianza dentro del que se encuentran, con un nivel
de probabilidad dado, los parámetros del universo.
Idealmente cada unidad que forma parte de la base está identificada, posee un número, nombre
o dirección, y su selección tiene lugar mediante un sorteo riguroso o muestreo probabilístico. Pero
lo más usual es que las unidades no estén censadas o identificadas, pensemos por ejemplo en los/as
compradores/as de una zona comercial o las víctimas de maltrato.
Cada investigación debería tener una base propia, pero ello reviste una gran dificultad, por lo
que generalmente se recurre a bases ya elaboradas y suficientemente actualizadas como para no
dejar afuera a los individuos que se incorporan a ella, como los/as jóvenes o inmigrantes. Ciertas
investigaciones revisten mayor dificultad porque la base no existe y hay que crearla, en cuyo caso
se ha de tener especial precaución a fin de evitar algún tipo de distorsión, pensemos por ejemplo,
en el colectivo de las personas “sin techo”.
Las exigencias del muestreo probabilístico, por tanto, son con frecuencia difíciles de satisfacer,
especialmente en lo que se refiere a la disposición del listado completo de las unidades de análisis,
entonces se recurre al muestreo no probabilístico. En ambos tipos de muestreo existe un riesgo común,
el del rechazo a participar en la investigación, caso en el que se debe sustituir a quien no desea
colaborar o a quien no se tiene acceso por otro individuo de condiciones similares, pero teniendo
la precaución de evitar el sesgo de la muestra.
Muestreo aleatorio simple. Es la modalidad más conocida y que alcanza mayor rigor científico.
Garantiza la equiprobabilidad de elección de cualquier elemento y la independencia de selección
de cualquier otro. Para poder realizarlo es preciso disponer previamente de la lista completa de los
miembros de la población, de tal manera que a las N unidades se le asigna un número, para des-
pués extraer al azar los n números correspondientes. El procedimiento más común de extracción
consiste en recurrir a las tablas de números aleatorios, que se construyen como si de una lotería
se tratara con bolas numeradas del 0 al 9. Una muestra de 10 individuos, por ejemplo, nos obliga-
ría a tomar al primero, al noveno, al séptimo, al tercero y así sucesivamente. Una muestra de 100
al 10, 09, 73, 25, etcétera. Otras posibilidades de extraer números aleatorios son los mismos siste-
mas de lotería o las aplicaciones informáticas.
10 09 73 25 33 76 52 01 35 86 34 67 35 48 76 80 95 90 91 17 39 29 27 49 45
37 54 20 48 05 64 80 47 42 96 24 80 52 40 37 20 63 61 04 02 00 82 29 16 65
08 42 26 89 53 19 64 50 93 03 23 20 90 25 60 15 95 33 47 64 35 08 03 36 06
99 01 90 25 29 09 37 67 07 15 38 31 13 11 65 88 67 67 43 07 04 43 62 76 59
12 80 79 99 70 80 15 73 61 47 64 03 2366 53 98 95 11 68 77 12 17 17 68 33
66 06 57 47 17 34 07 27 68 50 36 69 73 61 70 65 81 33 98 85 11 19 92 01 70
31 06 01 08 05 ...
Generalmente, se exige que todos las unidades tengan la misma probabilidad de ser selecciona-
das, sin embargo, en la práctica puede haber diversos grados. Si por ejemplo N=500, la primera
unidad tendría 1/500 de posibilidad de ser elegida, la segunda 1/499 y así sucesivamente. Evitarlo
requiere de la obtención de una muestra con reemplazo que precisa devolver las que salen para
mantener la proporción 1/500. Por ello, más que exigir la misma probabilidad, lo importante es
conocerla.
extracciones sucesivas (dos o más). Las desventajas son que las unidades de un orden jerárquico
tienden a parecerse y que su tratamiento estadístico es altamente complicado, sin embargo abara-
ta los costes del procedimiento y precisa sólo de la lista de las subpoblaciones de orden superior
extraídas en la primera fase, evitando la necesidad de disponer de la lista de toda la población.
Muestreo por conglomerados (clusters) o grupos. Similar al anterior, se aplica cuando el muestreo
individual resulta complicado y se recurre a la selección de determinados colectivos o grupos de
unidades, como por ejemplo, las familias, los sindicatos, las empresas o los departamentos univer-
sitarios. El proceso se inicia cuando la población se divide en grupos o conglomerados que con-
tienen diversos elementos; a continuación, se seleccionan aleatoriamente el número de conglome-
rados y se trabaja con el total de elementos pertenecientes a los conglomerados elegidos. En este
caso, la unidad muestral es el conglomerado o cluster y el proceso de selección aleatoria se aplica
a la selección de éstos, no a los elementos menores que componen el conglomerado. Una ventaja
de esta técnica de muestreo es que no precisa del listado de todos los elementos de la población
para seleccionarlos aleatoriamente.
Muestreo por etapas o polietápico. Similar a los anteriores, se procede dividiendo la población
en varios conglomerados y se selecciona un número de ellos, que constituyen las unidades mues-
trales primarias. En una segunda etapa se obtiene una submuestra a partir de las anteriores, que
constituyen las unidades muestrales secundarias, y así sucesivamente. Se submuestrean las unidades
anteriores hasta llegar a la muestra final: facultad, centro o aula. En cada etapa puede aplicarse un
muestreo aleatorio.
Este procedimiento no recure al muestreo al azar pues la muestra se obtiene atendiendo al cri-
terio o criterios del investigador/a, bien porque el diseño probabilístico no puede plantearse, bien
porque desde el principio se sabe que no podrá realizar. El criterio de equiprobabilidad se sustitu-
ye por otros, siempre procurando que la muestra obtenida sea lo más representativa posible.
Muestreo por cuotas. Este tipo de muestreo es el más difundido, se caracteriza por utilizar las
muestras que tiene a su alcance. El procedimiento se inicia subdividiendo la población de referen-
cia en determinados estratos definidos por aquellas variables cuya distribución es conocida, por
ejemplo, sexo, edad o tamaño poblacional del lugar de residencia. Entonces se calcula el peso pro-
porcional de cada estrato o número de encuestas a realizar en cada estrato. El procedimiento des-
crito no difiere del muestreo estratificado, la diferencia es que, manteniendo la exigencia del mon-
tante de cada cuota, el/la encuestador/a es libre de elegir a los sujetos. Así se puede seleccionar
dichos sujetos en la parada de la guagua o a la salida del cine, siempre que se respeten las cuotas,
que son las que aseguran la reproducción de la distribución de la población.
La debilidad de este tipo de muestreo radica en que la libertad otorgada al entrevistador/a hace
que, satisfechas las exigencias prefijadas, se privilegien los casos más accesibles, conocidos o del
mismo grupo social, por ejemplo. Esta dificultad se puede salvar estableciendo una ruta y deter-
minando las casas en las se localizaran a los sujetos, que sólo se rechazan si no cumplen con las
cuotas. La selección de la casa puede hacerse recurriendo a un número, por ejemplo, eligiendo el
3, l3, 13, 23, 33 ó 43. Obviamente, ciertos individuos quedan subrepresentados porque son difíci-
les de alcanzar o porque no desean ser entrevistados, lo que hace que este tipo de muestreo sea
poco recomendado por su falta de cientificidad, si bien es el más recurrido por parte de las empre-
sas de mercado y de sondeos de opinión debido al ahorro económico que comporta.
Muestreo de “bola de nieve”. Los sujetos que conforman la muestra se seleccionan a partir de
los mismos sujetos entrevistados. Se parte de un pequeño número que posean los requisitos exi-
gidos, que utilizados como informadores/as, identifican a otros con las mismas características. Al
igual que en el muestreo por cuotas, se deben establecer algunas exigencias, para evitar los riesgos
de una muestra no representativa. A medida que avanza el trabajo de campo, el tamaño de la mues-
tra crece exponencialmente. Este modelo es muy útil en el caso de poblaciones de difícil acceso
por motivos de carácter moral, ideológico o legal, tales como prostitutas, inmigrantes indocumen-
tados o miembros de una secta, al igual que en el caso de sectores de población poco numerosos
y dispersos, como las personas transexuales o alguna minoría étnica. Este diseño presenta la desven-
taja de seleccionar a las personas más activas socialmente o visibles.
Muestreo subjetivo por decisión razonada, intencional u opinativo. Los elementos o individuos se
eligen en función de algunas de sus características, ya que es la forma de asegurarse que se inclui-
rán en dicho estudio, es elegirlos intencionalmente. Este procedimiento se utiliza cuando el tamaño
de la muestra es muy pequeño y se pretende evitar oscilaciones casuales que separan la muestra de
las características de la población, así por ejemplo, los municipios se pueden seleccionar por sus
características y tamaño poblacional: metropolitanos, capitales, residenciales, turísticos, rurales.
Una variante de este procedimiento es el muestreo compensado que selecciona las unidades si
la media de la muestra para determinadas variables, como por ejemplo, el peso o la talla, está pró-
xima a la media de la población. La compensación consiste en sustituir unidades de la muestra por
otras nuevas elegidas también al azar, en el caso de que sus valores acerquen más la media de la
muestra a la del universo.
(*) Redondeo
Las características de una distribución univariable se miden a través de una puntuación central o valor típi-
co, alrededor del cual el resto de los valores tienden a agruparse de una forma determinada. Tres
son las medidas de tendencia central: moda, mediana y media (aritmética, geométrica y armónica).
Moda. La moda de una distribución es el número que se presenta u ocurre con la mayor frecuen-
cia. Es el valor más común y se reconoce con una simple inspección. Si los valores de una distribu-
ción son 3 3 4 5 3 3, la moda es tres, y en el ejemplo anterior (tiempo tardado en encontrar el pri-
mer empleo, caso de una variable nominal, la moda se corresponde con la frecuencia máxima (29).
Mediana. Es el punto o valor numérico que deja por debajo y por encima a la mitad de las pun-
tuaciones de una distribución. En la distribución 3 4 5 6 7, la mediana es 5. En el caso de una dis-
tribución con un número impar de valores, la fórmula que se detalla a continuación, indica la posi-
ción del valor que es la mediana.
Md = N+1
2
En el caso de que el número de valores de la distribución fuera par, la mediana sería un valor
que se encontrará entre las puntuaciones centrales. Pero en tal caso, se procede tomando la media
de los dos valores centrales. En la relación: 5, 15, 25, 50,75, 95
Md = 25+50
2
La media es 37,5.
Media común. Es la suma de todas las puntuaciones de una distribución dividida por el núme-
ro de casos. Otros tipos especiales de media son la media geométrica (raíz enésima del producto
de los números), la media armónica (de una serie N de números es el número recíproco de la
media aritmética de los recíprocos de los números) y la media cuadrática (su cuadrado es igual a
la media aritmética de los cuadrados de los números).
La media aritmética es la medida más usada de tendencia central, ya que se sitúa al centro de la
distribución de frecuencias. El uso de la media cuadrática tiene interés en el cálculo de la varianza.
La media resulta la medida más ventajosa que la mediana, pues incorpora mayor cantidad de
información, puesto que en su cálculo entran todas las puntuaciones, mientras que en la mediana
sólo se consideran la puntuación del caso medio. Además, es una medida más estable en el senti-
do de que varía menos de una muestra a otra. La media suele diferir menos de una muestra a otra
de la misma población de lo que lo hace la mediana.
Varianza s2 ∑(Xi-X)2
N
La desviación media, igualmente, se puede calcular sobre las frecuencias. En general, se puede
afirmar que cuanto mayor sea el valor de la desviación media, mayor será la variación entre las dis-
tintas puntuaciones.
Varianza y la desviación típica son medidas similares a la desviación media, en tanto que se
basan en la diferencia entre la media aritmética y cada puntuación, pero se diferencian en que, en
lugar de tomar el valor absoluto de tales desviaciones, se utiliza el cuadrado de las mismas, de
manera que se consigue una medida de dispersión para datos de intervalo. Estas son de uso más
frecuente que la desviación media.
La varianza es el valor medio del cuadrado de las desviaciones de las puntuaciones a la media
aritmética. La desviación típica es la raíz cuadrada de la varianza.
Varianza s2 ∑(Xi-X)2
N
4,5 = 2,1
La varianza es tanto más grande cuanto mayor es la dispersión de las puntuaciones alrededor
de la media aritmética.
Estas fórmulas son menos utilizadas debido a la complejidad del cálculo de la media y de cada
puntuación a la media, de modo que se recurre frecuentemente a otras más prácticas, distinguién-
dose entre las que presentan datos agrupados o no agrupados.
Las medidas resumen que se han esbozado respecto de la estadística descriptiva, como su nom-
bre indica, se usan para describir a un grupo de individuos, características o ítems, pero no son
adecuadas para obtener generalizaciones que sean aplicables a elementos que no hayan formado
parte de la muestra. Las pruebas de la estadística inferencial permiten saber si una muestra en la
que se ha observado la probabilidad pm puede proceder de una población en la que hay una pro-
porción p. Esta tarea se lleva a cabo estimando los parámetros de la población a partir de los datos
de la muestra.
Los parámetros de la población suelen desconocerse y los indicadores estadísticos o, simplemen-
te, estadísticos de la muestra se utilizan para estimar los parámetros, en base a la teoría de las pro-
babilidades y la teoría del muestreo –ya expuesta–. Los parámetros de la población se representan
mediante letras griegas y, mediante el abecedario latino los estadísticos.
La probabilidad matemática y las leyes del azar se refieren sólo a sucesos repetidos mediante
condiciones determinadas y constantes. La probabilidad se determina por el método apriorístico
y por el método empírico. La probabilidad apriorística relaciona (cociente) los casos favorables con
los casos posibles. La probabilidad empírica se basa en el supuesto de que la proporción de apari-
ción de los sucesos observada en el pasado persistirá en el futuro.
En las ciencias sociales, las teorías suelen partir de la aceptabilidad o rechazo de las hipótesis de
la investigación, en base a criterios objetivos. Los procedimientos están estandarizados:
a) Formulación de la hipótesis nula (Ho) y de la hipótesis alternativa (H1).
b) Elección de una prueba estadística para contrastar la hipótesis nula (Ho).
c) Especificación de un nivel de significación (probabilidad de que una prueba estadística produ-
cirá un valor bajo el cual se rechazará Ho (cuando en realidad es verdadera) y un tamaño de la
muestra (N).
d) Encontrar la distribución muestral de la prueba estadística en el supuesto de la hipótesis nula
(Ho)
e) En base a lo anterior, definición de la región de rechazo de la hipótesis nula (Ho)
f) Cálculo del valor de la prueba estadística, utilizando los datos obtenidos a partir de la muestra.
g) Si el valor se encuentra dentro de la región de rechazo, se rechaza la hipótesis nula (Ho) y
se acepta la alternativa (H1).
h) En cambio, si se encuentra fuera de la región de rechazo, se puede aceptar la hipótesis nula
(Ho) al nivel de significación elegido.
La posibilidad de elegir uno de los dos tipos de hipótesis (Ho ó H1) comportan siempre un
riesgo de equivocarse, de no elegir la verdadera.
El error tipo I (α) es la probabilidad rechazar Ho siendo verdadera en la población. Es equiva-
lente a encontrar un resultado falso positivo, porque se llega a la conclusión de que existe una dife-
rencia entre las hipótesis cuando, en realidad, no existe.
El error tipo II (β) es la probabilidad de que no rechazar Ho cuando en realidad es falsa en la
población. Es equivalente a la probabilidad de un resultado falso negativo, ya que se llega a la con-
clusión de que se ha sido incapaz de encontrar una diferencia que existe en la realidad.
Respecto de una relación bivariable hay medidas que no distinguen entre la variable dependien-
te y la independiente, son las medidas simétricas, e indican sólo la fuerza y dirección de la relación,
pero no los papeles asignados a cada variable. Medidas de este tipo son algunos de los coeficientes
que se relacionan a continuación.
Las medidas asimétricas de asociación son aquellas que precisan que se distinga previamente
cuál es la variable dependiente y la variable independiente, para medir la capacidad e influencia de
la variable independiente en la predicción de los valores de la variable dependiente, como el coe-
ficiente epsilón. Las medidas de asociación más frecuentes son:
ACTIVIDADES
1. Se pretende realizar un estudio sociológico en la ciudad de Las Palmas de Gran Canaria, que
según el último Censo de Población y Viviendas 2001, tiene 723.758 habitantes mayores de 16
años. Hallar la muestra a obtener si se pretende trabajar con un nivel de confianza del 99,7% o
3 σ y con un margen de error permitido de 4 por 100.
Calcular el tamaño de la muestra, si en lugar de tomar a la población mayor de 16 años, se con-
sidera la población total, 887.676 habitantes.
2. Se desea conocer las expectativas de los/as estudiantes de la Universidad de Las Palmas de
Gran Canaria respecto de su inserción en el mercado laboral una vez egresen de sus titulacio-
nes. Hallar el tamaño de la muestra, teniendo en cuenta que el número de estudiantes asciende
a 22.066 según el estudio La ULPGC en Cifras 2004, para un nivel de confianza del 90 % y con
un margen de error permitido de 2%.
3. Suponiendo que se dispone de una lista con los nombres y apellidos del alumnado, seleccione
a los primeros 25 individuos, mediante muestreo aleatorio simple, partiendo de la reproducción
de una parte de una tabla de números aleatorios.
4. Seleccione esos 25 individuos mediante muestreo aleatorio sistemático.
5. La plantilla de una empresa tiene las siguientes edades:
45 19 23 45 23 25 34 29 35 61 38 22 33 46 44 56 23 31 32 20 34 28 41
52 46 33 32 44 60 56 24 32 45 32 64 22 19 24 53 55 33 21 22
Establezca un criterio y realice la distribución de frecuencias, la distribución porcentual y la dis-
tribución acumulada.
6. Respecto de la distribución de frecuencias de la actividad anterior dibuje un gráfico de secto-
res. Puede recurrir a la función insertar - imagen - gráfico - tipo de gráfico - circular, de
Microsoft Word.
7. Un grupo de jóvenes pertenecientes a una ONG está integrado por:
Juan, 19 años Luz, 18 años Elisa, 32 años
Ana, 17 años Sergio, 16 años Serafín, 22 años
Luisa, 21 años Yazmina, 21 años Pedro, 25 años
Elena, 19 años Raúl, 18 años Telma, 18 años
Alba, 25 años Celeste, 29 años Luis, 23 años
Saúl, 24 años Alejandra, 22 años Héctor, 21 años
Establezca los criterios pertinentes y realice la distribución de frecuencias.
8. Respecto de la actividad anterior, halle la media aritmética, la mediana y la moda del grupo.
9. La siguiente distribución, tomada del ejemplo del módulo, muestra el tiempo que se tarda en
acceder al mercado laboral.
BIBLIOGRAFÍA
Arenzana, V. y Arenzana, S. (2003). Estadística elemental con Excel 2000. Zaragoza: Mira Editores.
Azorín, F., y Sánchez Crespo, J. L. (1986). Métodos y aplicaciones del muestreo. Madrid: Alianza.
Castro J. A. y Galindo, M. P. (2000). Estadística multivariante: análisis de correlaciones. Salamanca: Sígueme.
Chambers, R. (2003). Introducción al muestreo. Madrid: Eustat.
Clarín, R. (2001). Manual de muestreo. Madrid: La Muralla.
Etxeberría, J. (2004). Regresión múltiple. Madrid: La Muralla.
Fernández García, F. R. y Mayor Gallego, J. A. (1995). Muestreo en poblaciones finitas. Barcelona: EUB.
Fernández García, F. R. y Mayor Gallego, J. A. (1995). Ejercicios y prácticas de muestreo en poblaciones
finitas. Barcelona: EUB.
García Jiménez, E., Gil Flores, J. y Rodríguez Gómez, G. (2000). Análisis factorial. Madrid: La
Muralla.
Gil Pascual, J. A. (2000). Estadística e informática (SPSS) en la investigación descriptiva e inferencial. Madrid:
UNED.
Murria, R. S. (1991). Estadística. Madrid: McGrau Hill.
Pérez Juste, R. (1985). Estadística descriptiva. Madrid: UNED.
Pérez López, C. (2002). Estadística aplicada a través de Excel. Madrid: Prentice Hall.
Rodríguez Osuna, J. (1993). Métodos de muestreo. Casos prácticos. CIS “Cuadernos metodológicos”,
Madrid.
Rodríguez Osuna, J. (1991). Métodos de muestreo. CIS “Cuadernos metodológicos”, Madrid.
Sánchez Carrión, J. J. (1995). Manual de análisis de datos. Madrid: Alianza Universidad Textos.
EJERCICIOS DE AUTOEVALUACIÓN
9. ¿Cuáles son las medidas de tendencia central que permiten medir las características de una dis-
tribución univariable?
a) Es imposible medir tal tendencia.
b) La distribución de frecuencias.
c) La moda, mediana y media.
1b
2c
3a
4b
5b
6a
7b
8c
9c
10 c
GLOSARIO DE TÉRMINOS
Módulo 5
Las técnicas cualitativas
PRESENTACIÓN
La investigación cualitativa está sustentada por una filosofía muy diferente de las regularidades
que busca la estadística –explicada en el módulo 1–. Para el paradigma interpretativo la realidad
no debe ser observada sin más, tiene que ser comprendida.
Desde el punto de vista conceptual y terminológico las técnicas cualitativas no se diferencian
mucho entre sí, ni siquiera desde el punto de vista aplicado y, a menudo se emplean simultáneamen-
te. Sin embargo, se pueden agrupar en tres grandes categorías basadas en la observación directa,
la entrevista en profundidad o el empleo de documentos que se corresponden respectivamente
con las acciones de observar, preguntar y leer.
Este módulo, por tanto, está dedicado fundamentalmente a las técnicas de observación cuali-
tativa y a las técnicas de conversación: la entrevista cualitativa o en profundidad, la metodología
biográfica y los grupos de discusión y otras técnicas afines.
OBJETIVOS
La etnometodología, es un término acuñado por Garfinkel, a partir de las palabras griegas èthnos,
pueblo; métodos, métodos y lògos, discurso, para referirse al análisis de los métodos ordinarios que
la gente ordinaria emplea para realizar sus acciones ordinarias. Así, se presta atención a las pequeñas
interacciones de la vida cotidiana. El actuar cotidiano está regulado por normas muy definidas que
rigen la interacción entre las personas. Normas implícitas de las que no se suele tener conciencia.
Los experimentos llevados a cabo con esta aproximación analítica consistían, por ejemplo, en beber
en los vasos de los demás comensales en una cena o aproximarse mucho a la cara de la persona
con la que se sostiene una conversación. La respuesta de desorientación, e incluso de irritación, es
para la confirmación de que se ha violado una norma implícita que rige la interacción social.
Dentro de los enfoques microsociológicos, destaca el enfoque dramatúrgico de Goffman, que cen-
tra su atención en cómo las personas son como actores y actrices que, al igual que en una obra de
teatro, tienen que desempeñar los papeles sociales que les corresponden y hacerlos creíbles. Ello,
implica estudiar la interacción social en términos de una representación teatral. En la vida cotidiana,
uno/a tiene que esforzarse para crear determinadas impresiones en otras personas y así hacer cre-
íble la imagen que quiere dar de sí misma. En toda interacción social cada quien es un personaje
pero también es audiencia, porque va evaluando cómo los demás, y él/ella mismo/a, representan
su papel. La adecuación al contexto (escenario) y la ropa, los adornos, el tono de voz, etcétera,
contribuyen a la impresión que queremos dar. El enfoque presta atención especial a la comunica-
ción no verbal, a la transmisión de información a través de los movimientos corporales, los gestos
y las expresiones faciales. El contacto visual es básico en la comunicación no verbal.
Otros estudios de la interacción entre dos personas (los saludos, las peleas, etcétera) y sobre
comportamientos colectivos (al cruzar las calles, en las filas o colas, etcétera), buscan el análisis de
la interacción y el comportamiento ordinario.
Lewis describía, por tanto, una forma de investigación que liga el enfoque experimental de la
Ciencia Social con programas de acción social que responden a los problemas sociales principales,
con la finalidad de lograr de forma simultáneas avances teóricos y cambios sociales.
La búsqueda del conocimiento se caracteriza por ser colectiva y por proporcionar resultados
cuya utilización y gobierno corresponde a los propios implicados/as. No existe, por tanto, la sepa-
ración sujeto-objeto. Una realidad social de opresión, por ejemplo, no sólo es imposible de captar
desde una objetividad pura, sino que el proceso de aprehensión de la misma se desarrollará en una
u otra dirección en función de la práctica social.
El modelo de Lewis sobre las etapas del cambio social: descongelación, movimiento, reconge-
lación, en otros términos, reflexión-acción-reflexión, sigue unos pasos:
1. Insatisfacción con el actual estado de cosas.
2. Identificación de un área problemática.
3. Identificación de un problema específico a ser resuelto mediante la acción.
4. Formulación de varias hipótesis.
5. Selección de una hipótesis.
6. Ejecución de la acción para comprobar la hipótesis.
7. Evaluación de los efectos de la acción.
8. Generalizaciones.
Las fases del método son flexibles ya que permiten abordar los hechos sociales como dinámicos y
cambiantes, por lo tanto están sujetos a los cambios que el mismo proceso genere. Es más, el
esquema metodológico no podría ser lineal, rígidamente estructurado, ni diseñado desde arriba
por los/as expertos/as, pues se pretende producir un tipo de conocimiento crítico, reflexivo,
colectivo, participado y emancipador. En tanto que, no se termina en la producción de conoci-
mientos, sino que pretende actuar frente a las realidades sociales, transformándolas. Empieza un
ciclo nuevo de la investigación - acción cuando los resultados de la acción común se analizan, por
medio de una nueva fase de recolección de información.
El problema a estudiar surge de la propia población implicada, aunque puede ser necesaria la
actuación de un grupo promotor (asociación, agencia de desarrollo local, equipos de Trabajo Social)
alrededor del cual se puedan reunir los/as protagonistas y tratar el problema. En una reunión
amplia de negociación e implicación se lanza la idea del proyecto, produciéndose la toma de con-
tacto de los/as investigadores/as con la comunidad y los miembros significativos que puedan
tomar parte activa. Es el momento también en el que se debe abrir la investigación hacia sectores
más amplios para realizar un autodiagnóstico, identificar el problema, delimitar su alcance y
dimensionarlo. Las dificultades, especialmente las de expresión y definición del problema pos
parte de los protagonistas pueden desbloquearse mediante actividades facilitadoras (teatro popu-
lar, audiovisuales, entrevistas grupales), que van creando espacios y perspectivas compartidas y
producen ya por si mismas reflexión.
El/la investigador/a se convierte en un agente facilitador, un recurso técnico, que deja que actú-
en como organizadoras las personas de la comunidad que tienen sus propias formas y recursos
organizativos. Los integrantes de la comunidad se convierten en sujetos de la investigación, no son
meros suministradores de información.
Las ventajas de esta forma de proceder provienen de una visión en la que el hacer científico
consiste no sólo en la comprensión de los aspectos de la realidad existente, sino en la identifica-
ción de las fuerzas sociales y las relaciones que están detrás de la experiencia humana. El criterio
no se desprende de un procedimiento técnico, sino de discusiones cuidadosas sobre informacio-
nes y experiencias específicas. Además, ofrece otras ventajas derivadas de la práctica misma: per-
mite la generación de nuevos conocimientos al investigador/a y a los grupos involucrados; favo-
rece la movilización y el reforzamiento de las organizaciones de base y finalmente; así como el
mejor empleo de los recursos disponibles en base al análisis crítico de las necesidades y las opcio-
nes de cambio. Además, los resultados se prueban en la realidad.
Las desventajas están relacionadas con la dificultad de controlar el tiempo, y con el peligro de
manipular a la comunidad.
La investigación-acción participativa produce estudios descriptivos y exploratorios, que buscan
profundizar en la comprensión del problema sin posturas ni definiciones previas (efectuar un buen
diagnóstico). La explicación de “lo que sucede” implica la elaboración de un guión sobre la situa-
ción y sus actores, relacionándolo con su contexto.
Ese guión es una narración y no una teoría, en la que los elementos del contexto iluminan a los
actores y a la situación antes que determinarlos por leyes causales. El resultado, en consecuencia,
es más una interpretación que una explicación, de la realidad. La interpretación de lo que ocurre
como resultado de las transacciones entre las interpretaciones particulares de cada actor o actriz,
buscando una mirada consensuada de las subjetividades.
La investigación-acción valora la subjetividad y como esta se expresa en el lenguaje auténtico
de los participantes en el diagnóstico. Se buscan las interpretaciones de la gente, sus creencias y
significaciones Los defensores de esta técnica tratan el desarrollo y la potenciación de los saberes
que configuran la vida cotidiana de las gentes.
El informe se redacta en un lenguaje de sentido común y no en un estilo de comunicación aca-
démica. La investigación-acción tiene una raíz epistemológica cualitativa, no obstante, también
existe una investigación acción de corte cuantitativo-xplicativo.
La entrevista es una conversación, guiada por una finalidad estrictamente cognoscitiva, provo-
cada y conducida por el investigador/a, dirigida a un número considerable de sujetos seleccionados
previamente, en base al diseño de la investigación, para la recogida sistemática de datos.
A diferencia de los requisitos que debe satisfacer la encuesta por muestreo, el tamaño de la mues-
tra es considerablemente reducido debido a que las conversaciones escarban en las profundas y,
quizás, inconscientes motivaciones de las personas. El número de casos a entrevistar debe ser tal
que permita la formulación de generalizaciones, aunque no se trata de alcanzar la representatividad
estadística. A menudo el número de casos ronda el centenar; si bien, con frecuencia el número es
menor y desde luego claramente insuficiente para alcanzar esa representatividad, como en el caso
de una veintena de individuos.
El procedimiento de selección se inicia identificando unas pocas variables importantes en relación al
tema estudiado, y en las celdas originadas por el cruce de estas variables (nominales) se entrevista
a un número igual de personas, elegidas generalmente a través de un muestreo por cuotas, dejan-
do al entrevistador/a cierta libertad para elegir. Los casos no se eligen por su difusión en la pobla-
ción, sino por el interés que despiertan, que puede modificarse en el curso de la investigación. El
muestreo de bola de nieve –módulo 4–es útil en el caso de sectores de población de difícil acceso.
El tamaño de la muestra guarda relación también con la misma técnica, conversaciones que
requieren en su desarrollo mucho tiempo, al que se suma el tiempo que se invierte en la prepara-
ción de las entrevistas. Es necesario también, identificar y localizar a las personas, explicarles la
finalidad de la entrevista, superar las barreras de la desconfianza, fijar las citas en lugares tranqui-
los, donde se pueda hablar con libertad y en el momento en que se pueda hacer con tranquilidad.
A diferencia de la encuesta, la comprensión de los hechos sociales parte de la lectura global de
los fenómenos, y sobre todo, de los sujetos estudiados, por lo que la importancia de las variables
pasa a segundo plano. No se buscan frecuencias o correlaciones, sino que se reconstruyen expe-
riencias vividas.
Otra diferencia con la encuesta es que la característica fundamental de la entrevista es la falta
de estandarización, puesto que no se parte de ideas o concepciones predefinidas en tanto que, la
finalidad es conocer las categorías mentales del entrevistado/a. Éste/a no tiene que optar por una
respuesta tipo muy, bastante, poco o nada de acuerdo, pues lo que interesa es la voz de sujeto, que
puede versar libremente sobre el tema, exponiendo sus elaboraciones y convicciones. De ahí, la
flexibilidad pues la entrevista debe poder adaptarse a las distintas personalidades de los/as entre-
vistados/as.
Las entrevistas son herramientas abiertas, flexibles y adaptables, pero se diferencian entre sí en
su grado de estandarización, es decir, por el grado de libertad que se concede tanto al entrevistador/a
entrevista hacia los temas centrales, pues este es el modo de acceder a pensamientos, sentimien-
tos o emociones.
En el caso de las entrevistas terapéuticas resulta más sencillo, pues el coloquio ha sido solicita-
do por el/la paciente. En el caso de entrevistas cognoscitivas, acceder a confidencias es muy difí-
cil. Ello requiere que la relación de confianza se establezca no de profesional a persona, sino de
persona a persona, teniendo en cuenta los límites temporales. Dado que la entrevista es un proce-
so de interacción entre dos personas, las pautas varían de una entrevista a otra, aunque existen unas
pautas generales
Lenguaje. A diferencia de la encuesta, en la que la estandarización exige que las preguntas sean
claras y comprensibles, en la entrevista el lenguaje pude variar en función del sujeto. El lenguaje
es fundamental, en este caso, para generar un clima de empatía y facilitar la comunicación. Hablar
un mismo lenguaje facilita el diálogo, aunque en ocasiones, el/a entrevistador/a es aceptado como
un investigador/a, si se muestra como una persona que sabe comprender o entender.
Explicaciones preliminares. La desconfianza inicial, en este caso, es menor, pues se ha estable-
cido previamente un contacto para fijar una cita, en el que se han resuelto las posibles dudas. De
ahí que, más que trabajar para obtener la confianza del entrevistado/a, el primer aspecto a tener
en cuenta es que hay que hacer entender qué se pretende obtener de él/ella, por tanto, se explica
el objetivo de la investigación, por qué se le ha elegido, por qué formularemos determinadas pre-
guntas personales y, en caso de que se grabe la conversación, con qué finalidad se hace.
Preguntas primarias y secundarias. Las primarias introducen un nuevo tema o un nuevo inte-
rrogante, mientras las secundarias articulan o profundizan el tema introducido. Las primarias pueden
ser de tres tipos: descriptivas (me puede hablar de su empresa), estructurales (qué tipo de funciones
desempeña cada uno/a) y de contraste (qué diferencias encuentra entre esta forma de organizar el
trabajo y la que aplicaba con anterioridad).
Preguntas exploratorias. Son estímulos que trata de ser neutrales y que facilitan, una de las prin-
cipales funciones de esta herramienta, descubrir o aflorar las posiciones reales del entrevistado/a.
Estimulan sin tratar de influir. De este modo, se acude a la repetición de la pregunta, formulándola de
otra manera o repitiendo algunas palabras. A la repetición de la respuesta o de una síntesis de las últimas
respuestas, como si de un eco se tratara, para que profundice o aclare los términos (¿si entendí bien
usted dijo que...?). Expresión de interés mediante palabras (entiendo, ¿de verdad?, ¿si...?), interjecciones
(ajá) o gestos que estimulen la continuidad de lo que se está contando. A la pausa que puede gene-
rar confianza si no se llena enseguida de palabras que generen malestar, y que en ocasiones, hace
que el/la entrevistado/a sienta cierta incomodidad y rompa el silencio retomando el discurso con
más detalles. La solicitud de profundización, en ocasiones, se ha de hacer explícitamente, de modo que
se suspende la narración para aclarar o profundizar (me gustaría conocer mejor lo que opina res-
pecto de...).
El papel del entrevistador/a es central, y además, determinante para el resultado de la entrevista,
en tanto que no se trata simplemente de recoger datos, puesto que la entrevista se construye entre
los/as dos interlocutores/as. El papel exige animar cuando se dan respuestas exhaustivas y des-
animar cuando estas no sean pertinentes para la investigación, y ello sin alterar el pensamiento de
el/la entrevistado/a. Por tanto, además de tener un profundo conocimiento de objeto de estudio,
el/la entrevistador/a ha de desplegar dotes de sensibilidad, intuición, identificación y mostrarse
conocedor/a de las experiencias humanas. Cuanto más abierta y desestructurada es la herramienta,
mayores capacidades se exigen de el/la entrevistador/a. En el caso de las entrevistas no estructuradas,
es el propio investigador/a o el equipo investigador quien las lleva a cabo, en caso contrario, se ha
de tener con quien las desarrolle un contacto muy estrecho.
El contacto personal y profundo que se ha de establecer exige que las entrevistas se realicen
cara a cara. La regla es grabarlas siempre para conservar la narración en su formato original. En el
caso de las entrevistas estructuradas la alternativa permite transcribir al instante un resumen de la
respuesta, pero esto debe evitarse en la medida de lo posible, pues ello da lugar a síntesis incom-
pletas. La grabadora permite a el/la entrevistador/a concentrarse en la conversación, si bien puede
inhibir la libre expresión del entrevistado/a, aunque a medida que avanza la entrevista se va olvi-
dando la incomodidad que genera. A la hora de transcribir la cinta se recomienda hacerlo íntegra-
mente, respetando los errores de sintaxis, las frases entrecortadas, las formas coloquiales o dialec-
tales.
El análisis e interpretación de la entrevista se centra en el individuo en su totalidad, no en las varia-
bles: El tratamiento es, por tanto, holístico, se trata de comprender al sujeto como un todo, más
que como la suma de sus partes. El objetivo es interpretar el punto de vista del actor o actriz social.
La presentación de los resultados se hace desde una perspectiva narrativa, en tanto que se describen
casos y se relatan episodios, a menudo se utilizan las mismas palabras del entrevistado o la entre-
vistada para no alterar el discurso y transmitirlo íntegramente al lector/a. Generalmente, se desa-
rrolla un argumento y a continuación, para apoyarlo y explicarlo, se reproduce un fragmento de la
entrevista. Estos fragmentos ilustran ciertas condiciones de vida, la ilusión, las dificultades, etcé-
tera. De este modo, análisis y explicaciones se alternan con ejemplificaciones y apoyos empíricos.
Las síntesis y generalizaciones suelen adoptar la forma de tipologías y clasificaciones, alejadas de la
matriz de datos. La síntesis obliga a elevarse a un nivel superior por encima de la ilustración del
caso, buscando las conexiones entre ellos. El “tipo ideal” weberiano se presenta como una herra-
mienta para orientar la lectura de la realidad.
Un análisis de tipo mixto, donde conviven los criterios cualitativo y cuantitativo, es posible median-
te las entrevistas estructuradas, pues la estandarización de las preguntas facilita la codificación de
las respuestas abiertas. Se clasifica y codifica la parte común a todos los casos, la parte específica
no debe perderse. Los datos comunes se tratan estadísticamente (frecuencias, relaciones entre
variables, análisis multivariado), mientras los textos íntegros de las transcripciones se alternan con
las explicaciones. Igual tratamiento se puede dar a los elementos comunes recabados mediante los
otros tipos de entrevistas, especialmente si se dispone de muestras de gran tamaño. Para ello, se
deben tener claros los criterios de juicio y clasificación, que incluso pueden haber sido definidos
con anterioridad a la recogida de información.
La falta de estandarización e interacción es, a la vez, el punto fuerte y débil de las entrevistas
cualitativas. La ventaja está relacionada con el descubrimiento en la búsqueda de la comprensión,
esto es, la posibilidad de adentrarse en lugares imprevistos, de elaborar nuevas hipótesis distintas
a las preconcebidas. La desventaja radica en la dificultad de establecer comparaciones y de acce-
der fácilmente a la síntesis, así como en la de proceder a una valoración cuantitativa, pues aunque
se logre conocer las motivaciones de los individuos, es difícil valorar el peso de las mismas. Y aún
pudiendo cuantificar y comparar los resultados, estos son difíciles de generalizar a una población
más amplia.
La utilidad de la entrevista en profundidad ya no es cuestionada por aquellos/as que persiguen
una comprensión auténtica de la realidad social, y su uso está particularmente recomendado en los
estudios exploratorios, y tras la realización de un estudio cuantitativo con la finalidad de profun-
dizar en un tema o ilustrarlo con testimonios.
Pujadas (2002)1
1 Pujadas Muloz, J.J. (2002) El método biográfico: el uso de las historias de vida en ciencias sociales. CIS, Madrid.
que puedan llevar a la identificación del sujeto, así como eliminar repeticiones, hacer correcciones
de estilo o incluir epígrafes y notas explicativas a pie de página. La técnica de relatos cruzados o
polifónica busca una misma historia a varias voces, de modo que, se cruzan los relatos de varias
personas de un mismo entorno (familia, barrio o institución). Técnica de relatos paralelos en la
que se busca cotejar, y construir una historia a partir de relatos diferentes, siendo el proceso de
saturación el que garantiza la validez de la técnica, a través del establecimiento de rasgos genera-
les de una situación dada.
Relatos de vida “sometidos a tratamientos cualitativos”, distintos de la historia de vida. El rela-
to de vida (life story) es una autobiografía producida mediante entrevista en profundidad, es en
fin, una entrevista biográfica.
Biogramas. Historias biográficas escritas siguiendo directrices en lo que a contenido y forma
se refiere, con la finalidad de obtener datos en masa, de un determinado grupo social.
La presentación de los resultados se hace desde una perspectiva narrativa, si bien el/la autor/a puede
optar por una modalidad que incluya cuestiones, temas o discursos o por el contrario, centrarse
en casos. A su vez, caben dos modalidades menores o subtipos, ya que los temas y los casos pue-
den ser generalizados u orientados a la concreción. Weiss (1994) según estos criterios propuso un
esquema para orientar el análisis y la presentación del material biográfico, que es aplicable al tra-
tamiento de las entrevistas en profundidad. El esquema es más flexible de lo que parece a prime-
ra vista, puesto que cabe la combinación de los subtipos. Igualmente, es posible dar un tratamien-
to cuantitativo a los documentos personales y a los relatos de vida, a través del análisis de conte-
nido cuantitativo, así como es viable, combinar esta técnica con otra de carácter cualitativo.
Weiss (1994)2
Las ventajas de la metodología biográfica son, en primer lugar, que permite compensar el
“objetivismo” del experimento, la encuesta o la observación participante y sumergirse en lo sub-
jetivo; que posibilita la visión retrospectiva y el acceso al enfoque longitudinal en la trayectoria del
sujeto; así como que, facilita la triangulación metodológica, en tanto que, se pueden fusionar téc-
nicas como la historia de vida, con la entrevista o la observación participante. Las desventajas son
obvias, y se refieren a los problemas de validez, fiabilidad y representatividad, además de los rela-
cionados con el control, esto es, la autenticidad del documento, la veracidad el relato posiblemen-
te distorsionado por la memoria, etcétera. A lo que se suma, otras dificultades de orden práctico
como el tiempo que precisan o el limitado número de casos.
3.3. Las técnicas de conversación (III): los grupos de discusión y otras técnicas afines.
Los grupos de discusión pertenecen a la familia de las entrevistas grupales, orientadas a la obten-
ción de información cualitativa, si bien tienen entidad propia. Inicialmente esta técnica tuvo mejor
acogida entre los/as especialistas de los estudio de mercado, y particularmente, en el ámbito
comercial, que en la propia investigación social. Las resistencias hacia la técnica se apoyaban por
un lado, en el énfasis dado a lo motivacional subyacente y no observable, situado en el nivel pro-
fundo de lo “preconsciente” o “inconsciente”, y por otro lado, se debían a las diferencias entre los
objetivos de la ciencia social y del enfoque de mercado, centrado en el cliente y el beneficio empre-
sarial.
El grupo de discusión analiza el habla teniendo en cuenta que se articula con el orden social y la
subjetividad. El grupo que la produce no tiene existencia previa ni posterior, tiene carácter artifi-
cial. Es fundamental que sus integrantes no se conozcan a para evitar interferencias en la produc-
ción del habla.
La muestra se selecciona con criterio estructural, no estadístico, y con criterio de pertinencia, de
modo que cada quien represente una variable discursiva. Se suelen utilizar variables habituales
(sexo, edad, estudios) y otras relevantes para la investigación. La homogeneidad genera un discurso
menos rico, por ello se prefiere la heterogeneidad, preferentemente inclusiva, para que fluya la comunica-
ción. La economía en tiempo y dinero es otro criterio de constitución de los grupos.
El número adecuado no está determinado, pero para que el grupo funcione correctamente se
estima que debe oscilar entre 5 y 9. Dos personas no forman un grupo y tres forman uno embrio-
nario, pues una de ellas se puede inhibir. Con cinco miembros los canales de comunicación supe-
ran al número de miembros, mientras que con más de nueve los canales son tantos que el grupo
tiende a dividirse en subgrupos, lo cual hace imposible la tarea del transcriptor/a. El número de gru-
pos responde a las necesidades del estudio, de modo que cada uno responda a los ejes del mismo
(pueden ser dos, hombres y mujeres; siete en función de la ocupación o veinticuatro, atendiendo
a la variable tiempo, por ejemplo).
El punto de partida es la formulación del tema, sobre el que se ha informado de manera muy
genérica, para que los integrantes del grupo no tengan la oportunidad de preparárselo. La inter-
vención de el/la investigador/a se da al principio, con la provocación inicial, donde además de lanzar
el tema se debe provocar el deseo o interés por discutirlo; y posteriormente, con la provocación
continuada. En el inicio se busca la provocación visible planteando el tema, mientras la invisible
busca la inserción subjetiva en la situación. El moderador/a tiene que fomentar las relaciones simé-
tricas, no emitir juicios de valor y evitar las relaciones incomunicables (de clase social, de generación,
de sexo, de hábitat) porque imposibilitan el desarrollo del discurso o llevan al silencio a quines ocu-
pan posiciones más débiles. El texto se recoge en una grabadora o vídeo, que no conviene ocultar
por razones éticas.
El espacio es, igualmente, importante pues, en caso de estar cargado simbólicamente puede afec-
tar el funcionamiento del grupo, por lo que debe ser neutro en relación con el tema de la reunión.
La mesa es una defensa imaginaria que puede inhibir al grupo, su forma es importante, pues si es
alargada dificulta la comunicación, por lo que se recomienda que sea redonda, lo que facilita la
comunicación entre iguales. La duración debe estar establecida, y oscila entre una y dos horas, aun-
que es variable, pues depende del tema a tratar, del tipo de investigación y del grado de cristaliza-
ción del discurso.
El análisis está presente en todas las fases de la investigación, desde el diseño de los grupos, si
bien, una vez trascrito el material se busca la estructura discursiva que sustenta el discurso, y gene-
ralmente se añaden dos pasos más, uno interpretativo y otro de codificación sistemática siguiendo
las pautas del análisis de contenido.
Entre las potencialidades de esta técnica destaca su flexibilidad, ya que puede aplicarse a varie-
dad de temas, personas y contextos, así como su brevedad (1 ó 2 horas con unas 10 personas)
unida a la posibilidad de desarrollar varios grupos en pocos días. La principal ventaja es la existen-
cia de la interacción grupal. Las desventajas están en la selección del grupo, en la reactividad de lo
sujetos, en la artificialidad de la situación, y en el análisis e interpretación del discurso.
Los grupos de discusión se pueden combinar con otras técnicas, la forma más generalizada es
la que aplica un grupo de discusión de forma exploratoria y posteriormente una encuesta, a modo
de verificación, sobre una muestra representativa. La combinación con otra técnica cualitativa tam-
bién es posible.
Los grupos focalizados, análogos a los grupos de discusión, se realizan mediante entrevista algo
estructurada, formulada a un grupo dirigido o semidirigido, que se congrega en un escenario for-
mal, no natural, con una finalidad investigadora exploratoria o preparatoria.
Otra técnica afín a los grupos de discusión es el brainstorming o lluvia de ideas. Entrevista gru-
pal, carente de estructuración, que pone el acento en la creatividad y generación de nuevas ideas,
a partir de un tema que el/la entrevistador/a o moderador/a plantea al grupo para después per-
manecer pasivo, en un escenario formal o natural, con una finalidad investigadora exploratoria o
preparatoria.
Afines son también los grupos nominal y Delphy. Como su nombre indica, el grupo nominal lo
es sólo de nombre, ya que sus miembros no suelen tener contacto físico. Generalmente, se inicia
el proceso con una ronda de entrevistas individuales, y posteriormente, en sucesivas rondas, se
ofrece a cada miembro del grupo un resumen de las respuestas dadas por el resto. Aunque tam-
bién se pueden reunir en el mismo espacio, pero exigiéndoles responder por turnos, sin interac-
tuar espontáneamente. La técnica Delphy o Delfos, es similar al grupo nominal, si bien busca el
pronóstico de sucesos y tendencias futuras basadas en la opinión colectiva de expertos/as. El esti-
lo es directivo, la entrevista está estructurada y el contexto es formal.
Y, por último, las entrevistas grupales, naturales y formales. En la búsqueda de informantes, se
puede localizar un grupo que genere una conversación informal o una entrevista espontánea, en
su ambiente, lo cual constituye un material que se puede aprovechar.
4. LA LECTURA DE DOCUMENTOS
Una postura diametralmente opuesta, considera que la experiencia individual es relevante para
la investigación social, de modo que, el estudio de un solo caso se convierte en fuente relevante
de información empírica.
A efectos de descripción y de explicación, el estudio de casos únicos se muestra limitado, pero
está en concordancia con la finalidad de comprender e interpretar la realidad que se está estudiando.
Los documentos personales permiten, además, comprender cómo las circunstancias biográfi-
cas han podido producir determinados comportamientos y facilitan una visión diacrónica de los
sujetos que no se puede obtener de otra manera, contribuyendo así a la interpretación de los fenó-
menos sociales.
Los documentos personales e institucionales –detallados en el módulo 2– tales como diarios,
memorias, autobiografías, ensayos, sentencias judiciales, imágenes y sonidos, etcétera, presentan
las ventajas de la no reactividad, la posibilidad del análisis diacrónico y los bajos costes. Los incon-
venientes son, por un lado, el carácter incompleto de la información al no ser producidos para
satisfacer los objetivos de la investigación y, por otro, la oficialidad de la representación en los
documentos institucionales, en tanto que no suelen ser representaciones objetivas.
Al igual que sucede con los paquetes estadísticos en el análisis cuantitativo, reciente se ha desa-
rrollado software potente para el análisis visual de datos cualitativos. Véase la bibliografía.
ACTIVIDADES
1. Acuda a un parque cercano a su domicilio, al menos tres tardes de una semana, y realice una
observación sobre los niños y las niñas que ahí juegan (palabras, gestos, movimientos, etcéte-
ra), la relación entre éstos/as (intersexo e intrasexo) y entre éstos y sus padres y madres o per-
sonas que cuidan de ellos/as. Tome sus “notas de campo” y lleve su “diario personal”.
Recogido el material empírico, establezca sus temas culturales y extraiga unas generalizaciones.
2. Diseñe un cuadro que recoja las diferencias entre la encuesta por muestreo y la entrevista.
3. Establezca una muestra de personas a entrevistar para realizar una investigación sobre la viven-
cia de la proximidad de la jubilación
4. Diseñe el guión de una entrevista estructurada para indagar sobre el tema de la vivencia de la
proximidad de la jubilación
5. Recoja la historia de vida de dos personas próximas a la jubilación.
6. Presente los resultados de las dos historias de vida recogidas en p. 4, desde una perspectiva
narrativa e identificando cuestiones, temas o discursos generalizables.
7. Respecto esas cuestiones, temas o discursos extraídos de las dos historias de vida recogidas en
p. 4, señale aspectos diferenciales concretos de los dos casos.
8. Aplicaría usted la técnica de los “grupos de discusión” a personas que han consumido un pro-
ducto que se acaba de lanzar al mercado. Razone la respuesta.
9. Establezca los puntos fuertes y débiles de las técnicas cualitativas.
10. Con qué paradigma, cuantitativo o cualitativo, se siente usted identificado/a y cuál le parece el
más adecuado para aproximarse a la realidad social. Justifique la respuesta.
BIBLIOGRAFÍA
LA OBSERVACIÓN PARTICIPANTE
Bareman, R. y Gottman, J. M. (1989). Observación de la interacción. Madrid: Morata.
García Ferrando, M. y San Martín, R., “La observación científica y la obtención de datos socioló-
gicos”, en García Ferrando, M.; Ibáñez, J. y Alvira, F. Comps. (1986). op. cit.
García Jorba, J. M. (2000). Diarios de campo, Madrid: CIS.
Gollete, G. y Lessard-Hébert, M. (1988). La investigación-acción. Sus funciones, su fundamento y su instru-
mentalización. Barcelona: Laertes.
Guasch, O. (1997). Observación participante. CIS “Cuadernos Metodológicos”, Madrid.
Delgado, J. M. y Gutiérrez, J. Coords. (1995). Op. cit.
Kemmis, S. y McTaggart, R. (1988). Cómo planificarla investigación acción. Barcelona: Alertes.
López Barajas Zayas, E. (1998). La observación participante. Madrid: UNED.
Rodríguez Villasante, T. R. (2000). La investigación acción participativa: construyendo ciudadanía.
Barcelona: El viejo topo.
Taylor, S. J. y Bogdan, R. (1992). Introducción a los métodos cualitativos de investigación. Barcelona: Paidós.
Van Dijk, T. A. (1999). Ideología. Una aproximación multidisciplinaria. Barcelona: Gedisa.
EJERCICIOS DE AUTOEVALUACIÓN
5. Con la finalidad de formular generalizaciones, ¿la muestra seleccionada para realizar una entre-
vista en profundidad?
a) Debe permitir el cálculo de frecuencias o correlaciones.
b) No precisa del cálculo de frecuencias o correlaciones.
c) Es recomendable que el número de casos permita el cálculo de frecuencias o correlaciones.
6. La entrevista no estructurada...
a) Es aquella en la que se hacen a todos/as los/as entrevistados/as las mismas preguntas con la
misma formulación.
b) Es aquella en la que el/la entrevistador/a dispone de un guión que recoge los temas que se
deben tratar, si bien tanto el orden de las preguntas como el modo de formularlas se deja a su
criterio.
c) Es aquella en la que tanto el contenido como la forma son libres e incluso pueden variar en
función del sujeto.
1c
2b
3b
4c
5b
6c
7c
8b
9b
10 c
MATERIAL COMPLEMENTARIO
¿Hubo un momento durante su trabajo anterior en el que usted decidió buscar otro traba-
jo, o bien simplemente se produjo?
¿Cómo se ha encontrado en su trabajo actual?
CERCIORARSE:
Si ha buscado un trabajo de forma activa ¿ha habido métodos de búsqueda que no funcio-
naron?
Durante la época en la que aceptó una oferta de trabajo ¿le han propuesto otros trabajos
que usted rechazó? Si la respuesta es afirmativa ¿cómo surgieron esas propuestas?
Cuándo se incorporó al nuevo puesto de trabajo ¿advirtió que estaba ocupando el puesto
de trabajo de otra persona que había antes? (Si la respuesta es negativa, tratar de saber exac-
tamente cómo y por qué se creó un nuevo puesto de trabajo)
Se acuerda también de cómo encontró el trabajo anterior al actual (Reconstruir toda la vida
laboral desde el primer trabajo a tiempo completo hasta el trabajo actual. Si hay demasiadas
experiencias laborales referir el primer trabajo a tiempo completo y uno de los más largos
de entre los intermedios; indicar además el número total de experiencias laborales)
GLOSARIO DE TÉRMINOS