0% encontró este documento útil (0 votos)
155 vistas21 páginas

Ynoub, Roxana - de La Disección A La Revitalización.

Este documento describe la tercera fase del proceso de investigación, que involucra el tratamiento e interpretación de datos. Esta fase sintética integra los elementos teóricos de la primera fase con los componentes empíricos de la segunda fase. El tratamiento de datos implica vincular las entidades del objeto de estudio, determinar las relaciones entre sus dimensiones, y reintegrar sus partes para restaurar la unidad del objeto. La interpretación de datos los incorpora al cuerpo de teoría existente o contribuye a construir nuevas teorías.

Cargado por

Iñaki Otero
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
155 vistas21 páginas

Ynoub, Roxana - de La Disección A La Revitalización.

Este documento describe la tercera fase del proceso de investigación, que involucra el tratamiento e interpretación de datos. Esta fase sintética integra los elementos teóricos de la primera fase con los componentes empíricos de la segunda fase. El tratamiento de datos implica vincular las entidades del objeto de estudio, determinar las relaciones entre sus dimensiones, y reintegrar sus partes para restaurar la unidad del objeto. La interpretación de datos los incorpora al cuerpo de teoría existente o contribuye a construir nuevas teorías.

Cargado por

Iñaki Otero
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 21

PARTE VI.

DE LA DISECCIÓN A LA REVITALIZACIÓN: EL
TRATAMIENTO Y EL ANÁLISIS DE DATOS.

Material de cátedra
Elaborado por la Dra. Roxana Ynoub.
UBA/UNMdP/UNNE

VI.1. Presentación de los componentes de la Fase 3: de la teoría y los


datos a la síntesis e interpretación.

El proceso de investigación reconoce una dinámica que avanza desde la


identificación conceptual del objeto o tema a investigar (fase 1) a su
posterior disección o diferenciación operacional (Fase 2). En esta segunda
fase, se diferencian y distinguen las partes componentes de dicho objeto
con el fin de abordarlo empíricamente. Se trata de examinar detalladamente
el comportamiento de ellas y –bajo cierta perspectiva- desarticularla de su
unidad funcional (o “viviente”).

El tratamiento e interpretación de datos es el que hace posible, entonces,


restituir la unidad del objeto, de modo tal que el resultado de este análisis
arroje una nueva versión –deseablemente más rica- del objeto previamente
diseccionado. Esa restitución se realiza a la luz de algún cuerpo de
hipótesis interpretativas, que provienen de -y conducen a- los modelos, las
tradiciones y los marcos conceptuales en el que se inscribe la investigación.

A los efectos de recordar el lugar que esta fase volvamos a ubicarlo en el


diagrama que describe el proceso total de una investigación:
Fase 1 Fase 2
Objetivos
Fase ideatoria Fase analítica
Intuición a Operacionalización a
conceptualización instrumentalización
Hipótesis de
trabajo

Conceptos Datos

Fase 3
Fase sintética
Tratamiento e
Interpretación

La denominamos fase sintética porque precisamente se consuman en ella


todas las actividades vinculadas a integrar los elementos teóricos (propios de
la Fase 1) con los componentes empíricos (provenientes de la Fase 2).

Kant, llamaba “sintética” a nuestra facultad de juzgar. Sostenía que cuando


conocemos algo, lo que hacemos es organizar de cierta manera lo que nos
informan los sentidos. Esa organización surgiría de las estructuras de nuestro
intelecto, las que, según él, podían ser reducidas a un conjunto de doce
juicios/categorías1.

Algo semejante le ocurre a un juez (adviértase que precisamente lo que el


juez hace es ¡juzgar!): su tarea consiste en “encuadrar el hecho a derecho”.
Su función, por lo tanto, será la de dar un veredicto, es decir, transformar en
“cosa juzgada” esos hechos, para hacerlos interpretables por el derecho (lo
que permitirá, entre otras cosas, dictaminar si hay culpables, estipular penas o
sanciones, entre otras cuestiones)2.

1
A su turno, estas estructuras/categorías se derivarían de la estructura de la acción que
está apoyada en la misma sensibilidad: es decir, en nuestra experiencia espacio-
temporal. El tratamiento de este asunto excede los objetivos de este trabajo, por lo que
sólo lo mencionamos tangencionalmente.
2
La gran diferencia entre el dominio de la experiencia jurídica, y el dominio de la
experiencia cognitiva que examina Kant, estriba en que el filósofo se ocupa de
Son estas operaciones del juicio las que está comprometido en la Fase 3 del
proceso.

Ocurre, sin embargo, que el alcance de esa síntesis dependerá de la naturaleza


de la investigación, del esquema en el que ella transite. En algunos casos, los
modelos de los que se parten, constituyen ya genuinas teorías y la integración
de los datos se parece más a una operación de subsunción o encuadre del tipo
diagnóstico (en estos casos prima la inferencia abductiva). Mientras que en
otras situaciones, especialmente en aquellas investigaciones teóricamente
más innovadoras, el trabajo interpretativo se encamina precisamente a la
construcción, ampliación o especificación de los cuerpos teóricos ya
existentes. Se esperaría que en estos casos predominen inferencias analógicas
por recurso a modelos menos sistematizados teóricamente.

En lo que sigue consideraremos con algún detalle cada uno de los


componentes que conforman esta fase como sus mutuas dependencias.

VI.2. Aspectos sustanciales vinculados al tratamiento e interpretación


de datos.

Para ubicar el alcance de las operaciones comprometidas en esta fase,


interesa recordar que todo objeto de investigación constituye un sistema
complejo es decir un sistema cuasi-descomponible en el que se distinguen –
o pueden distinguirse- partes componentes -o subsistemas constitutivos- y
contextos –o supra-sistemas regulativos-.

El proceso de construcción y delimitación del objeto de investigación,


consiste, precisamente, en identificar las entidades o elementos focales del
estudio (supuesto de individuación), en identificar las partes o aspectos que

identificar las grandes estructuras que organizan nuestro intelecto cualquiera sea el
contenido que las ocupe. Dicho de otro modo, Kant se ocupa de identificar aquellas
estructuras sin las cuales no podemos pensar (o tener) experiencias. Al menos
experiencias intersubjetivamente compartibles como las que gobiernan la cognición
epistémica. Es por eso que concibe a este examen como un examen trascendental, es
decir, un examen de las condiciones de posibilidad del conocimiento. Su propia
naturaleza trascendental hace que estos organizadores cognitivos se nos trasparenten,
no están ante nosotros como parte de nuestra experiencia, porque ellas sólo constituyen
las formas en que se estructura nuestra experiencia. En cambio, el jurista, tiene ante sí el
código, como asunto tematizado y tematizable cada vez que se aplica el derecho. Este
código puede ser discutido, revisado, modificado. De cualquier modo, el código jurídico
también funciona como condición de posibilidad para tener experiencias jurídicas, es
decir, para que ciertos hechos se constituyan en “hechos lícitos o ílicitos”.
se tomarán en cuenta de estas entidades (supuestos de partición) y en
determinar los contextos en que las entidades o elementos focales se
integran (supuesto de participación) (cfr. Samaja, J.; 1993:255).

De modo que, concomitantemente, podríamos postular que el tratamiento y


análisis de datos está llamado a precisar los vínculos o determinaciones de
las entidades que integran el sistema focal (supuesto de vinculación), a
restituir la relación de las partes componentes con el sistema focal
(supuesto de reintegración) y a incorporar los distintos subsistemas en una
unidad sintetizadora (supuesto de totalización).

Esquemáticamente esas dos fases y los supuestos implicados en cada una se


podrían expresarse de la siguiente manera:

Principios implicados en:

Fase analítica Fase sintética


(operacionalización) (integración de datos)

a) Supuesto de individuación a) Supuesto de vinculación


(entidades) (entre entidades)
b) Supuesto de partición b) Supuesto de determinación
(dimensiones) (entre dimensiones)
c) Supuesto de participación c) Supuesto de reintegración
(contextos) (entre niveles)

Por ejemplo, si se investigara un asunto como

Las determinaciones familiares en los procesos de deserción escolar.

con alta probabilidad los investigadores producirán información referente a


las familias de estos niños (eventualmente comparada con información
proveniente de familias de niños no desertores), información referida a los
miembros familiares y a los niños desertores, información referida al
sistema escolar, etc.. El resultado de la investigación no será (o
deseablemente no se espera que sea) la compilación desagregada de toda la
información relevada; sino una síntesis que arroje algún nuevo saber sobre
el objeto –entendido como unidad de diversas determinaciones.

Esta actividad de síntesis y restitución de un nuevo sentido es el que está


llamado a cumplir el tratamiento de los datos.
Más específicamente, es a partir de él que deberán medirse las hipótesis de
la investigación: no sólo, ni principalmente de manera externa a ese
tratamiento -es decir, luego de que ya se ha consumado- sino de un modo
consustancial en tanto son las hipótesis las que determinarán el tipo de
tratamiento a seguir; aunque, a su turno, el tratamiento y análisis de datos
puede iluminar nuevas hipótesis no previstas al inicio de la investigación;
lo que ocurre de manera privilegiada, pero no exclusiva!, en los llamados
estudios descriptivo-exploratorios.

VI.3. Diferenciación e integración entre la interpretación y el


tratamiento de datos.

Aunque se trata de actividades mutuamente vinculadas el tratamiento y la


interpretación conviene considerarlos de manera diferenciada:

a) el tratamiento se refiere a las actividades de manipulación, síntesis e


integración de resultados. Vamos a proponer dos dimensiones o
perspectivas en las que puede concebirse este tratamiento:

a.1. La perspectiva formal: es decir, examinando los distintos


tipos de “compactación” de los datos; bajo el supuesto de que
“tratar datos” es reducir, compactar o sintetizar información, y,

a.2. La perspectiva funcional: atendiendo a los fines a los que


sirve el tratamiento, los que están vinculados a los esquemas,
diseños y objetivos de investigación.

b) El análisis o interpretación por su parte, se refiere a los procesos de


interpretación por los cuales los datos se integran al cuerpo de la teoría
conforme a las hipótesis, objetivos y marcos conceptuales de la
investigación. Como vamos a examinarlo luego, interpretar datos es “ir
más allá de los datos”: es decir, transformarlos en material significante para
extraer algún significado de ellos.

Veamos cada uno de estos aspectos con algún detenimiento.

VI.3.1. Tratamiento de datos desde la perspectiva formal: la


compactación de datos según direcciones o centramientos de los
componentes de la matriz.
En la tradición inaugurada por John Galtung (1973) –continuada y
ampliada por Samaja, J. (1993)- se clasifican los distintos tratamientos de
datos por referencia a distintos direccionamientos en la “compactación”
de la información que conforma la matriz de datos (o matrices de datos) de
la investigación (cfr. Cap. III).

Con la metáfora de la compactación se evoca la tarea que tiene entre


manos quién se propone avanzar en la sistematización y síntesis de sus
datos.

Como ya lo adelantamos, si en el paso de las hipótesis a la


operacionalización se trata de ir desde la unidad de síntesis a las unidades
de análisis; en el tratamiento de los datos el procedimiento involucrado es
exactamente el inverso: desde las unidades de análisis a las unidades de
síntesis. Eso significa agregar, reducir la información conforme a una
lógica que la torne aprehensible de manera configurada y sintetizada –
iluminando aquellas relaciones y determinaciones que se pretendían
explorar o probar con la hipótesis.

Esa tarea de compactación puede hacerse entonces en torno a los


elementos de la matriz, resultando –en principio- dos direcciones de
síntesis-: la dirección de la variable (que Galtung identifica con la metáfora
espacial de la dirección vertical); y la dirección de la “unidad de análisis”
(a la que hace coincidir con la dirección horizontal). Estos son los dos
centramientos que identifica Galtung; conforme a un esquema como el
siguiente3:

3
Cfr. Samaja, J. (1993).
Interesa señalar que Galtung propone un tercer criterio que llama Análisis
combinado pero del que no reconoce una lógica diferenciada, sino algo así
como una “combinatoria” de los otros dos:

“En este caso –señala- hay muchas posibilidades, pero realmente no


existe ninguna teoría general. (...) El análisis combinado vertical y
horizontal puede tomar muchas formas, según cómo se proceda. Por
ejemplo, se puede elegir comenzar con algún análisis horizontal,
construyendo índices basados en algunos conjuntos de variables. A
partir de esto se puede hacer algún análisis vertical, agregando los
valores del índice como nuevas columnas a la matriz de datos y
combinándola con las otras variables, y así sucesivamente”. (op. cit. :
219).

Samaja, en cambio, avanza en un criterio formal para describir un tercer


tipo de análisis al incluir el concepto de nivel de integración y sistemas de
matrices de datos. Este tercer criterio lo define como centramiento en el
valor (cfr. Samaja, J. op. cit.: Parte III y IV) y lo presenta
esquemáticamente de la siguiente manera:
Este nuevo centramiento remite ya no sólo a la estructura de la matriz de
datos, sino a la relación entre matrices de distintos niveles de concreción: el
nivel llamado “sub-unitario” se refiere, precisamente, a la información que
oficia de insumo o nutriente para la construcción de las categorías que
conforman las variables del nivel de anclaje (es decir, el nivel considerado
focal en un determinado momento del proceso de investigación). El
análisis centrado en el valor puede combinar –lógicamente- los
tratamientos “verticales” y “horizontales”, pero metodológicamente cumple
una función distinta a la del centramiento en la variable y la unidad de
análisis respectivamente: se refiere a la construcción de un sistema de
clasificación o variable; tarea que implica el tratamiento de los valores del
nivel sub-unitario.

VI.3.1. Tratamiento de datos desde la perspectiva funcional: fines a los


que sirve cada tipo de tratamiento.

El criterio formal puede considerarse a su turno, atendiendo a lo que vamos


a denominar, el criterio funcional, es decir, considerando los fines a los que
sirve el tratamiento.

De acuerdo con ello es posible reconocer que el centramiento en la


dirección de la variable tiene como objeto “computar” datos, en la
perspectiva de agregar la información según los distintos valores de las
variables para identificar las distribuciones de esos valores en la población
o la muestra estudiada. De igual modo, el conjunto de “medidas síntesis” –
como las llamadas medidas de posición y de tendencia central constituyen
información que ofician de descriptores del conjunto de casos o unidades
considerando a este conjunto como una nueva totalidad o unidad (sea
muestral o poblacional).

De modo tal que el capítulo correspondiente al centramiento en la dirección


de la variable corresponde a lo que usualmente trata la estadística
descriptiva y la estadística inferencial.

La diferencia entre estas dos ramas de la estadística estriba en que en el


primer caso, los cálculos se destinan a caracterizar la muestra o población
de la que se obtiene la información empírica. En el segundo caso, en
cambio, se trata de utilizar esa información empírica para estimar o inferir
–en base a teoría de probabilidades- valores de una población o universo al
que no se accede de modo directo. La estadística inferencial permite
estimar, por ejemplo, con qué probabilidad los valores obtenidos en una
muestra (aquellas medidas síntesis a las que nos referirmos previamente),
representan, o se corresponden con un valor no conocido de una población
de referencia (a esto se lo llama “estimación de parámetros”). De igual
modo, permite inferir si la variación que presentan dos o más variables
consideradas conjuntamente, resulta probable o improbable. Es decir,
permite estimar si su variación puede atribuirse al mero azar, o por el
contrario, parecen ser concomitantes, y por lo tanto puede sospecharse que
miden un mismo asunto o están determinándose de algún modo unas a
otras (esta es la base de lo que usualmente se conoce como “prueba de
hipótesis”).

De cualquier modo, en ambas ramas de la estadística se trata de


centramientos en las variables, aunque con fines diferenciables conforme a
lo que acabamos de señalar.

En lo que respecta al centramiento en la dirección de la unidad de análisis


el tratamiento tiene como finalidad la identificación de pautas, tipologías e
índices. En esos casos, más que computar o agregar la información, se trata
de combinarla, ya que se consideran conjuntamente los valores
provenientes de distintas variables, para las distintas unidades. Esas pautas
o perfiles manifiestos, pueden a su turno, considerarse en términos de
propiedades latentes de las unidades, lo que permite hacer de las tipologías
construidas indicadores de nuevas variables.

Finalmente, el tratamiento centrado en la dirección del valor corresponde a


todos aquellas técnicas dirigidas a la construcción de dimensiones de
análisis, desde información originalmente no categorizada. Un ejemplo de
este tipo de tratamiento es el que se ha propuesto bajo el rótulo de “método
comparativo-constante”, destinado precisamente a categorizar, clasificar
material originariamente no estructurado.

Esquemáticamente esto se podría presentar en los siguientes términos:

Centramiento Tratamiento: Fines:


en:
Variable Cómputo de valores por Describir el
agregación. comportamiento de las
variables, y/o sus co-
variaciones, estimando
la determinación o el
efecto que unas
producen sobre otras.

Unidad de Comparación de valores, Construir tipologías o


análisis vector de valores o estructura identificar pautas.
de valores.
Identificar
isomorfismos entre
valores manifiestos y
latentes.

Valores Comparación y/o computación Codificación o


/variable de valores de niveles sub- categorización.
unitarios.

A su turno cada uno de estos “fines” y “tratamientos” pueden especificarse


conforme a técnicas y aplicaciones específicas, tal como lo hemos señalado
previamente. Al modo de ejemplo podrían indicarse las siguientes:

Centramiento en: Ejemplos de técnicas Ejemplos de


p/tratamiento de datos: aplicaciones:
Variable Estadística descriptiva Diseños
experimentales.
Estadística inferencial.
Validación y
Descripciones exploratorias. construcción de test

Análisis correlacionales
Unidad de análisis Análisis de pautas, índices, Elaboración de
numéricos, segmentaciones. nosografías.

Estudios estructurales. Segmentaciones


poblacionales.

Análisis narrativos.

Valores/Variable Codificación. Estudios culturales.


Indicador/
Variable Método comparativo Aplicaciones
constante. instrumentales.

Estudios hermeneúticos. Investigaciones


hermeneúticas.

Ampliaremos cada uno de estos temas en capítulos específicos, por lo que


aquí sólo quedan señalados.

VI.4. El análisis o la interpretación: ir “más allá de los datos”.

El tratamiento de datos permite “compactar” o agregar la información


producida de modo de tornarla manejable e interpretable.

Una vez producido ese tratamiento la tarea consiste en interpretarla. Esto


vale incluso en aquellas investigaciones que se inscriben en el llamado
paradigma cualitativo en el que la construcción del dato, surge en el mismo
momento en que es analizado. En ese caso, se deben distinguir dos
momentos “interpretativos” con funciones muy distintas. Por una parte, lo
que podríamos llamar “micro-interpretaciones” que van permitiendo
categorizar o clasificar la información (como cuando se “rotula” una frase o
se le adscribe una categoría interpretativa en el tratamiento de material
discursivo o equivalente). Otro momento corresponde al análisis e
interpretación más integral, en la que esos fragmentos previamente
interpretados y transformados en dato, cobran nuevo sentido en mapas,
redes semánticas o cuadros más abarcativos, a partir de los cuales emergen
hipótesis de interpretación.

En tal sentido la función de interpretación de datos propia de la fase 3


implica, como ya lo adelantamos “ir más allá de los datos” para integrarlos
al cuerpo de una teoría o concepción teórica más amplia.

El concepto de intepretación tiene un alcance específico en semiótica:


interpretar un signo es poner algo en reemplazo de él. La definición
peirciana de signo, dice que:

“signo es algo que se pone en lugar de otra cosa, en algún aspecto o


capacidad suya para alguien”.

Si se señala con el dedo en una cierta dirección; ese gesto será


efectivamente un signo si la mirada no se detiene en el dedo y se dirige a la
cosa señalada4. Si en cambio, en vez de dirigir la mirada a lo señalado se la
dirige al dedo, “cae” la función de signo.

Lo mismo ocurre con los datos: el análisis de datos supone ir más allá de
ellos transformándolos en signos o material significante. Este más allá
surge de las prácticas disciplinarias y las tradiciones teóricas que iluminan
dichos datos. Si al presentar los datos “sólo se ven los datos” entonces han
fracaso en su función.

Veámoslo a la luz de un ejemplo sencillo. La demografía ha diseñado una


estrategia de presentación de datos que resultan significativas para
representar la “estructura de poblaciones según sexo y edad” bajo la
forma de lo que llama “pirámide poblacional”5:

4
El signo debe opacare y transparentarse al mismo tiempo: es decir, debe ser percibido
y debe no ser percibido simultáneamente para que cumpla su función de signo (cfr.
Recanati, 1981).
5
La pirámide de población es una representación gráfica de varias generaciones que
refleja los patrones de natalidad y mortalidad y el efecto de los procesos migratorios,
tanto pasados como presentes.
En esta “pirámide” cada escalón representa una cohorte de nacimientos, en
sentido vertical, usualmente en tramos quinquenales o por decenio de edad.
Del lado izquierdo se presentan los valores correspondientes a varones y
del lado derecho a mujeres. El largo de cada escalón (en el sentido
horizontal) expresa el porcentaje (o el número de casos) correspondiente a
cada grupo. La pirámide siempre refiere a una unidad (de análisis)
territorial: un país, una región, una provincia, etc.

Empíricamente se observa que distintas configuraciones de esta pirámide


remiten a distinto nivel de desarrollo de un grupo poblacional, de modo tal
que, a partir del patrón demográfico se pueden inferir un conjunto de otros
atributos o características de esa población.

En los siguientes ejemplos se observan representaciones de tres tipos


empíricamente frecuentes de pirámide poblacional: 1) la primera
corresponde a una población en expansión (alta natalidad, alta mortalidad);
2) la segunda a una población estable (natalidad moderada y distribución
relativamente homogénea entre los distintos grupos de edad); 3) y la tercera
a lo que se llama una población en declinación (baja natalidad, alta
esperanza de vida).
1 2

Para un especialista estos gráficos tienen valor significante, es decir, ve allí


“algo más” y algo distinto a lo que ve un lego (que sólo se “informa” del
número o el porcentaje de población por edad y sexo). Estos gráficos le
indican, por ejemplo, que la tasa de fecundidad es elevada en el primer
caso, estable en el segundo y baja en el tercero (en este último podrá
anticipar que no supera a los 2 hijos por mujer al final de la vida fértil).
Que en el primer caso tendrán seguramente un peso muy importante las
enfermedades infecto-contagiosas, mientras que en el tercero predominarán
las enfermedades degenerativas. Que con alta probabilidad el patrón
distributivo de ingresos es inequitativo en el primer caso, lo que se traduce
en mayor pobreza, intermedio en el segundo, y más equitativo en el tercero.
Comparando gráficos como estos pueden estimarse diferencias
poblacionales (demográficas y sociales) entre distintas unidades
territoriales de un mismo país o una misma región. Se puede todavía ir más
lejos y hablar –como lo hace también la demografía- de transiciones
demográficas asociadas a grandes estadios en el desarrollo social (según
ciclos de desarrollo industrial, epidemológicos, etc.).
Por supuesto que el alcance o la riqueza interpretativa no surge de la sola
“pirámide poblacional”, esa riqueza dependerá de por lo menos dos tipos
de cuestiones:

a) por una parte, de la “intertextualidad” que domine el analista de estos


datos (sea o no demógrafo/a de profesión).

b) por la otra, de las tradiciones disciplinarias que abonen la evidencia


empírica en relación al uso de este tipo de datos.

De manera general podría enunciarse una ley general según la cual el


análisis de datos tiene como tarea invariante:

-la comparación de un estado de cosas existente (o dado


empíricamente) con
-un estado de cosas posible
-en el marco de un modelo (o presunción) asumida como
necesaria.

Dicho de otro modo, se trata de:

• Examinar lo empíricamente encontrado,

• En el marco de lo lógicamente posible, para

• Determinar su grado de “necesariedad”

Así por ejemplo, una mera “distribución de frecuencias” sólo tiene sentido
para el analista –con interés científico- si está en condiciones de comparar
esa distribución (existente o dada) con algún modelo o patrón (ideado o
inferido); para estimar hasta qué punto ella coincide o no con lo esperado:
es decir, para evaluar hasta qué punto la diferencia que observa puede
estimarse como contingente o necesaria desde la perspectiva del asunto que
investiga.

Veámoslo de manera más precisa (en base a un ejemplo desarrollado en


Galtung, J. –1973): una distribución es una partición de N unidades en R
partes. Entendiendo por R un espacio-resultado conformado por el número
de valores en los que potencialmente pueden ir a parar las N unidades
analizadas. Si el espacio-resultado es unidimensional R es igual a r (es
decir, al número de valores de la variable) si es bi-dimensional R=r1 x r2 ; si
es n dimensional R= r1 x r2 …rn.).

A modo de ejemplo, si se tienen tres unidades para un espacio con R=2, se


obtienen cuatro distribuciones posibles o particiones de tres en dos partes:

Distribuciones “posibles”
(de N en R)

R f1 f2 F3 f4

S 0 3 1 2

N 3 0 2 1

Supongamos que estas son distribuciones de “respuestas a un test” (N=3, es


decir tres casos de respuesta) con dos valores posibles (r1=”positivo” o
r2=”negativo”); cada tipo de distribución se debería leer entonces de la
siguiente manera:

1. “tres respuestas positivas y ninguna negativa”


2. “dos respuestas positivas y una negativa”
3. “una respuesta positiva y dos negativas”.
4. “ninguna respuesta positiva y tres respuestas negativas”

Ante una distribución empírica o dada (cualquiera de las cuatro), el analista


deberá juzgarla por referencia a las distribuciones lógicamente posibles,
para evaluar luego si se corresponde con lo esperado (conforme a algún
modelo o hipótesis).

Si aumentan N y R el número de posibles particiones de N en R se torna


inmanejable. Galtung presenta al respecto la siguiente tabla (op.cit.: 229):

Tamaño del espacio-resultado R


1 2 3 4 5 ……. 10
1 1 2 3 4 5 .
estr
mu
ma
Ta

ño

N
de
la

2 1 3 6 10 15 .
3 1 4 10 20 35 .
4 1 5 15 35 70 .
5 1 6 21 56 126 .
. .
. .
. .
10 1 92378

Si un investigador maneja –por caso- una muestra de 120 unidades;


potencialmente distribuibles en dos variables dicotómicas (lo que da un
espacio-resultado de 4) no tiene que conocer (y aunque quisiera le sería
prácticamente imposible hacerlo) todas las distribuciones en que
potencialmente podrían presentarse los casos. Pero sin duda debe saber que
la distribución que ha obtenido (empíricamente) es una entre unas cuantas
distribuciones lógicamente posibles. Usualmente el camino que se sigue es
el inverso: se postula cierto comportamiento esperado (conforme a alguna
presunción o modelo) y se juzga lo dado (empíricamente) para saber si las
variaciones o diferencias entre lo dado empíricamente y lo postulado
teóricamente son o no relevantes.

De igual modo ocurre con la estadística inferencial. Los resultados


empíricos se deben juzgar por referencia a su ubicación en el espacio que
de una función continua de probabilidades. Este espacio define el conjunto
de posibilidades. Dicho de otro modo, el valor que se ha obtenido
empíricamente es “uno” entre un conjunto de posibles valores que se
podrían haber obtenido con una muestra aleatoria de tamaño “n” (los que
considerados conjuntamente constituyen la totalidad de ese espacio de
probabilidades). La decisión estadística depende de cómo se juzgue ese
valor por referencia a los valores posibles que podrían haberse obtenido, y
cómo se defina la zona de alta o baja probabilidad.
Ahora bien, el alcance de esa decisión, que tendrá consecuencias en lo que
se llama “significación estadística” no define ipso facto la “significación
sustancial” de un dato. Se requiere para ello juzgar esos resultados a la luz
de un modelo, una teorización que le confiera la significación disciplinaria
específica. Y esta significación no se deriva nunca de una mera aplicación
técnica, sino de los modelos en el que ese hallazgo pueda ser integrado.

Por lo demás, interesa señalar que estos principios no son privativos del
análisis e interpretación de datos cuantitativos. Podrían aplicarse de igual
modo en aquellas investigaciones de orientación interpretativa o
hermeneútica.
Así, por ejemplo, cuando Sigmund Freud analiza “la técnica del chiste”, su
estrategia consiste en examinar lo “empíricamente dado” a la luz de lo
“lógicamente posible” (o esperable); para luego examinar en base a ello su
carácter necesario en el marco de su teoría interpretativa.

Así comenta, el caso de un chiste que lo inspira en esta dirección:

En el fragmento de los Reisebilder titulado «Los baños de Lucas» nos presenta


Heine la regocijante figura de Hirsch-Hyacinth, agente de lotería y extractador
de granos, que, vanagloriándose de sus relaciones con el opulento barón de
Rotschild, exclama: «Tan cierto como que de Dios proviene todo lo bueno,
señor doctor, es que una vez me hallaba yo sentado junto a Salomón Rotschild y
que me trató como a un igual suyo, muy «famillionarmente» (familionär)».

A los efectos de examinar la “técnica del chiste”, lo primero que propone


es explicitar lo que queda implícito en él, es decir, lo que hubiese sido
esperable en el contexto del discurso. Lo señala en los siguientes términos:

“Intentemos expresar con la mayor fidelidad el mismo pensamiento en palabras


distintas. (…) No alteraremos en nada este sentido, dando al pensamiento otra
forma que quizá se adapta más a la frase de Hirsch-Hyacinth: «Rotschild me
trató como a su igual, muy familiarmente, aunque claro es que sólo en la
medida en que esto es posible a un millonario». «La benevolencia de un rico es
siempre algo dudosa para aquel que es objeto de ella», añadiríamos nosotros”.

Al explicitar el contenido latente del chiste, Freud advierte que pierde así
su efecto cómico. Considera entonces que dicho efecto proviene de la
forma del enunciado antes que de su contenido.

En el examen de esa forma, encuentra dos mecanismos comprometidos en


la estructura discursiva del chiste: los denomina proceso de condensanción
y formación sustitutiva. En el caso del ejemplo, la palabra
famillionarmente» (familionär) –la que no tiene ninguna significación en el
código lingüístico- condensa en una sola expresión dos términos:
familiarmente y millonario. De modo tal que ella sola sustituye a ambos:

“Es, pues, la nueva palabra una formación mixta de los dos componentes
«familiarmente» y «millonario» y podemos representar gráficamente su génesis
en la forma que sigue:
FAMILI ÄR
MILIONÄR
-----------------------------
FAMILIONÄR
Ahora bien, para que estos mecanismos adquieran carácter necesario, debe
mostrar su regularidad en el marco del fenómeno que se describe; deben
iluminarse a partir de un modelo de alcance más amplio.

Eso ocurre al menos de dos maneras en el desarrollo del trabajo de Freud.


Por una parte, una vez identificado el mecanismo en el análisis de un caso,
se pregunta si ese mecanismo puede hacerse extensivo a un conjunto más
amplío de ejemplares semejantes:

“Nuestra esperanza de que la técnica del chiste no podía por menos


de revelarnos la íntima esencia del mismo nos mueve, ante todo, a
investigar la existencia de otros chistes de formación semejante a la
del anteriormente examinado”.

Pero además, estos mecanismos se irán develando progresivamente como


un modo de funcionamiento típico de los procesos inconscientes. Como
una regla general de su funcionamiento, dado que la vuelve a encontrar en
otras “formaciones del inconsciente” como los actos fallidos o los sueños.
Y la justificación y comprensión de ellos, no vendrá sólo de la descripción
de su forma (o de la “técnica del chiste” –como la llama en este trabajo-)
sino también de la identificación de su funcionalidad y de los fines a los
que sirven según el modelo teórico que desarrolla: su teoría general del
psiquismo humano (como por ejemplo, en el marco de su tesis sobre la
represión y ocultamiento de experiencias o representaciones que deben
mantenerse alejadas de la conciencia). Dicho de otra manera, deberá
mostrar no sólo la consistencia de estas interpretaciones para caracterizar
los hechos (en este caso, los chistes que analiza) sino también la coherencia
interna que estas interpretaciones guardan con el cuerpo más amplío de una
teoría que las integra y les confiere su carácter retóricamente convincente.

Esta doble exigencia –entre consistencia entre el modelo y los datos; y,


coherencia interna del modelo- parece ser un principio general que vale
para cualquier tipo de tratamiento e interpretación de datos.

La coherencia interna en el marco del proceso de investigación requiere


integrar los resultados en un mapa nomológico que recupere los desarrollos
del marco conceptual, de los objetivos asumidos y los problemas e
hipótesis planteados.

Conforme con ello, el alcance del análisis de datos estará fuertemente


determinado por el cuerpo conceptual o teórico que guía la investigación;
del que emanan los modelos y las hipótesis que iluminan las
intepretaciones disponibles para el analista. Mientras que éstas hunden sus
raíces en los métodos pre y protocientíficos al que nos hemos referido al
tratar el tema de hipótesis: es decir, en sus intuiciones y representaciones
práxicamente pregnantes.

El alcance y la riqueza de esa interpretación no depende de que la


información sea densa o analítica, cualitativa o cuantitativa, discursiva o
estadística: depende, por el contrario, de la profundidad y riqueza de los
modelos y marcos conceptuales que maneja el equipo de investigación; de
la capacidad que esos marcos tengan para “hacer hablar” a esa información.

Analizando registros estadísticos Emilio Durkheim interpretó las tasas de


suicidio como expresión de distintos tipos de solidaridad social: la distinta
propensión al suicidio entre diferentes grupos religiosos, institucionales,
familiares, etc. expresaría diferentes formas de integración del individuo al
grupo:

“La causa [del suicidio] no puede encontrarse más que en una


propiedad que todos estos grupos sociales tienen en común, aunque tal
vez en diferentes grados. Ahora bien, la única que satisface esta
condición es la de que todos ellos son grupos sociales, fuertemente
integrados. Llegamos así a esta conclusión general: el suicidio varía en
razón inversa del grado de integración de los grupos sociales de que
forma parte el individuo. (…) del grado de integración de la sociedad
religiosa, doméstica y política. (1965:164).

El lector/a interesado puede ampliar con provecho el texto de Durkheim en


la fuente de referencia. Sin duda es una obra enormemente instructiva para
comprender el proceso de tratamiento y análisis de datos. Sus hipótesis
interpretativas se dirigen a comprender el metabolismo representacional
(y moral) de las sociedades que analizó (aunque no trabajó con discursos
sino con registros estadísticos). Buscaba identificar patrones que
permitieran enunciar comportamientos regulares (no coyunturales); tal
como lo tiene planteado todo trabajo con vocación científica. No presentó
los índices de suicidio como lo puede hacer la noticia periodista -para
horrorizar o para sorprender a nadie-: se proponía identificar alguna
regularidad, que pudiera luego ser corroborada o refutada por otros
estudios6.

6
En esa dirección interesa diferenciar también el alcance del tratamiento y análisis de
datos en los estudios diagnósticos (sean éstos poblacionales, clínicos o de laboratorio)
de los estudios científicos propiamente dichos. Sin duda que la elaboración de un buen
diagnóstico exige seguir el método científico, pero los resultados producidos en el
marco de dichos diagnósticos no tienen la pretensión de ir más allá que la de informar
sobre un estado de situación, por referencia a un marco de categorías e indicadores ya
Bibliografía de referencia.
Durkheim, E. (1965) -El suicidio. Estudio de Sociología. Ed. Shapire,
Buenos Aires.
Galtung, J. (1973) Teoría y Técnicas de la investigación social. Buenos
Aires. EUDEBA, Tomo I y II.
Glasser y Strauss (1967) The discovery of grounded theory. Strategy for
qualitative reaserch. New York, Ed. Aldine (Traducción inédita de Floreal
Forni).
Lazarsfeld, P. (1966), "De los conceptos a los índices empíricos", en Boudon
y Lazarsfeld, Metodología de las Ciencias Sociales, Vol. I y II, Barcelona,
Ed. Laia, 1979.
Pereda, S. (1987) Psicología experimental. I. Metodología. Ed. Piramide.
Madrid, Cap. 2 pto. 5.3. “El método experimental” (60 a 66) Cap. 7 pto. 5
“Las variables relevantes” (pág. 145 a 168) Cap. 8
Récanati, F.; 1981. La transparencia y la enunciación. Introducción a la
pragmática, Ed. Hachette, Buenos Aires.
Samaja, J. (1993) Metodología y Epistemología. Buenos Aires, Ed. Eudeba.
Torrado, S. (1998) Familia y diferenciación social. Cuestiones de Método.
Buenos Aires, Ed. Eudeba.

establecidos. Así, por ejemplo, si se estudia la “incidencia de pobreza en la población


Argentina a lo largo de la última década”, el resultado de ese informe puede reducirse
a estimar distribuciones de población pobre; medida con algún indicador ya consagrado
como el NBI (Necesidades Básicas Insatisfechas) o LP (Línea de Pobreza) según edad,
sexo, composición familiar, etc., etc., etc. sin aportar pese a ello ninguna novedad
relevante al cuerpo conceptual de la teoría social; aún cuando la información producida
pueda ser muy útil para la planificación de políticas o la intervención social. Si en
cambio el estudio se dirige a crear indicadores para la evaluación de la pobreza –o para
discutir el alcance conceptual y eventualmente operacional del concepto de «pobreza»-
entonces sí puede hablarse de investigación científica en sentido estricto: y el
tratamiento y el análisis de datos tienen entonces planteada otra tarea y otra exigencia de
validación y justificación.

También podría gustarte