0% encontró este documento útil (0 votos)
151 vistas38 páginas

Procesos Estocasticos

El documento presenta un informe de proyecto final sobre procesos estocásticos de un grupo de estudiantes de ingeniería electrónica y comunicaciones. El objetivo general del proyecto fue introducir conceptos de probabilidad para analizar procesos estocásticos. Los objetivos específicos incluyeron analizar variables aleatorias, la respuesta de sistemas a entradas aleatorias, y reconocer propiedades de procesos como ruido blanco y procesos de Poisson y Gaussianos. El resumen explica que la teoría de probabilidad y procesos est
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
151 vistas38 páginas

Procesos Estocasticos

El documento presenta un informe de proyecto final sobre procesos estocásticos de un grupo de estudiantes de ingeniería electrónica y comunicaciones. El objetivo general del proyecto fue introducir conceptos de probabilidad para analizar procesos estocásticos. Los objetivos específicos incluyeron analizar variables aleatorias, la respuesta de sistemas a entradas aleatorias, y reconocer propiedades de procesos como ruido blanco y procesos de Poisson y Gaussianos. El resumen explica que la teoría de probabilidad y procesos est
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 38

UNIVERSIDAD TÉCNICA DE AMBATO

FACULTAD DE INGENIERÍA EN SISTEMAS ELECTRÓNICA E INDUSTRIAL

“INFORME DE PROYECTO FINAL”

TEMA:

“PROCESOS ESTOCASTICOS”

CARRERA: Ingeniería en Electrónica y


Comunicaciones

ÁREA ACADÉMICA: Física y Electrónica

LÍNEA DE INVESTIGACIÓN: Investigación y Desarrollo

CICLO ACADÉMICO: Noveno Electrónica “A”

AUTORES: Andaluz Wellington


Andrade Diego
Bayas Gerardo
Bermúdez David
Pillajo Darío

MÓDULO: Codificación Digital de Señales


DOCENTE: Ing. Marco Jurado
2019
AMBATO – ECUADOR

I. INFORME DEL PROYECTO


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
1.1 Título EN
E
SIS
Procesos Estocásticos TEM
.
AS,
I
1.2 Objetivos ELE
CTR
1.2.1 Objetivo General ONI
CA
E
 Introducir los conceptos de Probabilidad como fundamentos para el
IND
análisis de los Procesos Estocásticos. UST
RIA
L

1.2.2 Objetivos Específicos

 Adquirir el concepto de variable aleatoria a través de las funciones de


densidad y distribución de probabilidades.

 Analizar la respuesta de sistemas lineales a entradas aleatorias utilizando


los conceptos de correlación y densidad espectral.

 Reconocer las propiedades estadísticas de procesos típicos tales como


Ruido Blanco, Proceso de Poisson y Proceso Gaussiano.

1.3 Resumen

Probabilidad y Procesos Estocásticos (cod. 4B4 plan 2003) pertenece al grupo


de Tecnologías Básicas. La teoría de la Probabilidad y los Procesos Estocásticos
tienen actualmente un papel fundamental en todos los campos de la ingeniería.
Este hecho surge, en parte, de que cualquier fenómeno puede ser descripto con
suficiente exactitud a través de un modelo probabilístico. Por otro lado, la
creciente complejidad de los sistemas en estudio, sobre todo en el área específica
de electrónica, nos lleva indefectiblemente al uso de conceptos probabilísticos
como método de descripción. El propósito de la materia es presentarle al alumno
los conceptos de probabilidad y procesos estocásticos que son necesarios en las
áreas de procesamiento de señales, comunicaciones y control.

1.4 Palabras clave: Estocásticos, modelo probabilístico, control.


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
EN
E
1.4.1 Introducción SIS
TEM
.
En el estudio de las variables aleatorias realizado hasta ahora se han exploradoAS,
I
las características aleatorias del fenómeno pero se ha mantenido una premisa porELE
defecto, que esas características aleatorias permanecen constantes a través del CTR
ONI
tiempo. Al incluir en el estudio la presencia de la variable determinística tiempo
CA
se está considerando que, de alguna forma, la variable aleatoria depende delE
tiempo. En otras palabras, la variable aleatoria dependerá del fenómeno IND
probabilístico y del tiempo. En consecuencia, cualquier función que se UST
RIA
establezca en términos de la variable aleatoria, como lo son la función deL
distribución o la función de densidad, serán también dependientes del tiempo.

Considere un sistema que puede caracterizarse por estar en cualquiera de un


conjunto de estados previamente especificado. Suponga que el sistema
evoluciona o cambia de un estado a otro a lo largo del tiempo de acuerdo a una
cierta ley de movimiento, y sea Xt el estado del sistema al tiempo t. Si se
considera que la forma en la que el sistema evoluciona no es determinista, sino
provocada por algún mecanismo azaroso, entonces puede considerarse que Xt es
una variable aleatoria para cada valor del ´índice t. Esta colección de variables
aleatorias es la dentición de proceso estocástico, y sirve como modelo para
representar la evolución aleatoria de un sistema a lo largo del tiempo. En
general, las variables aleatorias que conforman un proceso no son
independientes entre sí, sino que están relacionadas unas con otras de alguna
manera particular. Más precisamente, la definici´on de proceso estocástico toma
como base un espacio de probabilidad (Ω, F, P) y puede enunciarse de la
siguiente forma.
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
EN
E
1.5 Materiales y Metodología SIS
TEM
.
1.5.1 Marco teórico AS,
I
ELE
Definición de probabilidad. CTR
ONI
CA
Se define experimento aleatorio como cualquier circunstancia natural o artificial
E
cuyo resultado es incierto. Por ejemplo, lanzar una moneda al aire, la
IND
temperatura media de pasado mañana, número de goles en un partido de fútbol, UST
el ruido presente en un receptor, etc. Prueba es una realización de un RIA
experimento y suceso es el conjunto o un subconjunto de los resultados posiblesL
de un experimento.

Habitualmente se define el conjunto que contiene todos los resultados posibles


de un experimento llamado espacio de sucesos. Para esa representación, un
suceso será un subconjunto de ese total; así, el suceso A se dará en todas las
pruebas cuyos resultados sean elementos de A.

La Probabilidad es una medida de la verosimilitud de un suceso. Sean las


siguientes asignaciones:

A: suceso

¬A: suceso complementario de A

P(A): probabilidad del suceso A

Ω: suceso seguro (ocurre siempre)

φ: suceso imposible (nunca ocurre)

 Probabilidad condicional

 Teorema de la probabilidad total

 Teorema de Bayes

 Independencia entre sucesos

 Experimentos de Bernouilli

Variable aleatoria
FACF
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENIS
ERI
A.
Una variable aleatoria es una función real cuyo dominio es el conjunto S de ENE
todos los resultados posibles de un experimento. Se asigna un número realSIS a
cada uno de los posibles resultados del experimento. TEM.
AS,
I
ELE
Χ: S → ℜ
CTR
ONI
1) {Χ≤x} es un suceso posible. CA
E
2) p {Χ=∞}=p {Χ=-∞}=0 IND
UST
Por lo tanto, representamos cada resultado posible por un número real. Cualquier
RIA
suceso puede representarse por la unión de intervalos en ℜ y, además, seL
cumplen las propiedades anteriores.

Las variables aleatorias pueden ser:

 Discretas.

 Continuas.

 Mixtas.

Función de distribución

La función de distribución o función de distribución de probabilidad acumulada


de la variable aleatoria X caracteriza la probabilidad asociada al evento {Χ≤x}.

Se define de la forma: Fx(x) = p {X ≤ x}.

Función de densidad de probabilidad

Es una función real de una variable aleatoria que permite calcular de forma
sencilla las probabilidades de sucesos asociados a la misma. Se define como la
derivada de la función de distribución:

dF (x)
f ( x)=
dx

Media, varianza y valor cuadrático medio.

Se define media de una variable aleatoria como el valor medio que toma esa
variable aleatoria cuando promediamos un número muy grande de resultados de
un experimento caracterizado por la misma.
FACF
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENIS
ERI
A
.
La varianza es una medida de la concentración de valores de la variable aleatoria
ENE
alrededor de su media, de forma que cuanto mayor sea la varianza, mayor será SIS
la
probabilidad de encontrar resultados alejados de ella. La raíz cuadrada de la.TEM
AS,I
varianza se llama desviación típica.
ELE
CTR
2
La varianza se puede expresar en función del valor cuadrático medio E {XONI }.
Esto se debe a que la esperanza es un operador lineal. CA
E
IND
UST
RIA
L
Procesos estocásticos.

Definición. Un proceso estocástico es una colección de variables aleatorias {Xt :


t ∈T} parametrizada por un conjunto T, llamado espacio parametral, y con
valores en un conjunto S llamado espacio de estados

Figura. Espacio paramertal

La teoría de los procesos estocásticos se centra en el estudio y modelización de


sistemas que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas
leyes no determinísticas, esto es, de carácter aleatorio.

Representan magnitudes variables en el tiempo cuyo valor en cada instante es


incierto. Son, por lo tanto, funciones temporales cuyo valor en cada instante es
una variable aleatoria. Ejemplos de esto son las señales de voz, de ruido, los
índices de la bolsa, etc. El proceso estocástico no tiene por qué ser una función
continua del tiempo. Si nos fijamos en los valores que presenta un proceso
estocástico en un intervalo de tiempo, a la curva resultante se le denomina
realización del proceso. En general, las realizaciones del proceso serán distintas
para intervalos de tiempo distintos.

Para modelar matemáticamente el proceso se ha de tener en cuenta su condición


de variable aleatoria dependiente del tiempo. Se representará de la forma X(t).
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
Cada una de las variables aleatorias del proceso tiene su propia función de EN
E
distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no. SIS
TEM
.
La forma habitual de describir la evolución del sistema es mediante sucesionesAS,oI
ELE
colecciones de variables aleatorias. De esta manera, se puede estudiar cómo
CTR
evoluciona una v.a. a lo largo del tiempo. Por ejemplo, el número de personas ONI
que espera ante una ventanilla de un banco en un instante t de tiempo; el precio CA
de las acciones de una empresa a lo largo de un año; el número de parados en elE
sector de Hostelería a lo largo de un año. IND
UST
RIA
La primera idea básica es identificar un proceso estocástico con una sucesión deL
v.a. {Xn,n ∈N} donde el subíndice indica el instante de tiempo (o espacio)
correspondiente.

Esta idea inicial se puede generalizar fácilmente, permitiendo que los instantes
de tiempo en los que se definen las v.a. sean continuos. Así, se podrá hablar de
una colección o familia de v.a. {Xt,t ∈R}, que da una idea más exacta de lo que
es un proceso estocástico.

Se tenía que una v.a. X(s) es una función que va desde un espacio muestral S a la
recta real, de manera que a cada punto s ∈ S del espacio muestral se le puede
asociar un número de la recta real.

De este modo, la probabilidad de cada suceso de S se puede trasladar a la


probabilidad de que un valor de X (v.a.) caiga en un cierto intervalo o conjunto
de números reales. Si a todo esto se le añade una dimensión temporal, se obtiene
un proceso estocástico.

La definición formal es la siguiente:

Definición (Proceso Estocástico)

Dado el espacio de probabilidad (Ω,a,P) de modo que para todo t ∈ T ⊂Rfijo

Xt : (Ω,a,P) → (R,B)

w→ Xt(w) ∈R

esto es, Xt es una variable aleatoria y ∀w ∈Ωfijo, X•(w) es una función del
tiempo.

Ejemplos:
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
Xt: número de personas que esperan un autobús en un instante t donde t ∈ [9,10]EN
E
SIS
TEM
.
Xt: precio de una acción de una empresa en un día t del mes (t = 1,2,...,30).
AS,
I
ELE
Xt: número de parados en el mes t (t = 1,2,...,12). CTR
ONI
Para que un proceso estocástico esté completamente definido hay que determinar CA
E
completamente las v.a., es decir, determinar e identificar la distribución INDde
probabilidad asociada a cada una de ellas y, es más, la distribución conjunta UST
de
todas ellas. RIA
L

Definición

Al conjunto T ⊂R de subíndices se le denomina conjunto paramétrico y puede


ser continuo o numerable.

De este modo aparece una primera clasificación en procesos estocásticos de


parámetro continuo o de parámetro discreto.

Definición

Se denomina conjunto de estados E, al conjunto de los posibles valores que


pueden tomar las v.a. {Xt}t∈R

Nota: En general, se piensa en el subíndice t como el indicativo del tiempo y en


Xt como el estado o posición del proceso estocástico en el instante t.

Ejemplo: Se lanza una moneda varias veces. Supóngase que cada vez que sale
cara, un jugador gana 1 unidad y si sale cruz pierde 1 unidad. Se puede definir
un proceso estocástico que modeliza la evolución del juego. Así, si se denomina
Xn al número de unidades monetarias que quedan después de n lanzamientos, el
espacio muestral de Xn es

Ω = {n-uplas de c y +}

de modo que el cardinal (el número de elementos) del conjunto es

#Ω = 2n
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENI
S
ERI
A.
y el álgebra que se define es a = P(Ω), esto es, las partes de Ω (todos los posibles
EN
E
subconjuntos que se pueden formar en Ω). SIS
TEM.
Consideramos a todas las posibles n-uplas equiprobables: P(w) = 1/2n. AS,
I
ELE
Es un proceso discreto, porque el conjunto paramétrico es T = {1,2,3,...} yCTR el
ONI
posible conjunto de estados es CA
E
E = {..., −3, −2, −1, 0, 1, 2, 3...} IND
UST
RIA
Podemos estudiar la trayectoria de X(w): L

Sea n = 6 y fijo, por ejemplo, w = (c,c,+,+,+,+), esto es,

X1(w) = 1

X2(w) = 2

X3(w) = 1

X4(w) = 0


X5(w) =
1

X6(w) = −
2
2

0 1 2 3 4 5 6

-1

-2
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
Ahora, si fijamos t, por ejemplo, en t = 3, se puede calcular la distribución de X3. El
EN
E
conjunto de posibles estados de X3 es: SIS
TEM.
AS,
I
ELE
CTR
ONI
CA
-1 E
IND
UST
1 RIA
1 L
3
2

1
0
1
0

-1
-1
-3

-1
0

-2
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
de modo que E = {−3,−1,1,3} y EN
E
SIS
TEM
.
AS,
I
ELE
CTR
ONI
CA
E
IND
UST
RIA
Se puede definir una nueva variable aleatoria: L

Y ≡ número de caras obtenidas (éxitos).

Se observa, entonces, que

y así

Luego X3 se distribuye como una, aunque tomando otros


valores que los estrictamente igual a 0,1,2,3.

Se identifica así el proceso estocástico, y se puede preguntar uno cuál es la


probabilidad de que a las 10 tiradas se tengan unidades monetarias negativas,
esto es, se arruine el jugador.

Clasificación de Procesos Estocásticos

Se pueden clasificar según

 La estructura del conjunto paramétrico T y del conjunto de estados E.

 Las características probabilísticas de las v.a.


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENI
S
ERI
A.
Clasificación según la estructura de T y E. EN
E
SIS
Los procesos estocásticos se pueden clasificar en cuatro tipos, dependiendo deTEM
si.
T es un conjunto numerable o continuo, y de si E es otro conjunto numerable oIAS,
ELE
continuo. Así:
CTR
ONI
CA
E\T Discreto Continuo
E
IND
Discreto Cadena Proc. Puntual UST
RIA
Continuo Suc. de v.a. Proc. Continuo L

Ejemplos:

1. Cadena. Supongamos un sistema hidraúlico con una válvula de


seguridad que se revisa diariamente. Esta válvula presenta tres posibles
estados: correcto, incorrecto y deteriorado. De este modo se puede
definir el proceso como Xn ≡ Estado en el que se encuentra la válvula en
el día n.

2. Proceso Puntual. Un autobús escolar tiene capacidad para k personas. Si


en una parada hay k o menos personas esperando, entonces todas subirán
al autobús. Si no es así, subirán las k primeras quedando el resto de
personas en espera. Se define, entonces, Xt ≡ número de personas
esperando en la parada en un instante de tiempo t.

Se pueden plantear asuntos como minimizar el tiempo medio de espera, o


reducir el número de personas esperando.

3. Sucesión de v.a. Una empresa petrolífera debe decidir cuánto petróleo


extrae al mes para maximizar los beneficios. Se define, entonces, Xn ≡
Cantidad de petróleo a extraer en el mes n.

Esto es un ejemplo particular de la llamada Teoría de Inventarios, donde


se estudia la distribución de la demanda, por ejemplo.

4. Proceso Continuo. En la ventanilla de un banco se contabiliza el tiempo


de espera de un cliente que llega en un instante t. Se puede definir Xt ≡
Tiempo de espera de un cliente que llega en el instante t.

Esto está relacionado con la Teoría de Colas. Interesa, por ejemplo,


minimizar el tiempo de espera o estudiar la distribución de Xt.

Clasificación según las características probabilísticas de las v.a.


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
En la vida real se producen distintas relaciones entre las variables aleatorias que
EN
E
constituyen un proceso estocástico. Por ejemplo, la ganancia monetaria obtenida SIS
en la tirada n-ésima dependerá obviamente de la ganancia obtenida en la tirada. TEM
AS,
I
(n − 1)-ésima.
ELE
CTR
Las propiedades probabilísticas las v.a. son importantes a la hora de identificarONI
y
clasificar un proceso estocástico. Se pueden clasificar los procesos en CA
E
 Procesos estacionarios. IND
UST
 Procesos Markovianos. RIA
L
 Procesos de incrementos independientes.

Procesos estocásticos estacionarios

El número de variables aleatorias introducidas por un proceso estocástico es


infinito, ya que cada instante distinto genera una variable aleatoria distinta. Cada
una tendrá sus respectivas funciones y estadísticos, por lo que resulta evidente la
dificultad de trabajar con tal cantidad de parámetros.

Lo habitual es buscar ciertas propiedades de los procesos que posibiliten trabajar


de una forma más cómoda.

Se dice que un proceso estocástico es estacionario de primer orden si su función


densidad de probabilidad de primer orden es independiente del tiempo

f x(x,t) =f x(x,t+Δ t)= fx (x)

Se dice que un proceso estocástico es estacionario en sentido amplio cuando su


media no depende del tiempo y su auto correlación depende del desplazamiento
τ.

Se dice que un proceso estocástico es estacionario en sentido estricto si su


función de densidad de probabilidad de orden n cumple:

fx (x1,…xn; t1,…tn)= f (x1,…xn; t1+∆t…tn+ ∆t)

Se dice que dos procesos estocásticos son conjuntamente estacionarios en


sentido amplio cuando cada uno es estacionario en sentido amplio y la función
de correlación cruzada depende solamente del desplazamiento τ.

Procesos estocásticos ergódicos


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
Un proceso estocástico es ergódico si sus promedios estadísticos coinciden con EN
E
los respectivos promedios temporales. Por lo tanto, cualquier estadístico podrá SIS
obtenerse a partir de una sola realización del proceso. TEM
.
AS,
I
ELE
En la práctica, interesa poder estimar esperanza y auto correlación a partir de
CTR
algunas trazas del proceso, y muy comúnmente, sólo se dispone de una única ONI
traza. Por ejemplo, si se quiere estudiar la temperatura media anual del Rio de la
CA
Plata, o el ruido ambiente en el centro de la ciudad, o el ruido de fondo recibidoE
por una antena, se dispone de un único registro, y no tiene sentido comenzar IND el
UST
experimento varias veces. Entonces interesa saber si las medias temporales para RIA
un único experimento tienen alguna relación con las medias estadísticas sobreL
todos los experimentos posibles.

Características espectrales de los procesos estocásticos

Para analizar en frecuencia un proceso estocástico X(t), se presenta la dificultad


de que no se puede asegurar a priori que todas las realizaciones del proceso
tengan transformada de Fourier. Sin embargo, se verá a continuación que es
posible obtener la Densidad Espectral de Potencia DEP, del proceso.

Supóngase una realización del proceso x(t). En general será una función definida
en potencia, por lo que es posible que no tenga transformada de Fourier. Por lo
tanto se define la señal xT(t) como la realización del proceso definida en un
intervalo T. Esta señal será definida en energía, por lo que se puede asegurar que
tiene transformada de Fourier XT(w).

Transformaciones de procesos

Los procesos estocásticos modelan variaciones temporales que, a su vez, pueden


ser transformados por sistemas.

Las herramientas de análisis de señales y sistemas pueden entonces extenderse al


caso habitual en que las señales sean procesos estocásticos.

En particular, cuando se trata de sistemas lineales e invariantes, se pueden


trasladar la mayor parte de las conclusiones que tratan de señales deterministas
definidas en potencia al campo de los procesos estocásticos estacionarios.
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
Se puede demostrar que si se dispone de un proceso estocástico estacionario X(t)
EN
E
a la entrada de un sistema lineal e invariante, la relación entre las auto SIS
correlaciones de la entrada y la salida es TEM
.
AS,
I
ELE
CTR
ONI
CA
E
Aplicando transformada de Fourier a la ecuación
IND
UST
RIA
L

Ruido blanco gaussiano

El ruido habitual que se introduce en cualquier sistema de comunicaciones se


modela como un proceso estocástico estacionario blanco y gaussiano que se
añade de forma aditiva a la señal transmitida que llega al receptor.

La validez de la hipótesis de que el ruido tenga una distribución gaussiana y no


cualquier otra, se apoya en el hecho de que lo consideremos consecuencia de
múltiples fuentes de ruido independientes. En esta situación, cuando el número
de fuentes tiende a ser infinito, se aplica el Teorema del Límite Central, que
indica que la distribución resultante tiende a ser gaussiana.

La in-correlación del ruido indica la independencia total entre instantes


sucesivos de tiempo. Esto es así porque las variables aleatorias gaussianas que
están in-correladas son también independientes.

PROCESOS HOMOGENEOS

Un proceso de Lévy es un proceso estocástico estacionario de tiempo continuo X


t en el que los incrementos en el valor del proceso no dependen de sus valores
pasados. Este tipo de procesos fueron analizados por Paul Lévy en los años 1930
generalizando los trabajos de Norbert Wiener.
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
Intuitivamente, un proceso de Lévy representa el movimiento de un punto cuyosEN
E
SIS
desplazamientos sucesivos son aleatorios e independientes, y estadísticamente
TEM
tienen la misma distribución sobre diferentes intervalos de tiempo de la misma.
AS,
longitud. En esas condiciones un proceso de Lévy puede verse como un análogoI
ELE
en tiempo continuo del paseo aleatorio. CTR
ONI
Los procesos de Wiener (usados para modelizar el movimiento browniano) y los CA
procesos de Poisson son casos particulares de procesos de Lévy, teniendo elE
IND
primero trayectorias continuas casi seguro, mientras que el segundo tiene una
UST
cantidad numerable de saltos. RIA
L
Un proceso adaptado X = ( X t ) 0 ≤ t < ∞ casi seguro es un proceso de Lévy si:1

 X tiene incrementos independientes del pasado, es decir, X t − X s es


independiente de la filtración F s , 0 ≤ s < t < ∞

 X tiene incrementos estacionarios, es decir, X t − X s tiene la misma


distribución que X t − s , 0 ≤ s < t < ∞

 Xt es continuo en probabilidad, es decir, lim t → s X t = X s, donde el


límite se toma en probabilidad.

Ejemplos

 El movimiento browniano que puede ser adecuadamente modelizado por


un proceso de Wiener que es un tipo particular de proceso de Lévy.

 La ocurrencia de terremotos de magnitud fijada en una región concreta se


puede modelizar adecuadamente mediante una proceso de Poisson. En
particular el número de terremotos en un intervalo de tiempo [ 0 , t ]
viene dado por un proceso de Poisson, que también es un tipo de proceso
de Lévy.

Propiedades

 Dado un proceso de Lévy X la variable Xt tiene una distribución de


probabilidad que es infinitamente divisible, y recíprocamente dada una
medida μ infinitamente divisible existe un proceso de Lévy X tal que la
distribución de X1 es precisamente μ

 La función característica de un proceso de Lévy f t ( u ) = ϕ X , t ( u ) = E


{ exp ( i u X t ) que satisface f 0 ( u ) = 1 y f t ( u ) ≠ 0 para cualquier
(t,u).
FAC F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD .
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING .
ENIS
ERI
A .
 Usando la continuidad en probabilidad (por la derecha) se tiene que fEN tE
( u ) = exp ( − t ψ ( u ) ) 0, para cierta función que cumple que ψ ( 0 ) = SIS
0
TEM .
 Dado cualquier proceso de Lévy existe una modificación única (que AS,I
ELE
difiere sólo en un conjunto de medida nula) que es un proceso càdlàg, CTR
por lo cual a efectos prácticos un proceso de Lévy puede tratarse siempre ONI
como un proceso càdlàg. CA
E
 Para un proceso de Lévy process con momentos finitos, los momentos de IND
UST
orden n μ n ( t ) = E ( X t n ) es una función polinómica de t que satisfaceRIA
la relación binomial: L

CADENAS DE MARKOV

Considere un equipo de computación el cual será revisado al inicio de cada día


para verificar si está operativo o si está dañado. El diagrama de estados de la
siguiente figura muestra los dos posibles estados del proceso y las relaciones que
se deben cumplir para pasar de un estado al otro. Así, con probabilidad PO-D se
pasa del estado operativo al estado dañado; ésta es una probabilidad de
transición o de cambio de estado. En el caso de que el valor de la probabilidad
anterior no cambie a través del tiempo y, esto se repite para todas las
probabilidades involucradas en la figura, se dice que la Cadena es estacionaria.

Si en un día cualquiera el ordenador está dañado al comenzar el día, sólo puede


ocurrir una de dos cosas para el inicio del siguiente día: que siga dañado (con
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENI
S
ERI
A.
probabilidad PD-D) o que haya sido reparado en ese día (con probabilidad PD- EN
E
O). Por otro lado, si en un día cualquiera el ordenador está funcionando SIS
correctamente al comenzar el día, sólo puede ocurrir una de dos cosas para el. TEM
AS,
inicio del siguiente día: que se dañe (con probabilidad PO-D) o que se mantengaI
ELE
operativo (con probabilidad PO-O). Estos son los únicos eventos que pueden CTR
ocurrir. Si se define una variable aleatoria Xn como el estado del ordenador ONI al
CA
inicio del día se podrían asignar los valores 0 y 1 a los posibles estados ’dañado’
E
u ’operativo’, respectiva-mente. Otra pregunta de interés es, ¿con qué
IND
probabilidad el estado del computador en el día es ’operativo’?; ésta es una UST
probabilidad de ocupación de estado. Esa probabilidad se denota como P(Xn=1) RIA
o tambiénπn(1). De igual forma, la probabilidad, por ejemplo, de que elL
computador esté dañado en la primera oportunidad de ser observado será
π0(0).Utilizando la nomenclatura descrita anteriormente, se puede escribir:

Estos datos se podrían resumir en una matriz que se llama matriz de


probabilidades de transición o matriz de transición de estados.

En general, consideremos una cadena de Markov conkestados posibles s1,s2,


...,sk y probabilidades estacionarias. Para i=1,2,3, ..., k y j=1,2,3, ..., k,
denotaremos por Pij a la probabilidad condicionada de que el proceso esté en el
estados en un determinado momento si estuvo en el estado si en el momento
inmediatamente anterior. Entonces la matriz de transición de la cadena de
Markov se define como una matriz cuadrada k×k de la siguiente forma
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENI
S
ERI
A.
EN
E
SIS
TEM .
AS,I
ELE
CTR
ONI
CA
E
El elemento en la fila i, columna j, Pij=P(Xn=sj/Xn−1=si), representa IND la
probabilidad de transición de un paso. El usar esta representación en forma UST
RIA
matricial nos facilita el cómputo de las probabilidades de transición en más de
L
un paso. En general P×P=P^2 corresponde a las probabilidades de transición en
dos pasos, y P^3, P^4, ...,P^m, ... corresponden a las probabilidades de transición
en 3, 4, ..., m pasos respectivamente. De hecho, la matriz P^m se conoce como la
matriz de transición en pasos de la cadena de Markov.

 Distribución Inicial de la Cadena.

En ocasiones no se conoce a ciencia cierta la ubicación del proceso en el instante


inicial. Esta ocupación podría presentarse en forma probabilística como un
vector de ocupación inicial π0. Este vector tiene como componentes la
probabilidad de ocupar cada uno de los estados en el instante inicial, es decir, los
términos π0(j), para cada estado j=1,2, ..., k.

Con:

PROCESO DE POISSON.
FACF
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENIS
ERI
A.
En estadística y simulación, un proceso de Poisson, también conocido como leyENE
SIS
de los sucesos raros, es un proceso estocástico de tiempo continuo que consiste
TEM
en "contar" eventos raros (de ahí el nombre "sucesos raros") que ocurren a lo.
AS,
largo del tiempo. El tiempo entre cada par de eventos consecutivos tieneI
ELE
una distribución exponencial con parámetro λ; cada uno de tales tiempos CTR es
independiente del resto. ONI
CA
Los procesos de Poison son de gran utilidad en la modelización de una granE
cantidad de fenómenos aleatorios debido a que cuentan con eventos raros a INDlo
UST
largo del tiempo. RIA
L
Algunos ejemplos son:

 Las visitas diarias a una determinada página web.

 Los reclamos mensuales de clientes presentados a una empresa de


telecomunicaciones.

 El número de clientes que llega a un banco en un tiempo determinado.

Características del proceso de Poisson

El proceso de Poisson es:

 Estacionario

 Independiente de todos los instantes de tiempo

 Simple

Las dos últimas características son fundamentales:

La primera característica no es indispensable, podría existir un proceso de


Poisson que tenga intensidad dependiente en el tiempo.

El proceso de Poisson puede representarse:

 Por número: el número de eventos dentro de un intervalo de longitud


finita fija tiene una distribución de Poisson.

 Por intervalo: la distancia en tiempo Xi entre eventos consecutivos es


exponencialmente distribuida.

Existen varias formas de definir un proceso de Poisson:

Proceso de conteo.
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
El proceso estocástico {Ct : t ≥ 0}se llama proceso de conteo si C t es el número
EN
E
de sucesos (eventos o saltos) que ocurrieron en el intervalo de tiempo [0,t] SIS
TEM.
Proceso de Poisson. AS,
I
ELE
Un proceso de Poisson con intensidad λ es un proceso de conteo {Pt : t ≥ CTR 0}
ONI
con: CA
E
1. P0 =0 IND
UST
2. Incrementos independientes RIA
L
3. Incrementos estacionarios

4. Para todo t > 0, Pt tiene distribución de Poi(λt)

Algunas propiedades importantes.

Para cualquier evento w, su trayectoria es constante a trozos y aumenta en saltos


de tamaño uno.

Proceso de Poisson compuesto

Un proceso de Poisson compuesto es un proceso estocástico que combina un


proceso de Poisson con otra variable aleatoria independiente, de tal manera que
para cada salto discontinuo del proceso de Poisson la otra variable asume un
valor real. El modelo es muy usado para modelar, por ejemplo, una cartera de
seguros, en este modelizado las reclamaciones por daños a la aseguradora sigue
un proceso de Poisson ordinario, pero la cuantía de la reclamación es una
variable aleatoria adicional, de tal manera que el monto de las reclamaciones es
un proceso de Poisson compuesto:

Se llama proceso de Poisson compuesto con intensidad λ y su función de


distribución de tamaño de salto F. comúnmente las variables aleatorias X k son
conocidas como tamaños de salto.

PROCESO GAUSS MARKOV


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
Se dice que un proceso estocástico es un proceso de Markov si la evolución del EN
E
proceso depende sólo del pasado inmediato, es decir, dados t1 < t2 < ... < tn SIS
TEM.
P(Xtn ∈ B|Xt1,Xt2,...,Xtn−1) = P(Xtn ∈ B|Xtn−1) AS,
I
ELE
La condición puede igualmente expresarse en términos de las funciones CTR de
ONI
densidad o de probabilidad, según sea la naturaleza de las variables del proceso,CA
E
ftn|t1,...,tn−1(xtn|xt1,...,xtn−1) = ftn|tn−1(xtn| IND
xtn−1). UST
RIA
En el caso discreto las probabilidades P(Xtn = xn|Xtn−1 = xn−1) se denominanL
probabilidades de transición, cuyo conocimiento caracteriza completamente el
proceso de Markov.

Ambas propiedades están relacionadas. En efecto, los incrementos


independientes implican la propiedad de Markov, pero el recíproco no es cierto.
En el caso discreto la implicación demuestra fácilmente,

P(Xtn = xn|Xt1 = x1,...,Xtn−1 = xn−1)

= P(Xtn − Xtn−1 = xn − xn−1|Xt1 = x1,...,Xtn−1 = xn−1)

= P(Xtn − Xtn−1 = xn − xn−1|Xtn−1 = xn−1)

= P(Xtn = xn|Xtn−1 = xn−1),

donde el paso de (4.4) a (4.5) es consecuencia de la independencia de los


incrementos.

CADENAS DE MARKOV

Un proceso estocástico Xt es un proceso de Markov si verifica la propiedad de


Markov, (4.3), enunciada en la página 77. Recordemos que dicha propiedad
supone que la evolución del proceso depende tan sólo de su pasado inmediato.
En términos de probabilidad, si las variables del proceso son discretas, la
propiedad se expresa mediante,

P(Xtn+1 = xtn+1|Xtn = xtn,...,Xt1 = xt1) = P(Xtn+1 = xtn+1|Xtn = xtn).

Si las variables del proceso son continuas su expresión es

P(Xtn+1 ≤ xtn+1|Xtn ≤ xtn,...,Xt1 ≤ xt1) = P(Xtn+1 ≤ xtn+1|Xtn ≤ xtn),


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
o sus equivalentes en términos de las funciones de probabilidad o de EN
E
distribución, respectivamente. SIS
TEM
.
Algunos de los procesos estudiados hasta ahora son procesos de Markov. En AS,
I
ELE
efecto, los procesos suma IID y el proceso de Poisson tenían incrementos
CTR
independientes y como vimos en (4.6), ello implica que poseen la propiedad de
ONI
Markov. CA
E
Para el proceso RTS, recordemos que el valor de Xtn+1 = ±a y que su valor IND
depende exclusivamente del signo que tenga Xtn y de la paridad de Ntn+1−tn UST
,
RIA
número de cambios (sucesos) del proceso de Poisson subyacente, y es por tantoL
un proceso de Markov.Hay, obviamente, procesos que no cumplen la condición.

Ejemplo (Un proceso que no es de Markov) Consideremos el siguiente


proceso,

donde las Xk son independientes, ambas Bernoulli con p = 1/2. Un proceso de


estas características recibe el nombre de proceso de medias móviles de orden 2,
puesto que se define a partir de la media aritmética de las dos últimas
realizaciones de otro proceso. La función de probabilidad de Y n se calcula
fácilmente. Por ejemplo,

Para el resto,

Obtengamos ahora la probabilidad condicionada para dos valores consecutivos


de Yn,
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
EN
E
SIS
TEM
.
AS,
I
ELE
CTR
ONI
CA
E
IND
UST
Si tenemos información de un instante anterior, por ejemplo, Y n−2 = 1, podemos
calcular, RIA
L

pero el suceso {Yn = 1,Yn−1 = 1/2} = {Xn = 1,Xn−1 = 1,Xn−2 = 0} y el suceso {Yn−2 =
1} = {Xn−2 = 1,Xn−2 = 1}, con lo que ambos sucesos son incompatibles, por tanto,
P(Yn = 1|Yn−1 = 1/2,Yn−2 = 1) = 0 6= P(Yn = 1|Yn−1 = 1/2) y el proceso no puede ser
Markov.

Cadenas de Markov discretas

Si el proceso de markov es DTDV, recibe el nombre de cadena de Markov


discreta. Este tipo de procesos son de un gran interés práctico y vamos a
ocuparnos de ellos con cierto detalle.

Es costumbre designar mediante X0 el inicio de la cadena. El soporte de las Xn, S


= {s0,s1,s2,...}, se denomina espacio de estados de la cadena, que puede
eventualmente ser finito. Por razones de simplicidad nos referiremos a los
valores de si solamente mediante su subíndice i.

Probabilidades iniciales y de transición.

Las probabilidades iniciales son:

Las probabilidades de transición de un paso, pij, designan pij = P(Xn+1 = j|Xn = i) y


supondremos que no varían con n. Diremos que son probabilidades de transición
homogéneas.
FACF
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENIS
ERI
A.
Las distribuciones finito-dimensionales se obtienen fácilmente a partir de las pEN ij
E
si hacemos uso de la propiedad de Markov y del teorema de factorización. En SIS
efecto; TEM.
AS,I
ELE
P(Xn = in,Xn−1 = in−1,...,X0 = i0)
CTR
ONI
= P(Xn = in|Xn−1 = in−1,...,X0 = i0)···P(X1 = i1|X0 = i0)P(X0 = i0) CA
E
= P(Xn = in|Xn−1 = in−1)···P(X1 = i1|X0 = i0)P(X0 = i0) IND
UST
= pin−1,inpin−2,in−1 ···pi0,i1πi0. RIA
L

La cadena de Markov discreta, Xn, queda completamente especificada con las


probabilidades iniciales y la llamada matriz de transición de un paso, que recoge
las probabilidades del mismo nombre,

De acuerdo con el significado de pij las filas de la matriz suman la unidad,

∑ p ij = 1, ∀i.
j

Probabilidades de transición de n pasos

Las probabilidades de transición de n pasos

pij(n) = P(Xn+k = j|Xk = i), ∀n ≥ 0

proporcionan las probabilidades de pasar del estado i al estado j en n pasos o


transiciones. Como en la anterior expresión las probabilidades de transición no
dependen de k,

pij(n) = P(Xn+k = j|Xk = i) = P(Xn = j|X0 = i), ∀n ≥ 0, ∀k ≥ 0.

Vamos a obtenerlas recursivamente. Para obtener pij(2), consideremos la


partición del espacio muestral constituida por los sucesos {X1 = k},k ∈ S,
tendremos que Ω = ∪k{X1 = k}. Podemos escribir,
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
EN
E
SIS
TEM
.
AS,
I
ELE
CTR
ONI
CA
E
IND
UST
RIA
L

pero la expresión no es más que el producto de la fila i por la columna j de la


matriz P, que siendo válida para ∀i,j, permite escribir

P(2) = PP = P2.

Aplicando recursivamente el razonamiento anterior llegaremos a

P(n) = P(n − 1)P = Pn.

Esta ecuación puede también escribirse

P(n + m) = PnPm,

que término a término se expresa de la forma

Expresiones conocidas como las ecuaciones de Chapman-Kolmogorov.

Probabilidades de los estados después de n pasos.- Las probabilidades πi


constituyen la distribución inicial sobre el espacio de estados, S. La distribución
después de n pasos será
FACF
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENI
S
ERI
A.
resultado que podemos expresar en forma matricial, ENE
SIS
π(n) = π(n−1)P. TEM.
AS,
I
Aplicando recursivamente (4.48) podemos relacionar π(n) con π = π(0), ELE
CTR
ONI
π(n) = πPn.
CA
E
Ejemplo (Paquetes de voz) Un modelo de Markov para la transmisión de IND
paquetes de voz supone que si el n-encimo paquete contiene silencio, UST la
RIA
probabilidad de que siga un silencio es 1 − α y α si lo que sigue es voz. En elL
caso contrario dichas probabilidades son 1 − β, para el paso de voz a voz y β par
el paso de voz a silencio. Si representamos los dos estados con voz = 1 y silencio
= 0 el esquema de las transiciones posibles será el que muestra la Figura.

1 0 1 1
−α −β

Figura1 : Probabilidades de transición en el modelo de transmisión de paquetes de voz

Si Xn es la variable que indica la actividad en un paquete de voz en el tiempo n,


se trata de una cadena de Markov discreta con espacio de estados S = {0,1} y
matriz de transición

P .

la matriz de transición de orden n vale

P ,

cuyo límite es

Por ejemplo, si α = 1/10 y β = 2/10, en el límite


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
EN
E
. SIS
TEM.
El proceso goza además de una interesante propiedad. Si la distribución inicial
AS,
I
es ELE
CTR
ONI
π0 = p0, π1 = 1 − p0,
CA
E
aplicando y pasando al límite podemos obtener la distribución límite del espacio
IND
de estados. UST
RIA
limπ(n) L
=πlimP n

Equilibrio de una cadena de Markov.- La propiedad que acabamos de ver en


el ejemplo significa que la cadena de Markov tiende a una situación estacionaria
a medida que n aumenta.

Observemos que si, en general,

la consecuencia es que

La distribución sobre el espacio de estados tiende a una distribución fija


independiente de la distribución inicial π. Se dice que la cadena ha alcanzado el
equilibrio o una situación estable. La distribución alcanzada, π(e) recibe el
nombre de distribución de equilibrio o estacionaria. La distribución de equilibrio
puede obtenerse, si existe, sin necesidad de pasar al límite. Para ello basta
recurrir y tener en cuenta que π(n) y π(n−1) tienen por límite común la distribución
estacionaria. Basta a con resolver el sistema de ecuaciones,

π(e) = π(e)P,

con la condición adicional

Si nuestro sistema se inicia con la distribución de equilibrio

π(n) = π(e)Pn = π(e).


FACF
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING.
ENIS
ERI
A.
ENE
SIS
Ejemplo (Continuación del ejemplo anterior) La distribución de equilibrio TEM .
podríamos haberla obtenido utilizando (4.50). Si , el sistemaAS,
aI
ELE
resolver es CTR
ONI
CA
E
IND
UST
que da lugar a una única ecuación, que junto con RIA
conduce a L

No todas las cadenas de Markov gozan de esta propiedad de equilibrio. El


ejemplo siguiente lo demuestra.

Ejemplo (Proceso Binomial) El proceso Binomial que describamos en la


página 82 es una cadena de Markov puesto que se trata de un proceso suma de
Bernoullis independientes, B ∼ (1,p). Dada su definición, en una transición el
proceso permanece en el mismo estado o lo incrementa en una unidad, según
que hayamos obtenido un fracaso o un Éxito en la prueba de Bernoulli
correspondiente. La matriz de transición será

Se comprueba que ∀j, πj(n) → 0 cuando n → ∞.

Cadenas de Markov continuas en el tiempo

Si el proceso de markov es CTDV, recibe el nombre de cadena de Markov


continua en el tiempo. Como en el caso de las cadenas discretas, también ahora
la matriz de transición especifica completamente la cadena.

La distribución finito-dimensional para n + 1 tiempos arbitrarios t 1 < t2 < ... < tn <
tn+1, viene dada por

P(Xtn+1 = xtn+1,Xtn = xtn,...,Xt1 = xt1) =

=P(Xtn+1 = xtn+1|Xtn = xtn)···P(Xt2 = xt2|Xt1 = xt1)P(Xt1 = xt1), (4.51)


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
que exige conocer las probabilidades de transición entre dos tiempos EN
E
cualesquiera t y t + s, SIS
TEM.
P(Xt+s = j|Xt = i), ∀s ≥ 0. AS,
I
ELE
Supondremos que dichas probabilidades son homogéneas y dependen tan sólo CTR de
ONI
la diferencia de tiempos, CA
E
P(Xt+s = j|Xt = i) = P(Xs = j|X0 = i) = pij(s), ∀s > 0,∀t. IND
UST
La matriz de transición viene ahora referida a un intervalo de tiempo t, de forma RIA
que P(t) = [pij(t)] denota la matriz de probabilidades de transición en un intervaloL
de tiempo t.

Ejemplo (Probabilidades de transición para el proceso de Poisson) Para el


proceso de Poisson de parámetro λ,

La matriz de transición para un intervalo de duración t será

P .

Cuando t → 0, podemos sustituir e−λt por los primeros términos de su desarrollo


en serie de potencias, despreciando las potencias mayores o igual a 2, con lo que
la matriz de transición adopta la forma,

P .

Tiempo de permanencia en un estado.- El proceso RTS modelaba el cambio


de signo de una señal aleatoria y es una cadena de Markov continua en el
tiempo que sólo presenta dos estado, S = {−a,+a}. El cambio se signo estado se
produce con cada llegada de un suceso en el proceso de Poisson subyacente.
Como los tiempos de llegada son exponenciales, se deduce que el tiempo T i que
la cadena permanece en el estado i es Exp(λ).

Esta propiedad, inmediata, en el caso del proceso RTS, es una propiedad general
de este tipo de cadenas de Markov. En efecto, si desde que el proceso alcanzó el
estado i ha transcurrido un tiempo s, la probabilidad de que su estancia en ´el se
prolongue por un tiempo r vale
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
P(Ti > r + s|Ti > s) = P(Ti > r + s|Xt = i), 0 ≤ t ≤ s, EN
E
SIS
pero por la propiedad de Markov, lo único relevante es donde estaba la cadena TEM
.
en el tiempo s, lo que equivale a reestablecer el origen de tiempos en s y por AS,
I
ELE
tanto,
CTR
ONI
P(Ti > r + s|Ti > s) = P(Ti > r). CA
E
El tiempo de ocupación carece pues de memoria, pero esta es una propiedad IND
exclusiva de la distribución exponencial y la conclusión es que Ti ∼ Exp(λi) y UST
RIA
P(Ti > r) = e−λir. L

El tiempo medio de permanencia del proceso en el estado i ser´a E(Ti) = 1/λi.

Obsérvese que el parámetro depende del estado i, pudiendo ocurrir, como sucede
en el proceso RTS, que λi = λ,∀i. Una vez el proceso ha entrado en i se inicia el
tiempo Ti de su permanencia en ´el, pero independientemente de lo que esta
dure, la transición a un nuevo estado j se lleva con probabilidad ˜p ij, que
podemos asociar a una cadena de Markov discreta que decimos está empotrada
en la original.

La distribución binomial o de Bernoulli

En muchas oportunidades un experimento consiste en ensayos repetidos y estos


se pueden clasificar en éxito o no éxito dependiendo de lo que se esté evaluando
en cada uno de los ensayos. Un ejemplo de esto es cuando se verifican el estado
de las frutas y se las separa en frutas que están disponibles para la venta o las
que no dependiendo si están defectuosas o no. A estos procesos de los
llama procesos de Bernoulli.

Un experimento se puede modelar con una distribución binomial si cumple que:

 Sólo hay dos posibles sucesos resultantes del experimento: A, ~A (éxito y


fracaso).

 Las probabilidades de cada suceso A, ~A son las mismas en cualquier


realización del experimento (p y q = 1-p respectivamente). Es decir, si se
tira una moneda varias veces, no cambia la probabilidad de obtener cara.

 Toda realización del experimento es independiente del resto.

Una variable aleatoria binomial devolverá el número de éxitos al realizar un


número determinado de experimentos.

Entones hablamos de variable de un proceso de Bernoulli si:


FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
La variable aleatoria es discreta, de manera que pueda tomar un número finito de EN
E
valores. SIS
TEM.
AS,
La probabilidad de una falla se etiqueta en el eje x como 0 y el éxito se etiquetaI
ELE
como 1. En la siguiente distribución de Bernoulli, la probabilidad de éxito (1) es
CTR
0.4, y la probabilidad de falla (0) es 0.6: ONI
CA
E
IND
UST
RIA
L

Prueba de Bernoulli

Un ensayo de Bernoulli es uno de los experimentos más simples que puede


realizar en probabilidad y estadísticas. Es un experimento donde puedes tener
uno de dos resultados posibles. Por ejemplo, "Sí" y "No" o "Cabezas" y "Tails".
Algunos ejemplos más:

 Lanzamiento de monedas: registre la cantidad de monedas que salen y la


cantidad de colas hacia arriba.

 Nacimientos: cuántos niños nacen y cuántas niñas nacen cada día.

 Rolling Dice: la probabilidad de que una tirada de dos dados resulte en


un doble seis.

Relación con la distribución binomial

La distribución de Bernoulli está estrechamente relacionada con la distribución


binomial. Mientras cada prueba individual de Bernoulli sea independiente,
entonces el número de éxitos en una serie de senderos de Bernoulli tiene una
Distribución Binomial. La distribución de Bernoulli también se puede definir
como la distribución binomial con n = 1.
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
Ejemplos en Matlab. EN
E
SIS
Proceso de Bernoulli TEM.
% creamos la funci´on bernoulli.m function x = bernoulli(p,T) AS,
I
ELE
u=rand(T,1);
CTR
% generamos una uniforme (0,1) ONI
x= 1*(u<=p) + (-1)*(u>p); CA
% mediante la condici´on booleana % obtenemos +1 con probabilidad p y % -1E
con probabilidad 1-p IND
UST
stairs(cumsum(x)); RIA
% cumsum calcula la suma acumulada % representamos el proceso con el L
% comando stairs
La función bernouilli.m genera un proceso de Bernoulli X(t), t = 1,...,T con
probabilidad p, a partir de una uniforme discreta, X(t) ∼ Ud(−1,1). En el
comando window:
>> p=0.5;
>> T=100;
>> x=bernoulli(p,T)

Proceso de Poisson
% Creamos la funci´on poisson.m que genera un proceso de Poisson % donde
lambda es la tasa de llegadas
function X = poisson(lambda,Tmax)
X(1)=exprnd(1/lambda);
% generamos el tiempo del 1er suceso
i=1; while X(i) < Tmax;
% en el bucle while acumulamos los sucesos
% que se van produciendo a lo largo del
% intervalo [0,Tmax)
X(i+1)=X(i)+exprnd(1/lambda);
i=i+1;
end X(i)=Tmax;
% Representamos gr´aficamente el proceso y la tasa de llegadas
subplot(1,2,1)
stairs(X(1:i), 0:(i-1)); title(’Proceso de Poisson’)
subplot(1,2,2)
plot(X(1:(i-1)),zeros(i-1),’.’); title(’Llegadas exponenciales’)

Proceso Gaussiano Autorregressivo


Comenzamos con un par´ametro α = 0,8. Inicializamos el primer valor x1 = E1
>> E = randn(150,1);
>> x = zeros(150,1);
>> x(1)= E(1);
FAC
F
UNIVERSIDAD TÉCNICA DE AMBATO ULT
FACULTAD DE INGENIERÍA EN SISTEMAS, ELECTRÓNICA E INDUSTRIAL AD
.
CARRERA DE INGENIERÍA EN ELECTRÓNICA Y COMUNICACIONES. DE
PERÍODO ACADÉMICO: MARZO-AGOSTO 2019 I
ING
.
ENI
S
ERI
A
.
>> alpha = 0.8; EN
E
>> for i = 2:150 x(i) = alpha*x(I 1) + E(i); end SIS
Otra forma de generar el proceso AR(1),seria generar una serie larga y. TEM
AS,
quedándonos con las últimas 150 observaciones, para evitar comenzar con unI
ELE
valor concreto x1 = E1 CTR
>> e = randn(300,1); ONI
>> x = zeros(300,1): CA
E
>> x(1)= e(1);
IND
>> alpha = 0.8; UST
>> for i = 2:300 x(i) = alpha*x(i-1) + e(i); end RIA
>> x = x(151:300) L
1.6 Resultados y Discusión

El empleo del Software Matlab es de gran utilidad ya que permite desarrollar entornos
gráficos mediante los algoritmos de programación para generar las diferentes
operaciones estudiadas dentro del procesamiento digital de señales y analizarlas de
una mejor manera. Así también cabe mencionar que para el desarrollo y ejecución del
proyecto se hizo necesario realizar investigaciones más profundas acerca de los
diferentes conceptos y definiciones para generar algoritmos óptimos con resultados
eficientes.

1.7 Conclusiones

 Los procesos estocásticos son en general una agrupación de variables que


tienen un valor incierto, y que se puede tener una aproximación de los valores
que pueden tomar éstas. Los podemos clasificar según qué tan seguido
cambian, o también según los valores que puedan tomar las variables del
proceso.

 Los procesos estocásticos utilizados para magnitudes aleatorias, ejemplificados


hoy en día con el variable tiempo, un evento a producirse convella una
probabilidad de certeza o lo contrario, estos procesos permiten que haya cierta
aleatoriedad más dinámica.

 La utilización de la tecnología en dispositivos hace que los seres humanos


permitan una solución eficiente al momento de monitorear, ya sea en
seguridad, medicina, presión arterial alta y así conllevar la tecnología en su
buen uso.
 La finalidad de los procesos estocásticos conjuntamente con las señales de
control, sistemas lineales es la resolución de problemas aplicados a la vida
diaria mediante el uso de las mismas sus ecuaciones.

1.8 Bibliografía

[1] PROAKIS John G., MANOLAKIS Dimitris G; Digital Signal Processing:


Principles, Algorithms, and Applications. Prentice Hall , 1996 New . Capítulo 4.

[2] OPPENHEIM Alan V. And SCHAFER, Ronald W. Digital Signal


Processing.Englewood Cliffs, New Jersey: Prentice Hall, 1975. p 156-157.
[3] Proakis J. G., Manolakis D. G.; “Tratamiento Digital de Señales”, Ed. Pearson
Educación, Madrid 2007.

[4] Miguev. (2014, Agosto 20). “Ecuaciones Diferenciales Lineales con Coeficientes
Constantes” [En línea]. Disponible en:
http://www.miguev.net/misc/ecuaciones.diferenciales.lineales.con.coeficientes.constan
tes.pdf

[5] Monson H. Hayes, Digital Signal Processing,(1999), “DTFT”, Schaum's Outline


Series, McGraw-Hil.

[6] Samir S.Soliman,”Señales y sistemas continuos y discretos”, 2nd.ed, Prentice Hall,


San, Diego California 2003.

1.9 Anexos

También podría gustarte