0% encontró este documento útil (0 votos)
186 vistas6 páginas

Paso 3 - Aprendizaje de Máquinas

El documento trata sobre el paso 3 de tratamiento de imágenes, el aprendizaje de máquinas. Explica conceptos clave como la extracción de características, clasificadores de umbral o perceptrones, clasificadores supervisados y no supervisados, máquinas de soporte vectorial y los diferentes tipos de kernels que tienen las SVM.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
186 vistas6 páginas

Paso 3 - Aprendizaje de Máquinas

El documento trata sobre el paso 3 de tratamiento de imágenes, el aprendizaje de máquinas. Explica conceptos clave como la extracción de características, clasificadores de umbral o perceptrones, clasificadores supervisados y no supervisados, máquinas de soporte vectorial y los diferentes tipos de kernels que tienen las SVM.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 6

TRATAMIENTO DE IMAGENES

Paso 3 – Aprendizaje de máquinas

Director del Curso


SANDRA MILENA GARCIA

Estudiante
ROGER BRYAN BETANCOURTH A
Grupo: 208054_13

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD – CEAD PASTO


ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
PASTO
NOVIEMBRE DE 2020

1
Actividades a desarrollar

Paso 3 – Aprendizaje de máquinas:

1. Definición de conceptos: estudiando el libro guía, el estudiante investiga de manera


individual y da respuesta a las siguientes preguntas teóricas:
a. ¿Qué es extracción de características en una imagen?

Una vez segmentada la imagen, puede ser necesario extraer características de las distintas
regiones de interés (ROI) seleccionadas para determinar con mayor precisión el nivel de
sospecha. El espacio de características puede ser muy grande y complejo, debido a la gran
variabilidad que puede darse por ejemplo en nuestro caso la imagen enferma a una imagen
sana del cerebro. Sin embargo, no todas las características obtenidas son igualmente
significativas. Usar un número excesivo de características puede incrementar la
complejidad del clasificador y degradar el rendimiento del mismo. La extracción y
selección de características es una etapa clave para la correcta detección de tumores en el
cerebro, Dependiendo del tipo de características que se extraigan de la imagen, el espacio
de características puede dividirse en tres categorías: características de intensidad,
características geométricas y características de textura. a) Las características de intensidad
es la aproximación más simple. Básicamente consiste en utilizar los valores de niveles de
gris de cada ROI para caracterizar la misma. Otras aproximaciones utilizan características
que representen la diferencia entre el nivel de gris medio de la ROI y el nivel de gris medio
de los píxeles que circundan la ROI. b) Las características geométricas o morfológicas se
basan en la forma de la ROI, calculándose a partir del área y borde de la misma (área,
perímetro, convexidad, momentos de primer, segundo y tercer orden, oblicuidad, etc.). Las
características de textura pueden obtenerse a partir de técnicas muy diversas, entre las que
cabe destacar las matrices de concurrencia, también llamadas Matrices de Dependencia de
Niveles de Gris o Space Gray Level Dependence Matrices (SGLDM), los vectores de
estadísticas de diferencia de nivel de gris (GLDS) o las características de Run Length
Statistics (RLS).

2
En este sentido, las técnicas más utilizadas son la selección de características por etapas
mediante el Análisis Lineal Discriminante y los Algoritmos Genéticos.
b. ¿Qué es un clasificador de umbral o perceptrón?

Al separar los objetos de una imagen que nos interesen del resto, con la ayuda de los
métodos de valor umbral en las situaciones más sencillas se puede decidir qué píxeles
conforman los objetos que buscamos y qué píxeles son sólo el entorno de estos objetos. El
nivel de gris de un píxel equivale a su nivel de luminosidad; el resto de la información
sobre el color no se tiene en cuenta. Dado que esta comparación de valores se realiza
individualmente para cada píxel, al método del valor umbral se le considera un método de
segmentación orientado a píxeles. En el paso de la segmentación se distribuyen los pixeles
que conforman la imagen en segmentos, utilizando el método del valor umbral. A cada
segmento se le atribuyen ciertas características que dependiendo de cada caso pueden ser
por ejemplo la excentricidad de la forma o el valor medio del color. Normalmente los
métodos del valor umbral "binarizan" la imagen de partida, es decir se construyen dos
segmentos: el fondo de la imagen y los objetos buscados. La asignación de un pixel a uno
de los dos segmentos (0 y 1) se consigue comparando su nivel de gris g con un cierto valor
umbral preestablecido t (en inglés threshold). Los métodos del valor umbral son métodos de
segmentación completos, es decir cada pixel pertenece obligatoriamente a un segmento y
sólo uno. Otros métodos de segmentación permiten que los segmentos se solapen. Si en la
imagen existen varios objetos con una luminosidad similar, con un mismo tono de gris,
todos los pixeles que los componen pertenecerán al mismo segmento. Con el método local
del valor umbral se divide la imagen original en regiones y se establece un valor umbral
para cada una de ellas. método del valor umbral dinámico, en el que se define para cada
pixel una zona vecina N a la que se asigna un valor umbral adecuado t(N).

3
c. ¿Qué es un clasificador supervisado y no supervisado en imágenes?

Clasificación no supervisada son aquellas en las que el algoritmo clasificador no necesita


de más información que la escena a clasificar y algunos parámetros que limiten el número
de clases. Estos mecanismos de clasificación basan su efecto en la búsqueda de clases con
suficiente separabilidad espectral como para conseguir diferenciar unos elementos de otros.
Clasificación supervisada Se parte de un conjunto de clases conocido a priori. Estas clases
deben caracterizarse en función del conjunto de variables mediante la medición de las
mismas en individuos cuya pertenencia a una de las clases no presente dudas (áreas de
entrenamiento).
d. ¿Qué es máquina de soporte vectorial?

Las Máquinas de Soporte Vectorial (MSV) son una moderna y efectiva técnica de IA, que
ha tenido un formidable desarrollo en los últimos años, a continuación, se presentarán los
fundamentos teóricos que definen estos sistemas de aprendizaje. Uno de los conceptos
fundamentales en esta técnica es el algoritmo Vector de Soporte (VS) es una generalización
no-lineal del algoritmo Semblanza Generalizada, desarrollado en la Rusia en los años
sesenta. El desarrollo de los VS trae consigo el surgimiento de las Máquinas de Soporte
Vectorial. Estas son sistemas de aprendizaje que usan un espacio de hipótesis de funciones
lineales en un espacio de rasgos de mayor dimensión, entrenadas por un algoritmo
proveniente de la teoría de optimización. La Minimización del Riesgo Empírico y la
[[Dimensión de Vapnik-Chervonenkis]] son fundamentales en las Máquinas de Soporte
Vectorial. Dicho de manera más sencilla el algoritmo se enfoca en el problema general de
aprender a discriminar entre miembro positivos y negativos de una clase de vectores de n-
dimensional dada.
e. ¿Qué y cuáles tipos de kernels tiene una SVM?

Las Funciones Kernel. Son funciones matemáticas que se emplean en las Máquinas de
Soporte Vectorial. Estas funciones son las que le permiten convertir lo que sería un
problema de clasificación no lineal en el espacio dimensional original, a un sencillo
problema de clasificación lineal en un espacio dimensional mayor.
Para que las funciones kernel puedan ser consideradas candidatas a kernels, deben cumplir

4
tres condiciones iniciales fundamentales; deben ser:

Continuas
Simétricas
Positivas.
Con el objetivo de identificar los kernels óptimos a incorporar se analizan numerosas
opciones disponibles, entre las posibilidades destacan los siguientes kernels: Gaussiano,
Fisher, String y Hubert de anchura modificada. Algunos de los anteriores kernels llegaron
hasta la fase de implementación y prueba. No obstante se trabaja sobre una familia de
kernels muy vinculada a la teoría de algoritmos ensemble infinitos.
Tipos de Kernel
Stump kernel
Es un kernel que encarna un número infinito de decisiones stump. La decisión stump es uno
de los modelos de aprendizaje base más simples que se aplican, se trata de una decisión
simple, pero potente. El conjunto de decisiones stump es un simplísimo modelo de
aprendizaje.
Algoritmos con esta base pueden obtener usualmente un rendimiento razonable. Además
suelen ser eficientes y fáciles de implementar; lo que lo convierte en un algoritmo de
aprendizaje base muy popular para aprendizaje ensemble.
Perceptron kernel
Podemos extender la solución stump para obtener el kernel Perceptron. El Perceptron es un
muy importante modelo de aprendizaje relacionado con el aprendizaje en redes neuronales.
Se ha demostrado que el trabajo con el kernel Perceptron equivale a construir una red
neuronal con un número infinito de neuronas. Al igual que el kernel stump, el Perceptron
trabaja con una dimensión infinita.
Laplacian kernel
Aplicando sobre el kernel stump, un grupo de transformaciones matemáticas, obtenemos
una expresión del kernel stump como árbol infinito, dada la combinación de varias
funciones stump, utilizando la expansión de la serie de Taylor, obtenemos un equivalente
en la teoría ensemble infinita, del tradicional kernel de base radial, Laplace, expresado
mediante la fórmula:

5
k(x,x')=exp(-Ɣ||x-x'||1),Ɣ>0.

Exponencial kernel
Igualmente aplicando un grupo de transformaciones similares, a partir del kernel Perceptron
obtenemos un equivalente del popular kernel exponencial, expresado como árbol de
decisiones, Perceptron infinitas, expresado mediante la fórmula:
k(x,x')=exp(-Ɣ||x-x'||2),Ɣ>0.

También podría gustarte