0% encontró este documento útil (0 votos)
31 vistas151 páginas

Roldan Joaquin Y Blas Ignacio - Iniciacion Al Analisis de Datos Y Big Data Aplicado Al Futbol

Cargado por

angelitto lion
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
31 vistas151 páginas

Roldan Joaquin Y Blas Ignacio - Iniciacion Al Analisis de Datos Y Big Data Aplicado Al Futbol

Cargado por

angelitto lion
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 151

Iniciación al Análisis de Datos y Big Data aplicado al

Fútbol

Joaquín Roldán & Ignacio Blas


Copyright © 2017 Joaquín Roldán & Ignacio Blas

All rights reserved.

ISBN: 1548784648
ISBN-13: 978-1548784645
A mi padre y a mis dos hijos, uno árbitro, el otro jugador. Los tres entusiastas de este deporte llamado fútbol.
A Isabel por su apoyo constante.
Joaquín Roldán.

A Mª José, Hugo y Amaia.


Ignacio Blas.
INDICE
RECONOCIMIENTOS

A Patricia Bennassar y Deporte Balear por la cesión de la fotografía de portada.


INTRODUCCIÓN

Los deportes en general y el fútbol en particular han sufrido una gran evolución en las tres
últimas décadas, posiblemente por el valor económico, cada vez mayor, que gira alrededor
del mundo del deporte. Este valor económico es consecuencia de la globalización de las
audiencias. Hoy día, cualquier persona, puede ver de un modo o de otro, cualquier evento
deportivo que se celebre en cualquier rincón de nuestro planeta.

Las audiencias van en consonancia con las competiciones. No es lo mismo la Super Bowl o
la final de la Champions League que un encuentro de la Premier Inglesa, de la Primera
División Española o de la Serie A Italiana. Es más, no hay una disminución lineal entre la
categoría de las competiciones y las audiencias. Podríamos decir que el decremento es cada
vez más radical o geométrico con cada escalón que bajamos en el nivel de la competición.

Estas audiencias representan, tanto para las competiciones como para los clubes que las
integran, una fuente de ingresos inimaginable hace tres o cuatro décadas.

En muchos casos, estar fuera de las principales competiciones supone la “desaparición


deportiva” de los clubes. Equipos con una gran historia a sus espaldas, disputando
competiciones menores, se ven abocados a la ignorancia por parte de los medios que
aglutinan a estas grandes audiencias. Alcanzar una categoría superior es el primer paso
para lograr esa visibilidad global que hará que los recursos económicos fluyan hacia un
equipo.

Que un club suba o que baje los escalones desde el punto de vista estrictamente deportivo
va a depender, en gran medida, de los jugadores y cuerpo técnico del que disponga.

Y aquí comienza la trascendencia, la necesidad cada vez mayor del Big Data en el mundo
del deporte y por tanto, en el fútbol.

Big Data hace referencia a la importancia de recopilar, almacenar, tratar, analizar, modelar
e interpretar grandes volúmenes de datos de diferentes fuentes y tipologías.

Si pensamos en el número de jugadores de fútbol que existen en el mercado, sus


características, sus circunstancias, los eventos que se producen en cada partido de fútbol en
forma de pases, disparos, goles, paradas, faltas, movimientos… nos daremos cuenta de la
ingente información de la que estamos hablando. El fútbol necesita Big Data.
LA TEORÍA DE JUEGOS

El fútbol es un juego.

La Teoría de Juegos se desarrolló por el hecho tan simple de la relación de un individuo con
otro u otros.

En cualquier momento, en cualquier situación, de forma consciente o inconsciente, todos


los días nos enfrentamos de forma cotidiana a esta teoría.

Nadie duda de la importancia del juego en la infancia como medio de formar la


personalidad, de relacionarse en sociedad, de resolver problemas y situaciones. Todos los
juegos, independientemente de la edad que tengamos, son modelos de situaciones
conflictivas y cooperativas con las que nos vamos a encontrar con relativa frecuencia en el
mundo real.

Un juego es cualquier situación en la cual compiten dos o más jugadores. El Tenis y el Póker
son buenos ejemplos, pero también lo es la negociación para la compra de un jugador de
fútbol o el lanzamiento de un penalti en una situación de partido.

La consecución de los objetivos por parte de un jugador va a depender de variables como el


azar, los recursos físicos y mentales propios y de sus rivales, de las reglas, de las estrategias
a seguir en cada contingencia del juego… partiendo de la base que todos los jugadores son
racionales, inteligentes y están bien informados.

La Teoría de Juegos es un área de la matemática aplicada que utiliza modelos para estudiar
interacciones en estructuras formalizadas de incentivos y llevar a cabo procesos de
decisión.

¿Qué es un juego?

Lo primero, antes de adentrarnos en la Teoría de Juegos y aunque parezca una obviedad,


vamos a definir lo que es un juego. Un juego es una situación en la que compiten dos o más
individuos en la que éstos deben tomar decisiones y en la que el resultado final dependerá
de lo que cada uno de los jugadores decida hacer.

La Teoría de Juegos puede ser aplicada en las relaciones personales, en la decisiones


políticas o empresariales, además de evidentemente en cualquier “juego”.

El factor juego es imprescindible en toda interacción. Es por eso que no hace falta ser un
especialista en matemáticas para poder aplicar la teoría de juegos en las decisiones. En
realidad, tampoco hace falta recurrir a ecuaciones matemáticas para poder adentrarse al
campo de los pronósticos.
Estamos jugando en todo momento aunque no lo tengamos presente; de hecho siempre que
dos o más seres humanos interactúan se está “jugando a un juego”.

Los puntos a tener en cuenta para aplicar la Teoría de Juegos son dos: primero, conocer
bien las reglas del juego y segundo, pensar siempre que todos los jugadores implicados
están jugando con lo mejor que tienen.

En un juego intervienen los jugadores, las acciones, que son las decisiones o elecciones de
los jugadores, las reglas o normas de dicho juego, la información o conocimiento de los
jugadores sobre el propio juego y sus rivales, las estrategias, las recompensas, los
resultados…
Representando un juego

Las formas tradicionales de representar un juego son el Árbol de Juego y la Matriz de


Ganancias.

El Árbol de Juego, es una representación gráfica de una situación estratégica. Cada nodo
representa un punto donde el jugador toma decisiones. El jugador se especifica por un
identificativo. Las líneas que parten del nodo representan acciones posibles para el
jugador. Las recompensas se especifican al final de la rama.

Árbol Juego de Pares y Nones.

El Jugador A ha elegido Pares, el C Nones

Un dedo Puntúa A

Un dedo Dos dedos Puntúa C

Dos dedos Un dedo Puntúa C

Dos dedos Puntúa A

La Matriz de Ganancias es una representación de una situación estratégica a través de una


tabla. Las estrategias de cada jugador se representan en la parte izquierda y superior de la
tabla. Las ganancias obtenidas por cada jugador al final del juego se representan en la parte
inferior de la tabla.
El jugador

El jugador
Tipos de Juego y Estrategias

Podríamos hacer diferentes clasificaciones de tipos de juegos dentro de la Teoría de Juegos:

Estáticos o dinámicos.
- Los juegos estáticos son aquellos que se desarrollan en un periodo de tiempo.
- Los dinámicos son aquellos que se desarrollan en múltiples periodos de tiempo.
Juegos de dos jugadores o n jugadores y pueden ser cooperativos o no cooperativos.
- Juegos Cooperativos son aquellos en los que los jugadores pueden elegir estrategias de
manera conjunta.
- Juegos No Cooperativos son aquellos en los que cada jugador elige su estrategia más
óptima de forma independiente.
Juegos simétricos y asimétricos.
- Un juego simétrico es aquél en que las recompensas por jugar una estrategia dependen
solo de las estrategias que empleen los otros jugadores y no de quién juegue.
- Un juego asimétrico es aquél donde no hay estrategias idénticas para ambos jugadores.

Juegos suma cero y distinto de cero.


- Los juegos suma cero hacen referencia a aquellos en los que la ganancia de un jugador
implica la pérdida del otro jugador por el mismo valor que la ganancia obtenida por el
primero.
- En los juegos distinto de cero las ganancias y pérdidas no son iguales.
Dependiendo de las diferentes estrategias que pueden ser adoptadas en un juego podemos
diferenciar:

 Estrategia pura. Es una decisión a priori del jugador sobre qué jugar ante cada
situación del juego.
 Estrategia dominante. Es aquella estrategia que resulta óptima para un jugador,
independientemente de lo que hagan el resto de jugadores.
 Estrategias Maximin. Son aquellas estrategias en la que se maximiza el
rendimiento mínimo que se puede obtener. Son estrategias conservadoras.
 Estrategias Mixtas. Son aquellas en las que los jugadores utilizan la aleatoriedad
como parte de su estrategia para ganar. Trasladándolo al fútbol y a los
lanzamientos de penaltis, podríamos decir que si el portero siempre se tira a la
derecha, el delantero tiraría siempre a la izquierda. Si el delantero siempre tira
a la derecha, el portero se tira en la misma dirección. La alternativa es que, de
forma aleatoria, los dos jugadores usen la izquierda o la derecha.
El objetivo de la Teoría de Juegos es determinar patrones de comportamiento en la que los
resultados dependen de jugadores interdependientes, es decir, que interactúan entre sí.
John von Neumann y John Nash

John von Neumann (1903-1957) fue un matemático húngaro nacido el 28 de diciembre en


Budapest y al que se le atribuye formalmente la fundación de la Teoría de Juegos.

John von Neumann fue una persona con un amplio nivel de conocimientos sobre campos
diversos de la ciencia, un polímata. Realizó importantes contribuciones en áreas tan
diversas como las matemáticas, la física, la teoría computacional, la estadística, la
astrofísica, la economía… En realidad fue un niño prodigio con memoria fotográfica, que
dominó varios idiomas, incluyendo los clásicos latín y griego y con una capacidad sin
límites para entender, aportar y divulgar la ciencia en su más amplia acepción.

En la década de los años 30 del siglo XX emigró a los Estados Unidos, donde más tarde se
nacionalizó y ejerció como profesor en la Universidad de Pricenton.

A pesar de todas sus aportaciones en los campos más diversos, quizá su faceta más
conocida tiene que ver con el Proyecto Manhattan, proyecto científico del que formó parte
y que diseñó y fabricó las primeras bombas atómicas que fueron lanzadas sobre Japón a
finales de la Segunda Guerra Mundial.

Resumir y relatar las aportaciones de John von Neumann llevaría cientos de páginas.

En lo que respecta al objetivo de este libro, podríamos decir que ya en la década de los
cuarenta trabajó en Ingeniería de Ordenadores, Sistemas de Cálculo y Teoría de Autómatas,
sentando las bases de la arquitectura de los ordenadores en la que se basan los equipos
actuales.

La sistematización que llevó a cabo de la Teoría de Juegos se consideró como una de las
mayores contribuciones científicas del Siglo XX, ofreciendo un modelo cuantitativo para los
juegos de azar con libertad de acción de los jugadores. Sus trabajos en este ámbito
culminaron con el libro “Theory of Games and Economic Behaviour” que publicó con Oskar
Morgenstern en 1944.

John Nash (1928-2015), se hizo mundialmente conocido por la interpretación que de él


hizo Russell Crowe en la película “Una mente maravillosa” (Ron Howard, 2001), sin
embargo Nash pasará a la historia por su aporte fundamental en la Teoría de los Juegos, en
concreto, por ser el creador del "Equilibrio de Nash" o "equilibrio medio". Ganó el Premio
Nobel de economía en 1944 por sus contribuciones básicas a la Teoría de Juegos y los
procesos de negociación.

Estudió en la Universidad de Pricenton, coincidiendo con Albert Einstein y John von


Neumann como profesores en esta Universidad.
Un “equilibrio de Nash” de un juego es un acuerdo que ninguna de las partes puede romper
a discreción sin perder. Es decir, si alguien quiere romper el pacto y lo hace
unilateralmente, se arriesga a ganar por debajo de lo que hubiese ganado dentro del pacto.

Uno de los resultados que hacen del equilibrio de Nash un punto de referencia para casi
todo análisis en el que las interacciones entre individuos estén involucradas, es que todo
juego finito (es decir, finitos jugadores y finitas estrategias de cada jugador) tiene al menos un
equilibrio de Nash.

Nash revolucionó así la toma de decisiones en Economía y sobre todo la Teoría de los
Juegos.
Modelos de juegos

La finalidad de los modelos de juegos es representar situaciones que se dan


constantemente en la vida real y que ayudan a analizar la toma de decisiones de los
intervinientes en una situación determinada.

Los tipos de juegos y ejemplos que proponen los especialistas son muy variados. Algunos
de los más destacados podrían ser:

El juego de la gallina

El juego de la gallina es una competición de automovilismo o motociclismo en la que dos


participantes conducen sus vehículos en dirección a la del contrario. Si ninguno se desvía
de la trayectoria, los vehículos chocarán frontalmente. El primero que se desvía de la
trayectoria del choque pierde y es humillado por “comportarse como una gallina”.

El juego se basa en la idea de crear presión psicológica hasta que uno de los participantes
se “echa”atrás.

Uno de los primeros ejemplos de juego de la gallina se da en la película “Rebelde sin causa”
(Nicholas Ray, 1955), aunque en aquella versión los jugadores conducen sus automóviles
hacia un precipicio, y el primero en saltar del coche es el gallina. La versión en que los
conductores kamikazes se dirigen hacia el contrario se considera la tradicional.
Como la "pérdida" que supone girar es trivial en comparación a la colisión que se producirá
si ninguno gira, la estrategia más razonable sería girar antes de que el choque pueda
producirse. Aun así, si uno cree que su oponente es razonable, uno puede también decidir
no girar, en la creencia de que el rival será razonable y decidirá girar, convirtiendo al otro
en perdedor.

Esta estrategia inestable se puede enunciar de modo formal diciendo que existe más de un
equilibrio de Nash para este juego, si llamamos equilibrio al conjunto de estrategias en el
que a ninguno de los jugadores le conviene cambiar su estrategia mientras los demás sigan
con la misma. En este caso, los equilibrios son las dos situaciones en las que un jugador gira
y el otro no.

Una táctica para este juego es anunciar las propias intenciones de modo convincente antes
de que el juego comience. Por ejemplo, si uno de los contendientes bloquea de modo
ostentoso el volante de su vehículo antes del comienzo del duelo, será más probable que el
otro gire. Esto ilustra cómo, en algunas circunstancias, reducir las propias opciones puede
ser una buena estrategia.

El dilema del prisionero

Un ejemplo de juegos no-cooperativos es el dilema del prisionero. La historia de este juego


es la siguiente: dos individuos son detenidos debido a que cometieron cierto delito.
Ambos son separados en celdas diferentes y son interrogados individualmente.
Ambos tienen dos alternativas: cooperar uno con otro (no confesar) o no cooperar
(confesar el delito).
Ellos saben que si ninguno confiesa, cada uno irá a prisión por dos años. Pero si uno de los
dos confiesa y el otro no, entonces al que confiesa lo dejarán libre y al que no confiesa lo
condenarán a 10 años. Si ambos confiesan, los dos irán a prisión por 6 años. La situación se
resume en la siguiente matriz:

Él co

Él lo

La pregunta natural es: ¿qué harán los detenidos? ¿cooperarán entre sí (no confesarán) o
se traicionarán el uno al otro (confesarán)?
Vamos a suponer que ambos prisioneros son completamente egoístas y su única meta es
reducir su propia estancia en la cárcel.
Como prisioneros tienen dos opciones: cooperar con su cómplice y permanecer callado, o
traicionar a su cómplice y confesar. El resultado de cada elección depende de la elección del
cómplice. Por desgracia, uno no conoce qué ha elegido hacer el otro. Incluso si pudiesen
hablar entre sí, no podrían estar seguros de confiar mutuamente.
Si uno espera que el cómplice escoja cooperar con él y permanecer en silencio, la opción
óptima para el primero sería confesar, lo que significaría que sería liberado
inmediatamente, mientras el cómplice tendrá que cumplir una condena de 10 años. Si
espera que su cómplice decida confesar, la mejor opción es confesar también, ya que al
menos no recibirá la condena completa de 10 años, sólo 6, al igual que el cómplice. Y sin
embargo, si ambos decidiesen cooperar y permanecer en silencio, ambos serían liberados
en sólo dos años.
Confesar es una estrategia dominante para ambos jugadores. Sea cual sea la elección del
otro jugador, pueden reducir siempre su sentencia confesando. Por desgracia para los
prisioneros, esto conduce a un resultado regular, en el que ambos confiesan y ambos
reciben largas condenas. Aquí se encuentra el punto clave del dilema. El resultado de las
interacciones individuales produce un resultado que no es óptimo.
Existe una situación tal que la utilidad de uno de los detenidos podría mejorar (incluso la
de ambos) sin que esto implique un empeoramiento para el resto. En otras palabras, el
resultado en el cual ambos detenidos no confiesan domina al resultado en el cual los dos
eligen confesar.
El juego del ultimátum

El juego del ultimátum es un juego experimental donde un jugador A dispone de una


cantidad a repartir con un jugador B. Si la oferta de reparto no es aceptada por el jugador B,
el dinero a repartir se pierde y ninguno de los dos recibe cantidad alguna. Si la oferta es
aceptada por el jugador B, los dos ganan, quedándose cada jugador con el dinero de la
propuesta hecha por el jugador A.
Aunque aparentemente es una situación dónde haga la propuesta que haga el jugador A, el
jugador B aceptaría, al obtener algo que antes no tenía, el hecho no es tan sencillo ya que el
jugador B puede preferir que ninguno de los dos obtenga nada si la diferencia de reparto es
muy grande y lo que el jugador B obtiene no alcanza su previsión de ganancia.
La caza del ciervo

Este juego representa un ejemplo de cooperación social y enseña como con la cooperación
puedes alcanzar el éxito. Se formuló poniendo como ejemplo dos cazadores que tienen ante
sí la elección de cazar un ciervo o una liebre. La caza de la liebre es posible hacerla de
forma individual e independiente por cada uno de ellos, siendo esa la recompensa que
podrían obtener de forma individual. La caza del ciervo solo es posible si existe
cooperación entre ellos. No hay una recompensa individual pero si logran el objetivo, la
recompensa conjunta será mayor que la que hubiesen obtenido de forma individual si
hubiesen cazado la liebre.
La guerra de los sexos
El juego de "La guerra de los sexos" es un ejemplo muy sencillo de utilización de modelos
de la Teoría de Juegos para analizar un problema frecuente en la vida cotidiana.

Hay dos jugadores: "ÉL" y "ELLA". Cada uno de ellos puede elegir entre dos posibles
estrategias a las que llamaremos "Fútbol" y "Baloncesto".

Supongamos que el orden de preferencias de ÉL es el siguiente:

1º ÉL y ELLA eligen Fútbol (lo más preferido).

2º ÉL y ELLA eligen Baloncesto.


3º ÉL elige Fútbol y ELLA elige Baloncesto.
4º Él elige Baloncesto y ELLA elige Fútbol (lo menos preferido).
Supongamos que el orden de preferencias de ELLA es el siguiente:
1º ÉL y ELLA eligen Baloncesto (lo más preferido).
2º ÉL y ELLA eligen Fútbol.
3º ÉL elige Fútbol y ELLA elige Baloncesto.
4º Él elige Baloncesto y ELLA elige Fútbol (lo menos preferido).
En ambos casos la preferencia de ambos es estar juntos, la de ÉL como primera preferencia
en el Fútbol y como segunda en el Baloncesto; la de ELLA a la inversa, como primera
preferencia en el Baloncesto es estar juntos y como segunda en el Fútbol.

La matriz de preferencias que obtenemos es la siguiente (en negrita se representan las


preferencias de ELLA):

ÉL

No hay comunicación previa y es la primera vez que se juega, es decir no hay un histórico
de situaciones similares. Como no hay comunicación previa no es posible ponerse de
acuerdo, negociar ni acordar “recompensas” (“Si vienes al Fútbol te regalo un vestido”, “Si
vienes al Baloncesto te invito a cenar”)

El problema que se plantea es simplemente un problema de coordinación. Se trata de


coincidir en la elección. Al no haber comunicación previa, es posible que el resultado no sea
óptimo. Si cada uno de los jugadores elige su estrategia maximín (se máximiza el
rendimiento mínimo) nos encontraríamos en la situación 3\3 que no es la óptima ni la
deseada para ninguno de los dos. Esa solución, marcada en la matriz con un asterisco, no es
un punto de equilibrio de Nash ya que los jugadores están tentados de cambiar su elección:
cuando ELLA llegue al Baloncesto y observe que ÉL se ha ido al Fútbol, sentirá el deseo de
cambiar de estrategia para obtener una satisfacción mayor.

El modelo que hemos visto es un juego simétrico ya que jugadores o estrategias son
intercambiables sin que los resultados varíen. Podemos introducir una interesante
modificación en el juego convirtiéndolo en asimétrico a la vez que nos aproximamos más al
mundo real. Supongamos que las posiciones 2ª y 3ª en el orden de preferencias de ÉL se
invierten. ÉL prefiere ir solo al Fútbol más que ir con ELLA al Baloncesto. La matriz
quedaría como sigue:

ÉL
En este caso, si ELLA conoce la matriz de pagos, es decir, las preferencias de ÉL, el
problema de coordinación desaparece. Está muy claro que ÉL elegirá siembre la estrategia
Fútbol, sea cual sea la elección de ELLA. Sabiéndolo, ELLA elegirá siempre la estrategia
Fútbol también, ya que prefiere estar con ÉL aunque sea en el Fútbol que estar sola aunque
sea en el Baloncesto. La estrategia maximín de ambos jugadores coincide. El resultado,
marcado con un asterisco, es un punto de equilibrio de Nash.
El juego del dictador, el ajedrez, el póquer, el juego del oso, … son algunos otros modelos de
juegos.
Fútbol aplicado a la Teoría de Juegos

En la Teoría de Juegos no preguntamos qué vamos hacer, nos preguntamos qué vamos
hacer teniendo en cuenta las decisiones de los demás.

Lanzamiento de un penalti

El árbitro acaba de señalar una pena máxima. Portero frente a Lanzador. Se conocen
perfectamente, el jugador sabe hacia qué lado se tira normalmente el portero que tiene en
frente y éste conoce también, el lado por donde suele tirar los penaltis el jugador…

30 de junio de 2006, Mundial de Fútbol en Alemania, Argentina se enfrentaba a Alemania


en cuartos de final. Finaliza el partido con empate a uno. Finaliza la prórroga también con
el mismo resultado y se van los dos equipos a los penaltis. Alemania comienza los
lanzamientos y su primer jugador lo convierte. Mientras tanto Lehmann, el arquero alemán
saca un papel de su media y lo observa concentrado. El jugador argentino lanza el penalti,
Lehmann se tirá hacia el lado del lanzamiento pero no logra alcanzar el balón y Argentina
empata la tanda. Alemania vuelve anotar su segundo penalti. Le toca el turno a Ayala por
parte de Argentina, el portero vuelve a sacar el papel y lo lee.

Parece que el papel le indica que si Ayala se toma mucho tiempo y hace una carrera larga,
lanzará a su derecha. Ayala, se toma mucho tiempo, hace una carrera larga y lanza a la
derecha… y Lehmann detiene el penalti. Alemania se pone 3-1 en el global. Le toca el turno
al tercer jugador argentino. El portero vuelve a leer sus notas y aunque adivina el palo por
donde el jugador tira el penalti no lo puede detener. 3-2 para Alemania. Alemania vuelve a
lanzar y marcar: 4-2. El cuarto lanzador argentino es Esteban Cambiasso, sabe que si falla
están eliminados y además ya conoce que el portero está siguiendo instrucciones…
Cambiasso se prepara, consciente de que si falla, Argentina se queda fuera del Mundial. Con
su perfil zurdo lo más natural sería lanzarlo a la derecha pero al ver el papel que tenía
Lehmann decide cambiar y lo lanza a la izquierda… y el portero lo detiene. Alemania pasa y
Argentina termina su andadura en el Mundial.

Alemania había realizado un estudio sobre los jugadores argentinos a la hora de lanzar
penaltis pero Lehmann no tenía nada escrito sobre Cambiasso porque no esperaban que
tirase ningún penalti, sin embargo, el papel que utilizó Lehmann incidió a la hora de que
Cambiasso ejecutase el lanzamiento.

En el fútbol, como en tantos juegos, no hay garantía de que siguiendo las tendencias, los
históricos, el jugador convierta el gol y el portero ataje el penalti, pero lo que sí quedó claro
es que la estadística y la Teoría de Juegos jugaron un rol. La teoría de juegos no puede
ofrecer recetas para el éxito pero sí puede ayudar a optimizar la toma de decisiones.

Frente al azar, estrategia y estadística


Natxo Palacios-Huerta, catedrático de Economía en la London School of Economics, natural
de Barakaldo comenzó a recopilar en vídeo, lanzamientos de penalti. Más de 11.000, la
mayor parte de ellos correspondientes a las tandas de penaltis cuando un partido o
eliminatoria no se ha resuelto en los 90+30 minutos de juego.

A partir de este estudio, obtuvo algunas conclusiones interesantes:

 El 80% de los penaltis acaban en gol. El 20% restante se divide entre


lanzamientos al palo, fuera o que detiene el portero.
 En el 60% de las tandas, gana el equipo que empieza a lanzar. Lo sensato, con
las estadísticas en la mano, es no elegir jamás lanzar en segundo lugar. Buffon,
capitán de la selección italiana en la Eurocopa 2008, lo hizo… Italia perdió
aquella tanda. Gabi, capitán del Atlético de Madrid, en la final de la Champions
League de Milán en 2016 también eligió lanzar en segundo lugar… El Atlético de
Madrid perdió la tanda y la final.
 En el 60% de los disparos, se lanzan al lado natural. Los diestros, a la derecha
del portero. Los zurdos, a la izquierda del portero.
 También en el 60% de los lanzamientos, el portero se tira hacia su lado natural.
Holanda en el Mundial 2014

En el Mundial del 2014 de Brasil, Holanda se enfrentaba a Costa Rica en cuartos de final. Un
minuto antes de que acabara el segundo tiempo de la prórroga, el técnico holandés, Louis
Van Gaal, decidió hacer un cambio sorpresivo e inesperado: el portero. Jasper Cillessen que
era el portero titular, dejó su puesto a Tim Krul. Krul detuvo dos penaltis a los jugadores
costarricenses y “adivinó” el sitio de los otros tres lanzamientos. Holanda ganó la tanda y se
clasificó para semifinales.

Sin embargo, ¿por qué unos días después, Holanda perdió la semifinal en los penaltis contra
Argentina?. Quizá la respuesta esté en que Argentina conocía la estrategia que Holanda iba
a seguir en la tanda de penaltis.

A Holanda, que había trabajado con Natxo Palacios parece ser que le habían recomendado
dos premisas para las tandas de penaltis. Una que su portero se lanzara para el lado natural
y que los jugadores tratando de ser imprevisibles fueran lanzando de forma alternativa los
penaltis a su lado natural… y eso es exactamente lo que ocurrió. El portero, siempre se
lanzó al lado natural y los mejores jugadores holandeses alternaron el lanzar los penaltis
hacia el lado natural o el contrario.

Argentina escogió una estrategia de respuesta óptima a lo que estaban haciendo los
holandeses. El portero argentino se lanzó dos veces hacia el lado natural y dos veces hacia
el otro lado lo que hizo que parase dos penaltis. Además, Messi, resultó imprevisible y lanzó
hacia su lado no natural, el derecho, puesto que es zurdo y marcó. Los otros jugadores
argentinos, no tan especialistas en el lanzamiento de penaltis, lanzaron todos ellos hacia
su lado natural y también marcaron.
Todo ello nos permite aprender una importante lección estratégica: en entornos en que los
jugadores no sean perfectos estrategas lo importante es ser un grado más sofisticado,
estratégicamente, que tu rival, pero al mismo tiempo que el rival crea que eres un grado
“más tonto”. Si realmente lo óptimo es ser impredecible, más vale que tu rival no intuya
cuál va a ser tu estrategia. Parece que Argentina sí intuyó la estrategia de Holanda. La
televisión mostró como el portero argentino, antes de cada penalti, consultaba un papelito
guardado en su media. Dijo que el papel contenía frases de ánimo de sus familiares…

El equipo de Holanda no tuvo culpa alguna de haber contado con un informe impecable
desde el punto de vista estratégico como el de Natxo Palacios-Huerta sobre cómo lanzar los
penaltis, pero seguro que les hubiera encantado que el ruido mediático que sus estudios
estaban haciendo y que probablemente llegó a Argentina, ocurriera después de la semifinal.

Quizá lo más interesante esté sucediendo ahora cuando todos los equipos saben que los
rivales les han estudiado y la estrategia óptima de lanzar los penaltis pase a ser la
impredecibilidad, lanzando a cada lado con igual probabilidad. ¿Tenderán los lanzamientos
de penaltis a un equilibrio bajo la premisa de que ambos contendientes tienen la
información de lo que supuestamente va a hacer el contrario?
La Teoría de Juegos aplicada a la dirección de equipos y toma de decisiones

Tanto en los despachos como en los banquillos se están tomando decisiones


constantemente. Por ejemplo, cuando se negocia un fichaje, hay varias partes en litigio que
tratan de que el acuerdo les salga lo mejor posible. Es en la toma de decisiones cuando la
Teoría de Juegos nos puede ayudar.

Para explicarlo, pensemos en una partida de ajedrez: "si yo hago esto, entonces él hará lo
otro pero, si muevo esta otra pieza entonces él...". Una vez examinadas todas las posibles
situaciones, decidimos y hacemos una jugada. Básicamente, se trata de hacer algo parecido.

Anteriormente, hemos expuesto el modelo de juego “el dilema del prisionero”. Vamos a
tratar de trasladarlo al fichaje de un jugador.

El jugador X, juega actualmente en el equipo A, que tiene que jugar la previa de la


Champions para poder entrar en la competición de grupos. Por otra parte, el equipo B que
está clasificado para la competición de grupos de la Champions quiere fichar al jugador X.
El equipo B conoce los deseos del jugador por salir de su actual equipo y así se lo ha hecho
saber a su equipo (equipo A).

Esta situación nos da las siguientes preferencias:

Para el equipo A lo mejor es poder utilizar al jugador en la previa de la Champions y


posteriormente venderlo (primera preferencia). Como el equipo A quiere venderlo, la
segunda preferencia es que no juegue y, al menos, venderlo. El orden puede prestarse a
duda, pero justificaremos nuestra elección. A primera vista, parece que el argumento "ya
que no lo he vendido, ha jugado", se impondría al "además de que no lo he vendido, no ha
jugado" pero aquí hay un dato importante: el jugador X quiere irse.

Si el equipo A lo utiliza, el jugador podría interpretarlo como un boicot a su deseo, y de


quedarse lo hará a disgusto en el club, con los problemas que un jugador a disgusto
conlleva para un equipo. Si el equipo A no lo utiliza, la responsabilidad de que no se efectúe
el traspaso se traslada al equipo B. Conclusión: casi es preferible que no juegue la previa
aunque luego no se traspase.

El equipo B lo tiene más claro. La peor situación es que el jugador X juegue la previa de la
Champions con su actual equipo y después lo compre ya que estaríamos ante un fichaje “no
completo” al no poder disputar los partidos de Champions con el equipo B. Para el equipo B
la mejor situación es que el jugador no juegue la previa con el equipo A y poder comprarlo
con total disponibilidad para jugar.

La otra opción que baraja el equipo B es que si finalmente no se llevara a cabo la compra
por decisión propia lo mejor es que el jugador jugase la previa, ya que así tendría una
excusa frente la afición y prensa que está demandando dicho fichaje.
Lo mejor que puede hacer cada equipo varía según lo que haga el otro, ninguno tiene una
estrategia dominante.

Si el equipo B, realmente quiere fichar al jugador en calidad de fichaje completo, podría


utilizar la estrategia de exponer públicamente y de forma rotunda que si el jugador juega la
previa con su equipo A, el fichaje no llevará a cabo de ninguna de las formas. Esta
“amenaza” pasa a ser creíble y el juego debería terminar con el fichaje por parte del jugador
en las condiciones deseadas por el equipo B. El equipo A no pierde, ya que obtiene unas
ganancias en forma de dinero que le permite fichar a otros jugadores.

Esta situación se produjo en el fichaje del entonces jugador del Arsenal, Jose Antonio Reyes
por parte del Real Madrid en el verano del 2006.

El fútbol es un juego.
LA TEORÍA DE LA TOMA DE LA DECISIÓN

Decidir significa hacer que las cosas sucedan en vez de simplemente dejar que ocurran
como consecuencia del azar u otros factores externos. Esta habilidad ofrece a las personas
herramientas para evaluar las diferentes posibilidades, teniendo en cuenta necesidades,
valores, motivaciones, influencias y posibles consecuencias presentes y futuras.

Contínuamente, las personas deben elegir entre varias opciones. Han de tomar un gran
número de decisiones en su vida cotidiana, en mayor o menor grado, importantes,
trascendentes, a la vez que fáciles o difíciles de adoptar en función de las consecuencias o
resultados derivados de cada una de ellas.

Tomar decisiones es algo que hacemos todos los días, algunas fruto de la reflexión, estudio
y análisis y otras automatizadas, casi sin darnos cuenta.

La Real Academia de la Lengua Española define la toma de decisiones como


“determinación, resolución que se toma o se da en una cosa dudosa”.

Son varios los autores que abordan el concepto de decisión y la toma de decisiones:

 Forrester: una decisión es "el proceso de transformación de la información en


acción".
 Greenwood: habla de la equivalencia entre la toma de decisiones y la
resolución de problemas en una organización. Los diagnósticos de problemas,
las búsquedas, las evaluaciones de alternativas y la elección final de una
decisión, constituyen las etapas básicas en el proceso de toma de decisiones y
resolución de problemas.
 Herbert A. Simon: define le toma de decisiones como los procesos cognitivos
que se desarrollan en la mente del individuo y que tienen como meta principal o
primaria la elección de una acción que ayude a resolver algún problema.
 Moody: es una acción que debe tomarse cuando ya no hay más tiempo para
recoger información.
 Leon Blan Buris: es una elección que se hace entre varias alterativas.
 Le Moigne: es la identificación y resolución de los problemas que se presentan a
toda organización.
 Schackle: define la decisión como un corte entre el pasado y el futuro.
 Starr: considera que una situación de decisión está formada por cinco
elementos básicos:
1. Estrategias. Cursos de acción o planes condicionales compuestos por variables
controlables.
2. Estados de la naturaleza. En general, los estados de la naturaleza son los
sucesos de los que depende la decisión y en los que no puede influir apenas el
decisor.
3. Desenlaces o resultados. Son aquellos que tienen lugar al emplear una
estrategia específica, dado un estado concreto de la naturaleza.
4. Predicciones de probabilidad. La cuantificación de de que se produzca cada
uno de los estados de la naturaleza.
5. Criterio de decisión. Modo de utilizar la información anterior para seleccionar
el plan a seguir.
Etapas de la Toma de Decisiones

Etapa 1. La identificación de un problema

El proceso de toma de decisiones comienza con un problema, es decir, la discrepancia entre


un estado actual y un estado que se desea. Para un proceso de decisión, el problema debe
ejercer algún tipo de presión, de preocupación para aquél que debe tomar la decisión y
actuar.

Etapa 2. La identificación de los criterios para la toma de decisiones.

Una vez que se conoce la existencia del problema, se deben identificar los criterios de
decisión que serán relevantes para la resolución del problema. Cada persona que toma
decisiones suele tener unos criterios que ejercen de guía en su decisión y son tan
importantes los criterios que se identifican como los que no.

Etapa 3. La asignación de ponderaciones a los criterios.

Los criterios seleccionados en la fase anterior no tienen todos la misma importancia, unos
tendrán más peso que otros, por tanto, es necesario ponderarlos con el fin de otorgarles la
prioridad correcta en la decisión.

Etapa 4. El desarrollo de alternativas.

Este paso consiste en la determinación de todas las alternativas viables, para la resolución
con éxito del problema.

Etapa 5. Análisis de las alternativas.

Una vez que se han desarrollado las alternativas, el tomador de decisiones debe analizarlas.
Se evalúa cada alternativa comparándola con los criterios establecidos en los puntos 2 y 3.
La persona que decide debe tratar de ser lo más objetivo posible en su análisis.

Etapa 6. Selección de una alternativa.

Consiste en seleccionar la mejor alternativa de todas las valoradas.

Etapa 7. La implantación de la alternativa.

El proceso de selección queda completado con el paso anterior. Sin embargo, la decisión
puede fallar si no se lleva a cabo correctamente. Este paso intenta que la decisión se ejecute
y se haga llegar a las personas afectadas. Si las personas que están involucradas en la
puesta en marcha de una decisión, participan en el proceso, es más fácil que la apoyen.

Etapa 8. La evaluación de la efectividad de la decisión.


Este paso evalúa el proceso del resultado de la toma de decisiones para ver si se ha
corregido el problema. El resultado de esta evaluación, si no es positivo, puede desembocar
en una vuelta al inicio del proceso.

El análisis de decisiones son un determinado tipo de procedimientos y/o técnicas que tienen como objetivo disminuir la
probabilidad de errar al tomar una decisión.

El análisis de decisiones sustenta todas las funciones directivas. Nada de lo que un directivo hace es más importante que el
uso de la mejor información disponible para tomar buenas decisiones.
Tipos de Decisiones

Todas las decisiones no son iguales, ni producen las mismas consecuencias, ni tampoco su
adopción tiene idéntica relevancia.

En “Manual de Administración de Empresas”, Ed. Civitas (2000), Claver, E; LLopis, J;


Lloret ,M. y Molina, H. hacen la siguiente clasificación:

Tipología por niveles

Esta tipología está conectada con el concepto de estructura organizativa y la idea de


jerarquía que se deriva de la misma. Las decisiones se clasifican en función de la posición
jerárquica que tenga el decisor.

 Decisiones estratégicas son decisiones adoptadas por decisores situados en la


cúspide de la pirámide jerárquica o altos directivos. Se refieren a las relaciones
entre la organización y su entorno. Son decisiones de una gran transcendencia
puesto que definen los fines y objetivos generales que afectan a la totalidad de
la organización. Son decisiones singulares a largo plazo y no repetitivas, por lo
que la información es escasa y sus efectos son difícilmente reversibles. Los
errores pueden comprometer el desarrollo de la organización y en
determinados casos su supervivencia, por lo que requieren un alto grado de
análisis, reflexión y juicio.
 Decisiones tácticas, son decisiones tomadas por directivos intermedios. Estas
decisiones pueden ser repetitivas y el grado de repetición es suficiente para
confiar en precedentes; los errores no implican impactos negativos muy fuertes
a no ser que se vayan acumulando.
 Decisiones operativas, adoptadas por ejecutivos que se sitúan en el nivel más
inferior de la pirámide jerárquica. Son las relacionadas con las actividades
corrientes de la organización. El grado de repetividad es elevado y se traduce a
menudo en rutinas y procedimientos automáticos. Los errores se pueden
corregir rápidamente y los impactos negativos son mínimos.
Tipología por Métodos

Esta clasificación se debe a Simon, Herbert Alexander (1916-2001). Realiza una


clasificación basándose en la similitud de los métodos empleados para la toma de
decisiones, independientemente de los niveles de decisión. Diferencia entre decisiones
programadas y no programadas.

Se entiende por decisiones programadas aquellas que son repetitivas y rutinarias,


obedecen a la definición de un procedimiento o establecimiento de un criterio. En este tipo
de decisiones , la importancia no estriba en la mayor o menor dificultad en decidir, sino que
se encuentra en la repetitividad y la posibilidad de predecir y analizar los elementos que las
componen por muy complejos que resulten.
Las decisiones no programadas son aquellas que resultan nuevas para la organización. No
existe ningún método establecido para manejar el problema porque éste no ha surgido
antes, porque su naturaleza o estructura son complejas, o porque es tan importante que
merece un tratamiento hecho a la medida.

Poniendo este tipo de decisiones dentro de la pirámide jerárquica de una organización,


diríamos que los directivos de alto nivel, los que están en la parte superior de la pirámide,
son los que se enfrentan a las decisiones no programadas. A medida que se desciende en la
jerarquía de la organización nos encontramos con problemas más estructurados y
comprensibles. Más programadas serán las decisiones y menor nivel necesitarán tener
quienes las ejecuten.
Técnicas de modelación de un proceso de Toma de Decisiones

En lo referente a las técnicas tendremos en cuenta el modelo desarrollado por Simon para
la descripción del proceso de toma de decisiones y que es la base de todos los modelos
realizados al respecto. Consta de tres fases principales:

1. Investigación. Exploración del ambiente sobre las condiciones que requieren


las decisiones. Los datos de entrada se obtienen, se procesan y se examinan en
busca de indicios que pueden identificar problemas u oportunidades.
2. Diseño. Invención, desarrollo y análisis de los posibles modos de actuación.
Esto involucra los procesos para entender el problema, para generar las
soluciones y para probar las soluciones según su posibilidad de ejecución.
3. Elección. Selección e implementación de una alternativa entre aquellas que
están disponibles.
En referencia a las herramientas, vamos a conceptuar, en primer lugar algunas de las
teorías más importantes que tienen un impacto directo en la toma de decisiones:

 Teoría de Juegos
 Teoría de la utilidad cardinal
 Teoría de las restricciones
En las tres últimas décadas, la Teoría de Juegos se ha convertido en el modelo dominante
en la teoría económica y ha contribuido de forma muy significativa en otros ámbitos.

En la década de los cuarenta del pasado siglo, Von Neumann y Morgenstern sostuvieron
que la gente no siempre toma decisiones buscando maximizar el valor monetario esperado
sino que busca maximizar la utilidad esperada, así nace la Teoría de la utilidad cardinal o
utilidad en riesgo.

Las suposiciones de esta teoría las podríamos resumir en:

1. El individuo puede ordenar alterantivas o las utilidades asociadas con ellas.


2. El individuo puede establecer relaciones de transitividad en su ordenamiento
preferencial, lo que le permitirá valorar alternativas sin relación directa. Por
ejemplo, si tenemos las alternativas A, B y C y al individuo le da igual la elección
entre la alternativa A o B, pero siempre preferirá B a C, entonces, también
preferirá A a C.
3. Puede otorgar pesos (preferencias cuantificadas) para comparar las alternativas
o las utilidades asociadas con ellas.
En la década de los setenta Eliyahu Goldratt desarrolló lo que se ha dado en conocer como
la Teoría de las restricciones o limitaciones. Es una filosofía de gestión que se basa en los
métodos de la ciencia para interpretar y optimizar sistemas integrados. Esta teoría
defiende que en un proceso multitarea, independientemente del ámbito en el que se
desarrolle, el ritmo será dictado por el eslabón más débil de la cadena, o lo que es lo mismo
por la tarea menos óptima.

Las restricciones pueden originarse en cualquiera de los ámbitos de la empresa


(suministro de materiales, capacidad de recursos, evolución de los mercados, recursos
humanos…). Esta teoría aboga por la identificación en primer lugar de las restricciones
(cuellos de botella) antes de cualquier toma de decisión que afecte de forma global a la
empresa. Se debe decidir cómo explotar dichas restricciones para mejorar la gestión,
subordinando todos los elementos restantes. Incrementando las capacidades de las
restricciones tenderemos a la optimización de la gestión integral de la empresa. La empresa
ha de considerarse como un todo y no como un conjunto de partes.
Modelos en la Toma de Decisiones y ambientes de decisión

Para adoptar algunos tipos de decisiones se suelen utilizar modelos. Éstos se pueden
definir como una representación simplificada de una parte de la realidad. En muchos casos
la realidad es tan compleja que, para comprenderla hay que simplificarla tomando de ella
los aspectos que resultan más relevantes para el análisis de que se trate y no teniendo en
cuenta los que resultan accesorios.

El principal objetivo de un modelo es permitir una mejor comprensión de la realidad que


permita a su vez tomar mejores decisiones.

Tipología de modelos

 Modelos objetivos y subjetivos. En ocasiones los sucesos no se pueden


experimentar objetivamente, y no existen métodos formales para su estudio,
por lo que los modelos han de ser informales, subjetivos y basarse en la
intuición.
 Modelos analíticos y de simulación. Los modelos analíticos son aquellos que
sirven para obtener soluciones, por lo tanto han de ser resueltos. Los modelos
de simulación son representaciones simplificadas de la realidad sobre las que se
opera para estudiar los efectos de las distintas alternativas de actuación.
 Modelos estáticos y dinámicos. Los modelos estáticos son aquellos que no
utilizan la variable tiempo, en tanto que los dinámicos son aquellos que
incorporan el tiempo como variable o parámetro fundamental.
 Modelos deterministas y probabilísticos. En los modelos deterministas se
suponen conocidos con certeza todos los datos de la realidad que representan.
Si uno o varios datos se conocen sólo en términos de probabilidades, el modelo
se denomina probabilístico, aleatorio o estocástico.
Ambientes de decisión

Los ambientes de decisión representan el grado de conocimiento que tenemos sobre lo que
puede ocurrir ante una toma de decisión.

Certeza. Sabemos con seguridad qué efectos producirá la decisión

Riesgo. No sabemos qué ocurrirá tomando una determinada decisión pero sí sabemos qué
puede ocurrir y cuál es la probabilidad de ello.

Incertidumbre estructurada. No sabemos qué ocurrirá con la toma de determinadas


decisiones, pero sí sabemos qué puede ocurrir de entre varias posibilidades.

Incertidumbre no estructurada. No sabemos qué puede ocurrir ni tampoco qué


probabilidades hay para cada posibilidad. Es el a veces recurrido “no tengo ni idea de lo
que puede pasar”.
Árbol de Decisión

Un árbol de decisión es un sistema de representación del proceso decisional en el que se


reflejan las posibles alternativas por las que se puede optar y los resultados que
corresponden a cada alternativa según cual sea el estado de la naturaleza que se presente.

Todo árbol consta de nudos y ramas.

Los nudos, también llamados vértices, representan situaciones en las cuales debe tomarse
una u otra decisión (nudos decisionales), o el decisor se enfrenta a distintos estados de la
naturaleza o sucesos aleatorios (nudos aleatorios).

Las ramas, que parten de los nudos decisionales representan alternativas de decisión. Las
que parten de nudos aleatorios representan posibles estados de la naturaleza, es decir,
sucesos que pueden pasar y entre los que no es posible elegir. Cuando se conocen las
probabilidades de los diversos estados, éstas se reflejan sobre las ramas que los
representan. Al final de cada camino, se expresa el resultado que correspondería a esa
secuencia de decisiones y sucesos.

La toma de decisiones resulta más sencilla cuanto mayor es la información de la que se


dispone

En una era de cambiante tecnología y creciente competencia, pocas organizaciones pueden


permitirse el lujo de basar sus decisiones en reacciones intuitivas y espontáneas, o
corazonadas. Únicamente un enfoque sistemático y razonado del análisis de sus decisiones
puede asegurar a la organización el éxito. Con menos tiempo para pensar, con mayor
complejidad en todas las áreas de trabajo, con menos tolerancia para las equivocaciones, es
necesario estar seguro de que en cada caso se está tomando la mejor decisión, antes de
ejecutar la acción.

Ejemplo de utilización de Árbol de decisión.

Una empresa compra piezas para el ensamblaje de sus teléfonos móviles a dos proveedores
A y B, cuya calidad se muestra en la tabla siguiente:

Piezas D

3
La probabilidad de recibir un lote del proveedor A en el que haya un 1% de piezas
defectuosas es del 70%. Los pedidos que realiza la empresa ascienden a 1.000 piezas. Una
pieza defectuosa puede ser reparada por 1 euro. Si bien tal y como indica la tabla, la calidad
del proveedor B es menor, éste está dispuesto a vender las 1.000 piezas por 10 euros
menos que el proveedor A.

Vamos a determinar que proveedor utilizar.

Paso 1 – Enumeramos las diferentes alternativas de decisión.

Proveedor A.

Proveedor B.

Paso 2 - Enumeramos para cada una de las alternativas de decisión, los estados de la
naturaleza asociados a la misma.
Paso 3 – Dibujamos el árbol de decisión.
Paso 4 - Asignamos las probabilidades a priori de cada uno de los estados de la
naturaleza.
Paso 5 – Calculamos el coste de cada una de las ramas del árbol.

El coste de cada rama se obtiene a partir del número de unidades defectuosas. Siendo los
pedidos de 1.000 piezas, las unidades defectuosas serán:

En el caso de 1% defectuosas:

1.000 piezas x 1% / defectuosas = 10 piezas / defectuosas


En el caso de 2% defectuosas:

1.000 piezas x 2% / defectuosas = 20 piezas / defectuosas

En el caso de 3% defectuosas:

1.000 piezas x 3% / defectuosas = 30 piezas / defectuosas

Si cada pieza defectuosa puede ser reparada por 1 euro, el coste de la reparación asciende
a:

En el caso de 1% defectuosas:

10 piezas/defectuosas x 1 euro / pieza defectuosa = 10 euros

En el caso de 2% defectuosas:

20 piezas / defectuosas x 1 euro / pieza defectuosa = 20 euros

En el caso de 3% defectuosas:

30 piezas/defectuosas x 1 euro / pieza defectuosa = 30 euros

En el caso del proveedor A el coste es 10 euros superior al del proveedor B, tal y como
indica el enunciado del ejemplo.
Paso 6 - Resolvemos el árbol de decisión de derecha a izquierda. Determinamos
primero el coste esperado de cada alternativa de decisión.

(20 x 0,8) + (30 x 0,1) + (40 x 0,1) = 23 euros

(10 x 0,4) + (20 x 0,3) + (30 x 0,3) = 19 euros

Colocamo
s el resultado encima del nudo correspondiente.

19

19

23

23
Paso 7 - Resolvemos la etapa anterior. Debemos elegir la alternativa cuyo coste sea
menor y colocar el resultado encima del nudo correspondiente.

El coste esperado de comprar la pieza al proveedor A es de 23 euros según se ha calculado


en el paso anterior, mientras que el de comprar la pieza al proveedor B es de 19 euros, por
lo que deberá comprar la pieza el proveedor B dado que el coste es menor.

23

23

19

19

19

19
Debemos comprar la pieza al proveedor B.
La revolución deportiva del Real Madrid en el mundo del fútbol. Toma de Decisiones.

En los últimos 20 años salvo periodos muy concretos siempre se criticó al Real Madrid que
confeccionase plantillas sin un Director Deportivo al frente, achacando a su Presidente el
no tener una estrategia deportiva que definiese su proyecto. Bien al contrario, y una vez
visto lo conseguido por el primer equipo en las últimas temporadas, se puede concluir que
no solo el Real Madrid tiene un proyecto deportivo importante sino que el club fue un
visionario tomando la delantera, y con diferencia, al resto de sus competidores.

Si hace unos años el F.C. Barcelona revolucionó el fútbol desde el punto de vista táctico
haciendo un equipo histórico hoy podemos decir que el Real Madrid lleva camino, si no lo
ha hecho ya, de revolucionar el mundo de fútbol desde otro punto de vista: el de la
confección y gestión de plantillas.

Durante la temporada 2016/2017 una de las situaciones que más minutos tuvo de
tratamiento informativo por los medios deportivos fue el denominado “equipo B” del Real
Madrid. No era una referencia a su filial, si no a la segunda unidad del primer equipo que
por su aportación a lo largo de esa temporada resultó esencial para conseguir un doblete
histórico para el club. Los Casilla, Nacho, Morata, Danilo, James, Kovacic, Lucas, Asensio o
Isco (finalmente consolidado como un titular más) realizaron una temporada
extraordinaria tanto por los minutos jugados como por las victorias conseguidas en los
títulos obtenidos.

Y con estos jugadores que formaron el denominado “equipo B”, aunque Zidane nunca
consideró, y así lo demostró en reiteradas ocasiones, a estos jugadores como un equipo “B”,
se empezó a reflejar lo que el Real Madrid venía trabajando desde hace varias temporadas
antes y que en la 2017/2018 siguió el mismo camino con incorporaciones como Vallejo (20
años), Theo Hernandez (19), Llorente (22), Achraf (18), la vuelta de Borja Mayoral (20) o
Ceballos (20). Además, del fichaje de Vinicius Junior (16) cedido hasta los 18 años en Brasil.

Es sabido que el Real Madrid no tiene Director Deportivo. Si bien es cierto que José Ángel
Sánchez, Director General del club, es quién decide y ejecuta cada uno de los fichajes, no es
un Director Deportivo como se entiende de forma habitual. El que no exista la figura de
Director Deportivo, ¿demuestra la ausencia de una planificación deportiva en el Real
Madrid?. No, bien al contrario el Real Madrid trabaja con unos parámetros y unos objetivos
meridianamente claros.

Lo importante no es tener un Director Deportivo sino una estrategia deportiva que dé


sentido a tu planificación deportiva (así podemos ver en muchos clubes como pasan
Directores y Secretarios Técnicos sin que los resultados lleguen y sin saber muy bien qué
“idea” deportiva tienen).
La política de fichajes del Real Madrid en la temporada 2017/2018 causó sorpresa con las
incorporaciones de jugadores jóvenes, pero al echar la vista más atrás vemos que en el club
se seguía un patrón desde hace varias temporadas. Si nos fijamos:
- 2013/2014: Bale (24 años), Illaramendi (23), Isco (21), Carvajal (21), Casemiro (21),
Cheryshev (22), Nacho (23), Morata (20) y Jesé (20).
Cuatro de las incorporaciones de esa temporada se han convertido en titulares
indiscutibles en los años siguientes y dos de ellos, Morata y Nacho tuvieron un rol
significativo en temporadas siguientes.
- 2014/2015: James (23), Kroos (24), Lucas Silva (21), Navas (27), Chicharito (26) y Sahim
(25).
- 2015/2016: Danilo (23), Casemiro, vuelve de cesión, (23), Lucas Vázquez (24), Kiko
Casilla (28) y Kovacic (21).
- 2016/2017: Marco Asensio (20), Morata, vuelve tras ejecutar opción de recompra, (23) y
Mariano (22).
- 2017/2018: Vallejo (20), Llorente (22), Borja Mayoral (20), los tres se incorporaron tras
cesión, Achraf (18) subió del filial, Theo Hernández (19) y Ceballos (20).
En estas temporadas, solo Keylor Navas y Kiko Casilla se incorporaron por encima de los 25
años. El resto 24 años o menos (excepción de Chicharito que llegó al Real Madrid en calidad
de cedido por un año).

A todo lo anterior, hay que añadir el proceso de formación que se hace de estos jugadores,
cediéndolos a otros equipos españoles o en ligas europeas antes de repescarlos: Vallejo,
Llorente, Medrán, Diego Llorente, Borja Mayoral, Omar Mascarrell, Burgui, Enzo, Álex Febas
u Odegaard cedido en el Heerenveen holandés.

¿Qué tipo de jugador estuvo fichando el Real Madrid? Jugadores jóvenes, de mucha calidad
pero que ya tuvieran experiencia en grandes competiciones.

¿Qué consiguió con ello? Una plantilla de mucha calidad, con jugadores de proyección que
no “necesitan hacerse” y que, en principio, no resultarán un fracaso. Fichajes a un precio
“bajo” pudiendo reservarse para acometer un fichaje estrella cada pocos años. El último
gran fichaje del Real Madrid, por su desembolso económico, fue el del colombiano James
por 75 millones de euros. El resto de fichajes no superaron los 31 M€, siendo en algunos
casos sorprendentemente bajos para lo que era habitual en el Real Madrid: Casemiro (6M),
Asensio (3,5M), Vallejo (5,5M) o Lucas Vázquez (1M) por poner algunos ejemplos.

¿Qué hizo que el Real Madrid se plantease esta política de fichajes?

Dos cosas determinaron este planteamiento:

1.- La situación del mercado futbolístico y la burbuja en el precio de los traspasos de esas
temporadas. En la pretemporada 2017/2018 el Tottenham tasó a Harry Keane en 227
Millones de Euros: una auténtica locura… pero semanas más tarde Neymar era traspasado
al PSG por 222 millones de euros.
Se quejó Guardiola, en esas fechas, de lo difícil que se estaba poniendo el fichar jugadores y
Mourinho afirmó que el problema no era el traspaso de Neymar sino sus consecuencias. El
problema que empezaron a ver muchos equipos lo vio el Real Madrid unas temporadas
antes.

Desde el club de Concha Espina tuvieron claro que no iban a poder competir con los
grandes inversores que habían llegado al fútbol europeo y que se habían hecho, además,
con la propiedad de grandes clubes. En ese punto, los grandes clubes ajenos a estos nuevos
inversores iban a tener serios problemas para hacerse con determinados jugadores, unido
al fair play financiero, pues los fondos de inversión-dueños millonarios pujan fuerte
encareciendo el producto deseado. Además, en el caso que nos ocupa, el Real Madrid al no
ser una Sociedad Anónima según la normativa española le es imposible utilizar estos
medios de inversión y tiene que ajustar su presupuesto año a año para no verse en
problemas.

Por otro lado, pero dentro de la nueva situación del mercado futbolístico, surge un segundo
grupo competidor: la Liga China (incluida su Segunda Categoría) que se hacen con grandes
jugadores profesionales en edad de competir todavía en el fútbol europeo.

Y estos dos puntos son en los que el equipo blanco toma la delantera a sus competidores: se
fija en jugadores con mucha proyección, pero muy jóvenes. Ficha a un precio “bajo”, o no
excesivamente caro; jugadores que serán las futuras estrellas del mundo del fútbol y solo
afronta grandes desembolsos como algo excepcional. Por decirlo de alguna manera: el Real
Madrid ha creado su propio Draft eligiendo las primeras opciones sin competidor alguno
para cubrir sus propias necesidades.

2.- La posibilidad de formar futuras estrellas directamente. Una vez fichados estos
jugadores hay que hacer que crezcan profesionalmente. Y aquí buscan dos vías: o bien los
ceden (junto a los que salen en las categorías inferiores) o si ya forman parte del primer
equipo se les dan minutos importantes. Y en esto el Real Madrid también ha innovado
respecto al resto de equipos.

Llevada a la práctica esta estrategia deportiva se planifican las plantillas con dos jugadores
por línea. Dos jugadores de mucha calidad siempre. Si una temporada como la del Real
Madrid se compone de 64 partidos (jugando completas las competiciones de Liga,
Champions y Copa; sin contar las Supercopas o Mundialitos que pudiera disputar) cada
jugador puede disputar entorno a 5.760 minutos. Lo que se planteó el Real Madrid es
repartir estos minutos entre los jugadores. O, dicho de otro modo, liberar de minutos a los
titulares en favor de los menos habituales. Si cada puesto genera, como decimos, 5.760
minutos repartidos al 50% cada jugador disputaría 32 partidos (casi una Liga completa):
cifra nada despreciable. Lógicamente, hay diferencia entre puestos y roles, pero, repasando
las cifras, todos los jugadores de la plantilla disfrutaron en la temporada 2016/2017 de
muchos minutos. Se consigue tener a la plantilla siempre “a punto” para jugar,
compenetrada entre todos los jugadores, habituados a los sistemas tácticos, los suplentes
no lo son tanto, y los titulares no se ven tan comprometidos o señalados como antaño. Las
discusiones sobre titularidades, son más externas que internas, y se centran en muy pocos
partidos e importantes. Del mismo modo, se aprovechan estados de forma que los
jugadores puedan tener a lo largo de la temporada. En la discusión Bale-Isco del final de la
temporada 2016/2017 se olvidó que hasta su lesión el galés fue uno de los jugadores
determinantes del equipo, que las lesiones le sacaron de la titularidad y que Isco fue
ganándose el puesto en la parte final por su mejor estado en beneficio del equipo. O que
con la baja de Modric, por ejemplo, no hubo necesidad de adelantar su recuperación porque
los jugadores que ocupaban su lugar rindieron a gran nivel y se sentían importantes para el
equipo.

Veamos por ejemplo la línea de centrocampistas por partidos jugados y minutos


disputados. Del total de 64 partidos oficiales disputados esta temporada y un total de 5.760
minutos:

Kroos: 48 partidos y 4.169 minutos

Casemiro: 42 partidos y 3314 minutos

Isco: 42 partidos y 2.339 minutos

Modric: 41 partidos y 3.302 minutos jugados

Kovacik: 39 partidos y 2.156 minutos jugados

Asensio: 38 partidos y 1.918 minutos

James: 33 partidos y 1.823 minutos.

Como se puede ver salvo Kroos con 48 partidos y James con 33 partidos todos juegan un
número similar de partidos. Asensio y Kovacic dos que parecen menos habituales disputan
38 y 39 partidos. Y si volvemos al alemán y al colombiano, el primero juega una Liga casi
completa pero el segundo se deja 16 partidos sin disputar. No hace mucho en el Real
Madrid el jugador que no contaba, jugaba testimonialmente y el indiscutible no se perdía
16 partidos. O acabemos con Isco del que se dijo que contaba poco y acabó participando en
un partido más que Modric o en los mismos que Casemiro.

En la línea de ataque, en la que se encontraba la famosa BBC y que para el entrenador,


según decían, era intocable, Lucas Vázquez participó en 50 partidos, Benzema en 48,
Cristiano en 46 partidos (aunque fue el que más minutos disputó con diferencia: 4.126
minutos) y Morata 43. Bale y Mariano sumaron entre ambos otros 41 partidos disputados.
Es decir, muchos partidos y minutos para en teoría los que tendrían muy difícil jugar.

Y esa fue la diferencia del Real Madrid con el resto de equipos. Si nos fijamos de nuevo en
los fichajes que realizó para la temporada siguente fueron Vallejo, Borja Mayoral, Theo
Hernández, Llorente, Achraf y Ceballos. ¿Qué posiciones vinieron a ocupar?. El aragonés a
ocupar la salida de Pepe, y Llorente y Theo a competir con las dos únicas posiciones que no
tenían recambio: la de Casemiro (sin ningún otro mediocentro “puro”) y la de Marcelo
(pues Coentrao había contado poco para Zidane). Ceballos ocuparía el hueco dejado por
James, además se sube a Achraf para suplir la salida de Danilo y Borja Mayoral vuelve tras
cesión por la venta de Morata.

Con estos datos se puede comprobar que el Real Madrid trabaja con una idea deportiva
definida. Es más, lo que hace el equipo blanco es que “despachos y banquillo” definen,
planifican y desarrollan una misma idea, y eso, en realidad, es muy difícil de ver en el
mundo del fútbol actual.

El Real Madrid se preguntó (o se lo tuvo que preguntar) hace varias temporadas si el


mercado del fútbol estaba cambiando, cuál era su situación y hacia dónde debía ir para
seguir compitiendo y ganando como lo había hecho a lo largo de la Historia. La respuesta a
esta pregunta, plasmada en su proyecto deportivo, hace que el Real Madrid haya tomado
ventaja respecto a sus competidores.

Sobre un mismo mercado de jugadores, el Real Madrid tiene rivales deportivos directos
que pujan al alza en precios al entrar los grupos de inversión y competidores no directos,
mercado Chino, que puja también elevando los precios de los fichajes. El Real Madrid
decide trabajar con tiempo y a menor precio para tener jugadores que en los próximos
años se conviertan en las futuras estrellas del mundo del fútbol sin rebajar el nivel
competitivo del equipo.

Dos notas más sobre la estrategia deportiva planteada por el Real Madrid:

Parece que lo de hacer plantillas jóvenes y largas con varios hombres por puesto es algo
que en el Real Madrid se plantearon no solo en la sección de Fútbol sino también en la de
Baloncesto con jugadores como Doncic y las incorporaciones de Radoncic y Yusta para la
temporada 2017/2018. Aunque los problemas en una y otra sección son diferentes (en el
baloncesto, principalmente, es la “huída” cada vez más temprana de jugadores a la NBA) se
puede ver que en el Club sí hay una estrategia deportiva que está dando buenos resultados
y que en ciertos puntos es comparable en una y otra sección.

La segunda es que el entrenador, Zinedine Zidane supo llevar adelante la estrategia


deportiva que se diseñó desde los despachos. Pero desde el plano táctico, además, muchas
veces criticado y señalado como un simple “alineador”, demostró saber utilizar todos los
recursos humanos a su disposición, incluso variar sus dibujos tácticos para que todos los
jugadores tuvieran cabida y el equipo evolucionara: bien porque se incorporan nuevos
jugadores, caso de Casemiro que cambió el dibujo del centro del campo, o por la evolución
de jugadores como Isco o Cristiano que empezaron a ocupar otros espacios a los habituales
en anteriores temporadas.
BIG DATA

“Datos masivos”, “gran volumen de datos”, “datos a gran escala”, “macrodatos”…

Convencionalmente se denomina Big Data a la gestión y análisis de grandes volúmenes de


datos estructurados, semiestructurados y no estructurados cuya obtención, recolección,
gestión, tratamiento y procesamiento va más allá de lo que las herramientas más
usualmente utilizadas permiten.

De hecho, el concepto de datos estructurados, semiestructurados y no estructurados es lo


que diferencia el concepto Big Data de otros conceptos “similares” de análisis de
información como pueden ser Business Intelligence o Business Analytics.

La realidad es que en un mundo cada vez más global, más interrelacionado en todos los
aspectos, incluyendo datos y más datos y más datos, está provocando que el análisis de la
información simplificada, estructurada y relacionada entre sí, no sea suficiente para la
adecuada y eficiente toma de decisiones. La separación entre el éxito y el fracaso la va a
marcar la capacidad que tengamos de interpretar un conjunto de información.

Datos estructurados son aquellos que tienen un formato determinado (fecha, hora, número,
moneda, texto…), una longitud y que pueden ser almacenados en tablas y bases de datos.

Datos no estructurados son aquellos que no tienen un formato determinado pero pueden
ser almacenados. Nos referimos a datos de tipo texto (documentos, opiniones en foros,
entradas en redes sociales…), audios, vídeos, imágenes…

Datos semiestructurados son aquellos que no se encuentran almacenados en tablas o bases


de datos y requieren procesos informáticos para la obtención de los valores que incorporan
(por ejemplo, documentos XML).

El Big Data va mucho más allá del número de datos con el que se necesite trabajar. Entre
otras cosas, porque cada sector, negocio, evento o empresa va a determinar qué datos son
los que deben analizar para obtener los resultados, informes o conclusiones fijados como
objetivos. Quizá deberíamos empezar hablar de la transformación de Big Data en “Good
Data”, entendiendo por “Good Data”, los datos cuya calidad, independientemente de su
tipología y volumen, constituyan la base necesaria para la obtención de las respuestas a las
preguntas que nos planteemos.

En realidad el éxito de los procesos Big Data tiene que ver con la capacidad de hacer las
preguntas correctas, detectar patrones, confeccionar hipótesis y predecir situaciones.
Tanto es así que comienza a surgir una nueva profesión vinculada al Big Data: el Científico
de Datos. Un profesional con habilidades en numerosos campos: informática, matemáticas,
estadística y por su puesto en negocios.

Lo importante del Big Data son las Big Questions.


Las V´s del Big Data

Como a todo concepto debemos asociarle ciertas características para individualizarlo,


identificarlo o resaltarlo de otros. Para el Big Data se utilizan las “V´s”: volumen, variedad,
velocidad, veracidad, valor, variabilidad, visualización y viabilidad.

El Volumen de datos se refiere a la gran cantidad de información a obtener y procesar.

La Variedad hace referencia a la inclusión de múltiples fuentes de datos en los procesos de


recolección de los mismos: redes sociales, geolocalización, informaciones externas,
entornos socioeconómicos, medioambientales, personales, dispositivos electrónicos,
sensores, vídeos, audios, textos…

La Velocidad tiene relación con la captura de información, en el procesamiento de la misma


y en la presentación de resultados.

La Veracidad hace mención a la confianza y a la calidad del dato.

El Valor del dato representa el CORE fundamental de estos procesos: determinar qué datos
son los que se deben analizar.

La Variabilidad es un concepto distinto de la Variedad. Por ejemplo: 6 componentes


(variedad) pueden mezclarse todos los días ofreciendo un resultado distinto cada vez
(variabilidad). La variabilidad se refiere a los datos cuyo significado está en constante
cambio.

La Visualización es fundamental en el mundo de hoy. El uso de tablas y gráficos para


presentar grandes cantidades de datos interrelacionados entre sí es mucho más eficaz en la
transmisión de lo que representan que meros informes con números y fórmulas.

La Viabilidad hace referencia a la capacidad en las empresas en generar un uso eficaz del
gran volumen de los datos que manejan.
Claves para Big Data y el Análisis Predictivo

El Análisis Predictivo es un enfoque del tratamiento de datos orientado a la predicción de


tendencias y patrones de comportamiento. El Big Data es el concepto que debe soportar el
Análisis Predictivo.

Recolección de Datos -> Información sobre lo ocurrido y sus causas -> Monitorización de lo
que está sucediendo -> Predicción de lo que va a suceder en el futuro

El Análisis Predictivo se puede desarrollar en diferentes tipos de modelos:

Modelos predictivos: En el mundo empresarial, los modelos predictivos analizan resultados


pasados para evaluar qué probabilidad tienen los usuarios de repetir comportamientos. En
definitiva, tratan de explotar los patrones de comportamiento encontrados para poder
identificar riesgos y oportunidades.

Un ejemplo muy simple los podemos encontrar en los bancos. Cuando una persona solicita
un préstamo, la entidad financiera analiza y puntúa una serie de parámetros con base a un
modelo de riesgo definido (préstamos en otras entidades, saldo en cuentas bancarias,
declaraciones de renta, impagados…). Esa valoración final determinará la concesión o no
del préstamo.

Modelos descriptivos: La finalidad de estos modelos es detectar los vínculos entre los
productos y servicios de una entidad y sus clientes actuales y futuros, estableciendo una
relación entre ambos. Los modelos descriptivos no “predicen” un valor objetivo, son
utilizados para imitar el comportamiento de grandes volúmenes de clientes individuales y
hacer predicciones.

Modelos de decisión o prescriptivos: Los modelos de decisión van un paso más allá de los
modelos predictivos en tanto en cuanto consisten en “predecir” lo que sucedería si se toma
una acción determinada. Las decisiones se organizan a través de un análisis detallado de las
alternativas (acción 1 -> resultado 1, acción 2 -> resultado 2 …) y una valoración
comparativa de éstas.

En definitiva, los modelos de decisión se basan en el estudio sobre el conocimiento de los


pros y contras de las distintas opciones.
BIG DATA en la empresa

Las empresas tienen la obligación y la necesidad de gestionar datos de forma rápida y


eficiente si quieren tomar decisiones estratégicas para su negocio que les permita seguir
siendo competitivas.

El objetivo del Big Data en una compañía es claro: identificar, recolectar, utilizar, compartir
y poner en valor tanto los datos habitualmente utilizados como aquellos que hasta la fecha
han sido infrautilizados o de difícil acceso. En conclusion, un uso inteligente del mayor
volumen de datos posible cruzando diversas y variadas fuentes.

Mejorar el conocimiento de los clientes y usuarios, descubrir nuevos nichos de mercado,


crear nuevos procesos de negocio o transformar los actuales, agilizar la toma de decisiones,
optimizar stocks, tiempos de entrega, luchar contra el fraude, contra la delincuencia
organizada, producir entretenimiento audiovisual acorde a la evolución de los gustos de los
consumidores, mejorar la detección precoz de enfermedades y encontrar estrategias más
efectivas para combatirlas… son las ventajas de aplicar proyectos Big Data en diferentes
sectores.

¿Cómo afecta el Big Data al deporte?

De forma habitual se asocia el concepto Big Data a sectores científicos, empresariales o


comerciales, sin embargo la introducción del Big Data en el deporte profesional y de alta
competición está suponiendo una revolución sin precedentes en la toma de decisiones, desde
los entrenadores a las direcciones deportivas.

La forma de recopilar, procesar y gestionar la cantidad, cada vez mayor, de información por
parte de los clubes deportivos va a suponer el éxito o fracaso en la toma de sus decisiones.
Los clubes deben buscar la ventaja competitiva a través del adecuado análisis de dichos
datos.

El rendimiento y el talento de los jugadores no deben circunscribirse a impresiones


personales, opiniones de terceros o a la visualización de una decena de jugadas en video. El
rendimiento y el talento tienen que estar soportado en la consistencia de datos de
diferentes tipologías. Cuanto más y más variados, más minimizarán los errores de altas y
bajas en las plantillas, más ayudarán a prever la disponibilidad de los jugadores a lo largo
de una temporada (lesiones, expulsiones, exclusiones…) y posibilitarán la planificación de
cada encuentro en función no solo de la información de la que dispongamos de nuestros
jugadores sino de la que seamos capaces de tener de los contrarios.

Llega la era de la transformación del deporte profesional y un elemento clave para la


medición e implantación de decisiones y estrategias son los dashboards, que no es sino la
plasmación en las pantallas de los ordenadores de gráficos evolutivos, porcentajes y datos
relevantes que permiten a los entrenadores y analistas, estudiar el rendimiento de cada
uno de sus jugadores, así como la marcha de un partido o carrera, pudiendo adoptar
decisiones de forma prácticamente inmediata.

Los datos de los que disponen los clubes, no obstante, no sirven en bruto. Hay que llevarlos
a modelos, a sintetizarlos en valores que tengan sentido en función de diferentes variables.
Deben elegir aquéllos que crean convenientes según la estrategia y el objetivo que
persiguen. El Big Data y su adecuado análisis y tratamiento son el camino hacia la victoria
en el deporte profesional. Usando las métricas adecuadas y procesando de forma idónea la
información, un club podrá posicionarse sobre sus contrincantes con mayor facilidad

La Federación Alemana de Fútbol empezó a usar el análisis de grandes volúmenes de datos


para mejorar el rendimiento de sus jugadores. Los frutos de estos estudios y su aplicación
se vieron en el Mundial de Brasil de 2014. Fueron campeones con una superioridad
aplastante.

En dicho mundial, el entrador de la selección alemana Joachim Löw y su equipo técnico


disponían de una serie de tablets donde recibían todo tipo de información sobre el juego en
tiempo real.

La información que se recoge en este tipo de proyectos en el mundo del deporte, y del
fútbol en particular, viene a tráves, fundamentalmente, de dos vías: sensores que los
jugadores llevan incorporados y sistemas pasivos de cámaras de vídeo ubicadas alrededor
del campo que graban todo el partido.
Concepto 360º

Aunque el concepto 360º, en muchas organizaciones está orientado hacia el cliente, con el
objetivo de integrar la información del mismo a través de múltiples canales, sistemas,
dispositivos y productos que ayuden a mejorar su experiencia con la marca y maximizar el
valor entregado, debemos entender el concepto 360º como una visión global de gestión y
análisis de información que debe aplicarse también en todo proyecto Big Data.

Partimos de la base que cualquier dato por irrelevante que parezca puede influir en
cualquier aspecto, resultado, situación, proceso… dentro de una organización. Por lo tanto,
todos los datos con capacidad de influencia deben estar a disposición para su combinación,
mezcla, relación, interpretación o cruce con cualquier otro dato, información o situación.

La visión 360º no es un hito que puede alcanzarse y darlo por concluido. Se trata de un
estado, de un enfoque estratégico. Hace falta continuar recolectando y nutriendo de datos
de calidad a nuestros sistemas, estar atento a las innovaciones tecnológicas que puedan
proporcionar esos datos de calidad en los menores plazos posibles y sobre todo estar
concienciados para un gobierno de datos efectivo, que preste la atención necesaria a la
gestión de los mismos, con el objetivo de que ese conocimiento siga dando sus frutos,
convirtiéndose en acciones certeras que diferencien a nuestra organización.
Casos reales de la utilización de Big Data en empresas: Zara y Amazón

ZARA - INDITEX

¿Quién no se ha comprado una prenda en Zara o en cualquiera de las otras marcas del
grupo Inditex? No sé si nosotros seríamos capaces de responder a esa pregunta, pero el
sistema BIG DATA que Inditex tiene en su Centro Tecnológico de Arteixo, seguro que sí.

El equipo del Centro Tecnológico, inaugurado en 2014, es la cara más desconocida de


Inditex, y uno de sus pilares fundamentales. Es el resultado de una inversión de más de
1.000 millones de euros en tecnología que ha realizado el grupo en los últimos años. Todos
los procesos de las más de 7.200 tiendas en casi 100 países se centralizan aquí.

Hoy, una misma tienda es distinta cada mes. Incluso cada dos semanas. La conocida como
fast fashion se impone, y cada vez más cadenas se suman al carro de esta nueva moda
dentro de la moda, valga la redundancia. Ha sido Zara, del grupo Inditex, la gran impulsora
de este modelo. Con una estrategia de gestión cada vez más ágil, la compañía de Amancio
Ortega logra colocar nuevas prendas en las tiendas cada dos semanas, actualizando su
repertorio, trabajando al mismo tiempo que surgen las tendencias.

Consiste en diseñar y fabricar colecciones de manera fugaz con el fin de implantar nuevos
modelos en las tiendas en el menor tiempo posible, acortando así los procesos involucrados
en el ciclo de compra. Cada semana hay nuevos productos en rotación listos para consumir.
Así, se satisface la demanda de manera eficiente y efectiva. En consecuencia, el ciclo de vida
del producto se reduce al máximo y se crean multitud de colecciones que rompen con el
modelo tradicional de dos temporadas -primavera/verano y otoño/invierno-.

Las claves del éxito de este sistema están en:

 El tiempo: los tiempos de producción y de distribución son muy cortos.


 Precios asequibles
 Tendencias
 Gran variedad de referencias pero con stock limitados
 Estudio de las prendas más vendidas
Zara le añade la idea/sensación de producto de calidad.

Todo esto no sería posible sin el procesamiento de miles de datos diarios provenientes de
las propias tiendas de Zara, de las personas que trabajan en ella, del análisis de las
tendencias, de lo que se dice en las redes sociales, de lo que se publica en lo blogs
especializados, de lo que aparece en las revistas tradicionales de moda en papel o en los
programas de televisión o de lo que hace la competencia.

Zara procesa toda esa información mediante un sistema Big Data que le dirá qué prendas,
tallas y número son las que tienen que ir a una tienda determinada y que con seguridad, en
parte, serán distintas a otra tienda de la misma ciudad que se encuentre en un barrio
distinto. Proporcionará los precios más adecuados a las prendas, trasladará a los
diseñadores las nuevas prendas que hay que diseñar, fabricar y poner en el mercado en las
próximas cuatro semanas. El sistema Big Data minimiza sus riesgos, entiende a sus clientes
y se adelanta a la competencia.

AMAZON

Amazon tiene patentado un sistema basado en Big Data con el que quiere ser capaz de
enviar un producto antes de que el cliente lo compre, permitiendo reducir el tiempo de
entrega a tan solo unas horas.

«Method and System for Anticipatory Package Shipping»


Patente Amazon

Este método de envíos anticipados basado en modelos predictivos de comportamiento


del consumidor, constituirá todo un desafío estratégico que será aplicable principalmente
a productos de consumo masivo. La clave del sistema está en la información almacenada en
las bases de datos de Amazon y en el uso de la tecnología de Big Data para establecer
modelos teóricos de comportamientos futuros basándose en el historial de compra de cada
cliente y sus hábitos de consumo.
Modelo predictivo Amazon

De acuerdo a la patente, este modelo de pronóstico utiliza los datos de actividades previas
de los usuarios en Amazon, incluyendo el tiempo en el sitio, la duración de la vista, los
enlaces clickeados, la actividad en el carrito de compras y su listas de deseos. Cuando es
posible, el algoritmo también se nutre de información del mundo real obtenida a partir de
las consultas telefónicas realizadas al cliente y las respuestas a las acciones de marketing,
entre otros factores.

Con esta tecnología, Amazon puede establecer modelos teóricos de comportamiento y de


este modo conocer lo que comprará cada cliente antes de que lo haga.

Este modelo aplicado al área logística permitirá a Amazón saber, de manera anticipada, qué
cantidad de cada producto será solicitada próximamente en cada ciudad. De esta manera,
se generará un envío especulativo de productos a los centros de distribución, reduciendo el
tiempo de espera entre la compra y la entrega a sólo unas horas.
Claves para construir una infraestructura Big Data

La evolución de la tecnología y los menores costes de almacenamiento de información han


hecho posible que las aplicaciones de Big Data estén aumentando. Sin embargo, definir la
infraestructura para un proyecto no es una tarea sencilla. Pensemos que una plataforma
tecnológica para esta actividad debe facilitar muy rápidamente la recopilación, el
almacenamiento y el análisis de grandes volúmenes de datos, que además pueden estar en
diferentes formatos e incluso generándose en tiempo real.

La infraestructura en Big Data es uno de los aspectos más importantes a tener en cuenta a
la hora de implementar nuestros proyectos. Tener definida una infraestructura estable que
sea capaz de proporcionar todas las necesidades y a su vez permita crecer conforme el
proyecto lo demande es primordial.

Las redes de Big Data deben ser construidas para manejar recursos distribuidos que están
trabajando al mismo tiempo en una sola tarea. Cuando pensamos en Big Data, lo asociamos
con el término grande, pero cuando se trata de construir una infraestructura, también
deberíamos estar pensando en distribuida. Desde el punto de vista técnico, la característica
más significativa del Big Data no es su tamaño, sino su capacidad para descomponer los
trabajos más grandes en muchos más pequeños, distribuyendo recursos para trabajar en
paralelo en una sola tarea.

Algunas de las claves a tener en cuenta en la creación de una infraestructura Big Data
podrían ser los siguientes:

Recursos

No todas las empresas necesitan construir su propia estructura Big Data. Esto es
importante tenerlo en cuenta dado que los recursos tanto financieros como técnicos y
humanos de puesta en marcha, mantenimiento y soporte de una infraestructura de estas
características son muy importantes.

Las empresas y organizaciones tendrán que calcular muy bien la viabilidad y el ROI de este
tipo de proyectos.

Disponibilidad

Cuando se tiene un conjunto de recursos distribuidos que se deben coordinar a través de


una interconexión, la disponibilidad es crucial. Como diseñar una red de disponibilidad
perfecta es imposible, si que ésta ha de ser de alta disponibilidad, tratando que sean
resistentes a los fallos para que los tiempos de inactividad sean los mínimos posibles
(ventanas de mantenimiento, errores humanos, fallos en dispositivos...)

Consistencia
Las aplicaciones de Big Data tienden a ser altamente síncronas (ejecución simultánea) .
Esto significa que los trabajos están siendo ejecutados en paralelo. Si los rendimientos en
estos procesos en paralelo sufren desviaciones pueden provocar fallos en las aplicaciones.
Es importante que las redes proporcionen un rendimiento no solo eficiente, sino también
consistente a través del espacio y tiempo.

Escalabilidad

El diseño de una infraestructura Big Data debe contemplar el modo de crecer de una
manera racional optimizando los recursos necesarios para cada momento.

Dirección de Tráfico

El alto volumen de información que fluyen en los sistemas Big Data hace necesario que las
redes que soporten estos sistemas sean diseñadas y creadas para reducir en la mayor
medida posible la congestión o “atasco” de este tráfico de información.

Coexistencia

La construcción de una red que pueda cumplir la demanda en cuanto a multiples


aplicaciones, fuentes de información y usuarios, diversidad de uso de recursos, etc…
requiere previsión, en términos no solo de cuánto debe escalar la infraestructura, sino
también respecto a cómo los diferentes tipos de aplicaciones convivirán en un entorno
común.

Seguridad

Con una proliferación y un crecimiento exponencial de los datos, las organizaciones tienen
una escasa visibilidad de la ubicación y el uso de sus datos sensibles. Sin embargo, las leyes
y normativas de privacidad exigen que se tenga un conocimiento exacto de los riesgos de
los datos.

Una infraestructura Big Data ha de poder clasificar los datos sensibles con una visibilidad
integral, disociar los datos para que puedan utilizarse de forma segura en los entornos de
desarrollo y producción y garantizar el cumplimiento de las políticas corporativas y las
normativas del sector y/o localización (país, estado, región …)

Afortunadamente, empresas como Amazon o Google entre otras, están ya ofreciendo como
servicios, infraestructuras Big Data para cualquier tamaño de empresa y que minimizan los
riesgos en términos de puesta en marcha de este tipo de proyectos.
La intuición basada en el análisis de información

Para el devenir de cualquier organización es importante el disponer de buenas fuentes de


datos, pero cada vez es más fundamental el poder realizar un buen análisis de los mismos,
sabiendo qué respuestas queremos obtener, es decir, teniendo claras las preguntas que
debemos hacernos.

A nivel empresarial, todas las empresas tienen diversas fuentes de datos, pero no todas son
capaces de analizarlos para mejorar su negocio. Hoy en día, una empresa que no haga un
buen análisis de datos está condenada a desconocer su futuro o a tomar decisiones que
permitan amortiguar una posible caída en las ventas, la satisfacción de los clientes o los
productos y servicios que ofrece.

En los clubes deportivos, la forma de recopilar, procesar y gestionar la información


relacionada con su entorno, jugadores, competidores, factores intrínsecos a su deporte …
va a suponer el éxito o fracaso en la toma de sus decisiones. Los clubes deben buscar la
ventaja competitiva a través del adecuado análisis de dichos datos. El rendimiento y el
talento de los jugadores, como elementos imprescindibles que soportan un club, sea éste
del deporte que sea, no deben circunscribirse a intuiciones personales, tienen que estar
soportado en la consistencia de datos, de diferentes tipologías.

BIG DATA EN EL DEPORTE

El análisis de datos está suponiendo una evolución para el deporte profesional. El


tratamiento de grandes volúmenes de información permite mejorar la toma de decisiones
en terrenos tan dispares como la táctica durante un partido, los mejores jugadores para
afrontar un encuentro en función del rival y cómo posicionarlos, la gestión de los fichajes…

Cada deporte tiene su naturaleza, sus características, sus claves. En el atletismo será
fundamental medir la influencia de un tipo de zapatillas u otras en la forma de correr, los
movimientos del cuerpo al desplazarse; en el fútbol americano tendrá una gran
importancia medir los Newtons de fuerza de los impactos; en el béisbol los promedios de
bateo, carreras completas; en el baloncesto se discute que el número de posiciones va más
allá de cinco o porcentajes de acierto en tiro desde diversas zonas; en el fútbol será
importante medir los mapas de calor para entender qué zonas quedan menos ocupadas al
atacar. Hay que establecer cuáles son los indicadores que necesitamos para generar la
ventaja competitiva deseada.
Lo cierto es que hasta hace unos años, los clubes y deportistas de élite nunca imaginaron
hasta qué punto la tecnología de datos iba a ser necesaria e imprescindible para obtener el
éxito deportivo.

El controvertido Doctor Michele Ferrari, muy ligado a los años más oscuros del ciclismo
profesional por temas de dopaje, fue un adelantado en la obtención de datos para mejorar
el rendimiento deportivo. Con los datos obtenidos en los entrenamientos y pruebas de los
deportistas a los que preparaba, podía trabajar en la mejora de los resultados. Sin embargo,
la innovación en este tipo de análisis de información sirvieron como base para sus
programas de dopaje.

Diseñó una fórmula para calcular la potencia relativa (en vatios por kilogramo) desarrollada
por un ciclista en el ascenso a un puerto independientemente de su peso. Como bien explica
Raúl Banqueri “dicha ley se basa en que, en un puerto de pendiente media (entre el 6% y el
10% aprox.), dos ciclistas que ascienden a igual velocidad marcan la misma potencia relativa
(en vatios por kilogramo). Es decir, un ciclista de 60 kilos necesitaría desarrollar apenas 360
vatios (6w/kg) para ir a la misma velocidad que uno de 70 kilos que desarrollara 420 vatios”
(Banqueri, 2016)
La formula sería la siguiente:
Potencia relativa (w/kg) = VAM (m/h) / (Factor grado x 100)
VAM (Velocitá Ascensionale Media) (m/h) = desnivel positivo (altitud final – altitud inicial) / tiempo en horas
Factor grado = 2 + (pendiente media / 10)
De este modo, se puede comparar el rendimiento de los ciclistas como se muestra en la
siguiente tabla del Tour 2014 tomando como base la fórmula del Dr. Ferrari:
Tabla 1

Tour de France
2014, 6 Major Climbs
Recuperado de @ammattipyoraily, en Twitter el día 11 de Agosto de 2014.
Continúa Baqueri señalando que según los trabajos del Dr. Ferrari: “Una repetida medición en
un puerto con un ciclista de 64 kilos pedaleando a 300 vatios da los siguientes resultados:

5% de pendiente = 1180 VAM (m/h)


6% = 1215 m/h
7% = 1250 m/h
8% = 1290 m/h
9% = 1340 m/h
10% = 1400 m/h
11% = 1475 m/h
12% = 1565 m/h
13% = 1675 m/h.”
Poder conocer estos datos, sin duda, ayuda en el entrenamiento y mejora de un deportista
pero también sirve para sacar a la luz posibles fraudes.
El analista Antoine Vayer, en su libro ‘La preuve par 21’ estableció cuáles serían los límites
de normalidad de los ciclistas al analizar a los ganadores del Tour desde 1983. Superar,
según la fórmula del Dr. Ferrari los 5,86w/kg en un puerto sería para el francés como “not
normal”. Si el dato supera los 6,14w/kg debería considerarse como “milagroso” y por
encima de 6,43w/kg sería “mutante”.
MONEYBALL o cómo cambiar dinámicas a través del Análisis de Datos

“Moneyball” (Bennett Miller, 2011), es la película de referencia para todo aquél que tenga
interés en la aplicación del Big Data en el deporte, básicamente porque se trata de un caso
real. En ella, se disecciona como un equipo de béisbol, los Athletics de Oakland (Oakland A
´s), habitualmente perdedor y donde sus mejores jugadores acaban marchándose
temporada tras temporada a otros equipos de mayor nivel, cambia la dinámica negativa
de su historia al incorporar al cuerpo técnico especialistas en estadística y análisis
informatizado de datos. Sus trabajos se centran en “descubrir” los mejores jugadores en
relación calidad/precio del mercado y que sean asequibles para el equipo. Lo más
importante no es en sí la calidad de cada jugador, sino en hallar, descubrir a través de los
datos qué puede dar de sí cada uno que mejore el equipo.

Después de finalizar la temporada en 2001, Billy Beane, el Manager General de los Oakland
A´s vió como los principales jugadores de su equipo fueron adquiridos por clubes con más
capacidad económica. Tenía además que configurar una plantilla con un presupuesto que
ocupaba el puesto veintiocho de un total de treinta equipos. Beane, en colaboración con los
economistas Paul DePodesta y John Paul Ricciardi, comenzó a aplicar los principios
sabermétricos a la hora de realizar los fichajes.

Beane tuvo fuertes discusiones y encontronazos con los responsables de scouting del
equipo y que como en tantos otros deportes basaban sus adquisiciones en la intuición, en
su experiencia de años, en su conocimiento del deporte y el feeling que les transmitía un
jugador. Hubo dimisiones y tensiones dentro de la entidad, la prensa no entendía fichajes
de jugadores “desechados” … pero lo cierto es que el equipo fue el primero en ganar 20
partidos seguidos en los más de cien años de la Liga Americana.
Sabermetría

El origen del uso de Big Data en deportes reside en un deporte en el que el uso de la
tecnología de vanguardia tiene menor incidencia en el desarrollo del juego. Se trata del
béisbol. Para conocerlo, hay que remontarse a mediados de los años setenta. Bill James, un
aspirante a articulista deportivo de Kansas, comenzó a analizar con lápiz y papel los
registros históricos de los jugadores de béisbol de las Grandes Ligas. Sus artículos eran
diferentes a los que habitualmente se escribían por aquel entonces: no analizaba los hechos
del juego o los comentarios de los jugadores, se centraba en diseccionar el juego de cada
jugador solo en función de los datos estadísticos disponibles, nunca sobre criterios
subjetivos.

Distintos editores rechazaron su trabajo, pero James decidió publicar estos artículos en un
cuaderno llamado “Baseball Abstract” en 1977. Fue todo un éxito que le hizo repetir con
nuevas ediciones en años sucesivos. Su trabajo pionero hace que se le considere el padre de
la Sabermetría. Este concepto hace referencia al análisis del béisbol a partir de evidencias
objetivas, en este caso, las estadísticas que se generan durante el desarrollo de un partido.
Son los primeros pasos del Big Data en el mundo del deporte.

El término es derivado del acrónimo SABR (Society for American Baseball Research),
entidad que fue fundada en 1971 por Bob Davis. Pero el término sabermetrics no fue
acuñado hasta 1980, cuando Bill James hizo referencia al mismo a través de sus ya
mencionados Baseball Abstracts.
Muthu Alagappan o cómo evolucionar el baloncesto

Muthu Alagappan es un inglés de origen hindú que siendo estudiante de Medicina en la


Universidad de Stanford (habiéndose ya graduado en Ingeniería Biomecánica) y gracias a
un software que nada tenía que ver con el baloncesto comenzó a redefinir el modo en el
que se posicionan y construyen los equipos de baloncesto. Muthu planteó que en el deporte
de la canasta existen más posiciones que las cinco clásicas de PG, SG, SF, PF y C.

Para él, todo en el baloncesto gira en torno a los jugadores como si fuesen piezas de un
puzzle. Si quieres hacer una determinada jugada en ataque, o un pick and roll concreto, o
quieres plantear una defensa a un jugador de una forma peculiar, todo va a depender de
cómo juega ese jugador. Ese es el objetivo con este análisis: encontrar posiciones que
describen cómo juegan tus jugadores. Muthu afirma que si podemos hacer esto, podemos
empezar a hablar del basket de una forma totalmente diferente.

En un primer momento, presentó 13 posiciones diferentes que describían sofisticadamente


a todo tipo de jugador, en contraposición de las 5 tradicionales que él consideraba arcaicas,
al no reflejar éstas los estilos de juego, sino estar basadas solamente en altura y peso.

Las 13 posiciones que Muthu describió fueron las siguientes:

 Offensive Ball-Handler (Tony Parker, Jason Terry...)


 Defensive Ball-Handler (Kyler Lowry, Mike Conley...)
 Combo Ball-Handler (Jameer Nelson, John Wall...)
 Shooting Ball-Handler (Manu Ginobili, Stephen Curry...)
 Role-Playing Ball-Handler (Rudy Fernandez, Arron Afflalo...)
 3-point Rebounder (Chase Budinger, Luol Deng...)
 Scoring Rebounder (LaMarcus Aldridge, Dirk Nowitzki...)
 Paint Protector (Marcus Camby, Tyson Chandler...)
 Scoring Paint Protector (Blake Griffin, Kevin Love...)
 Role Player (Shane Battier, Ronnie Brewer...)
 NBA 1st Team (Kevin Durant, Lebron James...)
 NBA 2nd Team (Caron Butler, Rudy Gay...)
 One-of-a-Kind (Derrick Rose, Dwight Howard...)
Alagappan presentó sus estudios y descubrimientos en el MIT, en marzo de 2012, en el
congreso Sloan Sports Analytics Conference. Ganó el primer premio e inmediatamente llamó
la atención de varios equipos de la NBA. De inmediato, comenzó a trabajar para Portland
Trail Blazers y Miami Heat. Y de hecho, el equipo de Florida, a la sazón campeón de la NBA
en 2013, recurrió a los análisis de Alagappan durante aquellos play offs ¿casualidad?

Muthu Alagappan concentró posteriormente esas 13 posiciones en 10. El valor


fundamental de su trabajo reside en que los equipos de la NBA pueden cambiar la manera
de pensar a la hora de construir sus plantillas. El objetivo es que pasen de fichar jugadores
para encajarlos en las cinco posiciones tradicionales a construir nuevas posiciones basadas
en los datos y así desarrollar un estilo de juego concreto.

Los resultados de aplicar su análisis topológico tienen su aplicación práctica tanto en los
despachos como en la cancha de juego.

Por un lado están los fichajes. El análisis de datos puede descubrir al manager de un equipo
jugadores casi desconocidos, con un rendimiento muy alto, por un salario muy inferior al
de otros jugadores consagrados con datos de juego similares. Por otra parte, en el terreno
de la estrategia, la visualización de cada jugador como un conjunto de datos
interrelacionados en lugar de como un conjunto de aptitudes en una posición tradicional,
permite al entrenador tomar decisiones tácticas tanto en la preparación de un partido
como en el desarrollo del mismo.

Paul Gasol terminó la temporada regular de la NBA 2016/2017 con los San Antonio Spurs
con el mejor porcentaje en tiros de tres (53,8%) de toda la historia de la NBA con al menos
70 lanzamientos. Algo impensable hace unos años para un jugador de 2,13 centímetros de
altura. El entrenador de los SAS supo encontrar en el jugador español un rol y una posición
que lo hizo determinante en la consecución del segundo mejor balance de la temporada.
¿Intuición por parte del entrenador o del cuerpo técnico?. Otro dato interesante del pivot
español en su primera temporada en el equipo de San Antonio fue su cambio de rol al pasar
de jugar en el equipo titular a hacerlo con la segunda línea.

El español fue fichado para suplir el puesto dejado por Duncan. Durante la primera parte de
la temporada era parte del quinteto titular. Su experiencia en la NBA y sus últimos años en
Chicago eran aval suficiente. Pero su aportación al equipo no era la esperada (malos
porcentajes y menor anotación). Kawhi y LaMarcus acaparaban las jugadas ofensivas del
equipo en detrimento de Pau.

El poco “uso”, y no satisfactorio para el equipo, de Pau hizo que Popovich pusiera en el
quinteto a otro nuevo en SAS, pero con experiencia en la NBA: Dewayne Dedmon.

Si comparamos ambos jugadores los promedios de Dedmon en Orlando fueron de 4.4


puntos y 4 rebotes por los 17.4 puntos y 11.4 rebotes que promediaba Gasol en los Bulls. Y
aunque este cambio fue debido a la lesión de Gasol, Popovich tras la vuelta de éste mantuvo
a Dedmon en el quinteto titular.

Con Pau en la segunda unidad se pudo comprobar que el español mejoraba porcentajes y
anotaba más que en la primera fase de la temporada; con más libertad y más importancia
que en el equipo titular Pau mejoraba y al mismo tiempo Dedmon realizaba la mejor
temporada de su carrera formando parte del equipo titular: algo impensable cuando se
produjo su fichaje.

Pau jugaba menos minutos, su estado físico mejoraba, se convertía en el mejor triplista de
la NBA y en el jugador referencia de la segunda unidad; con Mills y Ginobili jugando para él
convirtieron a la segunda unidad de los Spurs en el mejor banquillo de la NBA.

Pau promedió, finalmente, 12.4 puntos y 7.8 rebotes por partido en 25.4 minutos por
partido y Dedmon 5.1 puntos y 6.5 rebotes, las mejores marcas de su carrera.
Herramientas

¿De qué herramientas dispone el mundo del deporte para poder implementar proyectos
Big Data? Afortunadamente la demanda de este tipo de servicios por parte del mundo del
deporte en general ha hecho que se creen empresas especializadas en este ámbito.

Vamos a exponer una lista de herramientas y proveedores a los que acudir para la puesta
en marcha de este tipo de proyectos.

Amisco

Amisco Systems es una empresa francesa, proveedor de un sistema tecnológico de


seguimiento de jugadores y análisis táctico para equipos de fútbol que comenzó su
andadura con la implantación de su sistema en la Real Sociedad.

Su sistema pasa por la instalación de varias cámaras que captura los movimientos de los 22
jugadores sobre el terreno de juego. Esto permite al staff técnico de un equipo conocer
datos estadísticos de interés tanto sobre los jugadores del propio equipo como del rival.

Con una frecuencia de 25 tomas por segundo, las cámaras registran todos los movimientos
y acciones para poder medir y evaluar lo que sucede a lo largo de un encuentro de fútbol.

El sistema de Amisco utiliza un software que analiza diversa información: trayectoria de los
jugadores, pases correctos o fallidos, distancias recorridas, movimientos… El margen de
error con este sistema no supera los 20 centímetros.

Equipos como el Liverpool, Manchester United, Borussia Dortmund, Valencia, Real Madrid,
Hamburgo entre otros… han utilizado este sistema para el análisis de sus partidos.

Azsportech

Empresa pionera en Latinoamérica en análisis y tecnología aplicada al deporte. Sus


servicios se focalizan en función de a quién van dirigidos: Entrenadores (Planificación de
partidos y temporada, estudio de rivales y evaluación del propio equipo), Representantes
(Información completa y a medida de jugadores tanto en video cómo estadísticas),
Jugadores (Seguimiento del desempeño de jugadores para destacar su trabajo y estudiar
mejor a sus oponentes), Federaciones (Cobertura del fútbol de cada país para el desarrollo
y mejora del nivel futbolístico, aportando análisis detallados a equipos y jugadores) y
Videoanalistas.

Mediacoach

Es una herramienta de última generación en el análisis de video de fútbol que integra datos
físicos y tácticos. Genera videos, informes y estadísticas post-producidos de una manera
fácil y amigable. Ofrece una cobertura completa en un único sistema tecnológico que
permite la compatibilidad de datos.
Métrica Sports

Es una empresa holandesa especializada en la captura de información y detección de los


momentos claves, movimientos de jugadores, etc en un partido de fútbol. Adaptan la
información a los requerimientos y necesidades de un equipo.

Proporciona también una serie de estadísticas desde una visión más táctica con el objetivo
de agregar valor a los análisis por parte de los responsables técnicos de los equipos.

Nac Sport

Herramienta de análisis y gestión de videos que permite a los usuarios trabajar de una
manera fácil sobre los videos de los encuentros de cualquier disciplina, categorizando los
elementos a analizar y creando una base de datos de actuaciones en función de dicha
clasificación. Permite realizar comparaciones, dibujar sobre escenas y presentar las
conclusiones en modo de informes.

Opta Sports

Opta Sports, posiblemente sea la empresa líder mundial en el análisis de datos deportivos.
Con sede en Londres, tiene oficinas en Munich, Madrid, Paris, Montevideo, Amsterdam…

Por una parte distribuye información a prensa escrita y on line, televisiones, casas de
apuestas, patrocinadores y por otro lado ofrece sus servicios a clubes profesionales de
diferentes ámbitos deportivos.

Stats

Fútbol americano, rugby, fútbol, baloncesto, béisbol, hockey sobre hielo… son algunos de
los deportes sobre los que trabajan.

Tracab

Es un sistema de cámaras para el seguimiento de jugadores y pelota que se está utilizando


para diversos deportes como el béisbol, futbol, tenis, cricket, fútbol americano… y que ya se
ha instalado en más de 300 estadios que recopilan información en tiempo real en más de
4.500 encuentros a lo largo de un año

Wyscout

Es una empresa italiana que provee variada información, especializada en fútbol y dirigida
a los profesionales de scouting, analistas de partidos y transferencia de jugadores. Según
datos de la propia compañía, cada semana se suben a la plataforma alrededor de 1.500
partidos de más de 80 países. Sus bases de datos tienen información de más de 300.000
jugadores de todo el mundo.

Cada jugador tiene un perfil con datos básicos como la nacionalidad, edad, demarcación y
estadísticas detalladas de la temporada en curso y en función de las competiciones donde
haya desarrollado su carrera, estadísticas históricas.
Widiwin

Herramienta de análisis y gestión de videos desarrollada por y para entrenadores de fútbol.


La herramienta trata de llegar a un sector de profesionales, que por la tipología de clubs
donde prestan sus servicios no tienen acceso (por costes) a las herramientas que utilizan
los clubs de élite.

Existen en el mercado un amplio conjunto de herramientas para la explotación de la


información, que permiten integrar diferentes fuentes y trabajar con ellas, cruzando
información, componiendo fórmulas que deriven en modelos, presentando en gráficos
resultados de análisis, reports, etc.

Microsoft Power BI, IBM Watson Anlytics, Tableau, Pentaho… son algunas de estas
herramientas. Oracle, SAP, Google también disponen soluciones Big Data, aunque
curiosamente, la empresa líder en comercio electrónico, Amazon se está postulando
también como la referencia a seguir en la prestación de servicios Big Data, en tanto en
cuanto pone a disposición de las empresas y organizaciones su plataforma especializada
que integra múltiples servicios y herramientas con el objetivo de facilitar la puesta en
marcha de este tipo de proyectos.

Es indispensable disponer de una adecuada infraestructura tecnológica y las herramientas adecuadas para la correcta
explotación y análisis de la información.

La Sabermetría o cómo analizar un deporte a partir de evidencias objetivas: las estadísticas que se generan durante el
desarrollo de cualquier partido de cualquier deporte.

Cambiar dinámicas negativas a través del análisis adecuado de la información.

Recopila, analiza, descubre y aplica. Si has de equivocarte, que sea con datos.
BIG DATA EN EL FÚTBOL

Descubrir nuevos talentos, analizar los sistemas y patrones de juego del contrincante,
analizar las jugadas del partido que acaba de terminar para conseguir ganar el siguiente
encuentro. Pero también optimizar los recursos económicos, que serán los que posibiliten a
medio plazo el ascenso peldaño a peldaño del estatus deportivo de un club o medir el
“sentimiento” de la afición para poder tomar la medidas necesarias que hagan de ésta el
jugador número doce.
Aplicando Big Data a un Club de Fútbol

Se calcula que se pueden llegar a registrar hasta cerca de 8.000.000 de datos en un partido.
El análisis de información no ha de limitarse sólo a estudiar los goles, los pases acertados o
las tarjetas propias y del contrincante, sino datos más concretos como el número de
disparos a puerta fallados que acaban en gol, la distancia desde que se efectúan, la
influencia territorial de cada jugador y ocupación de espacios, los movimientos correctos
con y sin balón de cada jugador, las asistencias… Analizar las jugadas en grupo y las
capacidades de cada jugador de forma detallada para explotar al máximo sus facultades en
el terreno de juego.

A través del análisis de los datos que aporta un futbolista en sus acciones en el campo, se
puede descubrir el nivel que tiene y a dónde puede llegar. Si “sólo” es un buen jugador o
puede ser un “fuera de serie”.

Cuando un entrenador tiene entre sus filas a un futbolista y no conoce sus capacidades y
tampoco están analizadas puede estar desperdiciando la ocasión de llevar al éxito al
equipo. No hablamos solo de partidos profesionales también de partidos de equipos
semiprofesionales o amateurs donde hay muchos jugadores que sólo están esperando a
que alguien los encuentre.

Otra forma de aplicar el Big Data es a nivel económico. El fútbol es uno de los deportes de
masas que más dinero mueve y que mal gestionado puede suponer la ruina de un Club. Está
más que demostrado que la mala gestión económica conlleva más rápido que tarde la
decadencia deportiva.

Sin embargo, el análisis de datos puede ayudar a mantener en primera línea a un Club y
disponer de los recursos necesarios para fichar a jugadores que incrementen el nivel
competitivo de la plantilla.

Una buena gestión económica hará que equipos que se mueven en el mundo
semiprofesional, puedan plantearse dar el salto al futbol profesional sin miedo y con
argumentos. La combinación de un análisis de los recursos económicos con los que cuenta
un Club con el análisis de su cantera, de las capacidades de sus jugadores a través de
entrenamientos, de las jugadas que mejor pueden ejecutar, de las alineaciones más
adecuadas en cada momento… siempre proporcionará una base sólida sobre la que crecer.

Debemos considerar el fútbol como un juego en el que intervienen tantas variables,


estrategias y decisiones a tomar que el análisis de datos se vuelve imprescindible.

Gracias a este tratamiento de la información, podemos obtener:

 Valoración de jugadores propios y externos


 Modelos predictivos de juego
 Modelos de propensión a la lesión o descenso de nivel físico de los jugadores de
un equipo
 Análisis individual frente al global del equipo. Incidencia de la aportación de
cada jugador
 Detección de talento
 Detección de los factores críticos de éxito
Tenemos claro la importancia de los datos y su correcto análisis e interpretación para
mejorar el valor global, en todos sus ámbitos (económico, individual, colectivo, de juego,
competitivo, físico…) de un equipo de fútbol. Contamos además con las herramientas
necesarias tanto para la captura y almacenamiento de todo tipo de datos como para su
análisis y generación de informes. Pero incluso los datos que podemos llegar a obtener de
un equipo de fútbol son tan variados que debemos preguntarnos cuáles son nuestros
objetivos, porque en función de éstos, los datos a recolectar serán unos u otros.
Wereables

Si prestamos atención a las imágenes de los entrenamientos de los grandes equipos de


fútbol, podemos comprobar como en los últimos años los jugadores visten una especie de
chaleco negro. Estos chalecos disponen de sensores GPS, acelerómetros, giroscopios,
cardiómetro, medidor de oxígeno y medidor de impactos. La información que proporciona
esta tecnología va destinada a:

 Cuantificar la fatiga y el desgaste muscular, ayudando así a prevenir lesiones


musculares.
 Cuantificar variables como la velocidad o la distancia recorrida, ayudando a
cuantificar el rendimiento del jugador.
 Medir la frecuencia cardiaca en reposo, a máximo esfuerzo, pulsaciones…
 Hacer un mapa de calor de las zonas por las que el jugador pasa, ayudando a
establecer patrones de movimiento precisos.
 Cuantificar el estrés físico que sufre el cuerpo a través de los impactos,
ayudando a prevenir lesiones articulares.
 …
Por desgracia para los equipos amateurs y semiprofesionales, este tipo de tecnologías
tienen un muy coste elevado que en la mayoría de ocasiones no se pueden permitir.

A un menor nivel y con unos costes más asequibles hay infinidad de “wearables” que sirven
para medir aspectos relacionados con la salud y el rendimiento deportivo (pulseras,
relojes…).

Los principales fabricantes de este tipo de dispositivos están trabajando en elementos cada
vez más innovadores:

 Pantalones inteligentes que permiten al profesional saber si existen


desequilibrios entre pierna izquierda y derecha, sobrecargas musculares o
cuando comienza la fatiga muscular.
 Camisetas interiores que disponen de sensores que monitorizan las pulsaciones
sin necesidad de una banda de pecho así como la velocidad, distancia y
aceleración.
 Dispositivos que a través del audio informan al deportista de datos de
rendimiento, etc, etc.
 …
Más datos que recoger, integrar, cruzar y analizar en un proyecto global Big Data.
Stefan Szymanski y los Patrones de Juego

¿Es predecible el juego de un equipo? ¿Es mejor tener un patrón de juego? ¿Puede la
anarquía en el juego ser beneficiosa en determinados momentos de un partido?

Un grupo de investigadores de la Universidad de Michigan realizó un estudio sobre las


estrategias de pase de los 20 equipos de la Primera División de la Liga Española en la
temporada 2013-2014. Analizaron 300.000 pases distintos para tratar de encontrar
patrones de juego.

Los equipos con mayor número de patrones recurrentes fueron el Real Madrid y el FC
Barcelona, con 180 y 151 patrones recurrentes respectivamente. Sin embargo el Atlético de
Madrid que fue quien consiguió alzarse con el campeonato de liga esa temporada, sólo
tenía 31 patrones recurrentes.

Stefan Szymanski, uno de los responsables del estudio, comentó “si estuviera en un club
diría que no quiero patrón de pase en absoluto, querría muy pocos patrones. Lo que hace a
Messi el mejor jugador del mundo es que es impredecible“. Seguramente la mayoría de los
entrenadores no estarían de acuerdo con esta aseveración, pero no cabe duda que la
impredecibilidad parece ser una buena alternativa para desconcertar al contrario.

Stefan Szymanski es un catedrático especializado en el mundo del deporte. En su


curriculum hay una amplio número de libros y artículos escritos relacionados con el mundo
del fútbol. En gran parte de ellos, de forma directa o indirecta hacen referencia a la
importancia del análisis de los datos en este deporte.

Si Moneyball está considerada la película de referencia para el interesado en la aplicación


de Big Data en el deporte, el libro “Scoccernomics (El fútbol es así)” (Ed. Empresa Activa
2010) del que Szymanski es coautor junto a Simon Kuper está considerado como un clásico
sobre el mundo del fútbol. Un betseller dónde explica como la economía y la información
estadística están revolucionando este deporte.
Algunas referencias de uso de Big Data en el mundo del fútbol

Cada vez son más los equipos que están implementando departamentos de Big Data en sus
estructuras. Los primeros pasos suelen ser el análisis de datos relacionados con los propios
jugadores, partidos, competidores, calidad de entrenamientos…

El estudio de este tipo de datos tiene diferentes alcances y objetivos:

 Detectar tácticas.
 Ayudar a los entrenadores a decidir cómo deberían defender y atacar sus
equipos al enfrentarse según a qué rivales.
 Hacer un repaso técnico del último encuentro, señalando los momentos clave.
 Optimizar los tiempos de revisión de los partidos.
 Contribuir a que un jugador alcance y supere sus límites.
 Etc.
En definitiva a lograr que un equipo consiga los objetivos que planificó al inicio de la
temporada.

En 2014, la mutinacional informática SAP firmó un acuerdo con el Bayern de Munich por
el que le proporcionó una aplicación dirigida a mejorar aspectos tanto deportivos como
médicos. Este software analiza en tiempo real el desarrollo de los partidos y distintos
indicadores del mismo, como el porcentaje de pases acertados, la potencia de los disparos,
distancia recorrida y velocidades por cada jugador... informes detallados de cada partido
con base en la recolección de datos sobre los mismos. Ya mencionamos la aportación de
estos sistemas de esta compañía a la Selección Alemana de fútbol que ganó el Mundial en
Brasil y en la actualidad proporciona este tipo de informes a otros equipos alemanes.

El Leicester, dentro de su staff “científico-deportivo” cuenta con un equipo de 6 personas,


dirigido por Paul Balsom. Dentro del equipo figura Tom Joel. Tom Joel es el encargado de
poner la tecnología de recogida y análisis de datos al servicio de su grupo y del club. Su
función es la de administrar, analizar y monitorizar la información de los jugadores tanto
en los entrenamientos como en los partidos oficiales.

El Leicester ganó la Premier la temporada 2015-2016. En la historia del fútbol de élite


europeo no se tiene constancia de ningún equipo con menor número de jugadores
lesionados de los que tuvo el Leicester esa temporada. Su entrenador, el italiano Ranieri
dispuso el máximo tiempo posible a todos sus jugadores para preparar la periodización
táctica y técnica.

El Real Madrid, gracias al acuerdo firmado con Microsoft, incorpora los más modernos
sistemas de análisis para monitorizar el estado de la primera plantilla. A través de distintos
sensores que los jugadores llevan durante los entrenamientos, se recogen datos de sus
movimientos, velocidad, esfuerzo realizado, fatiga acumulada, etc. Estos datos son
analizados y puestos al servicio del cuerpo técnico para que puedan decidir qué jugadores
están en el momento óptimo de forma.

El Swansea, equipo de la Premier fichó a Dan Altman, fundador de la consultora North


Yard Analytics y experto en el análisis cuantitativo del rendimiento de equipos y jugadores.
Dan Altman trabaja para varios equipos de la Premier y la Champions.

Dan Altman y su compañía consideran el análisis de información como un complemento y


no un reemplazo a las formas tradicionales de tomar decisiones respecto a la contratación
de jugadores.

Hay que dar valor a los datos individuales de cada jugador, pero teniendo en cuenta que el
rendimiento de un jugador en un partido de fútbol depende en gran medida de sus
compañeros. Debemos considerar la utilización de nuevas herramientas enfocadas al
reconocimiento del fútbol como un juego de equipo, creando nuevos conceptos que nos
ayuden a entender mejor este deporte.

Volviendo al fútbol español tenemos el milagro del Sevilla Fútbol Club. Ramón Rodríguez
Verdejo, conocido como Monchi, es un ex futbolista y fue Director General deportivo del
Sevilla Fútbol Club. Monchi, que ha sido el más exitoso director deportivo del fútbol
español dejó su club de toda la vida a finales de marzo de 2017 para fichar por el equipo
italiano de La Roma. Durante los últimos 10 años de sus estancia en el club andaluz, fue
capaz de encontrar jugadores no muy conocidos y muy poco valorados, incorporarlos a la
disciplina del primer equipo del Sevilla Fútbol Club, revalorizarlos, traspasarlos por cifras
que multiplicaban hasta por diez lo invertido y seguir manteniendo un nivel competitivo
alto.

Cinco campeonatos de europa “Europa League”, una Supercopa de Europa, dos Copas del
Rey y una Supercopa de España en los últimos años más unas arcas saneadísimas se deben
en gran parte a la labor del equipo que en aquellos años lideraba Monchi.

En una imagen publicada en su Instagram, Monchi, en unos de sus viajes mostraba una
pantalla con datos y escudos de clubs de fútbol, exponiendo que estaba analizando datos
relacionados con posibles fichajes, pero lo más interesante, estaba en los hastags del post
escrito: #bigdata, #algoritmos, #estadisticas, #nuevastecnologías.

Seguramente, gran parte de su éxito haya sido la aplicación del Big Data a la política de
scouting y fichajes. En definitiva su visión adelantada a lo que los datos pueden mostrar por
encima de intuiciones y opiniones personales.
Analizando Datos. Real Madrid versus FC Barcelona, Liga 2016/2017

EQUIPO

RM

RM

RM

RM

RM

RM

RM

RM

RM

B
RM

RM

RM

RM

RM

RM

RM

RM

RM

RM

RM

B
RM

La tabla representa:

 Los minutos jugados por cada jugador de los equipos Real Madrid y FC
Barcelona en el campeonato de Liga Española en la temporada 2016/2017.
 Los partidos jugados por cada jugador, los que han salido de titular y el
porcentaje de titularidad.

No aparecen los jugadores de campo que disputaron menos de 200 minutos.


Claudio Bravo jugó 1 partido con el FC Barcelona antes de su marcha al Manchester City.

Extrayendo conclusiones. Rendimiento Físico

El equipo titular del Real Madrid, conforme a los datos, fue el formado por Keylor Navas,
Carvajal, Sergio Ramos, Nacho, Marcelo, Casemiro, Modric , Kross, Isco, Ronaldo y Benzema,
con un total conjunto de minutos jugados de 23.186.

El equipo titular del FC Barcelona, conforme a los datos, fue el formado por Ter Stegen,
Sergi Roberto, Piqué, Umtiti, Alba, Busquets, Rakitic, Andre Gomes, Neymar, Messi y Luis
Suarez con un total conjunto de minutos jugados de 26.833.

El equipo titular del FC Barcelona, en conjunto, estuvo en el terreno de juego un total de


3.647 minutos más que equivalen a 60,78 horas más o lo que es lo mismo 1,60 horas más
por partido de liga jugado.
Sobre el total de minutos jugados por los titulares de ambos equipos el FC Barcelona
jugó un 8% más que el Real Madrid.
Una primera conclusión que podríamos sacar es que sólo en el campeonato de Liga, los
jugadores titulares del FC Barcelona han metido en sus piernas un 8% más de esfuerzo en
tiempo de juego que los del Real Madrid.

Vamos a ir desmenuzando esta información por líneas de juego.

Defensa

La Defensa titular del Real Madrid disputó un total de 8.992 minutos.

La Defensa titular del FC Barcelona disputó un total de 8.672 minutos.


En la práctica, los minutos jugados por ambas líneas defensivas fueron similares.

Centro del Campo

El Centro del Campo titular del Real Madrid disputó un total de 5.850 minutos.

El Centro del Campo titular del FC Barcelona disputó un total de 6.574 minutos.
El centro del campo titular del FC Barcelona jugó un 6% más de tiempo que el centro del
campo titular del Real Madrid. 724 minutos más, 12,06 horas más.

Delantera

La delantera titular del Real Madrid jugó un total de 6.004 minutos.

La delantera titular del FC Barcelona jugó un total de 8.347 minutos.

La delantera titular del FC Barcelona jugó un 16% más de tiempo que la del Real Madrid.
2.343 minutos, 39,05 horas más. Más de una hora por partido.

Siendo que además del campeonato de Liga, estos dos equipos disputaron también la
Champion League y La Copa del Rey, podemos decir que el estado físico en la parte final
de la temporada fue mejor gestionado por el Real Madrid que por el FC Barcelona,
fundamentalmente en las líneas del Centro del Campo y de la Delantera. Teniendo más
importancia la línea de la Delantera por ser ésta la que mayor parte de goles produce a lo
largo de la temporada.

El Real Madrid llegó más “fresco” a la parte decisiva de la temporada.


Extrayendo conclusiones. Haciendo Equipo

El concepto “hacer equipo” tiene que ver con la mayor o menor aportación de todos los
componentes de la plantilla en el juego del equipo. Además, en este concepto no interviene
sólo el hecho de los partidos y minutos jugados por cada jugador, sino que es muy
importante desde el punto de vista de rendimiento e implicación, el número de partidos
que los jugadores salen como titulares.

Por otra parte, el valor de “hacer equipo”, no está en los jugadores habitualmente titulares,
sino en los que no lo son.

Minutos jugados

El total de minutos de los jugadores no titulares del Real Madrid fue de de 13.368 minutos.

El total de minutos de los jugadores no titulares del FC Barcelona fue de 10.465 minutos

Los jugadores no titulares del Real Madrid jugaron un 12% más que los jugadores no
titulares del FC Barcelona, 2.903 minutos, 48,38 horas más.

Partidos jugados como titular

Los jugadores no titulares del Real Madrid jugaron 148 partidos como titulares.

Los jugadores no titulares del FC Barcelona jugaron 113 partidos como titulares.

Los jugadores no titulares del Real Madrid jugaron un 14% más de partidos como titulares
que los del FC Barcelona.
Partidos jugados
Los jugadores no titulares del Real Madrid intervinieron en un total de 210 partidos.

Los jugadores no titulares del FC Barcelona intervinieron en un total de 168 partidos.

Los jugadores no titulares del Real Madrid han intervenido en un 12% más de partidos
que los del FC Barcelona.

El porcentaje de partidos jugados de titular respecto al total de partidos jugados, es decir el


valor relativo, es de un 70,47% del Real Madrid frente al 67,26% del FC Barcelona.

Podríamos definir un algoritmo de comparación de “hacer equipo”, basado en los cuatro


datos que acabamos de representar: minutos jugados, partidos jugados como titular,
partidos jugados y porcentaje de titularidad respecto a partidos jugados. Si damos como
coeficiente 1 a todos los valores, excepto al de partidos jugados como titulares, que damos
como coeficiente 1,5 por ser este hecho el que más valoran los jugadores, tendríamos que
el Real Madrid “hace equipo” en un 18,21% más que el FC Barcelona.
((% resultante Minutos jugados*1)+ (% resultante Partidos jugados como titular*1,5)+ (% resultante Partidos
jugados*1))/3 + (% resultante valores relativos)
Extrayendo conclusiones. Defensa y no habituales, factor diferencial

No solo los goles a favor ganan los campeonatos, pero son el elemento diferencial para la
obtención de puntos.
Se da por hecho que la mayor producción de goles las han de realizar los jugadores que
mayor número de minutos juegan, los habitualmente titulares y sobre todo aquellos que
juegan en el Centro del Campo y en la Delantera.

La defensa del Real Madrid consiguió 13 goles. La del FC Barcelona, 5.

Sobre el total de goles de ambas líneas defensivas, la defensa del Real Madrid produjo un
44% más de goles que la del FC Barcelona.
Los jugadores no habituales del centro del campo y la delantera del Real Madrid
consiguieron 36 goles. Los del FC Barcelona, 16.

Sobre el total de goles de las líneas del Centro del Campo y Delantera de jugadores no
habituales de ambos equipos, los del Real Madrid produjeron un 38% más de goles.

Podemos construir un factor, al que llamaremos Factor DNH, como aquél que mide la
aportación de goles de la línea defensiva y los jugadores no habituales de las líneas de
centro de campo y delantera.
Factor DNH =((((goles defensa*1,2)+(goles no habituales cc y d))/2)/10)*2
Aplicamos el coeficiente 1,2 a los goles conseguidos por la línea defensiva, otorgando a
éstos un valor superior. Dividimos por los dos grupos de datos con los que estamos
trabajando, reducimos a base unidad dividiendo por 10 y el resultado lo elevamos al
cuadrado para que las comparativas de este factor entre diferentes equipos resalten las
diferencias reales.

El valor 1 del factor determinaría el mínimo que un equipo de fútbol profesional debería
plantearse como objetivo.

La definición y alcance de objetivos representados por este factor u otros que se puedan
desarrollar fuera del circuito tradicional de datos marcarán el escalón de la competición
donde podamos estar al final de la misma.
La posesión en fútbol. Analizando la Champions League 2016/2017

Uno de los grandes debates de los últimos años, fundamentalmente, a raíz de la concepción
de juego del FC Barcelona, implantada por Guardiola es la importancia de la posesión en la
obtención de resultados.

Analizamos los datos (*) de 8 equipos de la Champions League 2017/2018, entorno a la


trascendencia de la posesión del balón en el juego.
Equipo

Real Madrid

Juventus

At. Madrid

Mónaco

FC Barcelona

Bayer Munich

Borussia Dormund

Leicester

(*) Datos obtenidos y calculados de las estadísticas oficiales de la Uefa Champions League.

A primera vista, el top 5 de posesiones estaría formado por:

1. Bayer de Munich
2. FC Barcelona
3. Borussia Dortmund
4. Real Madrid
5. Juventus
Estando estos dos últimos empatados en porcentaje de posesión.

Ninguno de los tres primeros equipos de la lista accedió ni siquiera a semifinales.

Vamos a tratar de desmenuzar las causas…

La posesión tiene que ir acompañada de productividad en diferentes aspectos del juego,


para en un segundo paso convertir esa productividad en partidos ganados y en
eliminatorias pasadas.
Productividad de la posesión en disparos a puerta

La productividad la hemos obtenido mediante la fórmula


P1 = (Media de disparos a puerta / posesión) *100
El top 5 de este ratio lo componen:

1. Real Madrid
2. Borussia Dortmund
3. Bayer de Munich
4. Mónaco
5. Atlético de Madrid
Tres de estos cinco equipos jugaron las semifinales: Real Madrid, Mónaco y Atlético de
Madrid.

El FC Barcelona que en dato de posesión en valor absoluto ocupaba el segundo lugar, es el


penúltimo, sólo superando al Leicester en este ratio de productividad de disparos a puerta.

Para ganar partidos hay que marcar goles, para marcar goles hay que disparar a puerta.
Productividad de la posesión en Corners

La productividad la hemos obtenido mediante la fórmula


P2= (Corners por partido / posesión) * 100
El top 5 de este ratio lo componen:

1. Bayer de Munich
2. Real Madrid
3. Mónaco
4. FC Barcelona
5. Atlético de Madrid
Tres de estos cinco equipos jugaron las semifinales: Real Madrid, Mónaco y Atlético de
Madrid.

El Borussia Dortmund que era el equipo con el tercer mayor porcentaje de posesión de los
8, se sitúa en este apartado en último lugar.

Los saques de esquina es una de las jugadas a balón parado con más importancia en las
estrategias de los equipos. Los goles obtenidos en este tipo de jugadas suelen tener gran
trascendencia en el devenir de los partidos.
Productividad de la posesión en goles encajados

La productividad la hemos obtenido mediante la fórmula


P3= 10 –((Goles encajados por partido / posesión) * 100)
La productividad es mayor cuanto menor es el número medio de goles encajados por
partido.
El top 5 de este ratio lo componen:

1. Juventus
2. Atlético de Madrid
3. FC Barcelona
4. Bayer de Munich
5. Leicester
Dos de estos cinco equipo jugaron las semifinales de la competición: Juventus y Atlético de
Madrid.

El Real Madrid, campeón de esta edición, en este apartado se va al puesto número seis. El
Borussia Dortmund, al igual que en el apartado de Córners, se va al último puesto.
Productividad del diferencial de goles

La productividad la hemos obtenido mediante la fórmula


P4= ((Goles marcados por partido - Goles encajados por partido) / posesión) * 100)
El top 5 de este ratio lo componen:

1. Real Madrid
2. FC Barcelona
3. Juventus
4. Bayer de Munich
5. Borussia Dortmund
Dos de estos cinco equipo jugaron las semifinales de la competición: Real Madrid y
Juventus, que fueron además los que jugaron la final.

Podríamos construir una fórmula que transformara todas estas productividades en un


valor.
P conjunta=P1+P2+P3*1,5+(P4+10)
Otorgamos un coeficiente de 1,5 a los goles no encajados, al ser una competición en la que
después de la fase de grupos se transforma en eliminatorias directas y los goles no
encajados, fundamentalmente en casa pasan a tener un valor muy importante y además
equiparamos los resultados de P3 en valores absolutos a P1 y P2.

Sumamos el valor 10 a la productividad de diferencial de goles para su equiparación en


valores absolutos con P1, P2 y P3.

El orden final en cuanto a productividad conjunta sería:

1. Real Madrid
2. Bayer de Munich
3. Atlético de Madrid
4. Juventus
5. Borussia Dortmund
6. FC Barcelona
7. Mónaco
8. Leicester
La tabla comparativa de productividad conjunta y posesión, quedaría del siguiente modo:

Eq

Real Madrid

Bayer de Munich

Atlético de Madrid

Juventus

Borussia Dortmund

FC Barcelona

Mónaco

Leicester

Tres de los cuatro primeros equipos de la lista de Productividad Conjunta, jugaron las
semifinales de la competición.

En este análisis hay dos equipos que merecen una mención especial.

El primero de ellos es el Bayer de Munich. Primero en posesión y segundo en Productividad


conjunta. No accedió a la semifinales porque el Real Madrid lo eliminó en cuartos de final.
Quizá la diferencia general de dos puntos en productividad conjunta a favor del Real
Madrid hizo que el Bayer no llegase más lejos en la competición.

El segundo de ellos es el Mónaco. Llegó a semifinales con un valor global bajo, aunque su
productividad en disparos a puerta y córners a favor estuvo en el top 5. De hecho, la
efectividad de sus disparos a puerta fue la tercera por detrás del FC Barcelona y el Borussia
Dortmund.

La fórmula empleada para el cálculo de la efectividad ha sido


efectividad = 10 - (media de disparos a puerta/goles por partido)
El fútbol, como tantos otros deportes, no es predecible en un 100 por 100.

En cualquier caso, lo que sí podemos decir es que la posesión del balón en un partido de
fútbol sin acompañamiento de productividad en diferentes ámbitos del juego no garantiza
la obtención de resultados. Puede llegar a penalizar.

Borussia Dortmund, segundo en posesión, quinto en valoración global; FC Barcelona, tercero en posesión, sexto en valoración
global.
Construyendo una Base de Datos de Jugadores

En la aplicación del Big Data en el fútbol es fundamental contar con una base de datos
cualificada de jugadores. La información contenida en esta base de datos será la que nos
guíe en la construcción de los diferentes modelos que un club pueda necesitar.

Los modelos no dejan de ser sino algoritmos (fórmulas) que van a transformar datos
cuantitativos y cualitativos en valores referenciales. Estos valores serán los que los
diferentes estamentos de un club deberán tener en cuenta a la hora de la toma de
decisiones en diferentes ámbitos.

Fichajes, lesiones, productividad, competitividad, imagen y comunicación… son conceptos


aplicables a la construcción de modelos en función de la información que de los jugadores
seamos capaces de gestionar.

Una estructura de datos a completar de los jugadores, debería tener al menos este índice:

 Datos de nacimiento y nacionalidad


 Datos situación familiar
 Datos físicos
 Curriculum formación académica
 Curriculum formativo en fútbol
 Capacidades, habilidades y posiciones de juego
 Internacionalidades
 Redes Sociales
 Sentiment Analysis
 Impacto Mediático
 Histórico de lesiones
 Histórico de datos relacionados con partidos jugados
 Histórico de objetivos
 Datos de la temporada en curso
 Trofeos individuales y colectivos
 Campeonatos de interés donde ha participado
 Otros
Algunos de los ítems a recoger en cada uno de los puntos de estructura podrían ser los
siguientes:

1. Datos de nacimiento y nacionalidad


 Fecha de nacimiento
 Lugar de nacimiento
 País de nacimiento
 Nacionalidad 1
 Nacionalidad 2
 …

2. Datos situación familiar


 Pareja estable
 Número de parejas conocidas
 Número de hijos
 Padre (vivo)
 Madre (vivo)
 Abuelos paternos
 Abuelos maternos
 …

3. Datos físicos
 Altura
 Peso
 Color de pelo
 Color de piel
 Estándar de belleza
 …
4. Currículum formación académica
 Estudios
 Categorización de los estudios
 Idiomas
 Expresión Oral
 …

5. Currículum formativo en fútbol


 Alevín 1º año
 Equipo
 Categorización equipo
 Alevín 2º año
 Equipo
 Categorización equipo
 …
6. Capacidades, habilidades y posiciones de juego
 Liderazgo
 Posicionamiento en el campo
 Interpretación del juego
 Táctica
 Solidaridad
 Agresividad
 Juego aéreo
 Pierna derecha
 Pierna izquierda
 Pase corto
 Pase medio
 Pase largo
 Disparo a puerta
 Posición 1
 Porcentaje
 Posición 2
 Porcentaje
 …

7. Internacionalidades
 País
 Internacional sub18
 Número de internacionalidades
 Internacional sub21
 Número de internacionalidades
 Internacional absoluto
 Número de internacionalidades
 …

8. Redes Sociales
 Twitter
 Cuenta
 Seguidores
 Facebook
 Cuenta
 Fans
 Instagram
 Cuenta
 Seguidores
9. Sentiment Analysis
 Redes Sociales
 Positivo (%)
 Negativo (%)
 Neutro
 Foros
 Positivo (%)
 Negativo (%)
 Neutro (%)

 Medios on line
 Positivo (%)
 Negativo (%)
 Neutro (%)

 Medios off line


 Positivo (%)
 Negativo (%)
 Neutro (%)

 Impactos mediático
 Apariciones en Social Media
 Apariciones en Medios on line
 Apariciones en Medios off line
 Publicidad
10.Histórico de lesiones
 Lesión 1
 Temporada
 Equipo
 Tiempo de recuperación
 Partidos perdidos
 Lesión 2
 Temporada
 Equipo
 Tiempo de recuperación
 …

11.Histórico de datos relacionados con partidos jugados


 Porcentaje medio de partidos convocado por temporada
 Porcentaje medio de partidos desconvocado por temporada sin mediar lesión
 Porcentaje medio de partidos jugados
 Media de tarjetas amarillas por temporada
 Media de tarjetas rojas por temporada
 Porcentaje medio de partidos no jugados por lesión por temporada
 Porcentaje medio de partidos jugados de titular por temporada
 Ratio de puntos por partido jugando de titular
 Ratio de partidos ganados jugando de titular
 …

12.Histórico de Objetivos
 Media de pases por partido
 Porcentaje de pases correctos
 Media de balones recuperados
 Media de balones interceptados
 Media de faltas cometidas
 Media de goles
 Media de km recorridos por partido
 …

13.Datos de la última temporada y/o temporada en curso


 Partidos convocado
 Partidos desconvocado
 ….
 Media de Pases
 Porcentaje de pases correctos
 Interceptaciones
 …

14.Trofeos individuales y colectivos


 Trofeo individual 1
 Temporada
 Equipo
 Trofeo Individual 2
 Temporada
 Equipo
 …
 Trofeo colectivo 1
 Temporada
 Equipo
 …

15.Campeonatos de interés donde ha participado


 Campeonato 1
 Temporada
 Equipo
 …

16.Otros

Como se puede observar los datos que hay que recolectar de un jugador son amplios y
variados. Muchos de ellos aparentemente no tienen nada que ver con el aspecto específico
del juego, pero para un club, cada vez más, un jugador debe representar un activo que
aporte valor más allá del juego en sí.

En cualquier caso, la base de datos a construir para cada club dependerá de las necesidades
de análisis y valoración que éste quiera conseguir.
Construyendo Modelos de Valoración

Para la creación de un modelo de valoración debemos tener en cuenta qué queremos


valorar y en función de ese objetivo definiremos unos criterios de valoración combinando
parámetros para obtener los resultados.

Imaginemos que queremos crear un modelo predictivo de la productividad de una serie


de centrocampistas que van a jugar en una liga europea la próxima temporada.
Entendemos la productividad como una combinación entre el mayor de número minutos al
máximo nivel sobre el campo con el mayor porcentaje de objetivos a cumplir en función de
su posición.

Para el desarrollo de este ejemplo, una vez creado el modelo, construiremos las fichas de
cinco jugadores y veremos como a través de una herramienta Big Data de análisis de
información, ésta nos proporciona diferentes puntos de vista valorativos.
FASES EN LA CREACIÓN DEL MODELO

Fase 1: Determinación de datos a analizar

Las categorías e ítems dentro de éstas que vamos a tener en cuenta son:
 Datos de nacimiento y nacionalidad
 Fecha de Nacimiento
 País de Origen
 Datos de situación familiar
 Pareja estable
 Número de hijos
 Histórico de datos relacionados con partidos jugados
 Porcentaje medio de partidos convocado por temporada
 Porcentaje medio de partidos desconvocado por temporada sin mediar lesión
 Porcentaje medio de partidos jugados
 Media de tarjetas amarillas por temporada
 Media de tarjetas rojas por temporada
 Media de partidos no jugados por lesión por temporada
 Porcentaje medio de partidos jugados de titular por temporada
 Histórico de Objetivos
 Media de pases por partido
 Porcentaje de pases correctos
 Media de balones recuperados
 Media de balones interceptados
 Media de faltas cometidas
 Media de goles
 Media de km recorridos por partido

Fase 2: Parámetros de Valoración

 La edad del jugador incrementará o decrementará en porcentajes algunos de los


valores parciales que se vayan obteniendo.
 Si el jugador tiene entre 20 y 24 años, ambos incluidos decrementará un 10%
 Si el jugador tiene entre 25 y 29 años, ambos incluidos incrementará un 10%
 Si el jugador tiene entre 30 y 32 años, ambos incluidos no se aplicará porcentaje
alguno
 Si el jugador tiene más de 32 años se decrementará un 25%
 El país de origen incrementará o decrementará en porcentajes algunos de los
valores parciales que se vayan obteniendo.
Para un club europeo, el contar con un jugador nacido en un país africano o en un país de
américa latina, supone asumir el riesgo que tengan que jugar competiciones
internacionales. Este “riesgo” se sustancia en un menor número de partidos que estos
jugadores estarán disponibles para sus clubes. Las competiciones de selecciones africanas
pueden solaparase con las competiciones europeas de clubes, mientras que los jugadores
lationamericanos, aunque las competiciones de sus selecciones no se solapen, realizan
largos deplazamientos. La exigencia cada vez mayor en la preparación de los partidos por
parte de los cuerpos técnicos, hace que estos jugadores no estén disponibles para
determinados encuentros a lo largo de la temporada como consecuencia de estos largos
trayectos.
 Si el jugador ha nacido en un país africano decrementará un 15%
 Si el jugador ha nacido en un país de américa latina decrementará un 20%
 Si un jugador ha nacido en un país europeo no se aplicará porcentaje alguno.
 La estabilidad de vida en pareja y si tiene hijos incrementará o decrementará en
porcentajes alguno de los valores parciales que se vayan obteniendo.

Santiago Bernabéu (1895-1978), fue presidente del Real Madrid durante 35 años hasta su
muerte. Anteriormente había sido jugador y entrenador también del club blanco. Cuenta su
leyenda que a los nuevos jugadores que se incorporaban al club, si estaban “solteros”,
sutilmente los llamaba a su despacho y les recomendaba que buscaran novia, se casaran y
tuvieran hijos. Bernabeú, ya sabía que el rendimiento de un jugador “soltero” y sin
responsabilidades decrecía. Jugadores jóvenes, con dinero y noches interminables era un
cocktel que el histórico presidente consideraba que iba en perjuicio del rendimiento global
del equipo.
Como anécdota, en una gira que el Real Madrid hizo por Europa y América del Sur, en la
que se enfrentó a diversos equipos, Santiago Bernabeú, coincidió en el hall del hotel con
Héctor Rial, jugador del Real Madrid que volvía de pasar la noche fuera de la concentración
del equipo, tras haber jugado contra el Vasco de Gama en Brasil. “Buenos días, Héctor.
Cuando lleguemos a Madrid, le daremos el finiquito” –le dijo Bernabéu. Rial jugó su último
encuentro con la camiseta blanca frente al Asco Angers francés en esa gira.

 Si el jugador no tiene pareja estable decrementará un 5%


 Si el jugador tiene pareja estable no se aplicará porcentaje alguno.
 Si el jugador no tiene hijos decrementará un 5% adicional, excepto en el caso de
que tenga pareja estable que no se aplicará porcentaje alguno.
 Si el jugador tiene hijos se incrementará un 5%.

Para obtener un valor predictivo de productividad de minutos a jugar la próxima


temporada sin valores correctivos vamos a aplicar la siguiente fórmula:

PMPJT= Porcentaje medio de partidos jugado de titular la temporada pasada


PMPC= Porcentaje medio de partidos convocado
PMPD= Porcentaje medio de partidos desconvocado sin mediar lesión
PMPJ= Porcentaje medio de partidos jugados
MTA=Media de tarjetas amarillas
MTR=Media de tarjetas rojas
MPL=Media de partidos perdidos por lesión

V1=(PMPJT+((PMPC)*0,05)-((PMPD)*0,05))+((PMPJ)*0,10))-((MTA+MTR+MPL))
En esta fórmula lo que tratamos es de positivar los porcentajes que hacen referencias a
partidos jugados, jugados de titular y convocados, negativizar las referencias a partidos
desconvocados, tarjetas amarillas, rojas y partidos lesionados.

A la que se le aplicará los valores correctivos en función de los datos de edad, lugar de
nacimiento, pareja estable e hijos.

Para obtener un valor predictivo de productividad en cuanto a objetivos a cumplir, sin


valores correctivos, vamos aplicar la siguiente fórmula:

MPP= Media de pases por partido


PPC = Porcentaje de pases correctos
MBR=Media de balones recuperados
MBI =Media de balones interceptados
MFC=Media de faltas cometidas
MG = Media de goles
MK = Media de km recorridos por partido

V2=(MPP-60)+(PPC-80)+((MBR-8)*10)+((MBI-4)*10)+((3-MFC)*10)+((MG-3)*10)+((MK-10)*10)

Esta fórmula trata de positivar, teniendo en cuenta que los jugadores a analizar son
centrocampistas, que puedan dar más de 60 pases de media con un porcentaje superior al
80% de pases correctos, que recuperen al menos 8 balones, que intercepten al menos 4, no
hagan más de 3 faltas y corran al menos 10 km por partido.

A V2, también se le aplicará los valores correctivos en función de los datos de edad, lugar
de nacimiento, pareja estable e hijos.

Fase 3: Cálculo del valor final


CF= (V1 (con las correcciones) * V2 (con las correcciones))/100
La construcción de este modelo, no deja de ser una simulación en función de ciertos criterios y
parámetros de valoración.
Ejemplo Práctico

Vamos a analizar cinco jugadores. Para ello hemos creado tres tablas de datos: la primera
incorpora los datos referentes a su edad, origen y situación familiar. La segunda incorpora
los datos de productividad relacionada con partidos jugados y la tercera incorpora los
datos de productividad relacionada con los objetivos.

Tabla jugadores I

Edad

Valor Correctivo Edad

País de Origen

Valor Correctivo Origen

Pareja

Valor Correctivo Pareja

Hijos

Valor Correctivo Hijos


Tabla jugadores II

JUGADOR

JUAN

DIEGO

DAVID

LASSANA

HUGO

Tabla jugadores III

JUGADOR

JUAN

DIEGO

DAVID

LASSANA

HUGO
Creamos el valor VProductividadM y le aplicamos la fórmula que definimos en el modelo.

VProductividadM(V1)=(PMPJT+((PMPC)*0,05)-((PMPD)*0,05))+((PMPJ)*0,10))-((MTA+MTR+MPL))
Creamos el valor VProductividadO y le aplicamos la fórmula que definimos en el modelo.
VProductividadO(V2)=(MPP-60)+(PPC-80)+((MBR-8)*10)+((MBI-4)*10)+((3-MFC)*10)+((MG-3)*10)+((MK-10)*10)

Unificamos el valor correctivo a aplicar a las productividades


Aplicamos el valor correctivo a ambas productividades: Vproductividad M y
Vproductividad O

Y finalmente aplicamos la última fórmula para obtener un valor único por jugador con base
al modelo definido:
CF= (V1 (con las correcciones) * V2 (con las correcciones))/100

Resumiendo:

 Valores de productividad de minutos por jugador.


 Valores de productividad de objetivos por jugador una vez aplicadas las
correcciones.
 Valoración total con base al modelo.
Disponiendo así de unos valores referenciales de cada jugador que nos pueden ayudar en la
toma de decisiones.
GLOSARIO DE TÉRMINOS

360 Degree Vision / Vision 360 grados

El concepto 360 grados es una idea que va intrínsecamente unida a los proyectos Big Data y
tiene que ver con la capacidad de analizar los datos de clientes, de tu empresa, del sector,
de la competencia desde un punto de vista tridimensional como un objeto a modo cubo que
puedes coger con los dedos de una mano y rotarlo desde cualquier ángulo hasta encontrar
la información que necesitas.

ACID

(Atomicity, Consistency, Isolation, Durability)

Atomicidad, Consistencia (Integridad), Aislamiento y Durabilidad como el conjunto de


propiedades que debe tener una base de datos.

Aggregation/Agregación

Recolección de datos procedentes de diversas fuentes o bases de datos con la finalidad de


procesarlos o analizarlos.

Ad hoc reporting / Informes ad hoc

Informes generados y adecuados para un finalidad.

Ad targeting / Orientación de los anuncios

El intento de llegar a un público específico con un mensaje específico, ya sea poniéndose en


contacto directamente o colocando anuncios contextuales en la Web.

Algorithm/ Algoritmo

Se denomina algoritmo a un grupo finito de operaciones organizadas de manera lógica y


ordenada que permite solucionar un determinado problema.

Analytics platform / Plataforma de Análisis


Software o software y hardware que proporciona las herramientas y la potencia de cálculo
y procesamiento necesarios para construir y realizar muchas y diversas consultas
analíticas.

Anomaly detection / Detección de anomalías

Proceso de identificación de elementos o eventos raros o inesperados en un conjunto de


datos.

Anonymization

Proceso de destrucción de pistas o rastro electrónico en los datos con el fin de asegurar la
no identificación de la fuente de los mismos.

API

Conjunto de normas de programación e instrucciones para acceder o crear aplicaciones de


software basadas en la web. En general son aplicaciones desarrolladas por las empresas
para facilitar la integración y acceso a datos de desarrollos de terceros.

Application / Aplicación

Aplicación o programa diseñado para realizar una tarea específica.

Árbol de juego

Representación gráfica de una situación estratégica

Árbol de decisión

Representación gráfica de un proceso de decisión.

Artificial Intelligence / Inteligencia Artificial

La teoría y el desarrollo de sistemas informáticos capaces de realizar tareas que


normalmente requieren la inteligencia humana, como la percepción visual, el
reconocimiento del habla, la toma de decisiones y la traducción entre lenguas.

Automatic identification and capture (AIDC)

Cualquier método de identificación y recolección automática de datos sobre elementos y su


almacenamiento en un sistema informático.

AWS (Amazon Web Services)

Colección de Servicios Web que en conjunto forman una plataforma de computación en la


nube. Dentro de esta plataforma Amazon pone a disposición de las organizaciones sus
servicios para proyectos Big Data.

Behavioral analytics / Analítica conductual


Uso de datos sobre el comportamiento de las personas para entender la intención y
predecir acciones futuras

Big data

El concepto Big Data se refiere a un conjunto de datos cuyo volumen está más allá de la
capacidad de las típicas herramientas de software de base de datos para recopilar,
almacenar, administrar y analizar.

Big Data Scientist / Científico de Datos

Persona capaz de interpretar y dar sentido mediante fórmulas y modelos a grandes


volúmnes de datos.

Biometrics / Biometría

El uso de la tecnología para identificar a las personas por uno o más de sus rasgos físicos.

Brand monitoring / Monitorización de Marca

Los procesos dirigidos a monitorizar la reputación on line (qué se dice, cómo se dice, dónde
se dice, cuando y cuanto se dice) de una marca

Business Intelligence (BI) / Inteligencia de Negocio

El término general utilizado para la identificación, extracción y análisis de datos.

Caché

Es la memoria de acceso rápido de un microprocesador que guarda temporalmente los


datos más recientes de los procesados. Funciona de un modo similar a la memoria principal
pero es de menor tamaño y de acceso más rápido. Es usada por el microprocesador para
reducir los tiempos de acceso a los datos ubicados en la memoria principal que se utilizan
con más frecuencia.

Call detail record (CDR) analysis

Los CDR contienen datos que una compañía de telecomunicaciones recopila sobre las
llamadas telefónicas, como el tiempo y la duración de la llamada. Estos datos pueden
utilizarse en aplicaciones analíticas.

Cascading

Plataforma de desarrollo de aplicaciones diseñada para la construcción de aplicaciones Big


Data en Apache Hadoop. Cascading proporciona un mayor nivel de abstracción para
Hadoop, permitiendo a los desarrolladores crear trabajos complejos de forma rápida,
sencilla y en varios lenguajes diferentes que se ejecutan en la JVM

Cassandra
Es una base de datos NoSQL distribuida y basada en un modelo de almacenamiento de
«clave-valor», de código abierto administrada por The Apache Software Foundation.
Permite gestionar grandes volúmenes de datos en forma distribuida.

Cell phone data

Los teléfonos móviles generan una ingente cantidad de datos. Gran parte de ellos está
disponible para su uso con aplicaciones analíticas.

Chukwa

Sistema de recolección de datos para la gestión de grandes sistemas distribuidos. Permite


recolectar logs de grandes sistemas para su control, análisis y visualización.

Classification analysis

Análisis de datos con el fin de clasificarlos en diferentes tipologías.

Clickstream analytics

El análisis de la actividad web de los usuarios a través de los clics que éstos realizan en los
diferentes elementos de una página web

Cloud / Nube

La Nube. Se refiere a una forma de trabajo basado en el acceso a aplicaciones o servicios


que se alojan en servidores conectados a internet.

Cluster

Conjunto de ordenadores conectados entre sí por una red de alta velocidad y que funcionan
como si fuesen un único ordenador.

Columnar database or column-oriented database

Base de datos que almacena los datos por columna en lugar de por fila. En una base de
datos basada en filas, una fila puede contener un nombre, una dirección y un número de
teléfono. En una base de datos orientada a columnas, todos los nombres están en una
columna, las direcciones en otra y así sucesivamente. Una ventaja clave de una base de
datos columnar es un acceso más rápido al disco duro.

Comparative analysis

Análisis de datos que compara dos o más conjuntos de datos o procesos para identificar
patrones en volúmenes grandes de información.

Competitive monitoring

Monitorización de la actividad de los competidores.


Complex event processing (CEP)

CEP es el proceso de monitorización y análisis de todos los eventos en los sistemas de una
organización y actuar sobre ellos en tiempo real cuando sea necesario.

Concurrency

La capacidad de ejecuta varios procesos al mismo tiempo.

Confabulation

El acto de tomar una decisión basada en la intuición que parece estar basado en datos.

Content Management System (CMS)

Aplicación que facilita la gestión y publicación de contenidos en la Web.

Correlation analysis

Un medio para determinar una relación estadística entre variables. A menudo con el
propósito de identificar factores predictivos entre las variables.

Crowdsourcing

El acto de presentar una tarea o un problema al público para su finalización o solución.

Customer Relationship Management (CRM)

Aplicaciones que facilitan a las empresas la gestión de los procesos de ventas y servicios a
sus clientes.

Dashboard

Conjunto de datos y/o gráficos de alto nivel presentados en una pantalla de forma muy
visual.

El proceso o método de visualizar o recuperar datos almacenados.

Data aggregation

El proceso de recopilar datos de múltiples fuentes con el fin de informar o analizar.

Data architecture and design

El modo de estructurar los datos de una organización. La estructura o diseño real varía
dependiendo del eventual resultado final requerido. La arquitectura de datos tiene tres
etapas o procesos: la representación conceptual de las entidades empresariales. La
representación lógica de las relaciones entre esas entidades y la construcción física del
sistema para soportar la funcionalidad.

Data center
Una instalación física que alberga un gran número de servidores y dispositivos de
almacenamiento de datos, al servicio de una sola organización o a prestar servicio a
muchas organizaciones.

Data management / Administración de Datos

Según Data Management Association (DMA), la administración de datos incorpora las


siguientes prácticas necesarias para gestionar el ciclo de vida completo de datos en una
empresa:

● gestión de datos

● arquitectura de datos, análisis y diseño

● gestión de bases de datos

● gestión de la seguridad de los datos

● gestión de la calidad de los datos

● gestión de datos de referencia y el maestro de datos

● almacenamiento de datos y gestión del análisis de los mismos

● gestión de documentos, registros y contenido

● gestión de metadatos

● gestión de datos de contacto

Data Management Association (DAMA)

Una organización internacional sin ánimo de lucro dirigida a profesionales técnicos y


empresariales para la mejora de las prácticas en la gestión de información y datos.

Data migration / Migración de Datos

El proceso de mover (migrar) datos entre diferentes tipos de almacenamiento o formatos, o


entre diferentes sistemas informáticos.

Data mining / Minería de Datos

Es el proceso de extracción de información significativa de grandes bases de datos.

Data model, data modeling

Los modelos de datos se refieren a la confección de la estructuras de datos y relaciones


entre ellos, necesarios para la implementación de los procesos de negocio.

Data replication
El proceso de compartir información para asegurar la coherencia entre fuentes
redundantes.

Data repository

Un repositorio de datos es un sitio centralizado donde se almacena y mantiene información


digital, habitualmente bases de datos y aplicaciones, de forma permanente.

Data security

Hace referencia a la práctica de proteger los datos contra la destrucción o el acceso no


autorizado.

Data set

Conjunto de datos

Data source

Fuente de datos

Data structure

Estructura datos.

Data warehouse

Un lugar para almacenar datos con el propósito de analizar la información y generar


informes.

Database

Una colección digital de datos y la estructura alrededor de la cual se organizan los mismos.
Dichos datos se introducen y se gestionan (accesos) a través de un sistema de gestión de
base de datos (DBMS).

Database administrator (DBA)

La persona responsable de apoyar y mantener la integridad de la estructura y el contenido


de una base de datos.

Database as a service (DaaS)

Bases de datos alojadas en la nave y que se ofrecen como servicios a terceras empresas
para su uso.

Database management system (DBMS)

Software que recopila y proporciona acceso a datos en un formato estructurado.

Demographic data
Datos relacionados con las características de la población.

Distributed cache

Una caché de datos que se distribuye a través de múltiples sistemas, pero funciona como
uno solo. Se utiliza para mejorar el rendimiento.

Distributed file system

Hace referencia a un conjunto de archivos montados en diversos servidores y donde los


usuarios comparten dichos archivos y almacenan recursos.

Los sistemas de archivos distribuidos almacenan ficheros en uno o más ordenadores


denominados servidores y los hace accesibles a otros ordenadores denominados clientes,
donde se manipulan como si fueran ordenadores locales.

Distributed processing

La ejecución de un proceso a través de múltiples ordenadores en red.

Document management

Gestión de documentos. Hace referencia a la práctica de clasificar y almacenar en sistemas


informáticos documentos y/o imágenes. En realidad cualquier tipo de archivo ya sea de
origen digital o escaneados de documentos de papel.

Drill

Sistema distribuido de código abierto para realizar análisis interactivos en conjuntos de


datos a gran escala.

Elasticsearch

Un motor de búsqueda de código abierto basado en Apache Lucene.

Enterprise Resource Planning (ERP)

Un sistema de software que permite a una organización coordinar y administrar todos sus
recursos, información y funciones empresariales. ERP es como comúnmente se denominan
a las aplicaciones de gestión de las empresas.

Event analytics

Muestra la serie de pasos que condujeron a una acción.

Exabyte

Un millón de terabytes, o 1 billón de gigabytes de información.

Exploratory Data Analysis (EDA)


Una aproximación al análisis de datos, focalizado en la identificación de patrones generales,
incluyendo valores atípicos y datos no previstos. El EDA tiene como objetivo descubrir la
estructura subyacente, ver lo que los datos pueden decirnos más allá de los modelos
formales, probar suposiciones, detectar errores y entender las relaciones entre las
variables.

External data

Datos externos a un sistema.

Extract, Transform and Load (ETL)

Proceso usado en data warehousing para preparar datos para su uso en informes o análisis.

Failover / Conmutación por error

Modo de funcionamiento de respaldo en el que las funciones de un componente de sistema


(un procesador, base de datos, servidor, red …) son asumidos por componentes del sistema
secundario cuando el componente principal no está disponible.

Flume

Es un framework que instalado en el conjunto de estructura IT de una organización se


encarga de recopilar e integrar datos en Hadoop.

Framework

En informática, framework puede traducirse, dependiendo del contexto en que se use,


como plataforma, entorno, marco de trabajo, infraestructura o armazón.
Desde el punto de vista del desarrollo de software, un framework es una estructura de
soporte definida, en la cual otro proyecto de software puede ser organizado y desarrollado.
En definitiva facilitan el desarrollo de software.

Gamification

El uso de técnicas de juego en aplicaciones no relacionadas con el juego, como motivar a los
empleados y fomentar las conductas deseadas de los clientes. El análisis de datos a menudo
se aplica a la gamificación, por ejemplo, para la segmentación de la audiencia, para
informar a las técnicas para fomentar mejor los comportamientos deseados y para
personalizar las recompensas para obtener resultados óptimos.

Graph database

Un tipo de base de datos NoSQL que utiliza estructuras gráficas para consultas semánticas
con nodos, aristas y propiedades para almacenar, mapear y consultar relaciones en datos.

Grid computing
Este término se refiere a la realización de funciones de computación (procesos) utilizando
recursos de múltiples sistemas distribuidos. La computación en cuadrícula suele implicar
archivos grandes y se usan con mayor frecuencia para múltiples aplicaciones. Los sistemas
que comprenden una red de computación de cuadrícula no tienen que ser similares en
diseño o en la misma ubicación geográfica.

Good Data

Datos de calidad en el sentido de aportar valor para el análisis de cualquier proceso.

Hadoop

Software de código abierto administrado por la Apache Software Foundation. Apache


define Hadoop como "un marco que permite el procesamiento distribuido de grandes
conjuntos de datos a través de clusters de computadoras usando un modelo de
programación simple".

Hadoop distributed file system (HDFS)

Un sistema de archivos distribuido tolerante a fallos diseñado para funcionar con hardware
de bajo costo, escrito en Java para el framework Hadoop.

HANA

Una plataforma de computación en memoria de software / hardware de SAP, diseñada para


transacciones de alto volúmen y análisis en tiempo real.

HBase

Base de datos NoSQL columnar distribuida y escalable para el almacenamiento de tablas


muy grandes de información de miles de millones de filas por millones de columnas que se
encuentran alojadas en sistemas distribuidos o clústeres de almacenamiento.

High-Performance Computing (HPC)

Los sistemas HPC, son también llamados superordenadores. Están construidos con la
tecnología más avanzada para maximizar el rendimiento de cálculo, la capacidad de
almacenamiento y las velocidades de transferencia de datos.

Hive

Un motor de consultas y de almacén de datos parecido a SQL.

Impala

Un motor de consulta de SQL distribuido de código abierto para Hadoop.

in-memory data grid (IMDG)


El almacenamiento de datos en la memoria a través de múltiples servidores con el
propósito de mayor escalabilidad y acceso o análisis más rápidos.

Internet of Things (IoT) / Internet de las cosas

La red de objetos físicos o "cosas" (gadgest) electrónicas, el software, los sensores y la


conectividad para permitirle alcanzar mayor valor y servicio, intercambiando datos con el
fabricante, el operador y / u otros dispositivos conectados. Cada cosa es identificable de
forma única a través de su sistema informático integrado, pero es capaz de interoperar
dentro de la infraestructura de Internet existente.

Kafka

El sistema de mensajes de código abierto de LinkedIn, usado para monitorear eventos de


actividad en la web.

Latency / Latencia

Cualquier retraso o demora en la respuesta o entrega de datos de un punto a otro.

Load Balancing

El proceso de distribución de carga de trabajo a través de una red informática o un clúster


de ordenadores optimizar el rendimiento. "

Location Analytics

Análisis destinado a relacionar geolocalización con un conjunto de datos.

Location data

Datos que describen una ubicación geográfica.

Log file

Un archivo que un equipo, una red o una aplicación crea automáticamente para registrar
eventos que se producen durante el uso de ese sistema o aplicación.

Machine-generated data

Cualquier dato que se cree automáticamente desde un proceso informático, una aplicación
u otra fuente no humana.

Machine learning

Un tipo de inteligencia artificial (IA) que proporciona a los ordenadores la capacidad de


aprender sin ser explícitamente programados. El aprendizaje automático se centra en el
desarrollo de programas informáticos que pueden cambiar cuando se exponen a nuevos
datos.
Mahout

Es un proyecto de código abierto que se utiliza principalmente para la creación de


algoritmos de aprendizaje automático escalables (machine learning).

Map/reduce

Un término general que se refiere al proceso de dividir un problema en piezas que luego se
distribuyen a través de varios ordenadores en la misma red o agrupación, o a través de una
cuadrícula de mapas dispares que geográficamente pueden estar separados (map) para
posteriormente recopilar todos los resultados y combinarlos en un informe (reduce).

Mashup

Proceso de integración y reutilización. Ocurre cuando una aplicación web es usada o


llamada desde otra aplicación, con el fin de reutilizar su contenido y/o funcionalidad.

Massively Parallel Processing (MPP)

La acción de procesar un programa dividiéndolo en piezas separadas, cada una de las


cuales se ejecuta en su propio procesador, sistema operativo y memoria.

Master Data Management (MDM)

Datos maestros son los datos no transaccionales que son críticos para el funcionamiento de
una empresa, por ejemplo, datos de clientes o proveedores, información de productos o
datos de empleados. MDM es el proceso de gestión de dichos datos para garantizar la
coherencia, la calidad y la disponibilidad.

Matriz de ganancias. Representación de una situación estratégica a través de una tabla.

Metadata

Cualquier dato utilizado para describir otros datos, por ejemplo, el tamaño de un archivo
de datos o la fecha de creación.

Model/Modelo

Conjunto de fórmulas de tipo matemático que se utiliza para expresar relaciones,


proposiciones sustantivas de hechos, variables, parámetros, entidades y relaciones entre
variables de las operaciones, para estudiar comportamientos, realizar valoraciones… que
son difíciles de observar de forma sencilla. Un modelo puede ayudar a explicar un sistema y
estudiar los efectos de diferentes componentes, y hacer predicciones sobre el
comportamiento.

MongoDB

Una base de datos de código abierto NoSQL administrada por 10gen.

MPP database
Una base de datos optimizada para trabajar en un entorno de procesamiento masivo
paralelo.

Multidimensional database

Tipo de base de datos que almacena datos como matrices multidimensionales o "cubos", en
oposición a las filas y la estructura de almacenamiento de columnas de las bases de datos
relacionales. Esto permite analizar los datos desde diferentes ángulos para consultas
complejas y aplicaciones de procesamiento analítico (OLAP).

Multi-threading

El proceso de romper una operación dentro de un único sistema informático en múltiples


hilos para una ejecución más rápida.

La acción de separar un programa en múltiples tareas proporciona al procesador un mayor


grado de flexibilidad en la forma en que administra las tareas. Los threads son las unidades
de instrucciones de procesamiento más pequeñas que el sistema operativo le da al
procesador

Natural language processing

La capacidad de un programa o sistema para entender el lenguaje humano permitiendo a


los seres humanos interactuar con los ordenadores utilizando el habla.

NewSQL

Sistema reciente de gestión de bases de datos relacionales que tratan de conseguir el


mismo rendimiento escalable de sistemas NoSQL para el procesamiento de transacciones
en línea.

NoSQL

Un tipo de sistema de gestión de bases de datos que no utiliza el modelo relacional. NoSQL
está diseñado para manejar grandes volúmenes de datos que no siguen un esquema fijo. Es
ideal para utilizar con volúmenes de datos muy grandes que no requieren el modelo
relacional.

Object-oriented database

Un sistema de gestión de bases de datos en el que la información se representa como


objetos, en lugar de datos como enteros o números, tal como se utilizan en la programación
orientada a objetos. También llamado Object Database Management Systems (ODBMS).

Online analytical processing (OLAP)

El proceso de análisis de datos multidimensionales mediante tres operaciones:


consolidación (la agregación de disponibles), drill-down (la capacidad de los usuarios para
ver los detalles subyacentes), y slice and dice (la capacidad de los usuarios para seleccionar
subconjuntos y verlos desde diferentes Perspectivas).

Online transactional processing (OLTP)

El proceso de proporcionar a los usuarios acceso a grandes cantidades de datos


transaccionales de una manera que puedan obtener conclusiones de los mismos.

Oozie

Sistema de procesamiento basado en la definición de flujos de trabajo que permite a los


usuarios programar el lanzamiento de una serie de tareas o servicios (jobs) desarrollados
diferentes lenguajes y enlazarlos inteligentemente entre sí.

OpenDremel

La versión de código abierto del código java Big Query de Google. Se está integrando con
Apache Drill.

Open Data Center Alliance (ODCA)

Un consorcio de organizaciones IT a nivel global cuyo objetivo es acelerar la migración de


los sistemas de información en empresas y entidades a la nube.

OpenPOWER Foundation

Organización iniciada por IBM en 2013 como parte de su esfuerzo por abrir sus productos
de Power Architecture a un enfoque de desarrollo colaborativo.

Open source software

Software con código fuente que el titular de los derechos de autor pone gratuitamente a
disposición del público en general. Este código puede ser redistribuido, y cualquiera puede
inspeccionarlo y cambiarlo.

Operational data store (ODS)

Una ubicación para recopilar y almacenar datos de múltiples fuentes para que se puedan
realizar más operaciones antes de enviarlos al data warehouse para la generación de
informes.

Parallel data analysis

Separar un problema analítico en componentes más pequeños y ejecutar algoritmos en


cada uno de esos componentes al mismo tiempo. El análisis de datos paralelos puede
ocurrir dentro del mismo sistema o a través de múltiples sistemas.

Parallel Method iIvocation (PMI)

Permite que el código de programación llame a múltiples funciones en paralelo.


Parallel Processing

La capacidad de ejecutar múltiples tareas al mismo tiempo.

Parallel query

Una consulta que se ejecuta en varios subprocesos del sistema para un rendimiento más
rápido.

Pentaho

Conjunto de aplicaciones de código abierto orientados al Business Intelligence y Big Data.

Performance management

Proceso de monitorización del rendimiento de un sistema para evaluar las áreas que
necesitan mayor atención y recursos.

Petabyte

Un millón de gigabytes o 1.024 terabytes

Pig

Un lenguaje de flujo de datos y un marco de ejecución para el cálculo paralelo.

Platform-as-a-service (PaaS)

Un modelo de cloud computing que proporciona, a través de Internet, como servicio, una
plataforma que incluye herramientas de hardware y software que permiten a los
clientes/usuarios desarrollar y gestionar aplicaciones.

Predictive analytics

Uso de funciones estadísticas en uno o más conjuntos de datos para predecir tendencias o
eventos futuros.

Predictive modeling

El proceso de desarrollar un modelo que pueda, con una alta probabilidad, predecir una
tendencia o un resultado.

Presto

Un motor de consulta SQL distribuido, de código abierto, para ejecutar analíticas


interactivas de alta velocidad.

Privacy
La necesidad y / o requerimiento de controlar el acceso y la difusión de información
sensible, entre ella la de tipo personal que se encuentra almacenada en los sistemas de
información de una organización.

Quantified self

Un movimiento marcado por el uso de datos por parte de la gente, recolectado a menudo
por sensores en dispositivos portátiles, para analizar factores tales como la salud, los
niveles de actividad, la calidad del sueño … con el propósito de un mayor autoconocimiento
y un incremento del nivel de bienestar.

Query analysis

El proceso de analizar una consulta de búsqueda con el fin de optimizarla para obtener el
mejor resultado posible.

Un lenguaje y entorno de programación diseñado para análisis estadístico.

Radio-frequency identification (RFID)

Tecnología que utiliza comunicaciones inalámbricas para enviar información sobre un


objeto de un punto a otro.

Real time

Tiempo real.

Recommendation engine

Un algoritmo que analiza las compras y acciones de un cliente en un sitio de comercio


electrónico y luego usa esos datos para recomendar productos complementarios.

Records management

El proceso de gestión de los registros de una organización a lo largo de todo su ciclo de


vida, desde la creación hasta su eliminación.

Reference data

Datos que describen un objeto y sus propiedades. El objeto puede ser físico o virtual.

Report / informe

La presentación de información obtenida de una consulta contra un conjunto de datos,


normalmente en un formato predeterminado.

Risk analysis
La aplicación de métodos estadísticos en uno o más conjuntos de datos para determinar el
riesgo probable de un proyecto, acción o decisión.

Root-cause analysis

El proceso de determinar la causa principal de un evento o problema.

Sabermetric / Sabermetría

Hace referencia al análisis del béisbol a partir de evidencias objetivas, en este caso, las
estadísticas que se generan durante el desarrollo de un partido. Es extensible el concepto a
cualquier deporte.

Sawzall

Lenguaje de programación de Google diseñado para procesar logs con gran volumen de
registros.

Scalability / Escalabilidad

La capacidad de un sistema o proceso para mantener niveles de rendimiento aceptables a


medida que aumenta la carga de trabajo o el alcance.

Schema

La estructura que define la organización de los datos en un sistema de base de datos

Search

El proceso de localización de datos o contenido específico mediante una herramienta de


búsqueda.

Semantic Web

Un proyecto del World Wide Web Consortium (W3C) para fomentar el uso de un formato
estándar que incluya contenido semántico en sitios web. El objetivo es permitir que los
ordenadores y otros dispositivos procesen mejor los datos.

Semi-structured data / Datos semiestructurados

Datos que no están estructurados por un modelo formal, sino que proporcionan otros
medios para describir estos datos y sus jerarquías.

Sentiment analysis

La valoración cualitativa de la información vertida en la red sobre una empresa, marca,


evento, persona… y su transformación en datos cuantitativos, normalmente de tipo
porcentual que suelen ser clasificados en positivos, negativos o neutros.

Software as a service (SaaS)


Software de aplicación que se utiliza en la web a través de un navegador web.

Spark

Es un motor para el procesamiento de datos a gran escala.

Storage

Cualquier medio de almacenar datos persistentemente.

Storm

Un sistema distribuido de código abierto diseñado para procesar múltiples flujos de datos
en tiempo real.

Structured data / Datos estructurados

Datos organizados por una estructura predeterminada.

Structured Query Language (SQL)

Un lenguaje de programación diseñado específicamente para administrar y recuperar datos


de un sistema de base de datos relacional.

Terabyte

1,000 gigabytes.

Text analytics

La aplicación de técnicas estadísticas, lingüísticas y de aprendizaje automático, basadas en


fuentes de texto cuya finalidad es la de obtener significado y/o conocimiento.

Transactional data

Este término hace referencia a información o datos de tipo económico que intervienen en
procesos de aplicaciones Web (transferencias en banca electrónica, pedidos de clientes a
través de web, pagos con tarjetas on line…)
Tupla

Secuencia de valores agrupados que sirve para agrupar, como si fueran un único valor,
varios valores, que por su naturaleza, deben ir juntos.

Unstructured data / Datos no estructurados

Datos que no tienen estructura identificable

Variable pricing

La práctica de cambiar el precio sobre la marcha en respuesta a la oferta y la demanda.


Requiere monitorización en tiempo real del consumo y la oferta.

Weareable

Conjunto de aparatos y dispositivos electrónicos que se incorporan en alguna parte de


nuestro cuerpo interactuando continuamente con el usuario y con otros dispositivos con la
finalidad de realizar alguna función específica, relojes inteligentes o smartwatchs,
zapatillas de deportes con GPS incorporado y pulseras que monitorizan nuestro estado de
salud son algunos ejemplos.

Weather data

Los datos meteorológicos en tiempo real están ahora ampliamente disponibles para que las
organizaciones los utilicen de diversas maneras. Por ejemplo, una empresa de logística
puede controlar las condiciones climáticas locales para optimizar el transporte de
mercancías. Una empresa de servicios públicos puede ajustar la distribución de energía en
tiempo real. Un equipo de fútbol puede determinar la idoneidad de los tacos de las botas de
futbol para un partido.

YARN (Yet Another Resource Negotiator)/ Hadoop Yarn

Plataforma de trabajo que permite la programación de las tareas y la gestión de los


recursos de clústeres.

ZooKeeper

Es un servicio de coordinación de alto rendimiento, centralizado para mantener la


información de configuración, denominación, sincronización distribuida y de servicios de
grupo que requieren las aplicaciones distribuidas.
EL LIBRO EN FRASES

El fútbol es un juego.

Estamos jugando en todo momento, aunque no lo tengamos presente, de hecho siempre que
dos o más seres humanos interactúan se está jugando a un juego.

Una decisión es una elección que se hace entre varias alterativas.

La toma de decisiones resulta más sencilla cuanto mayor es la información de la que se


dispone.

Es necesario estar seguro de que en cada caso se está tomando la mejor decisión, antes de
ejecutar la acción.

No podemos basar las decisiones en reacciones intuitivas, espontáneas o corazonadas.

La separación entre el éxito y el fracaso la va a marcar la capacidad que tengamos de


interpretar un conjunto de información.

Lo importante del Big Data son las Big Questions.

En busca del “Good Data”.

El Análisis Predictivo es un enfoque del tratamiento de datos orientado a la predicción de


tendencias y patrones de comportamiento. El Big Data es el concepto que debe soportar el
Análisis Predictivo.

El tratamiento de la información permite mejorar la toma de decisiones en terrenos tan


dispares como la táctica durante un partido, los mejores jugadores para afrontar un
encuentro en función del rival, la gestión de los fichajes…
La aplicación de Big Data para mejorar el valor global, en los ámbitos económico, colectivo,
de juego, individual de los jugadores, mediático, físico… de un equipo de fútbol.

En un partido de fútbol, se calcula que se pueden llegar a registrar hasta cerca de 8.000.000
de datos.

¿Puede la anarquía en el juego ser beneficiosa en determinados momentos de un partido?

Fichajes, lesiones, productividad, competitividad, imagen y comunicación… son conceptos


aplicables a la construcción de modelos en función de la información que de los jugadores
seamos capaces de gestionar.

Los parámetros de valoración de un jugador de fútbol deben ir mucho más allá de los
estrictamente deportivos. Son muchos y variados los factores de influencia en el rendimiento
deportivo de un equipo y en la consolidación y crecimiento de un club.

BIBLIOGRAFÍA

 Administración de las Organizaciones /KAST, F. E. (1979). Editorial Mc GranW-Hill.


 Administrative Behavior: A Study of Decision Making Processes in Administrative Organizations / Simon,
Herbert (1947). Ed. Macmillan Company.
 @ammattipyoraily, en Twitter el día 11 de Agosto de 2014
 Análisis de decisiones / Ríos García, S. (1989). Ediciones ICE.
 Analítica predictiva: predecir el futuro utilizando Big Data / SIEGEL, Eric (2013). Anaya Multimedia.
 Banqueri, R. (09 de Enero, 2016). Física en el ciclismo profesional. Recuperado de
https://entrecunetas.com/2016/01/09/fisica-en-el-ciclismo-profesional/
 Big Data, análisis de Grandes volúmenes de datos en organizaciones / Luis Joyanes Aguilar (2013).
Marcombo.
 Big Data and the Creative Destruction of Today´s Business Models / A.T. Kearney.
 Big Data Baseball: Math, Miracles, and the End of a 20-Year Losing Streak / Travis Sawchik (2016).
 Big Data. Gestión y explotación de grandes volúmenes de datos / Monsterrat García-Alsina (2017). UOC.
 Big Data, la revolución de los datos masivos / Viktor Mayer y Kenneth Cukier (2013). Turner Noema.
 Big Data para directivos: guía rápida y ejemplos prácticos / SOLANA, Albert (2015). Empresa Activa.
 Big data: el poder de los datos / SCHMARZO, Bill (2014). Anaya Multimedia.
 Causas y azares: la historia del caos y los sistemas complejos / MINDLIN, G. (2008). Siglo XXI Editores.
 Cognitive Computing and Big Data Analytics / Judith Hurwitz, Marcia Kaufman y Adrian Bowles (2015).
Wiley
 Como Mejorar su Habilidad para Tomar Decisiones / Acosta Flores J.J. (1989). Deac.
 Decision analysis / Gregory, G. (1988). Plenum Press.
 Decision making: Models and Algorithms / Gass, S.I. (1985). John Wiley & sons.
 Decision tables: theory anda practice / Pollack, S.L. , Hicks, H.T. , Harrison, W.J. (1971). Wiley-Interscience.
 Economía experimental y del comportamiento / Brañas, P. (2011). Antoni Bosch Editor.
 Economía y juegos / Vega, F. (2000). Economía y juegos. Antoni Bosh Editor.
 Elementos para una teoría de la decisión en la incertidumbre / Gil Aluja J. (1999). Milladoiro.
 El dilema del prisionero: John von Neumann, la teoría de juegos y la bomba / Poundstone, W. (2005). Alianza
Editorial.
 El dominio de la información / Shapiro, C., y Varian, H. (2000). Antoni Bosch Editor.
 El fútbol es así (soccernomics): Una explicación económica sobre los mitos y verdades del deporte / Kuper, S.,
y Szymanski, S. (2010). Empresa activa.
 Fantasy Football Sidekick - Wide Receiver Situational Stats (2015 Edition): Interesting Data for the Avid
Football Fan; Comprehensive Data for the Weekly/Season-Long Fantasy Football Player to Analyze / Jay
Goldberg.
 How to use Big Data to make better decisions / GigaOm Pro (2013).
 Introducción al big data / GÓMEZ GARCÍA, José Luis (2015). UOC.
 Manual de administración de empresas / Claver, E. L. (2000). (4a. ed.). Madrid.
 Minería de datos a través de ejemplos / PÉREZ MARQUÉS, María (2014). RC Libros.
 Negociar con ventaja / Shell, G. R. (2005). Antoni Bosch Editor.
 Optimal Sports Math, Statistics, and Fantasy / Robert Kissell y James Poserina (2017). Academic Press.
 Pensar rápido, pensar despacio / Kahneman, D. (2012). Debate.
 Sport Analytics: A data-driven approach to sport business anda managaement / Gil Fried y Ceyda Mumcu
(2016).
 Statistical decision theory: foundations, concepts and models / Berger, J.O. (1980). Springer-Verlag.
 Teoría de Decisiones en el Sector Público y en la Empresa Privada / Acosta Flores J.J. (1975). Representaciones
y Servicios de Ingeniería.
 Teoría de juegos / Joaquín Pérez Navarro, José Luis Jimeno Pastor, Emilio Cerdá Tena. Garceta, 2013.
 Teoría de juegos: Una breve introducción / Binmore, K. (2009). Alianza Editorial.
 Teoría de juegos / Joaquín Pérez Navarro, José Luis Jimeno Pastor, Emilio Cerdá Tena. Garceta, 2013.
 Teoría de la decisión / Infante, R. (1976). Uned.
 The Numbers Game / Anderson And Sally (2014)
 The Value of our Digital Identify / Boston Consulting Group (2013)
 Un primer curso de teoría de juegos / Robert Gibbons (1997). Antoni Bosch Editor
 Utility theory for decision making / Fishburn, P.C. (1970). John Wiley & sons.
 What´s your plan / Mckinsey Quarterly (2013)
 Wikipedia
SOBRE LOS AUTORES

Joaquín Roldán Morcillo, San Vicente del Raspeig (Alicante), 1965, es un empresario especializado en Análisis de
Información desde hace más de 15 años, Diplomado en Marketing, Dirección Comercial y Planificación de Marketing por
el Centro de Estudios Superiores de la Empresa, con Estudios en Economía e Informática y con pasión por el fútbol
formativo.

Ignacio Blas Sanz, (Zaragoza), 1977, Licenciado en Derecho por la Universidad de Deusto, DEA por Departamento Derecho
de la Empresa de la Universidad de Zaragoza y MBA, escuela de negocios IEDE, está especializado en Derecho deportivo
en la gestión de entidades deportivas y con clara enfocque en la formación deportiva.

Habiendo unido sus experiencias profesionales en diversos proyectos relacionados con el fútbol en ámbitos como la
asesoría deportiva y análisis de información, ponen, en este libro, su particular visión de hacia donde debe evolucionar la
gestión de información en este deporte.

También podría gustarte