Roldan Joaquin Y Blas Ignacio - Iniciacion Al Analisis de Datos Y Big Data Aplicado Al Futbol
Roldan Joaquin Y Blas Ignacio - Iniciacion Al Analisis de Datos Y Big Data Aplicado Al Futbol
Fútbol
ISBN: 1548784648
ISBN-13: 978-1548784645
A mi padre y a mis dos hijos, uno árbitro, el otro jugador. Los tres entusiastas de este deporte llamado fútbol.
A Isabel por su apoyo constante.
Joaquín Roldán.
Los deportes en general y el fútbol en particular han sufrido una gran evolución en las tres
últimas décadas, posiblemente por el valor económico, cada vez mayor, que gira alrededor
del mundo del deporte. Este valor económico es consecuencia de la globalización de las
audiencias. Hoy día, cualquier persona, puede ver de un modo o de otro, cualquier evento
deportivo que se celebre en cualquier rincón de nuestro planeta.
Las audiencias van en consonancia con las competiciones. No es lo mismo la Super Bowl o
la final de la Champions League que un encuentro de la Premier Inglesa, de la Primera
División Española o de la Serie A Italiana. Es más, no hay una disminución lineal entre la
categoría de las competiciones y las audiencias. Podríamos decir que el decremento es cada
vez más radical o geométrico con cada escalón que bajamos en el nivel de la competición.
Estas audiencias representan, tanto para las competiciones como para los clubes que las
integran, una fuente de ingresos inimaginable hace tres o cuatro décadas.
Que un club suba o que baje los escalones desde el punto de vista estrictamente deportivo
va a depender, en gran medida, de los jugadores y cuerpo técnico del que disponga.
Y aquí comienza la trascendencia, la necesidad cada vez mayor del Big Data en el mundo
del deporte y por tanto, en el fútbol.
Big Data hace referencia a la importancia de recopilar, almacenar, tratar, analizar, modelar
e interpretar grandes volúmenes de datos de diferentes fuentes y tipologías.
El fútbol es un juego.
La Teoría de Juegos se desarrolló por el hecho tan simple de la relación de un individuo con
otro u otros.
Un juego es cualquier situación en la cual compiten dos o más jugadores. El Tenis y el Póker
son buenos ejemplos, pero también lo es la negociación para la compra de un jugador de
fútbol o el lanzamiento de un penalti en una situación de partido.
La Teoría de Juegos es un área de la matemática aplicada que utiliza modelos para estudiar
interacciones en estructuras formalizadas de incentivos y llevar a cabo procesos de
decisión.
¿Qué es un juego?
El factor juego es imprescindible en toda interacción. Es por eso que no hace falta ser un
especialista en matemáticas para poder aplicar la teoría de juegos en las decisiones. En
realidad, tampoco hace falta recurrir a ecuaciones matemáticas para poder adentrarse al
campo de los pronósticos.
Estamos jugando en todo momento aunque no lo tengamos presente; de hecho siempre que
dos o más seres humanos interactúan se está “jugando a un juego”.
Los puntos a tener en cuenta para aplicar la Teoría de Juegos son dos: primero, conocer
bien las reglas del juego y segundo, pensar siempre que todos los jugadores implicados
están jugando con lo mejor que tienen.
En un juego intervienen los jugadores, las acciones, que son las decisiones o elecciones de
los jugadores, las reglas o normas de dicho juego, la información o conocimiento de los
jugadores sobre el propio juego y sus rivales, las estrategias, las recompensas, los
resultados…
Representando un juego
El Árbol de Juego, es una representación gráfica de una situación estratégica. Cada nodo
representa un punto donde el jugador toma decisiones. El jugador se especifica por un
identificativo. Las líneas que parten del nodo representan acciones posibles para el
jugador. Las recompensas se especifican al final de la rama.
Un dedo Puntúa A
El jugador
Tipos de Juego y Estrategias
Estáticos o dinámicos.
- Los juegos estáticos son aquellos que se desarrollan en un periodo de tiempo.
- Los dinámicos son aquellos que se desarrollan en múltiples periodos de tiempo.
Juegos de dos jugadores o n jugadores y pueden ser cooperativos o no cooperativos.
- Juegos Cooperativos son aquellos en los que los jugadores pueden elegir estrategias de
manera conjunta.
- Juegos No Cooperativos son aquellos en los que cada jugador elige su estrategia más
óptima de forma independiente.
Juegos simétricos y asimétricos.
- Un juego simétrico es aquél en que las recompensas por jugar una estrategia dependen
solo de las estrategias que empleen los otros jugadores y no de quién juegue.
- Un juego asimétrico es aquél donde no hay estrategias idénticas para ambos jugadores.
Estrategia pura. Es una decisión a priori del jugador sobre qué jugar ante cada
situación del juego.
Estrategia dominante. Es aquella estrategia que resulta óptima para un jugador,
independientemente de lo que hagan el resto de jugadores.
Estrategias Maximin. Son aquellas estrategias en la que se maximiza el
rendimiento mínimo que se puede obtener. Son estrategias conservadoras.
Estrategias Mixtas. Son aquellas en las que los jugadores utilizan la aleatoriedad
como parte de su estrategia para ganar. Trasladándolo al fútbol y a los
lanzamientos de penaltis, podríamos decir que si el portero siempre se tira a la
derecha, el delantero tiraría siempre a la izquierda. Si el delantero siempre tira
a la derecha, el portero se tira en la misma dirección. La alternativa es que, de
forma aleatoria, los dos jugadores usen la izquierda o la derecha.
El objetivo de la Teoría de Juegos es determinar patrones de comportamiento en la que los
resultados dependen de jugadores interdependientes, es decir, que interactúan entre sí.
John von Neumann y John Nash
John von Neumann fue una persona con un amplio nivel de conocimientos sobre campos
diversos de la ciencia, un polímata. Realizó importantes contribuciones en áreas tan
diversas como las matemáticas, la física, la teoría computacional, la estadística, la
astrofísica, la economía… En realidad fue un niño prodigio con memoria fotográfica, que
dominó varios idiomas, incluyendo los clásicos latín y griego y con una capacidad sin
límites para entender, aportar y divulgar la ciencia en su más amplia acepción.
En la década de los años 30 del siglo XX emigró a los Estados Unidos, donde más tarde se
nacionalizó y ejerció como profesor en la Universidad de Pricenton.
A pesar de todas sus aportaciones en los campos más diversos, quizá su faceta más
conocida tiene que ver con el Proyecto Manhattan, proyecto científico del que formó parte
y que diseñó y fabricó las primeras bombas atómicas que fueron lanzadas sobre Japón a
finales de la Segunda Guerra Mundial.
Resumir y relatar las aportaciones de John von Neumann llevaría cientos de páginas.
En lo que respecta al objetivo de este libro, podríamos decir que ya en la década de los
cuarenta trabajó en Ingeniería de Ordenadores, Sistemas de Cálculo y Teoría de Autómatas,
sentando las bases de la arquitectura de los ordenadores en la que se basan los equipos
actuales.
La sistematización que llevó a cabo de la Teoría de Juegos se consideró como una de las
mayores contribuciones científicas del Siglo XX, ofreciendo un modelo cuantitativo para los
juegos de azar con libertad de acción de los jugadores. Sus trabajos en este ámbito
culminaron con el libro “Theory of Games and Economic Behaviour” que publicó con Oskar
Morgenstern en 1944.
Uno de los resultados que hacen del equilibrio de Nash un punto de referencia para casi
todo análisis en el que las interacciones entre individuos estén involucradas, es que todo
juego finito (es decir, finitos jugadores y finitas estrategias de cada jugador) tiene al menos un
equilibrio de Nash.
Nash revolucionó así la toma de decisiones en Economía y sobre todo la Teoría de los
Juegos.
Modelos de juegos
Los tipos de juegos y ejemplos que proponen los especialistas son muy variados. Algunos
de los más destacados podrían ser:
El juego de la gallina
El juego se basa en la idea de crear presión psicológica hasta que uno de los participantes
se “echa”atrás.
Uno de los primeros ejemplos de juego de la gallina se da en la película “Rebelde sin causa”
(Nicholas Ray, 1955), aunque en aquella versión los jugadores conducen sus automóviles
hacia un precipicio, y el primero en saltar del coche es el gallina. La versión en que los
conductores kamikazes se dirigen hacia el contrario se considera la tradicional.
Como la "pérdida" que supone girar es trivial en comparación a la colisión que se producirá
si ninguno gira, la estrategia más razonable sería girar antes de que el choque pueda
producirse. Aun así, si uno cree que su oponente es razonable, uno puede también decidir
no girar, en la creencia de que el rival será razonable y decidirá girar, convirtiendo al otro
en perdedor.
Esta estrategia inestable se puede enunciar de modo formal diciendo que existe más de un
equilibrio de Nash para este juego, si llamamos equilibrio al conjunto de estrategias en el
que a ninguno de los jugadores le conviene cambiar su estrategia mientras los demás sigan
con la misma. En este caso, los equilibrios son las dos situaciones en las que un jugador gira
y el otro no.
Una táctica para este juego es anunciar las propias intenciones de modo convincente antes
de que el juego comience. Por ejemplo, si uno de los contendientes bloquea de modo
ostentoso el volante de su vehículo antes del comienzo del duelo, será más probable que el
otro gire. Esto ilustra cómo, en algunas circunstancias, reducir las propias opciones puede
ser una buena estrategia.
Él co
Él lo
La pregunta natural es: ¿qué harán los detenidos? ¿cooperarán entre sí (no confesarán) o
se traicionarán el uno al otro (confesarán)?
Vamos a suponer que ambos prisioneros son completamente egoístas y su única meta es
reducir su propia estancia en la cárcel.
Como prisioneros tienen dos opciones: cooperar con su cómplice y permanecer callado, o
traicionar a su cómplice y confesar. El resultado de cada elección depende de la elección del
cómplice. Por desgracia, uno no conoce qué ha elegido hacer el otro. Incluso si pudiesen
hablar entre sí, no podrían estar seguros de confiar mutuamente.
Si uno espera que el cómplice escoja cooperar con él y permanecer en silencio, la opción
óptima para el primero sería confesar, lo que significaría que sería liberado
inmediatamente, mientras el cómplice tendrá que cumplir una condena de 10 años. Si
espera que su cómplice decida confesar, la mejor opción es confesar también, ya que al
menos no recibirá la condena completa de 10 años, sólo 6, al igual que el cómplice. Y sin
embargo, si ambos decidiesen cooperar y permanecer en silencio, ambos serían liberados
en sólo dos años.
Confesar es una estrategia dominante para ambos jugadores. Sea cual sea la elección del
otro jugador, pueden reducir siempre su sentencia confesando. Por desgracia para los
prisioneros, esto conduce a un resultado regular, en el que ambos confiesan y ambos
reciben largas condenas. Aquí se encuentra el punto clave del dilema. El resultado de las
interacciones individuales produce un resultado que no es óptimo.
Existe una situación tal que la utilidad de uno de los detenidos podría mejorar (incluso la
de ambos) sin que esto implique un empeoramiento para el resto. En otras palabras, el
resultado en el cual ambos detenidos no confiesan domina al resultado en el cual los dos
eligen confesar.
El juego del ultimátum
Este juego representa un ejemplo de cooperación social y enseña como con la cooperación
puedes alcanzar el éxito. Se formuló poniendo como ejemplo dos cazadores que tienen ante
sí la elección de cazar un ciervo o una liebre. La caza de la liebre es posible hacerla de
forma individual e independiente por cada uno de ellos, siendo esa la recompensa que
podrían obtener de forma individual. La caza del ciervo solo es posible si existe
cooperación entre ellos. No hay una recompensa individual pero si logran el objetivo, la
recompensa conjunta será mayor que la que hubiesen obtenido de forma individual si
hubiesen cazado la liebre.
La guerra de los sexos
El juego de "La guerra de los sexos" es un ejemplo muy sencillo de utilización de modelos
de la Teoría de Juegos para analizar un problema frecuente en la vida cotidiana.
Hay dos jugadores: "ÉL" y "ELLA". Cada uno de ellos puede elegir entre dos posibles
estrategias a las que llamaremos "Fútbol" y "Baloncesto".
ÉL
No hay comunicación previa y es la primera vez que se juega, es decir no hay un histórico
de situaciones similares. Como no hay comunicación previa no es posible ponerse de
acuerdo, negociar ni acordar “recompensas” (“Si vienes al Fútbol te regalo un vestido”, “Si
vienes al Baloncesto te invito a cenar”)
El modelo que hemos visto es un juego simétrico ya que jugadores o estrategias son
intercambiables sin que los resultados varíen. Podemos introducir una interesante
modificación en el juego convirtiéndolo en asimétrico a la vez que nos aproximamos más al
mundo real. Supongamos que las posiciones 2ª y 3ª en el orden de preferencias de ÉL se
invierten. ÉL prefiere ir solo al Fútbol más que ir con ELLA al Baloncesto. La matriz
quedaría como sigue:
ÉL
En este caso, si ELLA conoce la matriz de pagos, es decir, las preferencias de ÉL, el
problema de coordinación desaparece. Está muy claro que ÉL elegirá siembre la estrategia
Fútbol, sea cual sea la elección de ELLA. Sabiéndolo, ELLA elegirá siempre la estrategia
Fútbol también, ya que prefiere estar con ÉL aunque sea en el Fútbol que estar sola aunque
sea en el Baloncesto. La estrategia maximín de ambos jugadores coincide. El resultado,
marcado con un asterisco, es un punto de equilibrio de Nash.
El juego del dictador, el ajedrez, el póquer, el juego del oso, … son algunos otros modelos de
juegos.
Fútbol aplicado a la Teoría de Juegos
En la Teoría de Juegos no preguntamos qué vamos hacer, nos preguntamos qué vamos
hacer teniendo en cuenta las decisiones de los demás.
Lanzamiento de un penalti
El árbitro acaba de señalar una pena máxima. Portero frente a Lanzador. Se conocen
perfectamente, el jugador sabe hacia qué lado se tira normalmente el portero que tiene en
frente y éste conoce también, el lado por donde suele tirar los penaltis el jugador…
Parece que el papel le indica que si Ayala se toma mucho tiempo y hace una carrera larga,
lanzará a su derecha. Ayala, se toma mucho tiempo, hace una carrera larga y lanza a la
derecha… y Lehmann detiene el penalti. Alemania se pone 3-1 en el global. Le toca el turno
al tercer jugador argentino. El portero vuelve a leer sus notas y aunque adivina el palo por
donde el jugador tira el penalti no lo puede detener. 3-2 para Alemania. Alemania vuelve a
lanzar y marcar: 4-2. El cuarto lanzador argentino es Esteban Cambiasso, sabe que si falla
están eliminados y además ya conoce que el portero está siguiendo instrucciones…
Cambiasso se prepara, consciente de que si falla, Argentina se queda fuera del Mundial. Con
su perfil zurdo lo más natural sería lanzarlo a la derecha pero al ver el papel que tenía
Lehmann decide cambiar y lo lanza a la izquierda… y el portero lo detiene. Alemania pasa y
Argentina termina su andadura en el Mundial.
Alemania había realizado un estudio sobre los jugadores argentinos a la hora de lanzar
penaltis pero Lehmann no tenía nada escrito sobre Cambiasso porque no esperaban que
tirase ningún penalti, sin embargo, el papel que utilizó Lehmann incidió a la hora de que
Cambiasso ejecutase el lanzamiento.
En el fútbol, como en tantos juegos, no hay garantía de que siguiendo las tendencias, los
históricos, el jugador convierta el gol y el portero ataje el penalti, pero lo que sí quedó claro
es que la estadística y la Teoría de Juegos jugaron un rol. La teoría de juegos no puede
ofrecer recetas para el éxito pero sí puede ayudar a optimizar la toma de decisiones.
En el Mundial del 2014 de Brasil, Holanda se enfrentaba a Costa Rica en cuartos de final. Un
minuto antes de que acabara el segundo tiempo de la prórroga, el técnico holandés, Louis
Van Gaal, decidió hacer un cambio sorpresivo e inesperado: el portero. Jasper Cillessen que
era el portero titular, dejó su puesto a Tim Krul. Krul detuvo dos penaltis a los jugadores
costarricenses y “adivinó” el sitio de los otros tres lanzamientos. Holanda ganó la tanda y se
clasificó para semifinales.
Sin embargo, ¿por qué unos días después, Holanda perdió la semifinal en los penaltis contra
Argentina?. Quizá la respuesta esté en que Argentina conocía la estrategia que Holanda iba
a seguir en la tanda de penaltis.
A Holanda, que había trabajado con Natxo Palacios parece ser que le habían recomendado
dos premisas para las tandas de penaltis. Una que su portero se lanzara para el lado natural
y que los jugadores tratando de ser imprevisibles fueran lanzando de forma alternativa los
penaltis a su lado natural… y eso es exactamente lo que ocurrió. El portero, siempre se
lanzó al lado natural y los mejores jugadores holandeses alternaron el lanzar los penaltis
hacia el lado natural o el contrario.
Argentina escogió una estrategia de respuesta óptima a lo que estaban haciendo los
holandeses. El portero argentino se lanzó dos veces hacia el lado natural y dos veces hacia
el otro lado lo que hizo que parase dos penaltis. Además, Messi, resultó imprevisible y lanzó
hacia su lado no natural, el derecho, puesto que es zurdo y marcó. Los otros jugadores
argentinos, no tan especialistas en el lanzamiento de penaltis, lanzaron todos ellos hacia
su lado natural y también marcaron.
Todo ello nos permite aprender una importante lección estratégica: en entornos en que los
jugadores no sean perfectos estrategas lo importante es ser un grado más sofisticado,
estratégicamente, que tu rival, pero al mismo tiempo que el rival crea que eres un grado
“más tonto”. Si realmente lo óptimo es ser impredecible, más vale que tu rival no intuya
cuál va a ser tu estrategia. Parece que Argentina sí intuyó la estrategia de Holanda. La
televisión mostró como el portero argentino, antes de cada penalti, consultaba un papelito
guardado en su media. Dijo que el papel contenía frases de ánimo de sus familiares…
El equipo de Holanda no tuvo culpa alguna de haber contado con un informe impecable
desde el punto de vista estratégico como el de Natxo Palacios-Huerta sobre cómo lanzar los
penaltis, pero seguro que les hubiera encantado que el ruido mediático que sus estudios
estaban haciendo y que probablemente llegó a Argentina, ocurriera después de la semifinal.
Quizá lo más interesante esté sucediendo ahora cuando todos los equipos saben que los
rivales les han estudiado y la estrategia óptima de lanzar los penaltis pase a ser la
impredecibilidad, lanzando a cada lado con igual probabilidad. ¿Tenderán los lanzamientos
de penaltis a un equilibrio bajo la premisa de que ambos contendientes tienen la
información de lo que supuestamente va a hacer el contrario?
La Teoría de Juegos aplicada a la dirección de equipos y toma de decisiones
Para explicarlo, pensemos en una partida de ajedrez: "si yo hago esto, entonces él hará lo
otro pero, si muevo esta otra pieza entonces él...". Una vez examinadas todas las posibles
situaciones, decidimos y hacemos una jugada. Básicamente, se trata de hacer algo parecido.
Anteriormente, hemos expuesto el modelo de juego “el dilema del prisionero”. Vamos a
tratar de trasladarlo al fichaje de un jugador.
El equipo B lo tiene más claro. La peor situación es que el jugador X juegue la previa de la
Champions con su actual equipo y después lo compre ya que estaríamos ante un fichaje “no
completo” al no poder disputar los partidos de Champions con el equipo B. Para el equipo B
la mejor situación es que el jugador no juegue la previa con el equipo A y poder comprarlo
con total disponibilidad para jugar.
La otra opción que baraja el equipo B es que si finalmente no se llevara a cabo la compra
por decisión propia lo mejor es que el jugador jugase la previa, ya que así tendría una
excusa frente la afición y prensa que está demandando dicho fichaje.
Lo mejor que puede hacer cada equipo varía según lo que haga el otro, ninguno tiene una
estrategia dominante.
Esta situación se produjo en el fichaje del entonces jugador del Arsenal, Jose Antonio Reyes
por parte del Real Madrid en el verano del 2006.
El fútbol es un juego.
LA TEORÍA DE LA TOMA DE LA DECISIÓN
Decidir significa hacer que las cosas sucedan en vez de simplemente dejar que ocurran
como consecuencia del azar u otros factores externos. Esta habilidad ofrece a las personas
herramientas para evaluar las diferentes posibilidades, teniendo en cuenta necesidades,
valores, motivaciones, influencias y posibles consecuencias presentes y futuras.
Contínuamente, las personas deben elegir entre varias opciones. Han de tomar un gran
número de decisiones en su vida cotidiana, en mayor o menor grado, importantes,
trascendentes, a la vez que fáciles o difíciles de adoptar en función de las consecuencias o
resultados derivados de cada una de ellas.
Tomar decisiones es algo que hacemos todos los días, algunas fruto de la reflexión, estudio
y análisis y otras automatizadas, casi sin darnos cuenta.
Son varios los autores que abordan el concepto de decisión y la toma de decisiones:
Una vez que se conoce la existencia del problema, se deben identificar los criterios de
decisión que serán relevantes para la resolución del problema. Cada persona que toma
decisiones suele tener unos criterios que ejercen de guía en su decisión y son tan
importantes los criterios que se identifican como los que no.
Los criterios seleccionados en la fase anterior no tienen todos la misma importancia, unos
tendrán más peso que otros, por tanto, es necesario ponderarlos con el fin de otorgarles la
prioridad correcta en la decisión.
Este paso consiste en la determinación de todas las alternativas viables, para la resolución
con éxito del problema.
Una vez que se han desarrollado las alternativas, el tomador de decisiones debe analizarlas.
Se evalúa cada alternativa comparándola con los criterios establecidos en los puntos 2 y 3.
La persona que decide debe tratar de ser lo más objetivo posible en su análisis.
El proceso de selección queda completado con el paso anterior. Sin embargo, la decisión
puede fallar si no se lleva a cabo correctamente. Este paso intenta que la decisión se ejecute
y se haga llegar a las personas afectadas. Si las personas que están involucradas en la
puesta en marcha de una decisión, participan en el proceso, es más fácil que la apoyen.
El análisis de decisiones son un determinado tipo de procedimientos y/o técnicas que tienen como objetivo disminuir la
probabilidad de errar al tomar una decisión.
El análisis de decisiones sustenta todas las funciones directivas. Nada de lo que un directivo hace es más importante que el
uso de la mejor información disponible para tomar buenas decisiones.
Tipos de Decisiones
Todas las decisiones no son iguales, ni producen las mismas consecuencias, ni tampoco su
adopción tiene idéntica relevancia.
En lo referente a las técnicas tendremos en cuenta el modelo desarrollado por Simon para
la descripción del proceso de toma de decisiones y que es la base de todos los modelos
realizados al respecto. Consta de tres fases principales:
Teoría de Juegos
Teoría de la utilidad cardinal
Teoría de las restricciones
En las tres últimas décadas, la Teoría de Juegos se ha convertido en el modelo dominante
en la teoría económica y ha contribuido de forma muy significativa en otros ámbitos.
En la década de los cuarenta del pasado siglo, Von Neumann y Morgenstern sostuvieron
que la gente no siempre toma decisiones buscando maximizar el valor monetario esperado
sino que busca maximizar la utilidad esperada, así nace la Teoría de la utilidad cardinal o
utilidad en riesgo.
Para adoptar algunos tipos de decisiones se suelen utilizar modelos. Éstos se pueden
definir como una representación simplificada de una parte de la realidad. En muchos casos
la realidad es tan compleja que, para comprenderla hay que simplificarla tomando de ella
los aspectos que resultan más relevantes para el análisis de que se trate y no teniendo en
cuenta los que resultan accesorios.
Tipología de modelos
Los ambientes de decisión representan el grado de conocimiento que tenemos sobre lo que
puede ocurrir ante una toma de decisión.
Riesgo. No sabemos qué ocurrirá tomando una determinada decisión pero sí sabemos qué
puede ocurrir y cuál es la probabilidad de ello.
Los nudos, también llamados vértices, representan situaciones en las cuales debe tomarse
una u otra decisión (nudos decisionales), o el decisor se enfrenta a distintos estados de la
naturaleza o sucesos aleatorios (nudos aleatorios).
Las ramas, que parten de los nudos decisionales representan alternativas de decisión. Las
que parten de nudos aleatorios representan posibles estados de la naturaleza, es decir,
sucesos que pueden pasar y entre los que no es posible elegir. Cuando se conocen las
probabilidades de los diversos estados, éstas se reflejan sobre las ramas que los
representan. Al final de cada camino, se expresa el resultado que correspondería a esa
secuencia de decisiones y sucesos.
Una empresa compra piezas para el ensamblaje de sus teléfonos móviles a dos proveedores
A y B, cuya calidad se muestra en la tabla siguiente:
Piezas D
3
La probabilidad de recibir un lote del proveedor A en el que haya un 1% de piezas
defectuosas es del 70%. Los pedidos que realiza la empresa ascienden a 1.000 piezas. Una
pieza defectuosa puede ser reparada por 1 euro. Si bien tal y como indica la tabla, la calidad
del proveedor B es menor, éste está dispuesto a vender las 1.000 piezas por 10 euros
menos que el proveedor A.
Proveedor A.
Proveedor B.
Paso 2 - Enumeramos para cada una de las alternativas de decisión, los estados de la
naturaleza asociados a la misma.
Paso 3 – Dibujamos el árbol de decisión.
Paso 4 - Asignamos las probabilidades a priori de cada uno de los estados de la
naturaleza.
Paso 5 – Calculamos el coste de cada una de las ramas del árbol.
El coste de cada rama se obtiene a partir del número de unidades defectuosas. Siendo los
pedidos de 1.000 piezas, las unidades defectuosas serán:
En el caso de 1% defectuosas:
En el caso de 3% defectuosas:
Si cada pieza defectuosa puede ser reparada por 1 euro, el coste de la reparación asciende
a:
En el caso de 1% defectuosas:
En el caso de 2% defectuosas:
En el caso de 3% defectuosas:
En el caso del proveedor A el coste es 10 euros superior al del proveedor B, tal y como
indica el enunciado del ejemplo.
Paso 6 - Resolvemos el árbol de decisión de derecha a izquierda. Determinamos
primero el coste esperado de cada alternativa de decisión.
Colocamo
s el resultado encima del nudo correspondiente.
19
19
23
23
Paso 7 - Resolvemos la etapa anterior. Debemos elegir la alternativa cuyo coste sea
menor y colocar el resultado encima del nudo correspondiente.
23
23
19
19
19
19
Debemos comprar la pieza al proveedor B.
La revolución deportiva del Real Madrid en el mundo del fútbol. Toma de Decisiones.
En los últimos 20 años salvo periodos muy concretos siempre se criticó al Real Madrid que
confeccionase plantillas sin un Director Deportivo al frente, achacando a su Presidente el
no tener una estrategia deportiva que definiese su proyecto. Bien al contrario, y una vez
visto lo conseguido por el primer equipo en las últimas temporadas, se puede concluir que
no solo el Real Madrid tiene un proyecto deportivo importante sino que el club fue un
visionario tomando la delantera, y con diferencia, al resto de sus competidores.
Si hace unos años el F.C. Barcelona revolucionó el fútbol desde el punto de vista táctico
haciendo un equipo histórico hoy podemos decir que el Real Madrid lleva camino, si no lo
ha hecho ya, de revolucionar el mundo de fútbol desde otro punto de vista: el de la
confección y gestión de plantillas.
Durante la temporada 2016/2017 una de las situaciones que más minutos tuvo de
tratamiento informativo por los medios deportivos fue el denominado “equipo B” del Real
Madrid. No era una referencia a su filial, si no a la segunda unidad del primer equipo que
por su aportación a lo largo de esa temporada resultó esencial para conseguir un doblete
histórico para el club. Los Casilla, Nacho, Morata, Danilo, James, Kovacic, Lucas, Asensio o
Isco (finalmente consolidado como un titular más) realizaron una temporada
extraordinaria tanto por los minutos jugados como por las victorias conseguidas en los
títulos obtenidos.
Y con estos jugadores que formaron el denominado “equipo B”, aunque Zidane nunca
consideró, y así lo demostró en reiteradas ocasiones, a estos jugadores como un equipo “B”,
se empezó a reflejar lo que el Real Madrid venía trabajando desde hace varias temporadas
antes y que en la 2017/2018 siguió el mismo camino con incorporaciones como Vallejo (20
años), Theo Hernandez (19), Llorente (22), Achraf (18), la vuelta de Borja Mayoral (20) o
Ceballos (20). Además, del fichaje de Vinicius Junior (16) cedido hasta los 18 años en Brasil.
Es sabido que el Real Madrid no tiene Director Deportivo. Si bien es cierto que José Ángel
Sánchez, Director General del club, es quién decide y ejecuta cada uno de los fichajes, no es
un Director Deportivo como se entiende de forma habitual. El que no exista la figura de
Director Deportivo, ¿demuestra la ausencia de una planificación deportiva en el Real
Madrid?. No, bien al contrario el Real Madrid trabaja con unos parámetros y unos objetivos
meridianamente claros.
A todo lo anterior, hay que añadir el proceso de formación que se hace de estos jugadores,
cediéndolos a otros equipos españoles o en ligas europeas antes de repescarlos: Vallejo,
Llorente, Medrán, Diego Llorente, Borja Mayoral, Omar Mascarrell, Burgui, Enzo, Álex Febas
u Odegaard cedido en el Heerenveen holandés.
¿Qué tipo de jugador estuvo fichando el Real Madrid? Jugadores jóvenes, de mucha calidad
pero que ya tuvieran experiencia en grandes competiciones.
¿Qué consiguió con ello? Una plantilla de mucha calidad, con jugadores de proyección que
no “necesitan hacerse” y que, en principio, no resultarán un fracaso. Fichajes a un precio
“bajo” pudiendo reservarse para acometer un fichaje estrella cada pocos años. El último
gran fichaje del Real Madrid, por su desembolso económico, fue el del colombiano James
por 75 millones de euros. El resto de fichajes no superaron los 31 M€, siendo en algunos
casos sorprendentemente bajos para lo que era habitual en el Real Madrid: Casemiro (6M),
Asensio (3,5M), Vallejo (5,5M) o Lucas Vázquez (1M) por poner algunos ejemplos.
1.- La situación del mercado futbolístico y la burbuja en el precio de los traspasos de esas
temporadas. En la pretemporada 2017/2018 el Tottenham tasó a Harry Keane en 227
Millones de Euros: una auténtica locura… pero semanas más tarde Neymar era traspasado
al PSG por 222 millones de euros.
Se quejó Guardiola, en esas fechas, de lo difícil que se estaba poniendo el fichar jugadores y
Mourinho afirmó que el problema no era el traspaso de Neymar sino sus consecuencias. El
problema que empezaron a ver muchos equipos lo vio el Real Madrid unas temporadas
antes.
Desde el club de Concha Espina tuvieron claro que no iban a poder competir con los
grandes inversores que habían llegado al fútbol europeo y que se habían hecho, además,
con la propiedad de grandes clubes. En ese punto, los grandes clubes ajenos a estos nuevos
inversores iban a tener serios problemas para hacerse con determinados jugadores, unido
al fair play financiero, pues los fondos de inversión-dueños millonarios pujan fuerte
encareciendo el producto deseado. Además, en el caso que nos ocupa, el Real Madrid al no
ser una Sociedad Anónima según la normativa española le es imposible utilizar estos
medios de inversión y tiene que ajustar su presupuesto año a año para no verse en
problemas.
Por otro lado, pero dentro de la nueva situación del mercado futbolístico, surge un segundo
grupo competidor: la Liga China (incluida su Segunda Categoría) que se hacen con grandes
jugadores profesionales en edad de competir todavía en el fútbol europeo.
Y estos dos puntos son en los que el equipo blanco toma la delantera a sus competidores: se
fija en jugadores con mucha proyección, pero muy jóvenes. Ficha a un precio “bajo”, o no
excesivamente caro; jugadores que serán las futuras estrellas del mundo del fútbol y solo
afronta grandes desembolsos como algo excepcional. Por decirlo de alguna manera: el Real
Madrid ha creado su propio Draft eligiendo las primeras opciones sin competidor alguno
para cubrir sus propias necesidades.
2.- La posibilidad de formar futuras estrellas directamente. Una vez fichados estos
jugadores hay que hacer que crezcan profesionalmente. Y aquí buscan dos vías: o bien los
ceden (junto a los que salen en las categorías inferiores) o si ya forman parte del primer
equipo se les dan minutos importantes. Y en esto el Real Madrid también ha innovado
respecto al resto de equipos.
Llevada a la práctica esta estrategia deportiva se planifican las plantillas con dos jugadores
por línea. Dos jugadores de mucha calidad siempre. Si una temporada como la del Real
Madrid se compone de 64 partidos (jugando completas las competiciones de Liga,
Champions y Copa; sin contar las Supercopas o Mundialitos que pudiera disputar) cada
jugador puede disputar entorno a 5.760 minutos. Lo que se planteó el Real Madrid es
repartir estos minutos entre los jugadores. O, dicho de otro modo, liberar de minutos a los
titulares en favor de los menos habituales. Si cada puesto genera, como decimos, 5.760
minutos repartidos al 50% cada jugador disputaría 32 partidos (casi una Liga completa):
cifra nada despreciable. Lógicamente, hay diferencia entre puestos y roles, pero, repasando
las cifras, todos los jugadores de la plantilla disfrutaron en la temporada 2016/2017 de
muchos minutos. Se consigue tener a la plantilla siempre “a punto” para jugar,
compenetrada entre todos los jugadores, habituados a los sistemas tácticos, los suplentes
no lo son tanto, y los titulares no se ven tan comprometidos o señalados como antaño. Las
discusiones sobre titularidades, son más externas que internas, y se centran en muy pocos
partidos e importantes. Del mismo modo, se aprovechan estados de forma que los
jugadores puedan tener a lo largo de la temporada. En la discusión Bale-Isco del final de la
temporada 2016/2017 se olvidó que hasta su lesión el galés fue uno de los jugadores
determinantes del equipo, que las lesiones le sacaron de la titularidad y que Isco fue
ganándose el puesto en la parte final por su mejor estado en beneficio del equipo. O que
con la baja de Modric, por ejemplo, no hubo necesidad de adelantar su recuperación porque
los jugadores que ocupaban su lugar rindieron a gran nivel y se sentían importantes para el
equipo.
Como se puede ver salvo Kroos con 48 partidos y James con 33 partidos todos juegan un
número similar de partidos. Asensio y Kovacic dos que parecen menos habituales disputan
38 y 39 partidos. Y si volvemos al alemán y al colombiano, el primero juega una Liga casi
completa pero el segundo se deja 16 partidos sin disputar. No hace mucho en el Real
Madrid el jugador que no contaba, jugaba testimonialmente y el indiscutible no se perdía
16 partidos. O acabemos con Isco del que se dijo que contaba poco y acabó participando en
un partido más que Modric o en los mismos que Casemiro.
Y esa fue la diferencia del Real Madrid con el resto de equipos. Si nos fijamos de nuevo en
los fichajes que realizó para la temporada siguente fueron Vallejo, Borja Mayoral, Theo
Hernández, Llorente, Achraf y Ceballos. ¿Qué posiciones vinieron a ocupar?. El aragonés a
ocupar la salida de Pepe, y Llorente y Theo a competir con las dos únicas posiciones que no
tenían recambio: la de Casemiro (sin ningún otro mediocentro “puro”) y la de Marcelo
(pues Coentrao había contado poco para Zidane). Ceballos ocuparía el hueco dejado por
James, además se sube a Achraf para suplir la salida de Danilo y Borja Mayoral vuelve tras
cesión por la venta de Morata.
Con estos datos se puede comprobar que el Real Madrid trabaja con una idea deportiva
definida. Es más, lo que hace el equipo blanco es que “despachos y banquillo” definen,
planifican y desarrollan una misma idea, y eso, en realidad, es muy difícil de ver en el
mundo del fútbol actual.
Sobre un mismo mercado de jugadores, el Real Madrid tiene rivales deportivos directos
que pujan al alza en precios al entrar los grupos de inversión y competidores no directos,
mercado Chino, que puja también elevando los precios de los fichajes. El Real Madrid
decide trabajar con tiempo y a menor precio para tener jugadores que en los próximos
años se conviertan en las futuras estrellas del mundo del fútbol sin rebajar el nivel
competitivo del equipo.
Dos notas más sobre la estrategia deportiva planteada por el Real Madrid:
Parece que lo de hacer plantillas jóvenes y largas con varios hombres por puesto es algo
que en el Real Madrid se plantearon no solo en la sección de Fútbol sino también en la de
Baloncesto con jugadores como Doncic y las incorporaciones de Radoncic y Yusta para la
temporada 2017/2018. Aunque los problemas en una y otra sección son diferentes (en el
baloncesto, principalmente, es la “huída” cada vez más temprana de jugadores a la NBA) se
puede ver que en el Club sí hay una estrategia deportiva que está dando buenos resultados
y que en ciertos puntos es comparable en una y otra sección.
La realidad es que en un mundo cada vez más global, más interrelacionado en todos los
aspectos, incluyendo datos y más datos y más datos, está provocando que el análisis de la
información simplificada, estructurada y relacionada entre sí, no sea suficiente para la
adecuada y eficiente toma de decisiones. La separación entre el éxito y el fracaso la va a
marcar la capacidad que tengamos de interpretar un conjunto de información.
Datos estructurados son aquellos que tienen un formato determinado (fecha, hora, número,
moneda, texto…), una longitud y que pueden ser almacenados en tablas y bases de datos.
Datos no estructurados son aquellos que no tienen un formato determinado pero pueden
ser almacenados. Nos referimos a datos de tipo texto (documentos, opiniones en foros,
entradas en redes sociales…), audios, vídeos, imágenes…
El Big Data va mucho más allá del número de datos con el que se necesite trabajar. Entre
otras cosas, porque cada sector, negocio, evento o empresa va a determinar qué datos son
los que deben analizar para obtener los resultados, informes o conclusiones fijados como
objetivos. Quizá deberíamos empezar hablar de la transformación de Big Data en “Good
Data”, entendiendo por “Good Data”, los datos cuya calidad, independientemente de su
tipología y volumen, constituyan la base necesaria para la obtención de las respuestas a las
preguntas que nos planteemos.
En realidad el éxito de los procesos Big Data tiene que ver con la capacidad de hacer las
preguntas correctas, detectar patrones, confeccionar hipótesis y predecir situaciones.
Tanto es así que comienza a surgir una nueva profesión vinculada al Big Data: el Científico
de Datos. Un profesional con habilidades en numerosos campos: informática, matemáticas,
estadística y por su puesto en negocios.
El Valor del dato representa el CORE fundamental de estos procesos: determinar qué datos
son los que se deben analizar.
La Viabilidad hace referencia a la capacidad en las empresas en generar un uso eficaz del
gran volumen de los datos que manejan.
Claves para Big Data y el Análisis Predictivo
Recolección de Datos -> Información sobre lo ocurrido y sus causas -> Monitorización de lo
que está sucediendo -> Predicción de lo que va a suceder en el futuro
Un ejemplo muy simple los podemos encontrar en los bancos. Cuando una persona solicita
un préstamo, la entidad financiera analiza y puntúa una serie de parámetros con base a un
modelo de riesgo definido (préstamos en otras entidades, saldo en cuentas bancarias,
declaraciones de renta, impagados…). Esa valoración final determinará la concesión o no
del préstamo.
Modelos descriptivos: La finalidad de estos modelos es detectar los vínculos entre los
productos y servicios de una entidad y sus clientes actuales y futuros, estableciendo una
relación entre ambos. Los modelos descriptivos no “predicen” un valor objetivo, son
utilizados para imitar el comportamiento de grandes volúmenes de clientes individuales y
hacer predicciones.
Modelos de decisión o prescriptivos: Los modelos de decisión van un paso más allá de los
modelos predictivos en tanto en cuanto consisten en “predecir” lo que sucedería si se toma
una acción determinada. Las decisiones se organizan a través de un análisis detallado de las
alternativas (acción 1 -> resultado 1, acción 2 -> resultado 2 …) y una valoración
comparativa de éstas.
El objetivo del Big Data en una compañía es claro: identificar, recolectar, utilizar, compartir
y poner en valor tanto los datos habitualmente utilizados como aquellos que hasta la fecha
han sido infrautilizados o de difícil acceso. En conclusion, un uso inteligente del mayor
volumen de datos posible cruzando diversas y variadas fuentes.
La forma de recopilar, procesar y gestionar la cantidad, cada vez mayor, de información por
parte de los clubes deportivos va a suponer el éxito o fracaso en la toma de sus decisiones.
Los clubes deben buscar la ventaja competitiva a través del adecuado análisis de dichos
datos.
Los datos de los que disponen los clubes, no obstante, no sirven en bruto. Hay que llevarlos
a modelos, a sintetizarlos en valores que tengan sentido en función de diferentes variables.
Deben elegir aquéllos que crean convenientes según la estrategia y el objetivo que
persiguen. El Big Data y su adecuado análisis y tratamiento son el camino hacia la victoria
en el deporte profesional. Usando las métricas adecuadas y procesando de forma idónea la
información, un club podrá posicionarse sobre sus contrincantes con mayor facilidad
La información que se recoge en este tipo de proyectos en el mundo del deporte, y del
fútbol en particular, viene a tráves, fundamentalmente, de dos vías: sensores que los
jugadores llevan incorporados y sistemas pasivos de cámaras de vídeo ubicadas alrededor
del campo que graban todo el partido.
Concepto 360º
Aunque el concepto 360º, en muchas organizaciones está orientado hacia el cliente, con el
objetivo de integrar la información del mismo a través de múltiples canales, sistemas,
dispositivos y productos que ayuden a mejorar su experiencia con la marca y maximizar el
valor entregado, debemos entender el concepto 360º como una visión global de gestión y
análisis de información que debe aplicarse también en todo proyecto Big Data.
Partimos de la base que cualquier dato por irrelevante que parezca puede influir en
cualquier aspecto, resultado, situación, proceso… dentro de una organización. Por lo tanto,
todos los datos con capacidad de influencia deben estar a disposición para su combinación,
mezcla, relación, interpretación o cruce con cualquier otro dato, información o situación.
La visión 360º no es un hito que puede alcanzarse y darlo por concluido. Se trata de un
estado, de un enfoque estratégico. Hace falta continuar recolectando y nutriendo de datos
de calidad a nuestros sistemas, estar atento a las innovaciones tecnológicas que puedan
proporcionar esos datos de calidad en los menores plazos posibles y sobre todo estar
concienciados para un gobierno de datos efectivo, que preste la atención necesaria a la
gestión de los mismos, con el objetivo de que ese conocimiento siga dando sus frutos,
convirtiéndose en acciones certeras que diferencien a nuestra organización.
Casos reales de la utilización de Big Data en empresas: Zara y Amazón
ZARA - INDITEX
¿Quién no se ha comprado una prenda en Zara o en cualquiera de las otras marcas del
grupo Inditex? No sé si nosotros seríamos capaces de responder a esa pregunta, pero el
sistema BIG DATA que Inditex tiene en su Centro Tecnológico de Arteixo, seguro que sí.
Hoy, una misma tienda es distinta cada mes. Incluso cada dos semanas. La conocida como
fast fashion se impone, y cada vez más cadenas se suman al carro de esta nueva moda
dentro de la moda, valga la redundancia. Ha sido Zara, del grupo Inditex, la gran impulsora
de este modelo. Con una estrategia de gestión cada vez más ágil, la compañía de Amancio
Ortega logra colocar nuevas prendas en las tiendas cada dos semanas, actualizando su
repertorio, trabajando al mismo tiempo que surgen las tendencias.
Consiste en diseñar y fabricar colecciones de manera fugaz con el fin de implantar nuevos
modelos en las tiendas en el menor tiempo posible, acortando así los procesos involucrados
en el ciclo de compra. Cada semana hay nuevos productos en rotación listos para consumir.
Así, se satisface la demanda de manera eficiente y efectiva. En consecuencia, el ciclo de vida
del producto se reduce al máximo y se crean multitud de colecciones que rompen con el
modelo tradicional de dos temporadas -primavera/verano y otoño/invierno-.
Todo esto no sería posible sin el procesamiento de miles de datos diarios provenientes de
las propias tiendas de Zara, de las personas que trabajan en ella, del análisis de las
tendencias, de lo que se dice en las redes sociales, de lo que se publica en lo blogs
especializados, de lo que aparece en las revistas tradicionales de moda en papel o en los
programas de televisión o de lo que hace la competencia.
Zara procesa toda esa información mediante un sistema Big Data que le dirá qué prendas,
tallas y número son las que tienen que ir a una tienda determinada y que con seguridad, en
parte, serán distintas a otra tienda de la misma ciudad que se encuentre en un barrio
distinto. Proporcionará los precios más adecuados a las prendas, trasladará a los
diseñadores las nuevas prendas que hay que diseñar, fabricar y poner en el mercado en las
próximas cuatro semanas. El sistema Big Data minimiza sus riesgos, entiende a sus clientes
y se adelanta a la competencia.
AMAZON
Amazon tiene patentado un sistema basado en Big Data con el que quiere ser capaz de
enviar un producto antes de que el cliente lo compre, permitiendo reducir el tiempo de
entrega a tan solo unas horas.
De acuerdo a la patente, este modelo de pronóstico utiliza los datos de actividades previas
de los usuarios en Amazon, incluyendo el tiempo en el sitio, la duración de la vista, los
enlaces clickeados, la actividad en el carrito de compras y su listas de deseos. Cuando es
posible, el algoritmo también se nutre de información del mundo real obtenida a partir de
las consultas telefónicas realizadas al cliente y las respuestas a las acciones de marketing,
entre otros factores.
Este modelo aplicado al área logística permitirá a Amazón saber, de manera anticipada, qué
cantidad de cada producto será solicitada próximamente en cada ciudad. De esta manera,
se generará un envío especulativo de productos a los centros de distribución, reduciendo el
tiempo de espera entre la compra y la entrega a sólo unas horas.
Claves para construir una infraestructura Big Data
La infraestructura en Big Data es uno de los aspectos más importantes a tener en cuenta a
la hora de implementar nuestros proyectos. Tener definida una infraestructura estable que
sea capaz de proporcionar todas las necesidades y a su vez permita crecer conforme el
proyecto lo demande es primordial.
Las redes de Big Data deben ser construidas para manejar recursos distribuidos que están
trabajando al mismo tiempo en una sola tarea. Cuando pensamos en Big Data, lo asociamos
con el término grande, pero cuando se trata de construir una infraestructura, también
deberíamos estar pensando en distribuida. Desde el punto de vista técnico, la característica
más significativa del Big Data no es su tamaño, sino su capacidad para descomponer los
trabajos más grandes en muchos más pequeños, distribuyendo recursos para trabajar en
paralelo en una sola tarea.
Algunas de las claves a tener en cuenta en la creación de una infraestructura Big Data
podrían ser los siguientes:
Recursos
No todas las empresas necesitan construir su propia estructura Big Data. Esto es
importante tenerlo en cuenta dado que los recursos tanto financieros como técnicos y
humanos de puesta en marcha, mantenimiento y soporte de una infraestructura de estas
características son muy importantes.
Las empresas y organizaciones tendrán que calcular muy bien la viabilidad y el ROI de este
tipo de proyectos.
Disponibilidad
Consistencia
Las aplicaciones de Big Data tienden a ser altamente síncronas (ejecución simultánea) .
Esto significa que los trabajos están siendo ejecutados en paralelo. Si los rendimientos en
estos procesos en paralelo sufren desviaciones pueden provocar fallos en las aplicaciones.
Es importante que las redes proporcionen un rendimiento no solo eficiente, sino también
consistente a través del espacio y tiempo.
Escalabilidad
El diseño de una infraestructura Big Data debe contemplar el modo de crecer de una
manera racional optimizando los recursos necesarios para cada momento.
Dirección de Tráfico
El alto volumen de información que fluyen en los sistemas Big Data hace necesario que las
redes que soporten estos sistemas sean diseñadas y creadas para reducir en la mayor
medida posible la congestión o “atasco” de este tráfico de información.
Coexistencia
Seguridad
Con una proliferación y un crecimiento exponencial de los datos, las organizaciones tienen
una escasa visibilidad de la ubicación y el uso de sus datos sensibles. Sin embargo, las leyes
y normativas de privacidad exigen que se tenga un conocimiento exacto de los riesgos de
los datos.
Una infraestructura Big Data ha de poder clasificar los datos sensibles con una visibilidad
integral, disociar los datos para que puedan utilizarse de forma segura en los entornos de
desarrollo y producción y garantizar el cumplimiento de las políticas corporativas y las
normativas del sector y/o localización (país, estado, región …)
Afortunadamente, empresas como Amazon o Google entre otras, están ya ofreciendo como
servicios, infraestructuras Big Data para cualquier tamaño de empresa y que minimizan los
riesgos en términos de puesta en marcha de este tipo de proyectos.
La intuición basada en el análisis de información
A nivel empresarial, todas las empresas tienen diversas fuentes de datos, pero no todas son
capaces de analizarlos para mejorar su negocio. Hoy en día, una empresa que no haga un
buen análisis de datos está condenada a desconocer su futuro o a tomar decisiones que
permitan amortiguar una posible caída en las ventas, la satisfacción de los clientes o los
productos y servicios que ofrece.
Cada deporte tiene su naturaleza, sus características, sus claves. En el atletismo será
fundamental medir la influencia de un tipo de zapatillas u otras en la forma de correr, los
movimientos del cuerpo al desplazarse; en el fútbol americano tendrá una gran
importancia medir los Newtons de fuerza de los impactos; en el béisbol los promedios de
bateo, carreras completas; en el baloncesto se discute que el número de posiciones va más
allá de cinco o porcentajes de acierto en tiro desde diversas zonas; en el fútbol será
importante medir los mapas de calor para entender qué zonas quedan menos ocupadas al
atacar. Hay que establecer cuáles son los indicadores que necesitamos para generar la
ventaja competitiva deseada.
Lo cierto es que hasta hace unos años, los clubes y deportistas de élite nunca imaginaron
hasta qué punto la tecnología de datos iba a ser necesaria e imprescindible para obtener el
éxito deportivo.
El controvertido Doctor Michele Ferrari, muy ligado a los años más oscuros del ciclismo
profesional por temas de dopaje, fue un adelantado en la obtención de datos para mejorar
el rendimiento deportivo. Con los datos obtenidos en los entrenamientos y pruebas de los
deportistas a los que preparaba, podía trabajar en la mejora de los resultados. Sin embargo,
la innovación en este tipo de análisis de información sirvieron como base para sus
programas de dopaje.
Diseñó una fórmula para calcular la potencia relativa (en vatios por kilogramo) desarrollada
por un ciclista en el ascenso a un puerto independientemente de su peso. Como bien explica
Raúl Banqueri “dicha ley se basa en que, en un puerto de pendiente media (entre el 6% y el
10% aprox.), dos ciclistas que ascienden a igual velocidad marcan la misma potencia relativa
(en vatios por kilogramo). Es decir, un ciclista de 60 kilos necesitaría desarrollar apenas 360
vatios (6w/kg) para ir a la misma velocidad que uno de 70 kilos que desarrollara 420 vatios”
(Banqueri, 2016)
La formula sería la siguiente:
Potencia relativa (w/kg) = VAM (m/h) / (Factor grado x 100)
VAM (Velocitá Ascensionale Media) (m/h) = desnivel positivo (altitud final – altitud inicial) / tiempo en horas
Factor grado = 2 + (pendiente media / 10)
De este modo, se puede comparar el rendimiento de los ciclistas como se muestra en la
siguiente tabla del Tour 2014 tomando como base la fórmula del Dr. Ferrari:
Tabla 1
Tour de France
2014, 6 Major Climbs
Recuperado de @ammattipyoraily, en Twitter el día 11 de Agosto de 2014.
Continúa Baqueri señalando que según los trabajos del Dr. Ferrari: “Una repetida medición en
un puerto con un ciclista de 64 kilos pedaleando a 300 vatios da los siguientes resultados:
“Moneyball” (Bennett Miller, 2011), es la película de referencia para todo aquél que tenga
interés en la aplicación del Big Data en el deporte, básicamente porque se trata de un caso
real. En ella, se disecciona como un equipo de béisbol, los Athletics de Oakland (Oakland A
´s), habitualmente perdedor y donde sus mejores jugadores acaban marchándose
temporada tras temporada a otros equipos de mayor nivel, cambia la dinámica negativa
de su historia al incorporar al cuerpo técnico especialistas en estadística y análisis
informatizado de datos. Sus trabajos se centran en “descubrir” los mejores jugadores en
relación calidad/precio del mercado y que sean asequibles para el equipo. Lo más
importante no es en sí la calidad de cada jugador, sino en hallar, descubrir a través de los
datos qué puede dar de sí cada uno que mejore el equipo.
Después de finalizar la temporada en 2001, Billy Beane, el Manager General de los Oakland
A´s vió como los principales jugadores de su equipo fueron adquiridos por clubes con más
capacidad económica. Tenía además que configurar una plantilla con un presupuesto que
ocupaba el puesto veintiocho de un total de treinta equipos. Beane, en colaboración con los
economistas Paul DePodesta y John Paul Ricciardi, comenzó a aplicar los principios
sabermétricos a la hora de realizar los fichajes.
Beane tuvo fuertes discusiones y encontronazos con los responsables de scouting del
equipo y que como en tantos otros deportes basaban sus adquisiciones en la intuición, en
su experiencia de años, en su conocimiento del deporte y el feeling que les transmitía un
jugador. Hubo dimisiones y tensiones dentro de la entidad, la prensa no entendía fichajes
de jugadores “desechados” … pero lo cierto es que el equipo fue el primero en ganar 20
partidos seguidos en los más de cien años de la Liga Americana.
Sabermetría
El origen del uso de Big Data en deportes reside en un deporte en el que el uso de la
tecnología de vanguardia tiene menor incidencia en el desarrollo del juego. Se trata del
béisbol. Para conocerlo, hay que remontarse a mediados de los años setenta. Bill James, un
aspirante a articulista deportivo de Kansas, comenzó a analizar con lápiz y papel los
registros históricos de los jugadores de béisbol de las Grandes Ligas. Sus artículos eran
diferentes a los que habitualmente se escribían por aquel entonces: no analizaba los hechos
del juego o los comentarios de los jugadores, se centraba en diseccionar el juego de cada
jugador solo en función de los datos estadísticos disponibles, nunca sobre criterios
subjetivos.
Distintos editores rechazaron su trabajo, pero James decidió publicar estos artículos en un
cuaderno llamado “Baseball Abstract” en 1977. Fue todo un éxito que le hizo repetir con
nuevas ediciones en años sucesivos. Su trabajo pionero hace que se le considere el padre de
la Sabermetría. Este concepto hace referencia al análisis del béisbol a partir de evidencias
objetivas, en este caso, las estadísticas que se generan durante el desarrollo de un partido.
Son los primeros pasos del Big Data en el mundo del deporte.
El término es derivado del acrónimo SABR (Society for American Baseball Research),
entidad que fue fundada en 1971 por Bob Davis. Pero el término sabermetrics no fue
acuñado hasta 1980, cuando Bill James hizo referencia al mismo a través de sus ya
mencionados Baseball Abstracts.
Muthu Alagappan o cómo evolucionar el baloncesto
Para él, todo en el baloncesto gira en torno a los jugadores como si fuesen piezas de un
puzzle. Si quieres hacer una determinada jugada en ataque, o un pick and roll concreto, o
quieres plantear una defensa a un jugador de una forma peculiar, todo va a depender de
cómo juega ese jugador. Ese es el objetivo con este análisis: encontrar posiciones que
describen cómo juegan tus jugadores. Muthu afirma que si podemos hacer esto, podemos
empezar a hablar del basket de una forma totalmente diferente.
Los resultados de aplicar su análisis topológico tienen su aplicación práctica tanto en los
despachos como en la cancha de juego.
Por un lado están los fichajes. El análisis de datos puede descubrir al manager de un equipo
jugadores casi desconocidos, con un rendimiento muy alto, por un salario muy inferior al
de otros jugadores consagrados con datos de juego similares. Por otra parte, en el terreno
de la estrategia, la visualización de cada jugador como un conjunto de datos
interrelacionados en lugar de como un conjunto de aptitudes en una posición tradicional,
permite al entrenador tomar decisiones tácticas tanto en la preparación de un partido
como en el desarrollo del mismo.
Paul Gasol terminó la temporada regular de la NBA 2016/2017 con los San Antonio Spurs
con el mejor porcentaje en tiros de tres (53,8%) de toda la historia de la NBA con al menos
70 lanzamientos. Algo impensable hace unos años para un jugador de 2,13 centímetros de
altura. El entrenador de los SAS supo encontrar en el jugador español un rol y una posición
que lo hizo determinante en la consecución del segundo mejor balance de la temporada.
¿Intuición por parte del entrenador o del cuerpo técnico?. Otro dato interesante del pivot
español en su primera temporada en el equipo de San Antonio fue su cambio de rol al pasar
de jugar en el equipo titular a hacerlo con la segunda línea.
El español fue fichado para suplir el puesto dejado por Duncan. Durante la primera parte de
la temporada era parte del quinteto titular. Su experiencia en la NBA y sus últimos años en
Chicago eran aval suficiente. Pero su aportación al equipo no era la esperada (malos
porcentajes y menor anotación). Kawhi y LaMarcus acaparaban las jugadas ofensivas del
equipo en detrimento de Pau.
El poco “uso”, y no satisfactorio para el equipo, de Pau hizo que Popovich pusiera en el
quinteto a otro nuevo en SAS, pero con experiencia en la NBA: Dewayne Dedmon.
Con Pau en la segunda unidad se pudo comprobar que el español mejoraba porcentajes y
anotaba más que en la primera fase de la temporada; con más libertad y más importancia
que en el equipo titular Pau mejoraba y al mismo tiempo Dedmon realizaba la mejor
temporada de su carrera formando parte del equipo titular: algo impensable cuando se
produjo su fichaje.
Pau jugaba menos minutos, su estado físico mejoraba, se convertía en el mejor triplista de
la NBA y en el jugador referencia de la segunda unidad; con Mills y Ginobili jugando para él
convirtieron a la segunda unidad de los Spurs en el mejor banquillo de la NBA.
Pau promedió, finalmente, 12.4 puntos y 7.8 rebotes por partido en 25.4 minutos por
partido y Dedmon 5.1 puntos y 6.5 rebotes, las mejores marcas de su carrera.
Herramientas
¿De qué herramientas dispone el mundo del deporte para poder implementar proyectos
Big Data? Afortunadamente la demanda de este tipo de servicios por parte del mundo del
deporte en general ha hecho que se creen empresas especializadas en este ámbito.
Vamos a exponer una lista de herramientas y proveedores a los que acudir para la puesta
en marcha de este tipo de proyectos.
Amisco
Su sistema pasa por la instalación de varias cámaras que captura los movimientos de los 22
jugadores sobre el terreno de juego. Esto permite al staff técnico de un equipo conocer
datos estadísticos de interés tanto sobre los jugadores del propio equipo como del rival.
Con una frecuencia de 25 tomas por segundo, las cámaras registran todos los movimientos
y acciones para poder medir y evaluar lo que sucede a lo largo de un encuentro de fútbol.
El sistema de Amisco utiliza un software que analiza diversa información: trayectoria de los
jugadores, pases correctos o fallidos, distancias recorridas, movimientos… El margen de
error con este sistema no supera los 20 centímetros.
Equipos como el Liverpool, Manchester United, Borussia Dortmund, Valencia, Real Madrid,
Hamburgo entre otros… han utilizado este sistema para el análisis de sus partidos.
Azsportech
Mediacoach
Es una herramienta de última generación en el análisis de video de fútbol que integra datos
físicos y tácticos. Genera videos, informes y estadísticas post-producidos de una manera
fácil y amigable. Ofrece una cobertura completa en un único sistema tecnológico que
permite la compatibilidad de datos.
Métrica Sports
Proporciona también una serie de estadísticas desde una visión más táctica con el objetivo
de agregar valor a los análisis por parte de los responsables técnicos de los equipos.
Nac Sport
Herramienta de análisis y gestión de videos que permite a los usuarios trabajar de una
manera fácil sobre los videos de los encuentros de cualquier disciplina, categorizando los
elementos a analizar y creando una base de datos de actuaciones en función de dicha
clasificación. Permite realizar comparaciones, dibujar sobre escenas y presentar las
conclusiones en modo de informes.
Opta Sports
Opta Sports, posiblemente sea la empresa líder mundial en el análisis de datos deportivos.
Con sede en Londres, tiene oficinas en Munich, Madrid, Paris, Montevideo, Amsterdam…
Por una parte distribuye información a prensa escrita y on line, televisiones, casas de
apuestas, patrocinadores y por otro lado ofrece sus servicios a clubes profesionales de
diferentes ámbitos deportivos.
Stats
Fútbol americano, rugby, fútbol, baloncesto, béisbol, hockey sobre hielo… son algunos de
los deportes sobre los que trabajan.
Tracab
Wyscout
Es una empresa italiana que provee variada información, especializada en fútbol y dirigida
a los profesionales de scouting, analistas de partidos y transferencia de jugadores. Según
datos de la propia compañía, cada semana se suben a la plataforma alrededor de 1.500
partidos de más de 80 países. Sus bases de datos tienen información de más de 300.000
jugadores de todo el mundo.
Cada jugador tiene un perfil con datos básicos como la nacionalidad, edad, demarcación y
estadísticas detalladas de la temporada en curso y en función de las competiciones donde
haya desarrollado su carrera, estadísticas históricas.
Widiwin
Microsoft Power BI, IBM Watson Anlytics, Tableau, Pentaho… son algunas de estas
herramientas. Oracle, SAP, Google también disponen soluciones Big Data, aunque
curiosamente, la empresa líder en comercio electrónico, Amazon se está postulando
también como la referencia a seguir en la prestación de servicios Big Data, en tanto en
cuanto pone a disposición de las empresas y organizaciones su plataforma especializada
que integra múltiples servicios y herramientas con el objetivo de facilitar la puesta en
marcha de este tipo de proyectos.
Es indispensable disponer de una adecuada infraestructura tecnológica y las herramientas adecuadas para la correcta
explotación y análisis de la información.
La Sabermetría o cómo analizar un deporte a partir de evidencias objetivas: las estadísticas que se generan durante el
desarrollo de cualquier partido de cualquier deporte.
Recopila, analiza, descubre y aplica. Si has de equivocarte, que sea con datos.
BIG DATA EN EL FÚTBOL
Descubrir nuevos talentos, analizar los sistemas y patrones de juego del contrincante,
analizar las jugadas del partido que acaba de terminar para conseguir ganar el siguiente
encuentro. Pero también optimizar los recursos económicos, que serán los que posibiliten a
medio plazo el ascenso peldaño a peldaño del estatus deportivo de un club o medir el
“sentimiento” de la afición para poder tomar la medidas necesarias que hagan de ésta el
jugador número doce.
Aplicando Big Data a un Club de Fútbol
Se calcula que se pueden llegar a registrar hasta cerca de 8.000.000 de datos en un partido.
El análisis de información no ha de limitarse sólo a estudiar los goles, los pases acertados o
las tarjetas propias y del contrincante, sino datos más concretos como el número de
disparos a puerta fallados que acaban en gol, la distancia desde que se efectúan, la
influencia territorial de cada jugador y ocupación de espacios, los movimientos correctos
con y sin balón de cada jugador, las asistencias… Analizar las jugadas en grupo y las
capacidades de cada jugador de forma detallada para explotar al máximo sus facultades en
el terreno de juego.
A través del análisis de los datos que aporta un futbolista en sus acciones en el campo, se
puede descubrir el nivel que tiene y a dónde puede llegar. Si “sólo” es un buen jugador o
puede ser un “fuera de serie”.
Cuando un entrenador tiene entre sus filas a un futbolista y no conoce sus capacidades y
tampoco están analizadas puede estar desperdiciando la ocasión de llevar al éxito al
equipo. No hablamos solo de partidos profesionales también de partidos de equipos
semiprofesionales o amateurs donde hay muchos jugadores que sólo están esperando a
que alguien los encuentre.
Otra forma de aplicar el Big Data es a nivel económico. El fútbol es uno de los deportes de
masas que más dinero mueve y que mal gestionado puede suponer la ruina de un Club. Está
más que demostrado que la mala gestión económica conlleva más rápido que tarde la
decadencia deportiva.
Sin embargo, el análisis de datos puede ayudar a mantener en primera línea a un Club y
disponer de los recursos necesarios para fichar a jugadores que incrementen el nivel
competitivo de la plantilla.
Una buena gestión económica hará que equipos que se mueven en el mundo
semiprofesional, puedan plantearse dar el salto al futbol profesional sin miedo y con
argumentos. La combinación de un análisis de los recursos económicos con los que cuenta
un Club con el análisis de su cantera, de las capacidades de sus jugadores a través de
entrenamientos, de las jugadas que mejor pueden ejecutar, de las alineaciones más
adecuadas en cada momento… siempre proporcionará una base sólida sobre la que crecer.
A un menor nivel y con unos costes más asequibles hay infinidad de “wearables” que sirven
para medir aspectos relacionados con la salud y el rendimiento deportivo (pulseras,
relojes…).
Los principales fabricantes de este tipo de dispositivos están trabajando en elementos cada
vez más innovadores:
¿Es predecible el juego de un equipo? ¿Es mejor tener un patrón de juego? ¿Puede la
anarquía en el juego ser beneficiosa en determinados momentos de un partido?
Los equipos con mayor número de patrones recurrentes fueron el Real Madrid y el FC
Barcelona, con 180 y 151 patrones recurrentes respectivamente. Sin embargo el Atlético de
Madrid que fue quien consiguió alzarse con el campeonato de liga esa temporada, sólo
tenía 31 patrones recurrentes.
Stefan Szymanski, uno de los responsables del estudio, comentó “si estuviera en un club
diría que no quiero patrón de pase en absoluto, querría muy pocos patrones. Lo que hace a
Messi el mejor jugador del mundo es que es impredecible“. Seguramente la mayoría de los
entrenadores no estarían de acuerdo con esta aseveración, pero no cabe duda que la
impredecibilidad parece ser una buena alternativa para desconcertar al contrario.
Cada vez son más los equipos que están implementando departamentos de Big Data en sus
estructuras. Los primeros pasos suelen ser el análisis de datos relacionados con los propios
jugadores, partidos, competidores, calidad de entrenamientos…
Detectar tácticas.
Ayudar a los entrenadores a decidir cómo deberían defender y atacar sus
equipos al enfrentarse según a qué rivales.
Hacer un repaso técnico del último encuentro, señalando los momentos clave.
Optimizar los tiempos de revisión de los partidos.
Contribuir a que un jugador alcance y supere sus límites.
Etc.
En definitiva a lograr que un equipo consiga los objetivos que planificó al inicio de la
temporada.
En 2014, la mutinacional informática SAP firmó un acuerdo con el Bayern de Munich por
el que le proporcionó una aplicación dirigida a mejorar aspectos tanto deportivos como
médicos. Este software analiza en tiempo real el desarrollo de los partidos y distintos
indicadores del mismo, como el porcentaje de pases acertados, la potencia de los disparos,
distancia recorrida y velocidades por cada jugador... informes detallados de cada partido
con base en la recolección de datos sobre los mismos. Ya mencionamos la aportación de
estos sistemas de esta compañía a la Selección Alemana de fútbol que ganó el Mundial en
Brasil y en la actualidad proporciona este tipo de informes a otros equipos alemanes.
El Real Madrid, gracias al acuerdo firmado con Microsoft, incorpora los más modernos
sistemas de análisis para monitorizar el estado de la primera plantilla. A través de distintos
sensores que los jugadores llevan durante los entrenamientos, se recogen datos de sus
movimientos, velocidad, esfuerzo realizado, fatiga acumulada, etc. Estos datos son
analizados y puestos al servicio del cuerpo técnico para que puedan decidir qué jugadores
están en el momento óptimo de forma.
Hay que dar valor a los datos individuales de cada jugador, pero teniendo en cuenta que el
rendimiento de un jugador en un partido de fútbol depende en gran medida de sus
compañeros. Debemos considerar la utilización de nuevas herramientas enfocadas al
reconocimiento del fútbol como un juego de equipo, creando nuevos conceptos que nos
ayuden a entender mejor este deporte.
Volviendo al fútbol español tenemos el milagro del Sevilla Fútbol Club. Ramón Rodríguez
Verdejo, conocido como Monchi, es un ex futbolista y fue Director General deportivo del
Sevilla Fútbol Club. Monchi, que ha sido el más exitoso director deportivo del fútbol
español dejó su club de toda la vida a finales de marzo de 2017 para fichar por el equipo
italiano de La Roma. Durante los últimos 10 años de sus estancia en el club andaluz, fue
capaz de encontrar jugadores no muy conocidos y muy poco valorados, incorporarlos a la
disciplina del primer equipo del Sevilla Fútbol Club, revalorizarlos, traspasarlos por cifras
que multiplicaban hasta por diez lo invertido y seguir manteniendo un nivel competitivo
alto.
Cinco campeonatos de europa “Europa League”, una Supercopa de Europa, dos Copas del
Rey y una Supercopa de España en los últimos años más unas arcas saneadísimas se deben
en gran parte a la labor del equipo que en aquellos años lideraba Monchi.
En una imagen publicada en su Instagram, Monchi, en unos de sus viajes mostraba una
pantalla con datos y escudos de clubs de fútbol, exponiendo que estaba analizando datos
relacionados con posibles fichajes, pero lo más interesante, estaba en los hastags del post
escrito: #bigdata, #algoritmos, #estadisticas, #nuevastecnologías.
Seguramente, gran parte de su éxito haya sido la aplicación del Big Data a la política de
scouting y fichajes. En definitiva su visión adelantada a lo que los datos pueden mostrar por
encima de intuiciones y opiniones personales.
Analizando Datos. Real Madrid versus FC Barcelona, Liga 2016/2017
EQUIPO
RM
RM
RM
RM
RM
RM
RM
RM
RM
B
RM
RM
RM
RM
RM
RM
RM
RM
RM
RM
RM
B
RM
La tabla representa:
Los minutos jugados por cada jugador de los equipos Real Madrid y FC
Barcelona en el campeonato de Liga Española en la temporada 2016/2017.
Los partidos jugados por cada jugador, los que han salido de titular y el
porcentaje de titularidad.
El equipo titular del Real Madrid, conforme a los datos, fue el formado por Keylor Navas,
Carvajal, Sergio Ramos, Nacho, Marcelo, Casemiro, Modric , Kross, Isco, Ronaldo y Benzema,
con un total conjunto de minutos jugados de 23.186.
El equipo titular del FC Barcelona, conforme a los datos, fue el formado por Ter Stegen,
Sergi Roberto, Piqué, Umtiti, Alba, Busquets, Rakitic, Andre Gomes, Neymar, Messi y Luis
Suarez con un total conjunto de minutos jugados de 26.833.
Defensa
El Centro del Campo titular del Real Madrid disputó un total de 5.850 minutos.
El Centro del Campo titular del FC Barcelona disputó un total de 6.574 minutos.
El centro del campo titular del FC Barcelona jugó un 6% más de tiempo que el centro del
campo titular del Real Madrid. 724 minutos más, 12,06 horas más.
Delantera
La delantera titular del FC Barcelona jugó un 16% más de tiempo que la del Real Madrid.
2.343 minutos, 39,05 horas más. Más de una hora por partido.
Siendo que además del campeonato de Liga, estos dos equipos disputaron también la
Champion League y La Copa del Rey, podemos decir que el estado físico en la parte final
de la temporada fue mejor gestionado por el Real Madrid que por el FC Barcelona,
fundamentalmente en las líneas del Centro del Campo y de la Delantera. Teniendo más
importancia la línea de la Delantera por ser ésta la que mayor parte de goles produce a lo
largo de la temporada.
El concepto “hacer equipo” tiene que ver con la mayor o menor aportación de todos los
componentes de la plantilla en el juego del equipo. Además, en este concepto no interviene
sólo el hecho de los partidos y minutos jugados por cada jugador, sino que es muy
importante desde el punto de vista de rendimiento e implicación, el número de partidos
que los jugadores salen como titulares.
Por otra parte, el valor de “hacer equipo”, no está en los jugadores habitualmente titulares,
sino en los que no lo son.
Minutos jugados
El total de minutos de los jugadores no titulares del Real Madrid fue de de 13.368 minutos.
El total de minutos de los jugadores no titulares del FC Barcelona fue de 10.465 minutos
Los jugadores no titulares del Real Madrid jugaron un 12% más que los jugadores no
titulares del FC Barcelona, 2.903 minutos, 48,38 horas más.
Los jugadores no titulares del Real Madrid jugaron 148 partidos como titulares.
Los jugadores no titulares del FC Barcelona jugaron 113 partidos como titulares.
Los jugadores no titulares del Real Madrid jugaron un 14% más de partidos como titulares
que los del FC Barcelona.
Partidos jugados
Los jugadores no titulares del Real Madrid intervinieron en un total de 210 partidos.
Los jugadores no titulares del Real Madrid han intervenido en un 12% más de partidos
que los del FC Barcelona.
No solo los goles a favor ganan los campeonatos, pero son el elemento diferencial para la
obtención de puntos.
Se da por hecho que la mayor producción de goles las han de realizar los jugadores que
mayor número de minutos juegan, los habitualmente titulares y sobre todo aquellos que
juegan en el Centro del Campo y en la Delantera.
Sobre el total de goles de ambas líneas defensivas, la defensa del Real Madrid produjo un
44% más de goles que la del FC Barcelona.
Los jugadores no habituales del centro del campo y la delantera del Real Madrid
consiguieron 36 goles. Los del FC Barcelona, 16.
Sobre el total de goles de las líneas del Centro del Campo y Delantera de jugadores no
habituales de ambos equipos, los del Real Madrid produjeron un 38% más de goles.
Podemos construir un factor, al que llamaremos Factor DNH, como aquél que mide la
aportación de goles de la línea defensiva y los jugadores no habituales de las líneas de
centro de campo y delantera.
Factor DNH =((((goles defensa*1,2)+(goles no habituales cc y d))/2)/10)*2
Aplicamos el coeficiente 1,2 a los goles conseguidos por la línea defensiva, otorgando a
éstos un valor superior. Dividimos por los dos grupos de datos con los que estamos
trabajando, reducimos a base unidad dividiendo por 10 y el resultado lo elevamos al
cuadrado para que las comparativas de este factor entre diferentes equipos resalten las
diferencias reales.
El valor 1 del factor determinaría el mínimo que un equipo de fútbol profesional debería
plantearse como objetivo.
La definición y alcance de objetivos representados por este factor u otros que se puedan
desarrollar fuera del circuito tradicional de datos marcarán el escalón de la competición
donde podamos estar al final de la misma.
La posesión en fútbol. Analizando la Champions League 2016/2017
Uno de los grandes debates de los últimos años, fundamentalmente, a raíz de la concepción
de juego del FC Barcelona, implantada por Guardiola es la importancia de la posesión en la
obtención de resultados.
Real Madrid
Juventus
At. Madrid
Mónaco
FC Barcelona
Bayer Munich
Borussia Dormund
Leicester
(*) Datos obtenidos y calculados de las estadísticas oficiales de la Uefa Champions League.
1. Bayer de Munich
2. FC Barcelona
3. Borussia Dortmund
4. Real Madrid
5. Juventus
Estando estos dos últimos empatados en porcentaje de posesión.
1. Real Madrid
2. Borussia Dortmund
3. Bayer de Munich
4. Mónaco
5. Atlético de Madrid
Tres de estos cinco equipos jugaron las semifinales: Real Madrid, Mónaco y Atlético de
Madrid.
Para ganar partidos hay que marcar goles, para marcar goles hay que disparar a puerta.
Productividad de la posesión en Corners
1. Bayer de Munich
2. Real Madrid
3. Mónaco
4. FC Barcelona
5. Atlético de Madrid
Tres de estos cinco equipos jugaron las semifinales: Real Madrid, Mónaco y Atlético de
Madrid.
El Borussia Dortmund que era el equipo con el tercer mayor porcentaje de posesión de los
8, se sitúa en este apartado en último lugar.
Los saques de esquina es una de las jugadas a balón parado con más importancia en las
estrategias de los equipos. Los goles obtenidos en este tipo de jugadas suelen tener gran
trascendencia en el devenir de los partidos.
Productividad de la posesión en goles encajados
1. Juventus
2. Atlético de Madrid
3. FC Barcelona
4. Bayer de Munich
5. Leicester
Dos de estos cinco equipo jugaron las semifinales de la competición: Juventus y Atlético de
Madrid.
El Real Madrid, campeón de esta edición, en este apartado se va al puesto número seis. El
Borussia Dortmund, al igual que en el apartado de Córners, se va al último puesto.
Productividad del diferencial de goles
1. Real Madrid
2. FC Barcelona
3. Juventus
4. Bayer de Munich
5. Borussia Dortmund
Dos de estos cinco equipo jugaron las semifinales de la competición: Real Madrid y
Juventus, que fueron además los que jugaron la final.
1. Real Madrid
2. Bayer de Munich
3. Atlético de Madrid
4. Juventus
5. Borussia Dortmund
6. FC Barcelona
7. Mónaco
8. Leicester
La tabla comparativa de productividad conjunta y posesión, quedaría del siguiente modo:
Eq
Real Madrid
Bayer de Munich
Atlético de Madrid
Juventus
Borussia Dortmund
FC Barcelona
Mónaco
Leicester
Tres de los cuatro primeros equipos de la lista de Productividad Conjunta, jugaron las
semifinales de la competición.
En este análisis hay dos equipos que merecen una mención especial.
El segundo de ellos es el Mónaco. Llegó a semifinales con un valor global bajo, aunque su
productividad en disparos a puerta y córners a favor estuvo en el top 5. De hecho, la
efectividad de sus disparos a puerta fue la tercera por detrás del FC Barcelona y el Borussia
Dortmund.
En cualquier caso, lo que sí podemos decir es que la posesión del balón en un partido de
fútbol sin acompañamiento de productividad en diferentes ámbitos del juego no garantiza
la obtención de resultados. Puede llegar a penalizar.
Borussia Dortmund, segundo en posesión, quinto en valoración global; FC Barcelona, tercero en posesión, sexto en valoración
global.
Construyendo una Base de Datos de Jugadores
En la aplicación del Big Data en el fútbol es fundamental contar con una base de datos
cualificada de jugadores. La información contenida en esta base de datos será la que nos
guíe en la construcción de los diferentes modelos que un club pueda necesitar.
Los modelos no dejan de ser sino algoritmos (fórmulas) que van a transformar datos
cuantitativos y cualitativos en valores referenciales. Estos valores serán los que los
diferentes estamentos de un club deberán tener en cuenta a la hora de la toma de
decisiones en diferentes ámbitos.
Una estructura de datos a completar de los jugadores, debería tener al menos este índice:
3. Datos físicos
Altura
Peso
Color de pelo
Color de piel
Estándar de belleza
…
4. Currículum formación académica
Estudios
Categorización de los estudios
Idiomas
Expresión Oral
…
7. Internacionalidades
País
Internacional sub18
Número de internacionalidades
Internacional sub21
Número de internacionalidades
Internacional absoluto
Número de internacionalidades
…
8. Redes Sociales
Twitter
Cuenta
Seguidores
Facebook
Cuenta
Fans
Instagram
Cuenta
Seguidores
9. Sentiment Analysis
Redes Sociales
Positivo (%)
Negativo (%)
Neutro
Foros
Positivo (%)
Negativo (%)
Neutro (%)
Medios on line
Positivo (%)
Negativo (%)
Neutro (%)
Impactos mediático
Apariciones en Social Media
Apariciones en Medios on line
Apariciones en Medios off line
Publicidad
10.Histórico de lesiones
Lesión 1
Temporada
Equipo
Tiempo de recuperación
Partidos perdidos
Lesión 2
Temporada
Equipo
Tiempo de recuperación
…
12.Histórico de Objetivos
Media de pases por partido
Porcentaje de pases correctos
Media de balones recuperados
Media de balones interceptados
Media de faltas cometidas
Media de goles
Media de km recorridos por partido
…
16.Otros
Como se puede observar los datos que hay que recolectar de un jugador son amplios y
variados. Muchos de ellos aparentemente no tienen nada que ver con el aspecto específico
del juego, pero para un club, cada vez más, un jugador debe representar un activo que
aporte valor más allá del juego en sí.
En cualquier caso, la base de datos a construir para cada club dependerá de las necesidades
de análisis y valoración que éste quiera conseguir.
Construyendo Modelos de Valoración
Para el desarrollo de este ejemplo, una vez creado el modelo, construiremos las fichas de
cinco jugadores y veremos como a través de una herramienta Big Data de análisis de
información, ésta nos proporciona diferentes puntos de vista valorativos.
FASES EN LA CREACIÓN DEL MODELO
Las categorías e ítems dentro de éstas que vamos a tener en cuenta son:
Datos de nacimiento y nacionalidad
Fecha de Nacimiento
País de Origen
Datos de situación familiar
Pareja estable
Número de hijos
Histórico de datos relacionados con partidos jugados
Porcentaje medio de partidos convocado por temporada
Porcentaje medio de partidos desconvocado por temporada sin mediar lesión
Porcentaje medio de partidos jugados
Media de tarjetas amarillas por temporada
Media de tarjetas rojas por temporada
Media de partidos no jugados por lesión por temporada
Porcentaje medio de partidos jugados de titular por temporada
Histórico de Objetivos
Media de pases por partido
Porcentaje de pases correctos
Media de balones recuperados
Media de balones interceptados
Media de faltas cometidas
Media de goles
Media de km recorridos por partido
Santiago Bernabéu (1895-1978), fue presidente del Real Madrid durante 35 años hasta su
muerte. Anteriormente había sido jugador y entrenador también del club blanco. Cuenta su
leyenda que a los nuevos jugadores que se incorporaban al club, si estaban “solteros”,
sutilmente los llamaba a su despacho y les recomendaba que buscaran novia, se casaran y
tuvieran hijos. Bernabeú, ya sabía que el rendimiento de un jugador “soltero” y sin
responsabilidades decrecía. Jugadores jóvenes, con dinero y noches interminables era un
cocktel que el histórico presidente consideraba que iba en perjuicio del rendimiento global
del equipo.
Como anécdota, en una gira que el Real Madrid hizo por Europa y América del Sur, en la
que se enfrentó a diversos equipos, Santiago Bernabeú, coincidió en el hall del hotel con
Héctor Rial, jugador del Real Madrid que volvía de pasar la noche fuera de la concentración
del equipo, tras haber jugado contra el Vasco de Gama en Brasil. “Buenos días, Héctor.
Cuando lleguemos a Madrid, le daremos el finiquito” –le dijo Bernabéu. Rial jugó su último
encuentro con la camiseta blanca frente al Asco Angers francés en esa gira.
V1=(PMPJT+((PMPC)*0,05)-((PMPD)*0,05))+((PMPJ)*0,10))-((MTA+MTR+MPL))
En esta fórmula lo que tratamos es de positivar los porcentajes que hacen referencias a
partidos jugados, jugados de titular y convocados, negativizar las referencias a partidos
desconvocados, tarjetas amarillas, rojas y partidos lesionados.
A la que se le aplicará los valores correctivos en función de los datos de edad, lugar de
nacimiento, pareja estable e hijos.
V2=(MPP-60)+(PPC-80)+((MBR-8)*10)+((MBI-4)*10)+((3-MFC)*10)+((MG-3)*10)+((MK-10)*10)
Esta fórmula trata de positivar, teniendo en cuenta que los jugadores a analizar son
centrocampistas, que puedan dar más de 60 pases de media con un porcentaje superior al
80% de pases correctos, que recuperen al menos 8 balones, que intercepten al menos 4, no
hagan más de 3 faltas y corran al menos 10 km por partido.
A V2, también se le aplicará los valores correctivos en función de los datos de edad, lugar
de nacimiento, pareja estable e hijos.
Vamos a analizar cinco jugadores. Para ello hemos creado tres tablas de datos: la primera
incorpora los datos referentes a su edad, origen y situación familiar. La segunda incorpora
los datos de productividad relacionada con partidos jugados y la tercera incorpora los
datos de productividad relacionada con los objetivos.
Tabla jugadores I
Edad
País de Origen
Pareja
Hijos
JUGADOR
JUAN
DIEGO
DAVID
LASSANA
HUGO
JUGADOR
JUAN
DIEGO
DAVID
LASSANA
HUGO
Creamos el valor VProductividadM y le aplicamos la fórmula que definimos en el modelo.
VProductividadM(V1)=(PMPJT+((PMPC)*0,05)-((PMPD)*0,05))+((PMPJ)*0,10))-((MTA+MTR+MPL))
Creamos el valor VProductividadO y le aplicamos la fórmula que definimos en el modelo.
VProductividadO(V2)=(MPP-60)+(PPC-80)+((MBR-8)*10)+((MBI-4)*10)+((3-MFC)*10)+((MG-3)*10)+((MK-10)*10)
Y finalmente aplicamos la última fórmula para obtener un valor único por jugador con base
al modelo definido:
CF= (V1 (con las correcciones) * V2 (con las correcciones))/100
Resumiendo:
El concepto 360 grados es una idea que va intrínsecamente unida a los proyectos Big Data y
tiene que ver con la capacidad de analizar los datos de clientes, de tu empresa, del sector,
de la competencia desde un punto de vista tridimensional como un objeto a modo cubo que
puedes coger con los dedos de una mano y rotarlo desde cualquier ángulo hasta encontrar
la información que necesitas.
ACID
Aggregation/Agregación
Algorithm/ Algoritmo
Anonymization
Proceso de destrucción de pistas o rastro electrónico en los datos con el fin de asegurar la
no identificación de la fuente de los mismos.
API
Application / Aplicación
Árbol de juego
Árbol de decisión
Big data
El concepto Big Data se refiere a un conjunto de datos cuyo volumen está más allá de la
capacidad de las típicas herramientas de software de base de datos para recopilar,
almacenar, administrar y analizar.
Biometrics / Biometría
El uso de la tecnología para identificar a las personas por uno o más de sus rasgos físicos.
Los procesos dirigidos a monitorizar la reputación on line (qué se dice, cómo se dice, dónde
se dice, cuando y cuanto se dice) de una marca
Caché
Los CDR contienen datos que una compañía de telecomunicaciones recopila sobre las
llamadas telefónicas, como el tiempo y la duración de la llamada. Estos datos pueden
utilizarse en aplicaciones analíticas.
Cascading
Cassandra
Es una base de datos NoSQL distribuida y basada en un modelo de almacenamiento de
«clave-valor», de código abierto administrada por The Apache Software Foundation.
Permite gestionar grandes volúmenes de datos en forma distribuida.
Los teléfonos móviles generan una ingente cantidad de datos. Gran parte de ellos está
disponible para su uso con aplicaciones analíticas.
Chukwa
Classification analysis
Clickstream analytics
El análisis de la actividad web de los usuarios a través de los clics que éstos realizan en los
diferentes elementos de una página web
Cloud / Nube
Cluster
Conjunto de ordenadores conectados entre sí por una red de alta velocidad y que funcionan
como si fuesen un único ordenador.
Base de datos que almacena los datos por columna en lugar de por fila. En una base de
datos basada en filas, una fila puede contener un nombre, una dirección y un número de
teléfono. En una base de datos orientada a columnas, todos los nombres están en una
columna, las direcciones en otra y así sucesivamente. Una ventaja clave de una base de
datos columnar es un acceso más rápido al disco duro.
Comparative analysis
Análisis de datos que compara dos o más conjuntos de datos o procesos para identificar
patrones en volúmenes grandes de información.
Competitive monitoring
CEP es el proceso de monitorización y análisis de todos los eventos en los sistemas de una
organización y actuar sobre ellos en tiempo real cuando sea necesario.
Concurrency
Confabulation
El acto de tomar una decisión basada en la intuición que parece estar basado en datos.
Correlation analysis
Un medio para determinar una relación estadística entre variables. A menudo con el
propósito de identificar factores predictivos entre las variables.
Crowdsourcing
Aplicaciones que facilitan a las empresas la gestión de los procesos de ventas y servicios a
sus clientes.
Dashboard
Conjunto de datos y/o gráficos de alto nivel presentados en una pantalla de forma muy
visual.
Data aggregation
El modo de estructurar los datos de una organización. La estructura o diseño real varía
dependiendo del eventual resultado final requerido. La arquitectura de datos tiene tres
etapas o procesos: la representación conceptual de las entidades empresariales. La
representación lógica de las relaciones entre esas entidades y la construcción física del
sistema para soportar la funcionalidad.
Data center
Una instalación física que alberga un gran número de servidores y dispositivos de
almacenamiento de datos, al servicio de una sola organización o a prestar servicio a
muchas organizaciones.
● gestión de datos
● gestión de metadatos
Data replication
El proceso de compartir información para asegurar la coherencia entre fuentes
redundantes.
Data repository
Data security
Data set
Conjunto de datos
Data source
Fuente de datos
Data structure
Estructura datos.
Data warehouse
Database
Una colección digital de datos y la estructura alrededor de la cual se organizan los mismos.
Dichos datos se introducen y se gestionan (accesos) a través de un sistema de gestión de
base de datos (DBMS).
Bases de datos alojadas en la nave y que se ofrecen como servicios a terceras empresas
para su uso.
Demographic data
Datos relacionados con las características de la población.
Distributed cache
Una caché de datos que se distribuye a través de múltiples sistemas, pero funciona como
uno solo. Se utiliza para mejorar el rendimiento.
Distributed processing
Document management
Drill
Elasticsearch
Un sistema de software que permite a una organización coordinar y administrar todos sus
recursos, información y funciones empresariales. ERP es como comúnmente se denominan
a las aplicaciones de gestión de las empresas.
Event analytics
Exabyte
External data
Proceso usado en data warehousing para preparar datos para su uso en informes o análisis.
Flume
Framework
Gamification
El uso de técnicas de juego en aplicaciones no relacionadas con el juego, como motivar a los
empleados y fomentar las conductas deseadas de los clientes. El análisis de datos a menudo
se aplica a la gamificación, por ejemplo, para la segmentación de la audiencia, para
informar a las técnicas para fomentar mejor los comportamientos deseados y para
personalizar las recompensas para obtener resultados óptimos.
Graph database
Un tipo de base de datos NoSQL que utiliza estructuras gráficas para consultas semánticas
con nodos, aristas y propiedades para almacenar, mapear y consultar relaciones en datos.
Grid computing
Este término se refiere a la realización de funciones de computación (procesos) utilizando
recursos de múltiples sistemas distribuidos. La computación en cuadrícula suele implicar
archivos grandes y se usan con mayor frecuencia para múltiples aplicaciones. Los sistemas
que comprenden una red de computación de cuadrícula no tienen que ser similares en
diseño o en la misma ubicación geográfica.
Good Data
Hadoop
Un sistema de archivos distribuido tolerante a fallos diseñado para funcionar con hardware
de bajo costo, escrito en Java para el framework Hadoop.
HANA
HBase
Los sistemas HPC, son también llamados superordenadores. Están construidos con la
tecnología más avanzada para maximizar el rendimiento de cálculo, la capacidad de
almacenamiento y las velocidades de transferencia de datos.
Hive
Impala
Kafka
Latency / Latencia
Load Balancing
Location Analytics
Location data
Log file
Un archivo que un equipo, una red o una aplicación crea automáticamente para registrar
eventos que se producen durante el uso de ese sistema o aplicación.
Machine-generated data
Cualquier dato que se cree automáticamente desde un proceso informático, una aplicación
u otra fuente no humana.
Machine learning
Map/reduce
Un término general que se refiere al proceso de dividir un problema en piezas que luego se
distribuyen a través de varios ordenadores en la misma red o agrupación, o a través de una
cuadrícula de mapas dispares que geográficamente pueden estar separados (map) para
posteriormente recopilar todos los resultados y combinarlos en un informe (reduce).
Mashup
Datos maestros son los datos no transaccionales que son críticos para el funcionamiento de
una empresa, por ejemplo, datos de clientes o proveedores, información de productos o
datos de empleados. MDM es el proceso de gestión de dichos datos para garantizar la
coherencia, la calidad y la disponibilidad.
Metadata
Cualquier dato utilizado para describir otros datos, por ejemplo, el tamaño de un archivo
de datos o la fecha de creación.
Model/Modelo
MongoDB
MPP database
Una base de datos optimizada para trabajar en un entorno de procesamiento masivo
paralelo.
Multidimensional database
Tipo de base de datos que almacena datos como matrices multidimensionales o "cubos", en
oposición a las filas y la estructura de almacenamiento de columnas de las bases de datos
relacionales. Esto permite analizar los datos desde diferentes ángulos para consultas
complejas y aplicaciones de procesamiento analítico (OLAP).
Multi-threading
NewSQL
NoSQL
Un tipo de sistema de gestión de bases de datos que no utiliza el modelo relacional. NoSQL
está diseñado para manejar grandes volúmenes de datos que no siguen un esquema fijo. Es
ideal para utilizar con volúmenes de datos muy grandes que no requieren el modelo
relacional.
Object-oriented database
Oozie
OpenDremel
La versión de código abierto del código java Big Query de Google. Se está integrando con
Apache Drill.
OpenPOWER Foundation
Organización iniciada por IBM en 2013 como parte de su esfuerzo por abrir sus productos
de Power Architecture a un enfoque de desarrollo colaborativo.
Software con código fuente que el titular de los derechos de autor pone gratuitamente a
disposición del público en general. Este código puede ser redistribuido, y cualquiera puede
inspeccionarlo y cambiarlo.
Una ubicación para recopilar y almacenar datos de múltiples fuentes para que se puedan
realizar más operaciones antes de enviarlos al data warehouse para la generación de
informes.
Parallel query
Una consulta que se ejecuta en varios subprocesos del sistema para un rendimiento más
rápido.
Pentaho
Performance management
Proceso de monitorización del rendimiento de un sistema para evaluar las áreas que
necesitan mayor atención y recursos.
Petabyte
Pig
Platform-as-a-service (PaaS)
Un modelo de cloud computing que proporciona, a través de Internet, como servicio, una
plataforma que incluye herramientas de hardware y software que permiten a los
clientes/usuarios desarrollar y gestionar aplicaciones.
Predictive analytics
Uso de funciones estadísticas en uno o más conjuntos de datos para predecir tendencias o
eventos futuros.
Predictive modeling
El proceso de desarrollar un modelo que pueda, con una alta probabilidad, predecir una
tendencia o un resultado.
Presto
Privacy
La necesidad y / o requerimiento de controlar el acceso y la difusión de información
sensible, entre ella la de tipo personal que se encuentra almacenada en los sistemas de
información de una organización.
Quantified self
Un movimiento marcado por el uso de datos por parte de la gente, recolectado a menudo
por sensores en dispositivos portátiles, para analizar factores tales como la salud, los
niveles de actividad, la calidad del sueño … con el propósito de un mayor autoconocimiento
y un incremento del nivel de bienestar.
Query analysis
El proceso de analizar una consulta de búsqueda con el fin de optimizarla para obtener el
mejor resultado posible.
Real time
Tiempo real.
Recommendation engine
Records management
Reference data
Datos que describen un objeto y sus propiedades. El objeto puede ser físico o virtual.
Report / informe
Risk analysis
La aplicación de métodos estadísticos en uno o más conjuntos de datos para determinar el
riesgo probable de un proyecto, acción o decisión.
Root-cause analysis
Sabermetric / Sabermetría
Hace referencia al análisis del béisbol a partir de evidencias objetivas, en este caso, las
estadísticas que se generan durante el desarrollo de un partido. Es extensible el concepto a
cualquier deporte.
Sawzall
Lenguaje de programación de Google diseñado para procesar logs con gran volumen de
registros.
Scalability / Escalabilidad
Schema
Search
Semantic Web
Un proyecto del World Wide Web Consortium (W3C) para fomentar el uso de un formato
estándar que incluya contenido semántico en sitios web. El objetivo es permitir que los
ordenadores y otros dispositivos procesen mejor los datos.
Datos que no están estructurados por un modelo formal, sino que proporcionan otros
medios para describir estos datos y sus jerarquías.
Sentiment analysis
Spark
Storage
Storm
Un sistema distribuido de código abierto diseñado para procesar múltiples flujos de datos
en tiempo real.
Terabyte
1,000 gigabytes.
Text analytics
Transactional data
Este término hace referencia a información o datos de tipo económico que intervienen en
procesos de aplicaciones Web (transferencias en banca electrónica, pedidos de clientes a
través de web, pagos con tarjetas on line…)
Tupla
Secuencia de valores agrupados que sirve para agrupar, como si fueran un único valor,
varios valores, que por su naturaleza, deben ir juntos.
Variable pricing
Weareable
Weather data
Los datos meteorológicos en tiempo real están ahora ampliamente disponibles para que las
organizaciones los utilicen de diversas maneras. Por ejemplo, una empresa de logística
puede controlar las condiciones climáticas locales para optimizar el transporte de
mercancías. Una empresa de servicios públicos puede ajustar la distribución de energía en
tiempo real. Un equipo de fútbol puede determinar la idoneidad de los tacos de las botas de
futbol para un partido.
ZooKeeper
El fútbol es un juego.
Estamos jugando en todo momento, aunque no lo tengamos presente, de hecho siempre que
dos o más seres humanos interactúan se está jugando a un juego.
Es necesario estar seguro de que en cada caso se está tomando la mejor decisión, antes de
ejecutar la acción.
En un partido de fútbol, se calcula que se pueden llegar a registrar hasta cerca de 8.000.000
de datos.
Los parámetros de valoración de un jugador de fútbol deben ir mucho más allá de los
estrictamente deportivos. Son muchos y variados los factores de influencia en el rendimiento
deportivo de un equipo y en la consolidación y crecimiento de un club.
BIBLIOGRAFÍA
Joaquín Roldán Morcillo, San Vicente del Raspeig (Alicante), 1965, es un empresario especializado en Análisis de
Información desde hace más de 15 años, Diplomado en Marketing, Dirección Comercial y Planificación de Marketing por
el Centro de Estudios Superiores de la Empresa, con Estudios en Economía e Informática y con pasión por el fútbol
formativo.
Ignacio Blas Sanz, (Zaragoza), 1977, Licenciado en Derecho por la Universidad de Deusto, DEA por Departamento Derecho
de la Empresa de la Universidad de Zaragoza y MBA, escuela de negocios IEDE, está especializado en Derecho deportivo
en la gestión de entidades deportivas y con clara enfocque en la formación deportiva.
Habiendo unido sus experiencias profesionales en diversos proyectos relacionados con el fútbol en ámbitos como la
asesoría deportiva y análisis de información, ponen, en este libro, su particular visión de hacia donde debe evolucionar la
gestión de información en este deporte.