Un’introduzione all’uso di Elo nel tennis

di Jeff Sackmann // TennisAbstract

Pubblicato il 3 dicembre 2019 – Traduzione di Edoardo Salvati

Elo è il nome di un sistema di valutazioni di giocatori e giocatrici di tennis di qualità superiore rispetto alle formule che determinano le classifiche ufficiali per il circuito maschile e femminile. Da lettori seriali del mio blog o ascoltatori del podcast, ne sarete sicuramente venuti a conoscenza. A meno però di esservi ritrovati a contatto diretto con le valutazioni Elo in precedenza o di aver approfondito personalmente li tema, potreste pensare che sia una sorta di concetto che pertiene la sfera mitologica del tennis. Vale la pena dedicare del tempo a una comprensione più dettagliata del suo funzionamento.

L’algoritmo di base

Il principio sottostante qualsiasi sistema Elo è quello per cui la valutazione di un giocatore è una stima della sua bravura, che è possibile aggiornare dopo ogni partita (o torneo). Se un giocatore vince, la sua valutazione aumenta. Se perde, diminuisce. Dove Elo eccelle, è nel determinare l’ammontare secondo cui la valutazione dovrebbe salire o scendere.

Due sono le variabili principali considerate: quante partite sono già presenti nel sistema (vale a dire, quanta sicurezza abbiamo nella valutazione prima della partita) e la qualità dell’avversario. Riflettendoci bene, queste due variabili sono una buona approssimazione dell’idea che ci siamo già fatti della bravura di un giocatore. Più informazioni possediamo di un giocatore, più difficilmente cambieremo l’opinione che ne abbiamo sulla base di una sola partita.

La sconfitta di Novak Djokovic contro Dominic Thiem nel girone delle Finali di stagione è stata una sorpresa, ma solo il tifoso più apocalittico ha interpretato il risultato come un disastro che avrebbe dovuto modificare la stima della bravura di Djokovic. In modo analogo aggiustiamo l’opinione di un giocatore rispetto alla qualità dell’avversario. Una sconfitta contro Thiem genera delusione, ma una contro Marco Cecchinato, come nella semifinale del Roland Garros 2018, è più preoccupante. Il sistema Elo incorpora questo tipo di intuizioni istintive.

L’ampiezza delle valutazioni Elo

Tradizionalmente, all’ingresso nel sistema Elo e prima di accumulare risultati, un giocatore riceve una valutazione di 1500. È un numero completamente arbitrario. Tutto quello che conta è la differenza tra le valutazioni dei giocatori: se assegnassimo di partenza 0, 100 o 888, il risultato finale di quella differenza rimarrebbe il medesimo.

Quando ho iniziato a calcolare le valutazioni Elo, ho mantenuto la tradizione di partire da 1500. Negli anni, ho allargato l’orizzonte ai Challenger (e agli equivalenti tornei nel circuito femminile organizzati dalla Federazione internazionale) e alle qualificazioni del circuito maggiore. In assenza di un correttivo, la scala dell’intero sistema sarebbe stata alterata, generando inevitabile confusione. Quindi, ho sostituito il valore di 1500 con un numero poco superiore a 1200 (in funzione della categoria del torneo e della distinzione tra uomini e donne), così da ottenere una valutazione sostanzialmente identica.

Attualmente, il numero uno e la numero uno del mondo sono Rafael Nadal e Ashleigh Barty, con una valutazione Elo di 2203 per Nadal e 2123 per Barty. Questo è l’intervallo in cui stazionano i migliori, e i fenomeni assoluti spesso si avvicinano a 2500. Secondo la più recente versione del mio algoritmo, il picco di Djokovic è stato di 2470 e quello di Serena Williams di 2473. La quota di 2000 separa con buona precisione le élite dagli altri giocatori. Al momento, sei uomini e sette donne hanno valutazioni così alte. Sedici uomini e diciotto donne hanno valutazioni di almeno 1900. Una valutazione di 1800 equivale grossomodo a un posto tra i primi 50.

Confronto tra epoche e inflazione Elo

Se si riesce ad assegnare un valore Elo massimo a ogni giocatore, viene automatico iniziare a fare confronti tra epoche. Seppur un passatempo divertente, sono convinto che nessun sistema di valutazione dei giocatori di tennis abbia una qualche utilità ai fini di un raffronto tra epoche diverse, neanche Elo. Quello che può fare però è mettere a confronto la bravura di un giocatore rispetto ai suoi avversari.

Nel 1990, Helena Sukova raggiunse un valore di 2123, lo stesso posseduto ora da Barty. Non significa che Sukova era forte al tempo quanto lo è Barty adesso. Significa invece che hanno avuto un rendimento simile contro le rispettive avversarie. Le giocatrici di seconda fascia trent’anni fa erano considerevolmente più deboli, quindi in un certo senso era più facile raggiungere valutazioni molto elevate. Sukova occupava l’undicesima posizione Elo, molto lontana dal 2600 di Steffi Graf.

Questo per dire che Elo non permette un confronto tra epoche a meno di non essere certi che il livello della competizione sia analogo, o a meno di non avere altre idee per gestire quella variabile, un campo minato che ha respinto molti tra coloro che hanno approfondito il tema.

Inflazione e deflazione

Una problematica correlata è il concetto di inflazione o deflazione Elo, che può rendere ancora più complicati confronti tra epoche. Ogni volta che si gioca una partita, vincitore e sconfitto di fatto si “scambiano” alcuni dei loro punti, in modo da lasciare il numero totale dei punti nel sistema inalterato. Quando però un nuovo giocatore fa il suo ingresso, il totale dei punti aumenta. Al ritiro invece, il totale diminuisce.

Sarebbe più facile se addizioni e sottrazioni di punti si equivalessero, in modo da annullarsi, ma per molte competizioni che usano Elo questo non accade. Le addizioni tendono a essere maggiori delle sottrazioni, facendo crescere le valutazioni Elo nel corso del tempo. Non sembra che questo si verifichi con le mie valutazioni, almeno in parte perché ho previsto una penalizzazione per gli infortuni che tengono lontano dal gioco, ma è utile per ricordare che il numero di punti del sistema non è statico, e per ragioni non legate alla bravura dei giocatori di vertice.

Previsioni Elo

Iniziano a essere più chiare le caratteristiche di utilizzo di Elo come sistema che fornisce la valutazione di un giocatore rispetto a quella degli altri. Uno dei principali scopi di qualsiasi sistema di valutazione è la previsione del risultato delle partite, e in questo Elo riesce meglio della maggior parte dei suoi avversari, tra cui anche le classifiche ufficiali dell’ATP e della WTA. L’unico parametro necessario per fare una previsione è la differenza tra la valutazione dei due giocatori, da inserire poi nella seguente formula:

1 – (1 / (1 + (10^((differenza) / 400))))

Se volessimo prevedere una rivincita dell’ultima partita delle Finali di Coppa Davis, dovremmo prendere le valutazioni di Nadal e Denis Shapovalov (2203 e 1947), calcolare la differenza (256) e applicare la formula, ottenendo una probabilità di vittoria per Nadal dell’81.4%. Con la differenza negativa (-256) avremmo ottenuto la speculare probabilità di un risultato a sorpresa per Shapovalov del 18.6%.

La mia versione Elo nel tennis si basa sul formato più classico delle partite, cioè quello al meglio dei tre set. Per le partite al meglio dei cinque set il calcolo si complica, ma per chi fosse interessato ho scritto del codice. Il punto è che occorre un aggiustamento. Dovessero Nadal e Shapovalov giocare contro agli Australian Open 2020, la probabilità di vittoria di Nadal salirebbe all’86.7%.

Elo specifico per superficie

Per la maggior parte degli sport, ci si potrebbe fermare qui. Una partita è una partita, con poche altre variazioni marginali. Nel tennis però, valutazioni e previsioni dovrebbero variare sensibilmente in funzione della superficie.

Ammetto che la mia soluzione è un po’ complicata. Per ogni giocatore, ci sono quattro diverse valutazioni Elo: complessiva, specifica per il cemento (ma senza distinzioni tra campi all’aperto e al chiuso), specifica per la terra battuta e specifica per l’erba. Ad esempio, Thiem ha una valutazione complessiva di 2066, di 1942 sul cemento, di 2031 sulla terra e di 1602 sull’erba (la specificità di superficie in genere abbassa le valutazioni: quella di Thiem sulla terra è al terzo posto del circuito e lo pone un abisso davanti a tutti gli altri giocatori ad eccezione di Nadal e Djokovic).

Queste valutazioni specifiche per superficie permettono un confronto tra giocatori ignorando i risultati su tutte le altre superfici. Non è però un esercizio realistico, perché la valutazione relativa alla singola superficie non ha un grande potere predittivo dei risultati delle partite.

Una combinazione di superfici

Una soluzione più opportuna arriva da una combinazione al 50% della valutazione per superficie e di quella complessiva. Se volessimo calcolare le probabilità di Thiem per una partita sulla terra, dovremmo usare una valutazione a metà tra il 2066 complessivo e il 2031 della terra.

Nelle mie valutazioni Elo settimanali, la singola superficie è indicata con “HardRaw” (o Solo Cemento, e così via), mentre le valutazioni combinate con “hElo”, “cElo” e “gElo” (h per hard = cemento, c per clay = terra e g per grass = erba). Non esiste una legge fisica che impone una combinazione al 50%. Qualsiasi correzione fatta all’algoritmo di base di Elo è dettata esclusivamente da logiche funzionali.

All’inizio, pensavo che una combinazione tra valutazione specifica e complessiva fosse appropriata, perché il successo di un giocatore su una superficie è in qualche modo correlato a quello sulle altre. Mi attendevo che la combinazione fosse diversa per singola superficie, magari usando una percentuale più alta della valutazione complessiva nel caso dell’erba, visto il numero ridotto di partite su quella superficie. Alla fine però, dalle mie prove è emerso che il 50% funziona su tutte le superfici.

Senza correzioni

Un sondaggio tra appassionati su quali sono le partite più importanti e di quali tornei — per la classifica, per il dibattito sul più forte di sempre, o per qualsiasi altra questione — potrebbe portare a una lunga e dettagliata lista di fattori che definiscono il concetto di grandezza. Forse sono gli Slam a essere più importanti dei Master o dei Premier, anche se forse questi sono meno rilevanti delle Finali di stagione e delle Olimpiadi, e naturalmente le finali sono fondamentali, pure gli scontri diretti tra determinati giocatori, e così via all’infinito.

Elo fornisce una soluzione. Un coefficiente solitamente chiamato “fattore k” permette di assegnare maggiore peso a determinate partite. È frequente nelle valutazioni Elo di altri sport, ad esempio per le partite dei playoff che hanno un fattore k più alto rispetto a quelle della stagione regolare. Ho sperimentato ogni sorta di valore del fattore k per le partite considerate “importanti”, ma devo ancora trovare un’impostazione del sistema che migliori in modo continuativo la sua capacità di fare previsioni sul risultato di una partita.

La penalizzazione per assenza dal circuito

Esiste un’eccezione. In caso di assenza duratura, diminuisco la valutazione del giocatore, per poi aumentare il fattore k nelle prime partite successive al rientro. Ne avevo già parlato in questo articolo. Si tratta di un’estensione logica del modello Elo, specialmente se si pensa alla tipica disposizione mentale che si ha nei confronti di un giocatore rimasto a lungo lontano dal circuito per infortunio. Non si sa mai bene cosa attendersi quando rientra, se è più forte che mai o se è ancora troppo lento. Magari ritornerà in forma presto o magari non recupererà mai la forma di un tempo. Una lunga assenza solleva molte domande. Raramente chi arriva da un infortunio è a un livello superiore al precedente, mentre in molti fanno peggio, mostrando rendimenti in media inferiori.

È inevitabile quindi che, all’immediato rientro da un infortunio, la stima del livello di un giocatore sia inferiore. Tuttavia, si dovrebbe assegnare un peso maggiore a risultati da subito molto validi, da cui un valore più alto del fattore k, che incorpora nella valutazione di un giocatore la mancanza di fiducia che abbiamo sulle sue condizioni successive al rientro da un infortunio. L’algoritmo si complica, ma la logica è semplice. In sostanza, è solo il tentativo di dare rigore interpretativo ad affermazioni del tipo “non so quanto giocherà bene al rientro, ma lo seguirò attentamente”.

La penalizzazione per assenza ha l’effetto collaterale positivo di bilanciare la naturale tendenza di Elo a un’inflazione nelle valutazioni. Se da un lato ci sono più giocatori che entrano nel sistema di quelli che ne escono, facendo aumentare il numero complessivo dei punti disponibili, la penalizzazione toglie dei punti senza che vengano poi allocati nuovamente agli altri giocatori.

La validazione di Elo e altre misure correttive

Più volte ho detto di aver fatto delle prove, oltre ad aver iniziato l’articolo affermando che Elo è di qualità superiore rispetto alle classifiche ufficiali. Cosa significa esattamente, e perché lo si può dire? Il modo più semplice con cui paragonare sistemi di valutazione è una statistica chiamata “accuratezza”, che conta le previsioni fatte correttamente. Ad esempio, Elo ha predetto il vincitore in 36 delle 50 partite delle Finali di Coppa Davis, per un’accuratezza del 72%. La classifica ATP ha predetto il vincitore (nel senso che il giocatore con la classifica più alta ha vinto la partita) in 30, per un’accuratezza del 60%. L’esperimento è ridotto, ma Elo ha demolito la classifica ufficiale. Ed Elo è considerevolmente migliore quando l’arco temporale copre un’intera stagione.

L’indice di Brier

Per questo scopo è più utile l’indice di Brier, che considera il livello di fiducia riposto in ciascuna previsione. Riprendendo il precedente esempio, Elo assegna a Nadal una probabilità dell’81.4% di battere Shapovalov. Se Nadal effettivamente vince la partita, l’81.4% è una previsione “migliore” diciamo rispetto a una del 65%, ma è “peggiore” di una del 90%. L’indice Brier calcola la media del quadrato della differenza tra la previsione (81.4%) e il risultato (0% o 100% a seconda di chi ha vinto), per tutte le partite in oggetto. Remunera l’impudenza di quelle previsioni che si sono rivelate corrette ma, poiché usa il quadrato della differenza, punisce severamente le previsioni aggressive ma sbagliate.

Un metodo più intuitivo per capire la natura dell’indice Brier è di ipotizzare che Nadal e Shapovalov giochino 100 partite di fila (o, con più precisione ma meno intuitivamente, ipotizzare che cento identici Nadal giochino in contemporanea contro cento identici Shapovalov). Una previsione dell’81.4% significa che ci si attende che Nadal vinca 81 o 82 delle 100 partite. Se Nadal ne vince poi 90, la previsione non è stata sufficientemente favorevole nei confronti di Nadal. Non avremo mai cento partite di quel tipo in simultanea, abbiamo però migliaia di partite uniche, molte delle quali hanno la stessa previsione, come il 60% di probabilità di vittoria per il favorito. L’indice di Brier aggrega tutte quelle coppie di previsioni-risultati e restituisce un numero indicativo della bontà del nostro operato.

L’accuratezza ha comunque un valore limitato

È difficile prevedere il risultato delle partite di tennis. A prescindere da quanto è sofisticato un sistema, qualsiasi esso sia, sbaglierà comunque moltissime volte. In molti casi, una previsione “corretta” è a malapena meglio che non fare previsioni, se i dati suggeriscono che i due giocatori sono tra loro alla pari. Per questo, l’accuratezza ha un valore limitato: è più importante avere la giusta dose di fiducia che scegliere semplicemente un vincitore.

Tutte queste parole a dire: le mie valutazioni hanno un indice Brier molto più basso (cioè più preciso) delle previsioni derivanti dalle classifiche del circuito maschile e femminile. Le previsioni fatte con Elo non sono altrettanto puntuali di quelle degli allibratori, altrimenti dedicherei molto più del mio tempo a scommettere che a scrivere di sistemi di valutazione nel tennis.

L’indice di Brier permette inoltre di stabilire se un determinato correttivo — come la combinazione tra superfici, le assenze da infortunio o il tipo di torneo — rappresentano un miglioramento del sistema. La definizione di una penalizzazione per assenza da infortunio riduce l’indice Brier per l’intero gruppo di previsioni Elo, quindi vale la pena considerarla. Diminuire il fattore k per le partite di primo turno non ha effetti rilevanti, quindi si elimina quella pratica.

Per ulteriore approfondimento

Le mie valutazioni Elo del momento: ATP | WTA

Elo esteso al doppio

…e al doppio misto (in inglese)

Codice per Elo nel tennis (in R, che non ho scritto io)

Una gustosa infarinatura sull’indice di Brier (in inglese).

An Introduction to Tennis Elo

La probabilità di doppi decisivi nella nuova Coppa Davis

di Jeff Sackmann // TennisAbstract

Pubblicato il 28 novembre 2019 – Traduzione di Edoardo Salvati

Nel nuovo formato della Coppa Davis, ci sono tre partite per ogni sfida tra nazioni, due di singolare e una di doppio. Si giocano per primi i singolari, rendendo quindi possibile che il doppio perda di valore, cioè sia irrilevante ai fini del risultato finale. 

Gli organizzatori delle Finali di Coppa Davis hanno provato a dare più peso al doppio, utilizzando criteri di spareggio (basati sul numero di set e game vinti) per determinare chi, durante la fase a gironi, si qualifica per quella a eliminazione diretta. Se è servito a mantenere interesse iniziale per i doppi irrilevanti, verso la fine dei gironi le squadre matematicamente qualificate non hanno avuto alcun incentivo a giocare il doppio.

In questo modo il Canada ha regalato il punto agli Stati Uniti con un ritiro pre-partita e l’Australia si è ritirata dopo un solo game giocato. Probabilmente era inevitabile, ma non è di certo auspicabile. Si presume che qualunque appassionato di tennis ne desideri sempre di più, e partite interrotte o non giocate potrebbero gettare scompiglio per lo spareggio.  

Sono molti i modi possibili per un ripensamento dell’evento, talmente tanti che evito di approfondirli in questa sede. Siccome i doppi irrilevanti sono inevitabili, vorrei invece analizzare quanto spesso dovremmo aspettarci che si verificano e, considerando che si verificheranno, se effettivamente è un aspetto che mette il doppio in secondo piano rispetto al singolare. 

Doppi ancora vivi

Lo spunto arriva da una domanda per il podcast della settimana scorsa:

La scelta più estrema riguardo ai doppi irrilevanti è semplicemente quella di non giocarli del tutto. Se si optasse per questa soluzione, a quanti doppi assisteremmo? Nelle Finali di Davis Cup a Madrid, ci sono state 25 sfide: 18 nella fase a gironi e 7 in quella a eliminazione diretta. In 12 sfide il doppio è stato determinante: 7 nelle 18 sfide dei gironi e 5 nelle 7 sfide dell’eliminazione diretta. Sulla base della metodologia proposta nel tweet, è all’incirca quanto ci saremmo attesi che accadesse. In media (per entrambe le fasi), una sfida aveva il 43% di arrivare al doppio decisivo, lasciando intendere che 11 partite di doppio sarebbero state importanti. 

La tabella elenca le 25 sfide, insieme alla probabilità di una vittoria a testa nelle prime due partite di singolare. L’ultima colonna indica se il doppio è stato decisivo. Le valutazioni Elo non sono state particolarmente efficaci nel predire quale sfida avrebbe portato a un doppio decisivo, anche se forniscono una buona stima di quanto spesso il doppio farebbe la differenza.

Sfida                 Prob. doppio   Giocato? 
Semi: GBR vs ESP      56.2%          SI  
Quarti: SRB vs RUS    54.3%          SI  
Semi: RUS vs CAN      53.3%          SI  
RR: FRA vs SRB        52.5%          NO  
RR: ARG vs GER        51.6%          NO  
RR: USA vs CAN        51.4%          NO  
RR: ITA vs CAN        50.0%          NO  
Quarti: GBR vs GER    50.0%          NO  
RR: GBR vs KAZ        49.8%          SI  
RR: ESP vs RUS        49.4%          SI  
Quarti: AUS vs CAN    49.4%          SI  
RR: USA vs ITA        48.7%          SI  
RR: BEL vs AUS        46.1%          NO  
RR: KAZ vs NED        46.0%          SI  
RR: CRO vs RUS        45.7%          NO  
RR: GER vs CHI        44.2%          SI  
RR: ARG vs CHI        43.6%          NO  
RR: FRA vs JPN        43.4%          SI  
Finale: CAN vs ESP    40.8%          NO  
RR: GBR vs NED        37.5%          SI  
RR: BEL vs COL        36.2%          NO  
Quarti: ARG vs ESP    34.6%          SI  
RR: SRB vs JPN        26.1%          NO  
RR: AUS vs COL        10.4%          NO  
RR: CRO vs ESP        7.3%           NO

Solo in pochi casi la vittoria in entrambi i singolari era quasi garantita. Anche in presenza di un tabellone molto lungo di 18 squadre, la maggior parte delle rappresentative è riuscita a schierare due solidi giocatori di singolare, e solo poche avevano il lusso di più di un giocatore di élite. 

Dieci anni di storia

Non si è trattato di pura casualità. Ho verificato tutte le sfide del World Group di Coppa Davis (tralasciando i playoff) dal 2010 al 2018 per identificare i due giocatori migliori di ciascuna squadra. Attraverso le loro valutazioni Elo al momento della partita e declinate sul nuovo formato al meglio dei tre set (anziché al meglio dei cinque), ho stimato quanto spesso saremmo di fronte a un doppio decisivo. In quelle 135 sfide, la probabilità media di un doppio decisivo è del 41%, di poco inferiore alla frequenza dell’edizione appena terminata. Escludendo un radicale rovesciamento gerarchico nella geografia del tennis mondiale, abbiamo una valida approssimazione di quanto frequentemente una squadra vince le prime due partite nel nuovo formato della Coppa Davis.

Quanto conta il doppio?

Quando il doppio ha un valore, è decisamente rilevante. Ogni partita di singolare ha la capacità di incidere in modo sostanziale sulla probabilità di ciascuna squadra di vincere la sfida, ma se il doppio entra in gioco, ha un’incidenza totale. Pensiamone in termini di leva, un concetto che solitamente applico a cambiamenti di punteggio durante la partita. Ipotizziamo due squadre equamente competitive e consideriamo la probabilità di vittoria in ogni passaggio del processo. Ogni squadra ha il 50% di probabilità di vincere ogni partita della sfida, che significa:

  • ogni squadra ha il 50% di probabilità di vincere la sfida
  • la squadra che vince la prima partita avrà il 75% di probabilità di vincere la sfida
  • in caso di parità dopo le prime due partite, ogni squadra avrà ancora una volta il 50% di probabilità di vincere la sfida.  

Prendiamo ora la leva di ciascuna partita dalla prospettiva della squadra A:

  • se vince la prima partita, la probabilità di vincere la sfida sale al 75%, altrimenti scende al 25%. Si tratta di un valore di leva del 75% – 25% = 50%
  • supponiamo che vinca la prima partita. Se vince anche la seconda, vince la sfida, una probabilità cioè del 100%. Se perde, scende al 50%. Di nuovo, è un valore di leva del 100% – 50% = 50% (se perde la prima partita, i calcoli sono identici, solo con probabilità del 50% e 0% invece di 100% e 50%) 
  • in presenza di un doppio decisivo, le probabilità all’inizio della partita di vincere la sfida sono del 50%. Con la vittoria del doppio, la probabilità raggiunge il 100%. Perdendo il doppio, la probabilità diventa dello 0%. È un valore di leva del 100% – 0% = 100%.  

Teoria e realtà

Potreste pensare che sia un ragionamento eccessivamente formale e convoluto, ed è difficile darvi torto. Il punto è che, con due squadre equivalenti, il doppio diventa due volte più decisivo. In molti altri sport succede che vi siano giocatori che non vengono coinvolti in tutte le fasi di gioco, subentrando nei momenti critici. Nel baseball ad esempio, con alcuni lanciatori chiamati a chiudere la partita solo in situazioni molto equilibrate. Oppure i kicker nella NFL, che partecipano a poche azioni della partita, ma con la possibilità di segnare molti punti. 

Per i parametri del mio campione d’indagine, il doppio avrà rilevanza esattamente il 50% delle volte, ed è due volte più importante di ognuna delle partite di singolare. Non funziona proprio così nel mondo reale, visto che il doppio è decisivo poco più del 40% delle volte. Però, quando poi il doppio diventa decisivo, ha sempre conseguenze da tutto o niente. Detto altrimenti, ha un valore di leva del 100%. 

Sono d’accordo nel non giocare i doppi irrilevanti. Non sarebbe una decisione che incontra il favore dei doppisti, e temo scatenerebbe le ire dei puristi della Davis. Pensando però alla posta in gioco, la reazione sarebbe più mitigata. In una formula da 16 o 18 squadre, l’equilibrio è sufficientemente distribuito da rendere necessario il doppio quasi nella metà delle volte. E quando si gioca il doppio, gli spesso dimenticati specialisti si trovano in una partita che è, letteralmente!, due volte più decisiva dei singolari che generano il massimo seguito di pubblico.  

The Likelihood of Live Doubles Rubber in the New Davis Cup

La velocità di ciascuna superficie, edizione 2019

di Jeff Sackmann // TennisAbstract

Pubblicato il 27 novembre 2019 – Traduzione di Edoardo Salvati

Se ne parla continuamente, e ne ho scritto molto in passato…eppure, strano a dirsi, non pubblico statistiche complete sulla velocità della superficie da tre anni. È ora di porre rimedio.

Se siete interessati alla spiegazione approfondita del funzionamento di questi numeri, con le limitazioni del caso, e di altri dettagli, invito alla lettura della mia analisi originaria. Segue qui una breve delucidazione. Assegno un valore a ciascuna superficie di gioco sul circuito maggiore maschile utilizzando la frequenza di ace come sintesi delle caratteristiche della superficie in questione.

Naturalmente, la frequenza di ace non può dare una rappresentazione completa ma, come vedremo, è un ottimo primo, o anche secondo, ordine di approssimazione. Per ogni torneo, verifico la frequenza di ace di tutte le partite, tenendo conto del giocatore al servizio e alla risposta in ciascuna di esse (la frequenza di ace nelle partite di John Isner sarà alta, ma questo non vuol dire necessariamente che la superficie è veloce).

Parlo di “velocità di gioco” perché la frequenza di ace dipende da un ampio insieme di variabili (temperatura, umidità, palline, etc) che, interamente considerate, forniscono indicazione sul modo in cui il campo incide sul gioco, ma che non hanno nulla di inerente la composizione fisica della superficie.

Facilità di calcolo e comprensione

I principali vantaggi di questa metodologia risiedono nella facilità di comprensione (più ace = valore più alto!) e nel fatto che è sufficiente un numero di dati anche ridotto, dati che sono disponibili per ogni partita maschile dai primi anni ’90. Il Court Pace Index e altre metriche basate sulla moviola istantanea Hawk-Eye possono sicuramente arricchire il ragionamento. Richiedono però pacchetti analitici molto più sofisticati, che federazioni e tornei non intendono di certo condividere con appassionati di rango minore come lo siamo noi.

La superficie media del circuito ha un valore di 1.0. Solitamente, la variazione tra tornei del circuito va dallo 0.50 dei campi in terra lenta all’1.50 dei campi in cemento veloci o in erba. La tabella mostra i valori di velocità per il periodo dal 2017 al 2019 di tutti i tornei in calendario nella stagione 2019, tra cui anche le Finali di Coppa Davis.

Torneo 2019         Superficie    % Ace  2019  2018  2017  
Chengdu             Cemento       14.8%  1.57  1.05  1.16  
Antalya             Erba          14.6%  1.47  1.25  1.74  
Finali di stagione  Cemento       11.7%  1.31  1.12  0.75  
Marsiglia           Cemento       11.7%  1.29  1.21  1.34  
Newport             Erba          12.7%  1.27  0.87  0.76  
Australian Open     Cemento       12.9%  1.27  1.16  1.14  
Brisbane            Cemento       13.3%  1.26  1.35  0.99  
Atlanta             Cemento       14.3%  1.25  1.01  0.86  
Shanghai            Cemento       13.0%  1.24  1.17  1.53  
San Paolo           Terra          9.8%  1.24  0.89  0.92  
Halle               Erba          12.8%  1.23  1.16  1.18  
Stoccarda           Erba          14.5%  1.23  1.42  1.27  
Sofia               Cemento       11.1%  1.21  1.14  1.33  
Anversa             Cemento       11.2%  1.21  1.25  1.06  
Finali Coppa Davis  Cemento       11.9%  1.20              
Metz                Cemento       13.5%  1.20  1.51  1.34  
Parigi Bercy        Cemento       11.9%  1.19  1.06  1.03  
Montpellier         Cemento       13.4%  1.17  1.13  1.11  
Vienna              Cemento       11.4%  1.16  1.16  0.98  
New York            Cemento       17.0%  1.16  1.05        
                                                        
Torneo 2019         Superficie    % Ace  2019  2018  2017  
Winston Salem       Cemento       12.1%  1.15  1.01  1.07  
Basilea             Cemento       14.2%  1.14  1.03  0.77  
Pechino             Cemento       11.6%  1.12  1.03  0.91  
Washington          Cemento       15.5%  1.11  0.99  1.11  
Mosca               Cemento       13.5%  1.11  1.21  1.45  
Delray Beach        Cemento       13.9%  1.10  0.98  0.97  
Doha                Cemento       10.0%  1.10  0.88  1.02  
S. Pietroburgo      Cemento        8.4%  1.09  1.13  0.80  
Stoccolma           Cemento       11.2%  1.08  1.03  1.05  
Tokyo               Cemento       11.6%  1.08  1.34  1.18  
Queen's Club        Erba          12.8%  1.07  1.25  1.20  
Auckland            Cemento       10.7%  1.06  1.17  1.11  
Pune                Cemento       14.8%  1.05  0.99        
Cincinnati          Cemento       11.6%  1.04  0.98  1.22  
Canada              Cemento       10.8%  1.03  1.17  0.97  
Dubai               Cemento        8.4%  1.02  1.04  0.91  
Eastbourne          Erba          13.2%  0.99  0.94  1.00  
Wimbledon           Erba          10.5%  0.99  1.14  1.03  
Sydney              Cemento        9.3%  0.98  1.25  1.10  
Zhuhai              Cemento        6.9%  0.97              
                                                        
Torneo 2019         Superficie    % Ace  2019  2018  2017  
Marrakech           Terra          8.4%  0.97  0.62  0.77  
US Open             Cemento       10.2%  0.97  0.98  0.96  
s'Hertogenbosch     Erba          10.2%  0.95  0.99  0.89  
Cordoba             Terra          6.9%  0.94              
Rotterdam           Cemento        8.0%  0.90  1.13  1.09  
Lione               Terra          9.9%  0.90  0.89  0.85  
Gstaad              Terra          5.6%  0.88  1.16  0.92  
Acapulco            Cemento       11.1%  0.86  1.03  0.92  
Miami               Cemento        9.5%  0.86  0.78  0.84  
Los Cabos           Cemento        6.5%  0.85  0.80  1.28  
Ginevra             Terra          6.6%  0.81  1.04  0.85  
Bastad              Terra          7.1%  0.80  0.72  0.88  
Kitzbuhel           Terra          6.3%  0.77  0.84  1.02  
Amburgo             Terra          7.7%  0.76  0.69  1.02  
Indian Wells        Cemento        7.6%  0.76  0.84  1.03  
Houston             Terra          9.2%  0.75  0.81  0.94  
Madrid              Terra          7.0%  0.71  0.84  0.89  
Roland Garros       Terra          7.0%  0.71  0.72  0.76  
Internaz. d'Italia  Terra          7.0%  0.69  0.69  0.85  
Monaco              Terra          7.0%  0.67  0.74  0.99  
                                                        
Torneo 2019         Superficie    % Ace  2019  2018  2017  
Umago               Terra          5.6%  0.65  0.78  0.61  
Rio de Janeiro      Terra          5.9%  0.63  0.71  0.68  
Budapest            Terra          7.0%  0.62  0.62  0.59  
Barcellona          Terra          5.6%  0.59  0.57  0.55  
Estoril             Terra          4.7%  0.54  0.58  0.53  
Buenos Aires        Terra          3.9%  0.52  0.65  0.88  
Monte Carlo         Terra          4.7%  0.50  0.56  0.50

Le Finali di stagione sono state tra le più veloci degli ultimi anni. I valori per il periodo dal 2014 al 2016 sono stati di 0.89 e 1.06, facendo supporre che finalmente gli organizzatori si sono decisi a fare un vero campo in cemento o che 15 partite sono un campione poco rappresentativo (e poi non sono l’esempio ideale, e lo stesso vale per i tornei con tabelloni a 28 e 32 giocatori).

Le Finali di Coppa Davis sono state più simili a un tipico campo coperto in cemento. All’estremo opposto, Indian Wells è stato un evento particolarmente lento quest’anno, anche rispetto ai suoi abituali standard quasi da terra battuta. Almeno per alcuni tornei, la convergenza fra velocità di superficie sembra essersi ridotta.

The Speed of Every Surface, 2019 Edition

Corridoi e colpi a uscire

di Jeff Sackmann // TennisAbstract

Pubblicato l’11 novembre 2019 – Traduzione di Edoardo Salvati

Le Finali NextGen si giocano su un campo anomalo, nel senso che, dovendo ospitare solo partite di singolare, non possiede le linee che delimitano il corridoio del doppio. Praticamente tutti i tornei della stagione prevedono il tabellone del doppio, e quindi raramente è possibile trovare un campo senza i corridoi. Ci sono state in passato edizioni delle Finali di stagione riservate al singolare, ora però l’esclusiva è delle Finali NextGen.

Si può pensare che il particolare disegno delle linee abbia qualche conseguenza sui giocatori?

Ne ho parlato recentemente con Erik Jonsson, e siamo giunti alla provvisoria conclusione che i professionisti (anche i più giovani di loro), grazie alle migliaia di ore di esperienza di gioco, non dovrebbero sentirsi disorientati in un campo diverso dal solito. Perché però fare congetture quando abbiamo dei dati per un’analisi?

Il database del Match Charting Project, che ho creato per raccogliere statistiche punto per punto di partite ufficiali anche con il prezioso aiuto di volontari, è comprensivo di più dettagli relativi agli errori, sia in termini di natura, cioè forzati e non forzati, che di tipologia, cioè in rete, lunghi, esterni o esterni e lunghi. Le Finali NextGen non hanno destato l’immediato interesse dei volontari, tanto che prima dell’edizione 2019 solo la finale del 2018 era stata inserita, su più di 6600 partite totali. Il 2019 però è diverso, perché abbiamo statistiche di 8 delle 15 partite giocate a Milano la settimana scorsa (un grazie sentito a Carrie, che ha seguito l’intero percorso del finalista Alex De Minaur).

La quantificazione degli errori esterni

Ci interessa la frequenza dei colpi che escono ai lati del campo, un calcolo meno semplice di quanto appaia. Ho deciso di limitarmi ai colpi a rimbalzo, escludendo anche gli errori forzati, quelli in cui il giocatore potrebbe non avere un grande controllo sulla direzione della palla.

Questi sono gli indicatori ipotizzabili per la frequenza degli errori esterni:

  • errori esterni per punto (est./punto)
  • errori esterni per errori non forzati (est./ENF)
  • errori esterni per colpi a rimbalzo “fattibili”, cioè colpi a rimbalzo che sono stati errori non forzati o che sono stati rimessi in gioco (est/. rimbalzo)

Il primo indicatore probabilmente eccede in approssimazione, pur avendo il vantaggio della semplicità. Gli errori esterni per errori non forzati potrebbero essere di aiuto nell’indicare in quale direzione il giocatore è stato più aggressivo. L’ultimo, gli errori esterni per colpi a rimbalzo “fattibili”, è forse la rappresentazione più utile al nostro scopo, perché segnala quanto spesso un giocatore ha tirato un colpo che è uscito a lato.

De Minaur e gli altri

La tabella elenca i numeri di De Minaur per le cinque partite delle Finali NextGen 2019, oltre ai numeri complessivi delle altre 28 partite sul cemento nel database, relative agli ultimi due anni.

             Est./Punto  Est./ENF  Est./Rimbalzo   
NextGen      2.7%        1.5%      21.7%  
Cemento ATP  3.0%        1.4%      21.4%

Almeno per De Minaur, il corridoio non sembra fare troppa differenza. Concentriamoci sul gruppo di giocatori leggermente più ampio. Abbiamo otto partite, vale a dire 16 inserimenti di partita se si considerano i singoli giocatori, tra cui almeno una per ognuno degli otto giocatori che si sono qualificati per Milano. La tabella elenca i tre indici per le partite delle Finali NextGen, insieme agli equivalenti valori per le altre partite sul cemento nel database, relative agli ultimi due anni.

             Est./Punto  Est./ENF  Est./Rimbalzo  
NextGen      3.2%        1.8%      19.5%  
Cemento ATP  3.2%        1.8%      23.1%

Per i primi due indici, non c’è alcun effetto tangibile. Con o senza corridoio, gli errori esterni determinano la fine del 3.2% dei punti, e dell’1.8% del totale degli errori non forzati (il 3.2% è per giocatore, quindi i punti che si sono conclusi con un errore esterno sono il 6.4%). Il terzo indice invece è più interessante. Sul circuito questi giocatori commettono un errore esterno nel 23.1% dei colpi a rimbalzo “fattibili”. Nel campo senza corridoio visto a Milano, lo stesso numero è sceso di più di un settimo, al 19.5%. Contestualmente, la frequenza complessiva di errori non forzati (non solo quindi gli errori esterni) è aumentata rispetto a quanto mostrato dagli stessi giocatori sul cemento in altri eventi.

Acuire la mente

Penso a due possibili spiegazioni per un calo così marcato. Primo, non abbiamo molti dati a disposizione, e magari è solo un caso legato a un campione ridotto. In parte si può far risalire alla prestazione di Ugo Humbert, che non ha commesso nemmeno un errore esterno nell’unica sua partita del database alle Finali NextGen (la frequenza tipica di Humber sugli errori esterni è vicina alla media del circuito). In assenza di molte più partite giocate su campi senza corridoio, e di cui naturalmente dovremmo avere statistiche punto per punto, non si riesce a giungere a conclusioni definitive.

Secondo, potrebbe trattarsi di un effetto concreto legato però a qualche aspetto delle condizioni di gioco di Milano. La mancanza del corridoio, come scritto da @furryyelloballs nel suo tweet, potrebbe davvero “acuire la mente”.

Rispetto ad altre misure innovative sperimentate alle Finali NextGen, il campo dedicato al singolare riceve scarso interesse mediatico. Però, a differenza di modifiche come l’appendi asciugamano o il cronometro al servizio, potrebbe avere una conseguenza reale sul gioco, per quanto limitata.

Tramlines and Wide Groundstrokes

Stili di gioco e risultati a sorpresa

di Jeff Sackmann // TennisAbstract

Pubblicato il 14 gennaio 2019 – Traduzione di Edoardo Salvati

Durante un podcast con Carl Bialik, ho confessato una teoria che mi ronza in testa da tempo, e cioè che le vittorie a sorpresa sono più probabili in presenza di stili contrastanti di gioco. La logica è piuttosto semplice. Se ci sono due ribattitori, è probabile che il più forte vinca. Se ci sono invece due cannonieri del servizio, il migliore dei due non dovrebbe avere problemi. Ma se un cannoniere affronta un ribattitore beh…può succedere di tutto.

Abbiamo visto Rafael Nadal fare fatica contro giocatori come John Isner e Dustin Brown, così come un grande servizio essere neutralizzato dal suo opposto, ad esempio le sei sconfitte di Marin Cilic contro Gilles Simon a fronte di una sola vittoria. Ci sono comunque vittorie a sorpresa anche nello scontro di stili di gioco simili ma, come per tutte le ipotesi non sottoposte a prova empirica, anche questa ha il suo fascino e non è da scartare in partenza.

Serve una verifica approfondita

Al primo turno degli Australian Open 2019 Reilly Opelka ha battuto Isner. Difficile trovare due stili più affini e, da veterano, Isner aveva tutti i favori del pronostico nel perfetto caso di quel tipo di partita che mi aspetto già delineata, tranne che poi finisce per vincere lo sfavorito. Hanno giocato quattro tiebreak e ci sono stati solo due break, ma Opelka non ha nemmeno dovuto attivare la nuova regola del super-tiebreak al quinto set. Pur trattandosi di una sola partita, il suggerimento implicito che ne deriva è di fare una verifica più approfondita della mia idea.

Dopo un paio di ore di analisi, la teoria può vantare ora una prova ufficiale, e ho scoperto che non è esente da difetti. Fortunatamente, non si tratta solo di un altra battuta d’arresto. Lo stile di gioco è effettivamente correlato alla probabilità di un risultato a sorpresa, semplicemente non nel modo che mi ero immaginato.

Una misura della pronosticabilità

Voglio spiegare in dettaglio il test e poi illustrare gli esiti. Ho utilizzato i dati del Match Charting Project per calcolare l’Indice di Offensività di ciascun giocatore con almeno dieci partite nel database dal 2010. In sintesi, l’Indice di Offensività è la percentuale di colpi che terminano il punto (tramite un vincente, un errore non forzato o un errore forzato commesso dall’avversario) e si comporta da approssimazione dello stile di gioco. Otteniamo così 106 giocatori, da conservatori tipo Simon e Yoshihito Nishioka con Indice di Offensività del 13% a i battitori liberi come Brown e Ivo Karlovic, con indici intorno al 30%. Li ho poi suddivisi in quartili (per numero di partite, non numero di giocatori, con ogni quartile che contiene tra i 21 e 31 giocatori), in modo da vedere come in generale uno stile di gioco si comporta con un altro.

La divisione in quartili

Questi sono i gruppi:

(l’Indice di Offensività mette insieme due aspetti: grande servizio/grande potenza di colpi e aggressività tattica. Isner non è sempre iper aggressivo, ma per via della sua altezza e del talento al servizio, è in grado di terminare i punti così frequentemente che, statisticamente, sembra essere estremamente aggressivo. Quindi, parlerò allo stesso modo di “cannonieri” e “giocatori offensivi”, anche se in realtà ci sono molte differenze tra i due gruppi).

Un campione di 11 mila partite

Concentrandomi su questi 106 giocatori, ho trovato poco più di 11 mila partite da esaminare e le ho divise in insiemi sulla base del quartile di appartenenza dei due giocatori. Ciascuno dei dieci possibili sottoinsiemi di partite, come Q1 contro Q2 o Q4 contro Q4, contiene almeno 400 elementi.

Per ogni partita, ho stabilito la probabilità di vittoria del favorito con le valutazioni Elo corrette per superficie, in modo da ottenere pronostici pre-partita che, seppur non accurati quanto quelli degli allibratori, sono altrettanto affidabili. Questi pronostici permettono di stabilire se determinati gruppi sono più pronosticabili di altri. Se su 100 partite in cui il favorito ha una probabilità di vittoria del 60%, il favorito ne vince 70, diremo che il risultato è più pronosticabile delle attese. Se ne vince solo 50, il risultato è stato meno prevedibile.

Addio mia bella teoria

Per le partite in ciascuno dei dieci sottoinsiemi quartile contro quartile, ho calcolato la probabilità media di vittoria del favorito (“Probabilità Favorito”, confrontandola con la frequenza con cui il favorito ha effettivamente vinto (“% Vittoria Favorito”). La tabella mostra i risultati insieme al rapporto tra quei due numeri (“Indice”). Un indice di 1.0 significa che le partite del sottoinsieme sono pronosticabili esattamente quanto ci si attende che lo siano. Un indice più alto significa che il favorito è stato ancora più forte del pronostico, mentre un indice inferiore manifesta più vittorie a sorpresa delle attese.

Partite
Quartili
Numero
Partite
Probabilità
Favorito
% Vittoria
Favorito
Indice
Q1 vs Q141271.1%75.2%1.06
Q1 vs Q2107269.5%70.6%1.02
Q1 vs Q3138269.7%68.6%0.98
Q1 vs Q4118769.7%70.0%1.00
Q2 vs Q261270.2%69.9%1.00
Q2 vs Q3161668.8%67.8%0.99
Q2 vs Q4143468.8%67.4%0.98
Q3 vs Q388666.7%60.3%0.90
Q3 vs Q4168567.3%66.8%0.99
Q4 vs Q479167.1%61.2%0.91

Emerge un risultato impressionante: il valore più alto, che identifica il gruppo di partite più pronosticabili, arriva dalla coppia di giocatori più conservativi. Viceversa, il valore più basso, che identifica il gruppo di partite con più vittorie a sorpresa, arriva dalla coppia di giocatori più offensivi.

Prima di analizzare le correlazioni, facciamo un’altra verifica. I migliori non sono equamente distribuiti tra quartili, visto che nel Q1 ci sono due dei Fantastici Quattro. Per i più forti e per le partite più sbilanciate è più complicato calcolare con precisione pronostici basati sulle valutazioni Elo, che sono la colonna portante di questo procedimento.

Restringiamo il perimetro

Per questo motivo occorre prestare attenzione quando i giocatori di vertice potrebbero influenzare il risultato finale dell’analisi. Proviamo quindi a vedere gli stessi numeri relativi però solo a quelle partite in cui il favorito ha una probabilità di vittoria che va dal 50 al 70%, escludendo così molti degli scontri tra i giocatori di vertice e tutte le loro partite con pronostico a senso unico.

Partite
Quartili
Numero
Partite
Probabilità
Favorito
% Vittoria
Favorito
Indice
Q1 vs Q119659.5%62.8%1.05
Q1 vs Q260459.8%60.6%1.01
Q1 vs Q373159.7%58.1%0.97
Q1 vs Q466359.9%60.6%1.01
Q2 vs Q232259.0%54.7%0.93
Q2 vs Q393159.8%59.8%1.00
Q2 vs Q482259.7%57.2%0.96
Q3 vs Q354459.5%55.0%0.92
Q3 vs Q4102459.5%58.2%0.98
Q4 vs Q449359.3%55.0%0.93

Si elimina circa il 40% del campione, ma le dinamiche di pronosticabilità rimango in generale le stesse. Sia nel campione complessivo che in quello ridotto del 50-70% di probabilità per il favorito, la correlazione più solida che ho trovato è stato l’Indice di pronosticabilità e il quartile dei giocatori meno offensivi. In altre parole, è probabile che un ribattitore abbia risultati più prevedibili di un giocatore più aggressivo, a prescindere che l’avversario sia un cannoniere del servizio, un altro ribattitore o un giocatore che si pone a metà tra queste due tipologie.

Torniamo ai fondamentali

La mia teoria iniziale è chiaramente sbagliata. Mi aspettavo di trovare che le partite Q1 contro Q1 fossero più pronosticabili della media, e ho avuto ragione. Secondo questa logica, mi aspettavo che anche le partite Q4 contro Q4 andassero in quella direzione mentre accoppiamenti come Q1 contro Q4 fossero più soggetti a risultati a sorpresa. Sarebbe stato meglio che il gatto del mio avesse fatto pronostici per mio conto.

Si trova invece che partite con giocatori più aggressivi portano più probabilmente a esiti contro pronostico. Non è la scoperta del secolo, ed è una conclusione che avrei dovuto intuire. I grandi servitori tengono il servizio più facilmente e fanno break meno frequentemente, così che le loro partite finiscono con punteggi più ravvicinati, lasciando spazio a un ruolo maggiore da parte della fortuna specialmente quando set e partite sono decise da tiebreak.

Starete a questo punto pensando che ho buttato via il mio pomeriggio e la vostra attenzione per giungere a un esito scontato e poco degno di nota. Sono d’accordo, non è particolarmente eccitante proclamare che la fortuna ha un ruolo più incisivo con i cannonieri del servizio. C’è comunque una scoperta utile, e anche sorprendente, nascosta tra le righe.

Potenziale esponenziale di vittoria a sorpresa

Sappiamo che i giocatori in assoluto mono-dimensionali subiscono più di altri gli alti e bassi della fortuna, per via dei margini risicati del tiebreak. Per un giocatore che raramente strappa il servizio all’avversario, nessuna partita ha garanzia di vittoria. Per un giocatore che raramente subisce un break, nessun avversario è impossibile da battere. Però, mi sarei aspettato che la non pronosticabilità dei cannonieri fosse già incorporata nei pronostici delle partite, tramite la loro valutazione Elo. Se un giocatore ha risultati insolitamente casuali, ci attendiamo che la sua valutazione si muova verso la media del circuito. Questo è uno dei motivi per cui è molto difficile per i giocatori con una risposta debole arrivare in cima alla classifica.

Le cose però non sono come sembrano. Per i cannonieri del servizio, le valutazioni Elo, guidate dalla casualità, ottengono risultati quasi perfetti nella previsione delle partite contro i ribattitori, e hanno un leggero eccesso di confidenza contro avversari con uno stile di gioco più a metà strada nei quartili Q2 e Q3. Quando si affrontano tra di loro invece, i risultati a sorpresa sono all’ordine del giorno. Quella frazione di risultati così volatili, le partite piene di tiebreak in presenza di due cannonieri, rappresenta solo una parte della valutazione di questo tipo di giocatori.

Siamo abituati a vedere esiti imprevedibili legati ai giocatori più aggressivi, per via del grande servizio, del rendimento erratico alla risposta e degli scambi corti. L’analisi di oggi aumenta la conoscenza sulla frequenza con cui questo accade o non accade. Contro i ribattitori, la situazione non è poi così difficile da pronosticare. Quando però si ritrovano due cannonieri del servizio, ci aspettiamo l’inatteso, e il risultato diventa ancora più imprevedibile.

What I Should’ve Known About Playing Styles and Upsets

Andreescu, Medvedev e il futuro secondo Elo

di Jeff Sackmann // TennisAbstract

Pubblicato il 10 settembre 2019 – Traduzione di Edoardo Salvati

Con la vittoria agli US Open, che incrementa il bottino del 2019, Bianca Andreescu è finalmente entrata tra le prime 10 della classifica WTA, debuttando al quinto posto. Daniil Medvedev, che durante l’estate ha manipolato l’attenzione del circuito maschile, ha varcato la soglia dei primi 10 solo dopo Wimbledon. Ora occupa la quarta posizione.

Se a una classifica si richiede di predire il futuro, Elo è il sistema migliore. I pronostici fatti con Elo sono significativamente più precisi di quelli che usano i punti classifica. Il primo titolo Premier di Andreescu è arrivato a marzo a Indian Wells, dopo che ha battuto due tra le prime 10, cioè Elina Svitolina in semifinale e Angelique Kerber in finale. La classifica WTA ha reagito facendola salire al 24esimo posto dal numero 60. Già dopo la finale persa a Auckland, Elo vedeva in Andreescu una giocatrice con cui dover fare i conti, mettendola al settimo posto. Dopo altre tre vittorie a Miami, Andreescu è salita tra le prime 5 di Elo.

La prontezza di Elo

Gli algoritmi dietro le classifiche ufficiali impiegano del tempo per accorgersi della presenza di nuove stelle. Elo, invece, reagisce prontamente. Rispetto al metodo di calcolo di ATP e WTA che assegna punti in funzione di un anno di risultati (e in termini di turno raggiunto, non di bravura degli avversari), Elo assegna maggiore importanza a quelli più recenti, con ancora più enfasi per esiti inattesi, come ad esempio sconfitte a sorpresa dei giocatori di vertice.

Gli appassionati sono abituati alla lenta evoluzione della classifica ufficiale, quindi un numero [22] o [15] accanto al nome di Andreescu al Roland Garros e agli US Open non è sembrato fuori luogo. E un giudizio ponderato può avere la sua logica, considerati i passati esempi di giovanissimi che sono rimasti scottati. Elo però ha quasi sempre ragione. Se gli allibratori davano Serena Williams come super favorita nella finale a New York, Elo vedeva in Andreescu la giocatrice più in forma, pronosticandola vincitrice, seppur di poco. Dopo le sette vittorie agli US Open, Elo identifica ora Andreescu come la più forte del circuito, anche se con un margine risicato su Ashleigh Barty. Chi osa non essere d’accordo?

Sulla rampa di lancio

Quando lo scorso ottobre Medvedev ha messo piede tra i primi 10 delle valutazioni Elo per la prima volta, ho messo a confronto i due sistemi di classifica. La maggior parte dei giocatori che guadagna una posizione tra i primi 10 di Elo riesce prima o poi a entrare anche tra i primi 10 della classifica ufficiale, ma Elo è quasi sempre in anticipo. In media, l’algoritmo di Elo seleziona i primi 10 con più di sei mesi di vantaggio sul computer dell’ATP. Medvedev è un buon esempio: ha raggiunto l’ottavo posto di Elo a ottobre 2018, ma gli ci sono voluti altri dieci mesi per avere la stessa posizione nella classifica ufficiale, dopo la finale al Canada Masters.

Andreescu ha colmato il divario più velocemente di Medvedev, nei sei mesi che sono tipicamente richiesti a una giocatrice dall’ingresso tra le prime 10 di Elo a quello nella classifica ufficiale. E non dovrebbe servire molto altro tempo prima di una convergenza perfetta al numero uno delle due classifiche.

Non abbiamo bisogno di Elo per farci dire che Andreescu e Medvedev continueranno presumibilmente a vincere partite ad alto livello. Avendone però riconosciuto l’accuratezza predittiva, vale la pena guardare quali altri giocatori e giocatrici sono sulla rampa di lancio.

Berrettini e Muchova

Dopo gli US Open, la previsione più aggressiva riguarda Matteo Berrettini, che è attualmente al sesto posto. Nella classifica ATP Berrettini è tredicesimo, con una toccata e fuga tra i primi 20 durante l’estate, ed è tra i primi 10 di Elo da metà giugno, quindi ancor prima della semifinale agli US Open. Non solo, ma si trova davanti anche a giocatori giovani ma già avviati come Alexander Zverev e Stefanos Tsitsipas.

In campo femminile, non ci sono sorprese simili tra le prime 10 Elo, il che non significa che ci sia accordo con la classifica WTA. Karolina Muchova, 43esima nonché sua classifica migliore di sempre, è al 23esimo posto di Elo. Anche due veterane e pericoli costanti come Victoria Azarenka e Venus Williams sono confinate fuori dalle prime 40, ma Elo attribuisce loro rispettivamente un 18esimo e 28esimo posto. Da un punto di vista predittivo, la qualità è più importante della quantità, quindi un calendario ridotto non è necessariamente un limite. Elo è ottimista anche su Sofia Kenin, mettendola al 13esimo posto rispetto alla 20esima posizione ufficiale.

Giocatore            Elo   ATP   
Daniil Medvedev        4     4
Matteo Berrettini      6    13
Alexander Zverev       9     6 
Stefanos Tsitsipas    15     7

Giocatrice           Elo   WTA
Bianca Andreescu       1     5
Ashleigh Barty         2     1
Sofia Kenin           13    20
Victoria Azarenka     18    42
Karolina Muchova      23    43
Venus Williams        28    56

Da qui a sei mesi, scommetto che la classifica ufficiale di Berrettini sarà più vicina al sesto posto che al tredicesimo, mentre quella di Muchova più vicina al numero 23 che al 43. Conoscere il futuro è impossibile, ma se si vuole guardare avanti Elo è già li da sei mesi. Occorrerà aspettare per capire se il resto del circuito femminile è in grado di tenere Andreescu lontana dal numero 1 così a lungo.

Andreescu, Medvedev, and the Future According to Elo

I 19 Slam di Nadal, alla maniera di Marcel

di Jeff Sackmann // TennisAbstract

Pubblicato il 9 settembre 2019 – Traduzione di Edoardo Salvati

La distanza si è accorciata. Dopo la vittoria maratona nella finale degli US Open 2019 contro Daniil Medvedev, Rafael Nadal ha raccolto lo Slam numero 19 in carriera, dietro solo ai 20 di Roger Federer. In agguato al terzo posto si trova Novak Djokovic con 16, il favorito agli US Open quest’anno, ritiratosi poi agli ottavi di finale per infortunio.

Appena poche settimane fa, Djokovic appariva come la minaccia più seria per il primo posto di Federer nell’elenco dei vincitori Slam ma, impegnato a riprendersi da una nuova serie di problemi fisici, è Nadal ora ad avere l’abbrivio. Per Federer, che ha compiuto 38 anni a inizio agosto, la prospettiva di aggiungere un altro titolo è sempre più remota.

Recentemente, nel tentativo di prevedere l’evoluzione della classifica Slam, ho ideato un semplice algoritmo, ispirato a Marcel — il sistema di proiezioni del baseball che prende nome della scimmia della famosa serie televisiva “Friends” — così elementare che anche un primate potrebbe usarlo. Le informazioni da considerare sono essenziali: prestazioni nelle semifinali e finali Slam degli ultimi due anni, più l’età. Si scambia ottimizzazione con immediatezza e facilità di comprensione, e i risultati sono incredibilmente affidabili. Per maggiori dettagli sulla metodologia di calcolo e sul rendimento per gli anni passati, potete leggere il precedente articolo.

Risolvete per RN = 19 + x

Prima degli US Open, Marcel sembrava impostato per far arrabbiare il maggior numero di tifosi. Prediceva che, nel corso dei prossimi cinque anni, Djokovic avrebbe vinto quattro Slam, Nadal due e Federer nemmeno uno, lasciando i Grandi Tre in pareggio. Con la conclusione di un altro Slam, le cose sono cambiate. La tabella mostra la nuova previsione, che riflette sia la vittoria di Nadal a New York che un pronostico più roseo per lui dopo aver aggiunto un altro titolo ai risultati più recenti.

Giocatore   Slam  Previsione  Totale  
Nadal       19    3.5         22.5  
Federer     20    0.3         20.3  
Djokovic    16    3.5         19.5

Nadal è ora in corsa per migliorare il totale di almeno tre Slam. Al termine dei cinque anni, avrà forse lasciato Djokovic e Federer nella polvere e ci staremo chiedendo se sarà in grado di raggiungere Serena Williams o anche Margaret Court.

Più previsioni

Questo algoritmo di base consente di generare previsioni di Slam per qualsiasi giocatore che ha raggiunto almeno una semifinale negli ultimi due anni. È importante notare che non cerco di prevedere il totale Slam in carriera, ma solo quanti potrebbero essere vinti nei prossimi cinque anni. Per i Grandi Tre, è ragionevole non preoccuparsi del computo dopo il 2025.
La tabella riepiloga le previsioni attuali per 18 giocatori.

Giocatore       Previsione  
Djokovic        3.5  
Nadal           3.5  
Medvedev        0.8  
Thiem           0.7  
Tsitsipas       0.6  
Berrettini      0.5  
Chung           0.4  
Pouille         0.3  
Edmund          0.3  
Federer         0.3  
Dimitrov        0.1  
Cecchinato      0.1  
Cilic           0.0  
Del Potro       0.0  
Bautista Agut   0.0  
Anderson        0.0  
Nishikori       0.0  
Isner           0.0

La maggior parte di questi giocatori ha solamente una semifinale all’attivo nei due anni passati, ed è l’età a separarli. Sembra logico essere più ottimisti sul futuro negli Slam di Stefanos Tsitsipas (21 anni) che di Roberto Bautista Agut (31), anche se l’algoritmo li pone sullo stesso piano in funzione dei risultati sinora ottenuti, una semifinale negli ultimi 12 mesi.

Cinque anni equivalgono a 20 Slam, e si può notare che la tabella ne tralascia parecchi. Il totale pronosticato è infatti di 10.8 Slam, dando ampio margine di manovra a giocatori che ancora non si sono qualificati, come ad esempio Alexander Zverev e Felix Auger-Aliassime. Sono sicuro che agli US Open 2024 guarderemo alle previsioni di fine 2019 e ci faremo una risata.

Federer manterrà la prima posizione maschile della classifica più santificata nel tennis per almeno quattro mesi. Djokovic sarà probabilmente il favorito agli Australian Open 2020, quindi Federer può godersi almeno nove mesi da unico uomo con 20 Slam. Non serve però un algoritmo, nemmeno il più banale, per identificare il favorito al Roland Garros 2020. Il tennis maschile professionalmente organizzato è rimasto più di un secolo senza un campione con 20 Slam. In meno di un anno, potremmo averne due.

Monkeying Around With Rafael Nadal’s 19 Grand Slams

Ci sei Margaret? Sono io, Serena

di Jeff Sackmann // TennisAbstract

Pubblicato il 6 settembre 2019 – Traduzione di Edoardo Salvati

A Serena Williams mancano solo due partite per vincere lo Slam numero 24 (nella notte Williams si è qualificata per la finale battendo Elina Svitolina con il punteggio di 6-3 6-1, n.d.t.). Deve darle fastidio essere ferma a 23 dall’inizio del 2017, visto che il record di sempre è 24. Williams detiene già il record per l’era Open (a partire dal 1968) con una lunghezza su Steffi Graf, vincitrice di 22 Slam. Ma è Margaret Court davanti a tutti, con appunto 24 Slam tra il 1960 e il 1973.

Non c’è dubbio che Williams sia una delle giocatrici più forti di tutti i tempi, forse la più forte in assoluto. Anche Court è parte della conversazione, insieme ad altre luminarie come Graf, Martina Navratilova e Chris Evert. Nel tennis, confronti tra epoche sono estremamente complicati, perché ogni aspetto del gioco è fondamentalmente cambiato. La tecnica, l’allenamento, l’attrezzatura e il calendario di Williams — tralasciando il benessere economico e lo status! — sarebbero del tutto estranei per una stella degli anni ’60 e ’70 come Court.

La tesi dei tifosi di Williams

L’opinione dei tifosi di Williams sulla posizione che dovrebbe occupare nella classifica di tutti i tempi non subisce le limitazioni legate alla difficoltà del confronto tra epoche. A prescindere dal numero di Slam in bacheca, tre sono le tesi principali su cui i suoi sostenitori fanno affidamento:

  • il livello della competizione è decisamente più alto ora di quanto lo fosse in passato
  • Court ha vinto gli Australian Open 11 volte quando erano il più debole dei quattro Slam
  • Court è una sbruffona antipatica con cui è difficile essere d’accordo

La prima affermazione è probabilmente vera, ma se cerchiamo di portare a termine una comparazione tra epoche, credo che l’unica modalità possibile sia di metterle sullo stesso piano. Non sapremo mai che risultati avrebbe avuto Williams con in mano una raccheta di legno, o come Court si sarebbe adattata alla fisicità del gioco moderno. Si può razionalmente sostenere che le giocatrici attuali siano semplicemente più forti di quelle di due generazioni fa, che a loro volta erano più forti di quelle che le hanno precedute, e così via. Ma l’idea stessa di “più grande di tutti i tempi” presuppone ipotesi diverse da “più grande di tutti i tempi secondo gli standard di oggi”. Per questo ogni epoca verrà trattata allo stesso modo.

La terza affermazione è abbastanza comune, ma temo che il mio database non sia di grande aiuto su quel tipo di discussione. Rimane la numero due, cioè la debolezza relativa degli Australian Open.

La facilità australiana

Court ha vinto gli Australian Open 11 volte, più di qualsiasi altro Slam vinto da una giocatrice. Di per sé, non è un aspetto negativo. Nessuno rinfaccia a Rafael Nadal di aver vinto il Roland Garros 12 volte. All’epoca dei dilettanti, e anche negli anni successivi alla professionalizzazione del tennis, gli Australian Open non erano una tappa obbligatoria per le migliori e i migliori del mondo. Le distanze erano enormi e il torneo non aveva ancora acquisito il prestigio odierno. Si fa presto a concludere quindi che la vittoria a Wimbledon 1963 per Court ha più peso di quella dello stesso anno agli Australian Championships. Molti sono certamente d’accordo nel dover ridurre il valore di quegli Australian Open. Di quanto?

Titoli slam ponderati per difficoltà

Tempo fa ho messo a confronto i candidati al titolo di più forte giocatore della storia in funzione del numero di Slam, corretti per il livello della competizione. Nel tennis attuale, il campo partecipanti è quasi identico da uno Slam all’altro, ma il tabellone può aumentare considerevolmente la difficoltà di vincere un torneo rispetto a un altro. Con la stessa metodologia siamo in grado di confrontare la difficoltà del tabellone e la qualità degli avversari per tornei degli anni ’70 in presenza di una variazione di entrambe. Ad esempio, il cammino di Court alla vittoria degli US Open 1973 fu di difficoltà media, in linea con molte delle vittorie di Williams. La conquista degli Australian Open 1973 ebbe una difficoltà di solo due terzi, cioè fu una delle vittorie più facili di uno Slam nell’era Open.

Ogni epoca allo stesso modo

Non è casuale portare ad esempio le ultime vittorie Slam di Court. Analizzando le prestazioni dagli anni ’70, ci avviciniamo al limite della debolezza di dati storici relativi al tennis. E quasi impossibile stimare l’esatto livello di difficoltà di molti dei titoli di Court, proprio per le poche informazioni a disposizione dell’epoca dei dilettanti. Dovremo invece procedere per approssimazione sulla base di quello che abbiamo.

La ponderazione per difficoltà fa leva sulle valutazioni Elo, che ho calcolato fino al 1972 (pur in possesso di risultati abbastanza completi fino a circa il 1970, serve un po’ di tempo per raccogliere un campione di partite accettabile per ciascun giocatore e per una stabilizzazione delle valutazioni). La tabella riepiloga la difficoltà relativa dei quattro Slam nei primi cinque anni, dal 1972 al 1976.

Slam               Difficoltà  
Australian Open    0.60  
Roland Garros      0.54  
Wimbledon          0.99  
US Open            0.85

Dal 1972 a oggi, la difficoltà media di un titolo Slam è 1.0, con valori più alti per vittorie finali più complicate. Il campo partecipanti non era così agguerrito negli anni ’70, quindi tipicamente uno Slam valeva meno di 1.0. In quei primi cinque anni, notiamo che Wimbledon non si discostava dalla media storica, gli US Open erano leggermente più facili e gli altri due Slam molto più accessibili. Se, come detto, decidiamo di trattare ogni epoca allo stesso modo — escludendo la debolezza del tabellone in Australia — dobbiamo normalizzare queste difficoltà in modo che gli altri tre Slam siano in media 1.0.

Slam              Difficoltà
Australian Open   0.76  
Roland Garros     0.68
Wimbledon         1.25  
US Open           1.07

Estrapolazione all’indietro

Non sappiamo molto della qualità delle avversarie agli Australian Open nel periodo di massimo rendimento di Court. In mancanza di meglio, utilizziamo la media del periodo dal 1972 al 1976, perché è quella che più si avvicina. Così facendo probabilmente si sovrastima la qualità del tabellone australiano rispetto agli altri Slam, ma se vogliamo avvicinarci a definire Williams la più grande di sempre a spese di Court, dovremmo partire da ipotesi più conservative in modo da avere più sicurezza sul risultato finale.

La tabella riepiloga la variazione al totale in carriera di Court applicando il correttivo della normalizzazione.

Slam              Difficoltà  # Slam  Correzione  
Australian Open   0.76        11      8.3  
Roland Garros     0.68        5       3.4  
Wimbledon         1.25        3       3.7  
US Open           1.07        5       5.4  
Totale                        24      20.8

Il medesimo esercizio, ponderare ogni Slam per la difficoltà e normalizzare per epoca, ha conseguenze più lievi sui totali di Williams e Graf. Williams arriva a 23.3 e Graf a 21.9. Non abbiamo materiale a sufficienza per cambiare il punto di vista sui successi di queste due giocatrici. Ed entrambe fanno meglio del totale modificato di Court.

Il ristretto gruppo delle più grandi

Non dimentichiamoci che non è un aggiustamento per epoca. Al contrario, abbiamo ipotizzato per semplicità che tutte le epoche siano uguali, tranne che per il fatto che per diversi anni le giocatrici più forti non sono andate fino in Australia, rendendo quello Slam più facile da vincere degli altri.

Inoltre sono numeri che non negano, come era ovvio, che Court non sia una delle migliori. Anche saltando lo Slam casalingo, si sarebbe comunque ritirata con all’attivo 13 Slam, oltre a una manciata di Slam in doppio e a un lungo elenco di trionfi altrove. Se l’Australia non fosse così distante, probabilmente non avrebbe vinto undici volte, ma otto erano alla portata.

Pur di fronte a tutte le sue vittorie, una volta che stabilita la debolezza del tabellone degli Australian Open, Court cede il primo posto della classifica più santificata nel tennis. Viene quantomeno superata da Williams e Graf. Ricordiamoci che siamo in regime di aggiustamenti conservativi: raccogliendo più dati e scoprendo che dovremmo essere più decisi nel ridurre il valore dei titoli da lei vinti in Australia negli anni ’60, il totale potrebbe posizionarla intorno ai 18 Slam, insieme a Navratilova e Evert.

Non sappiamo ancora se Williams riuscirà a eguagliare o superare i 24 di Court. Anche se dovesse ritirarsi avendone vinti 23, per il livello della competizione attuale — come si vede in ogni Slam ogni anno — merita già di essere in cima alla piramide.

Are You There, Margaret? It’s Me, Serena

Una misura dell’impatto delle palle break

di Jeff Sackmann // TennisAbstract

Pubblicato il 2 gennaio 2019 – Traduzione di Edoardo Salvati

In un precedente articolo, ho esaminato l’effetto della fortuna nei tiebreak. Ho mostrato che se da un lato i giocatori più forti vincono tendenzialmente un numero maggiore di tiebreak, dall’altro non esiste un talento speciale che permette a determinati giocatori un rendimento superiore alla fine del set rispetto ad altri momenti della partita. Di fronte a strisce molto positive, o viceversa molto negative nei tiebreak, dovremmo quindi evitare di assecondare l’invitante ipotesi dell’esistenza di un potere sovrannaturale nei tiebreak e supporre invece che i risultati torneranno in futuro a essere più in linea con la media.

Per le palle break valgono le stesse considerazioni. In una qualsiasi stagione, ci sono giocatori che vincono o perdono palle break in misura sproporzionata, ed è facile ricorrere alla forza mentale come principale spiegazione. Eppure, più spesso di quanto si pensi, quei risultati inusuali scompaiono, e con essi le convincenti teorie su nervi d’acciaio o di crolli sotto pressione che sono state appositamente elaborate.

Per quantificare circostanze di prestazioni migliori o peggiori delle possibilità di ciascun giocatore, ho cercato di esprimere le palle break trasformate in funzione di quelle “attese”, dove l’aspettativa è definita dalla frequenza con cui un giocatore vince i punti alla risposta o PVR (in realtà è leggermente più complicato che considerare la semplice frequenza di PVR di una stagione. Invece, serve prendere la PVR di ogni partita e ponderare le partite sulla base delle palle break concesse).

Palle break trasformate in funzione di quelle attese

Ad esempio, nel 2018 Gael Monfils ha trasformato 146 palle break sulle 317 avute, vale a dire una frequenza del 46.1%. È un valore molto più alto della PVR ponderata del 38.7%. Ha trasformato 23 palle break, o il 19%, più delle attese. Così come per l’analisi sui tiebreak, ho dato un nome a queste statistiche: il valore assoluto è definito come Palle Break Sopra le Attese (PBSA), la frequenza come Rendimento Aggiunto sulle Palle Break (RAPB).

(In media, i giocatori alla risposta vincono qualche palla break in meno dei punti che non sono palle break. Ho abbassato di conseguenza il livello di “attesa” all’1.4%).

Monfils ha rappresentato un’eccezione, l’unico giocatore ad andare oltre il +20 di PBSA, e l’unico con almeno 40 partite e con un PBSA di più del 15%. Poco del passato di Monfils però avrebbe fatto presagire risultati così importanti. Dal 2009 al 2017, ci sono state tre stagioni negative, due anni totalmente neutrali e quattro sopra la media. In quel periodo, Monfils ha convertito palle break più spesso delle attese in misura inferiore all’1%. A questo riguardo, Il successo del 2018 potrebbe essere dovuto a una rinnovata fiducia nelle proprie capacità ma, se la storia è d’insegnamento, non potrà continuare a beneficiare di una combinazione di bravura e fortuna per numeri da primato. La tabella riepiloga le prestazioni migliori e peggiori in termini di PBSA dei giocatori con almeno 20 partite sul circuito maggiore.

Giocatore   PB   Vinte  PBSA   RAPB  
Monfils     317  146    23.4   1.19  
Mcdonald    252  116    19.0   1.20  
Mmoh        129   63    16.9   1.37  
Jaziri      298  134    16.2   1.14  
Herbert     297  126    16.1   1.15  
Mannarino   318  136    14.1   1.12  
Berankis    235  103    13.8   1.15  
Querrey     290  118    13.8   1.13  
Klizan      313  139    13.5   1.11  
Struff      272  118    13.4   1.13  
                                                  
Fucsovics   414  162   -11.5   0.93  
Krajinovic  238   86   -11.8   0.88  
Donskoy     239   79   -11.9   0.87  
Wawrinka    217   66   -11.9   0.85  
Bedene      303  108   -12.9   0.89  
Isner       308   85   -13.0   0.87  
Zverev      347  123   -14.1   0.90  
Cilic       568  209   -18.1   0.92  
Sousa       484  176   -21.6   0.89  
Djokovic    617  246   -21.7   0.92

Impressiona la presenza di Novak Djokovic in fondo all’elenco, tanto scarso o sfortunato quanto Monfils è stato bravo o fortunato. Anche per Djokovic però le cose sono andate un po’ come per Monfils. Dal 2009 al 2017, la RAPB è stata di 0.997 — praticamente neutrale — e ha registrato quasi lo stesso numero di stagioni positive e negative.

Ebbene sì, è casuale

Fornire altri esempi sarebbe solo una ripetizione: il rendimento di un giocatore sulle palle break (a prescindere dalla bravura complessiva alla risposta) è indipendente da un anno con l’altro. Dal 2009 al 2018, ho trovato 700 coppie di stagioni-giocatore consecutive (come il 2017 e il 2018 di Djokovic) in cui la correlazione era sostanzialmente nulla (r^2 = 0.002).
La tabella che segue è ulteriore evidenza di quanto appena detto, perché mostra la RAPB più alta nel 2017 dei dieci giocatori con almeno 20 partite sul circuito maggiore nel 2017 e quella dell’anno successivo (sempre con almeno 20 partite).

Giocatore    RAPB 2017  RAPB 2018  
Dzumhur      1.16       1.05  
Zverev       1.15       1.02  
Kicker       1.15       1.04  
Gojowczyk    1.14       0.92  
Lajovic      1.13       1.04  
Kukushkin    1.13       0.94  
Zverev       1.13       0.90  
Isner        1.12       0.87  
Rublev       1.12       0.96  
Monteiro     1.12       1.17  
MEDIA        1.14       0.99

Solo Thiago Monteiro ha mantenuto un rendimento tale da farlo figurare tra i più forti del circuito. Il 2018 di John Isner è stato così diverso che si è piazzato agli ultimi posti. Complessivamente, cinque dei primi dieci nel 2017 hanno finito il 2018 sotto la media, e i dieci giocatori insieme hanno ottenuto un RAPB appena inferiore alla neutralità. In altre parole, siamo in presenza di una situazione indistinguibile dal caso.

Che prezzo ha la fortuna?

Siamo d’accordo sul fatto che il rendimento attuale sulle palle break non è di alcuna indicazione su quello futuro. Come però ho sottolineato per i tiebreak, proprio questa mancanza predittiva ha un valore.

Il +20 di PBSA di Monfils è stato di aiuto alla causa, consentendogli più vittorie nel 2018 di quelle che avrebbe altrimenti ottenuto. I risultati sulle palle break hanno probabilmente incrementato la classifica e i premi partita. Un ritorno alla neutralità non lo farà uscire dal circuito, ma ipotizzando che serva e risponda come ha fatto l’anno scorso, un PBSA meno scintillante potrebbe danneggiarlo. Di quanto?

Sempre in riferimento ai tiebreak, ho supposto che due tiebreak in più equivalgono a una vittoria extra. Per le palle break è un po’ più complicato: è chiaro che una palla break non ha lo stesso peso di un intero tiebreak, sia perché è un solo punto, sia perché raramente arriva come set point o match point. Inoltre, le palle break sono più cospicue e cifre come il +23 di Monfils o il -21 di Djokovic sono più estreme delle equivalenti prestazioni più inattese nei tiebreak.

Una misura dei punti ad alta leva

L’elemento chiave nella misurazione dell’impatto delle palle break è il concetto generale di probabilità di vittoria, oltre alla nozione più specifica di leva (spesso indicata anche come volatilità o importanza, ma l’idea di fondo è identica). In sintesi, la probabilità di vittoria è la quantificazione della probabilità per un giocatore di vincere la partita in un qualsiasi momento della stessa. La leva è un indice di quanto un singolo punto sia in grado di incidere sulla probabilità di vittoria. Immaginiamo una partita tra due giocatori dello stesso livello.

Prima dell’inizio, entrambi possiedono una probabilità di vittoria del 50%. Se vincere il primo punto fa aumentare la probabilità del giocatore al servizio al 51% o diminuirla al 49% nel caso lo perda, diciamo che la leva del primo punto è del 2%, vale a dire la differenza tra le probabilità di vittoria che derivano dal vincere e perdere il primo punto.

Maggiore è la posta in gioco del punto, più alta la leva associata. Tipicamente, un punto è ben sotto al 5%, ma uno di vera alta pressione, come 5-6 nel tiebreak del terzo set, può avere una leva anche del 50%. La statistica che esprime la probabilità di vittoria è largamente influenzata dal tipo di fattori selezionati, per cui non esiste un’unica misura matematicamente corretta della leva di ogni istante.

Ipotizzare che due giocatori siano dello stesso livello significa stimare che la probabilità di vittoria a inizio partita sia ben diversa del caso in cui uno dei due sia nettamente favorito. Anche queste interpretazioni hanno conseguenze sulla leva di ciascun punto. Su grandi insiemi di partite però, come una stagione intera, riusciamo ad avere un’idea generale del valore delle palle break.

Condizione sufficiente e necessaria

Nella semplice ma ovviamente errata ipotesi che tutti i giocatori siano dello stesso livello, in media la leva di un punto del circuito maschile nel 2018 era del 4.6%, e la leva di una palla break, sempre in media, del 10.5%. È un buon punto di partenza, ma decisamente troppo alto. Se accettiamo che la maggior parte delle partite è tra giocatori di livello diverso, ci rendiamo conto che una qualsiasi palla break non è poi così importante. Se Djokovic ne spreca una contro Monteiro, rimarrà comunque il super favorito.

Un metodo alternativo è quello di supporre che la bravura di un giocatore sia data esattamente dal rendimento in partita. Se Djokovic gioca contro Monteiro e vince l’80% dei punti al servizio, e Monteiro solo il 60%, si potrebbe calcolare la probabilità di vittoria e la leva di ciascun punto. Otterremmo in media una leva del punto del 2.9% e una della palla break del 6.5%.

Anche la seconda ipotesi non è del tutto corretta, ma forse si avvicina più della prima alla situazione effettiva. Non dimenticando che si tratta di un’approssimazione, usiamo una leva della palla break del 7.5%. Significa che, in media, il diverso esito di una palla break incide sulla probabilità di vittoria di un’unica partita del 7.5%. Un altro modo di vederla — quello con più rilevanza per questi calcoli — è che vincere una palla break anziché perderla equivale a vincere il 7.5% (o circa un tredicesimo) di una partita.

Le palle break sono (frazioni di) vittorie

Riprendendo il concetto di Palle Break Sopra le Attese, siamo ora in grado di dire che 13 palle break aggiuntive equivalgono a una vittoria extra. Il +23 di Monfils del 2018 gli ha regalato quasi due vittorie in più in stagione, mentre il -21 di Djokovic gli sarebbe costato, in media, 1.5 partite perse. Tenendo conto della moltitudine di elementi che incidono sulla prestazione all’interno di una partita, è irragionevole pensare che il record di vittorie e sconfitte di ogni giocatore nel 2019 rifletta in modo così preciso e prevedibile queste somme o sottrazioni di partite (anche semplicemente perché è impossibile vincere una partita e mezza). Ma nell’improbabile circostanza di parità di condizioni, dovremmo attenderci che quel vantaggio o quello svantaggio non abbiano seguito nella nuova stagione.

L’intervallo che separa il -21 dal +23 di palle break è un’affidabile rappresentazione della configurazione estrema che può acquisire la fortuna sulle palle break. Dal 2009, solo quattro giocatori hanno avuto stagioni con valori maggiori di +23, tra cui il BPSA più alto in assoluto di +34 di Damir Dzumhur nel 2017 (il quale ha subito pesantemente la sorte avversa l’anno successivo: da un record di 37-24 è passato a uno di 25-31 nel 2018, pur con un fortunato +8 di PBSA). All’estremo opposto, Dominic Thiem ha sofferto per un -28 di palle break sotto le attese nel 2015, L’anno dopo, è salito a -5 e in classifica è andato dalla 19esima alla nona posizione. Nonostante le montagne russe di Dzumhur e Thiem, sembra che l’oscillazione legata all’effetto fortuna sulle palle break sia di circa cinque vittorie, dal -2 al +3 per i giocatori più baciati dalla fortuna.

Non esiste una bravura speciale

Tuttavia, per la maggior parte dei giocatori nella maggior parte delle stagioni, la fortuna sulle palle break è poco più di un arrotondamento. Per quanto sia facile subire il fascino di questi calcoli, è proprio questa la conclusione più significativa. Come non esiste uno speciale fattore tiebreak, non c’è alcun motivo di ritenere che alcuni giocatori siano in qualche modo più bravi di altri a trasformare le palle break. Più forte il gioco alla risposta, più numerose saranno le palle break trasformate. Qualsiasi rendimento che eccede questo assunto rientrerà nella media. E per quei giocatori con un rendimento eccessivamente positivo o negativo sulle palle break, quella regressione avrà probabilmente conseguenze sul record di vittorie e sconfitte, sulla classifica e oltre.

Measuring the Impact of Break Points

Fare previsioni sul migliore di sempre con l’aiuto di una scimmia

di Jeff Sackmann // TennisAbstract

Pubblicato il 3 agosto 2019 – Traduzione di Edoardo Salvati

Dopo la vittoria di Novak Djokovic a Wimbledon, l’attenzione al primato negli Slam è salita alle stelle. Roger Federer è a 20, Rafael Nadal a 18 e Djokovic, ora a 16, è di gran lunga il più forte del mondo sulla superficie dei prossimi due, gli US Open e gli Australian Open. La corsa è assolutamente aperta.

Fare previsioni nel tennis è difficile, anche cercando di pronosticare i risultati delle partite del giorno dopo. Sembra che i giocatori migliorino e peggiorino in modo del tutto casuale, rendendo difficile capire quale sarà la classifica anche a pochi mesi di distanza. Appassionati e tifosi amano perdersi in congetture su chi dei Grandi Tre s’impossesserà della vetta degli Slam, ma troppa incertezza non permette conclusioni definitive.

Si può pensare di costruire una sfera di cristallo con cui analizzare la problematica in modo rigoroso. Prendiamo ad esempio l’età di un giocatore, la probabile durata della carriera, gli eventuali infortuni, il rendimento negli ultimi quattro Slam, la classifica attuale, la bravura degli altri giocatori su ciascuna superficie e altri possibili parametri. Forse si riesce a determinare qualche numero che abbia un senso. E se invece ignorassimo tutto questo, adottando il modello più semplice in assoluto?

Vi presento la scimmia

I patiti di statistiche di baseball hanno familiarità con il sistema di proiezioni Marcel, così chiamato in onore della scimmia nella famosa serie televisiva “Friends”, perché “utilizza meno intelligenza possibile”. Nel caso del baseball, appena tre anni di risultati e una correzione per il fattore età. Non è immune da lacune, e sono evidenti i molti miglioramenti che si potrebbero apportare. Ma, come nel tennis, anche nel baseball le statistiche producono rumore. Per la maggior parte degli scopi, un sistema previsionale “di base” funziona tanto quanto uno più complesso. E, nel corso degli anni, Marcel ha fatto meglio di molti modelli considerevolmente più evoluti.

Applichiamo la logica del mammifero alle previsioni per gli Slam. Per prima cosa, riformulo leggermente la domanda alla ricerca di una risposta più diretta. Invece di prevedere i risultati Slam “in carriera”, mi concentro sulle vittorie per i prossimi cinque anni (includendo, quantomeno a occhio, il cammino completo dei Grandi Tre). Inoltre, nello spirito di Marcel, limito i dati a semifinali, finali e titoli Slam per gli ultimi tre anni, e l’età dei giocatori. Anzi, spengo subito una parte del cervello da scimmia, perché i risultati relativi agli Slam di tre anni fa possiedono scarso potere predittivo. Quindi l’elenco si riduce a due anni di semifinali, finali e titoli Slam, più l’età.

Una buona approssimazione

Il modello che ne consegue è molto valido! Per quei giocatori che hanno raggiunto una semifinale degli ultimi otto Slam, è in grado di prevedere il 40% della variazione nei titoli Slam dei prossimi cinque anni. In assenza di un modello iper-complesso e ottimale, non so esattamente dire dove si posizioni, ma per un orizzonte così lungo prevedere quasi la metà della variazione di risultati Slam giocatore per giocatore è, per me, una buona approssimazione.

Si pensi a tutto ciò che si ignora degli Slam per il 2022, ancor più per il 2024: chi è in attività, chi si è infortunato, chi è migliorato a sufficienza per essere considerato un favorito, quali promesse sono emerse dal nulla, e così via. Voglio dire che anche il modello più perfetto avrebbe molte carenze, quindi non serve stabilire uno standard troppo alto.

Andare dietro alla scimmia

L’algoritmo dei due anni più l’età è così semplice da poter essere eseguito sul retro di una scatola di sigarette (in omaggio al grande fisico Ettore Majorana, n.d.t.). Per il singolo giocatore, si contano le semifinali (vinte o perse), le finali (vinte o perse) e i titoli degli ultimi quattro Slam, e si fa lo stesso per i precedenti quattro. Si considera poi l’età all’inizio dello Slam successivo. Si parte con zero punti e si procede come segue:

  • si aggiungono 15 punti per ogni semifinale degli ultimi quattro Slam
  • si aggiungono 30 punti per ogni finale degli ultimi quattro Slam
  • si aggiungono 90 punti per ogni titolo degli ultimi quattro Slam
  • si aggiungono 6 punti per ogni semifinale dei precedenti quattro Slam
  • si aggiungono 12 punti per ogni finale dei precedenti quattro Slam
  • si aggiungono 36 punti per ogni titolo dei precedenti quattro Slam
  • se il giocatore ha più di 27 anni, si sottraggono 8 punti per ogni anno dopo il 27esimo
  • se il giocatore ha meno di 27 anni, si aggiungono 8 punti per ogni anno fino al 27esimo
  • si divide la somma per 100.

Un test con Djokovic

Finito! Proviamo con Djokovic. Negli ultimi quattro Slam (fino a Wimbledon 2019 incluso), ha vinto tre titoli e raggiunto una semifinale. Dei quattro precedenti, ne ha vinto uno. Agli US Open 2019 avrà 32 anni. Quindi:

  • +60 (15 punti per ognuna delle semifinali negli ultimi quattro Slam)
  • +90 (30 punti per ognuna delle tre finali negli ultimi quattro Slam)
  • +270 (90 punti per ognuno dei tre titoli negli ultimi quattro Slam)
  • +6 (6 punti per la semifinale a Wimbledon 2017)
  • +12 (12 punti per la finale a Wimbledon 2017)
  • +36 (36 punti per il titolo a Wimbledon 2017)
  • -40 (Djokovic ha 32 anni, si sottraggono 8 punti per ognuno dei cinque sopra ai 27).

Sommando, si ottiene 434 che, diviso per 100, genera una previsione di altri 4.34 Slam per Djokovic.

Un nuovo livello di provocazione nella discussione sul più forte di sempre

Avete la mia parola che si tratta di un’analisi totalmente disinteressata. Voglio solo sapere quanto un’accurata previsione Slam di lungo periodo, seppur ridotta all’osso, riesca a essere precisa. Non ho l’intento di farvi perdere i capelli che, temo di dovervi confessare, perderete comunque prima o poi.

Questo è il numero di Slam che il modello prevede per i Grandi Tre tra gli US Open 2019 e Wimbledon 2024:

  • Djokovic, 4.34
  • Nadal, 2.22
  • Federer, 0.26.

Non serve che mostri i calcoli per il passo successivo, ma sapete che non posso esimermi dal farli. Questa è la previsione per il totale in carriera:

  • Djokovic, 20.34
  • Federer, 20.26
  • Nadal, 20.22.

Siccome viviamo in un mondo dove non si vincono frazioni di Slam, abbiamo:

  • Djokovic, 20
  • Federer, 20
  • Nadal, 20

Molto bene…

Torniamo al modello

La previsione di 4.34 Slam per Djokovic è decisamente alta, in linea con un giocatore che ne ha vinti tre degli ultimi quattro. Per ogni anno dal 1971, ho calcolato le previsioni Slam di ciascun giocatore che ha raggiunto una semifinale nei due anni precedenti, un totale di più di 800 previsioni. Solo 14 sono superiori a 4.34, e molte riguardano i Grandi Tre. La tabella riepiloga le prime dieci.

Anno  Giocatore   Età   Previsione   Effettivo     
2008  Federer     26    6.38         5     
2007  Federer     25    5.86         7     
2016  Djokovic    28    5.20         6 *  
2005  Federer     23    4.91         11     
2011  Nadal       24    4.89         5     
2006  Federer     24    4.86         10     
2017  Djokovic    29    4.79         4 *  
2012  Djokovic    24    4.68         8     
1989  Wilander    24    4.65         0     
1988  Lendl       27    4.56         2

* conteggio che potrebbe ancora aumentare

Sono previsioni basate sui dati disponibili all’inizio dell’anno che compare nell’elenco. La prima riga, Federer 2008, si riferisce alla previsione per Federer dei titoli Slam per il periodo dal 2008 al 2012, in funzione del rendimento nel 2006 e 2007 e sull’età agli Australian Open 2008. Se avessi concepito il modello a quel tempo, la previsione si sarebbe attestata intorno alla mezza dozzina di Slam. Federer ne ha vinti cinque.

Ci sarà sempre molto rumore statistico agli estremi di modelli come questi. All’inizio del 2005, l’algoritmo avrebbe assegnato a Federer “solo” cinque dei successivi venti Slam. Invece, ne vinse ben 11. Faccio fatica però a credere che ci fosse stato anche un modello talmente ottimistico da indovinare la doppia cifra. L’edizione 1989 del modello invece sarebbe stata generosa in senso opposto con Mats Wilander, che nel 1988 aveva fatto tre quarti di Slam. Tristemente per lo svedese, un gruppetto di giovanissimi gli passò avanti e non raggiunse più nemmeno una finale.

Diamo uno sguardo anche alle successive dieci previsioni più rosee, e alla stima attuale per Djokovic.

Anno  Giocatore   Età   Previsione   Effettivo     
2010  Federer     28    4.48         2     
1981  Borg        24    4.47         1     
1996  Sampras     24    4.47         6     
1975  Connors     22    4.45         2     

Att.  Djokovic    32    4.34         0 *  

1980  Borg        23    4.28         3     
2013  Djokovic    25    4.24         7     
2009  Federer     27    4.20         4     
1995  Sampras     23    4.16         7     
2009  Nadal       22    4.12         8     
1979  Borg        22    4.09         5

* conteggio che potrebbe ancora aumentare

Di nuovo molto rumore, con risultati tra 0 e 8 Slam. Però, la media delle altre dieci previsioni in elenco è di 4.5 Slam, esattamente in linea con la precedente previsione per Djokovic.

Slam che mancano…

Il modello prevede che i Grandi Tre vincano circa sette dei prossimi venti Slam. Giustamente vi chiederete: e gli altri tredici? La scimmia considera solo i giocatori con una semifinale negli ultimi otto Slam, quindi la somma complessiva non dovrebbe fare venti. Esiste la possibilità che vincitori del 2023 e 2024 non siano ancora nel radar, e molti dei giovani sulla bocca degli opinionisti —come Alexander Zverev, Felix Auger-Aliassime e Daniil Medvedev — non hanno ancora raggiunto una finale Slam. La tabella riepiloga i giocatori per i quali è possibile fare una previsione.

Giocatore         Previsione Slam  
Djokovic          4.34  
Nadal             2.22  
Thiem             0.71  
Tsitsipas         0.63  
H. Chung          0.38  
Pouille           0.31  
Edmund            0.30  
Federer           0.26  
Del Potro         0.19  
Cecchinato        0.06  
----------------  ----  
TOTALE            9.40

* Per gli altri cinque giocatori con una semifinale 
dagli US Open 2017 la previsione di titoli Slam è zero

Sono consapevole che Lucas Pouille e Hyeon Chung non hanno più probabilità di vincere uno Slam di quante ne abbia Federer. Ma sono (relativamente) giovani e il modello riconosce a molti giocatori che hanno raggiunto una semifinale Slam all’inizio della carriera la capacità di gettare le basi sul quel successo.

Oltretutto, ci stiamo perdendo molti Slam. Se la previsione complessiva è corretta, quei giocatori vinceranno meno della metà dei prossimi venti Slam, lasciando almeno dieci titoli a giocatori che ancora devono arrivare a un quarto di finale Slam.

…e il fattore età

Se vi ricordate, ho proceduto a ritroso nelle previsioni per ciascun intervallo di cinque anni fino al 1971-1975. Su 44 anni dall’avvio delle stagioni tra il 1971 e il 2014, il modello tipicamente ha previsto che i giocatori di cui aveva dati — vale a dire quelli con semifinali Slam nei precedenti due anni — avrebbero vinto 13 dei successivi 20 Slam. In realtà, i giocatori nel radar hanno vinto in media 12 Slam nei cinque anni a venire.

È solamente negli ultimi anni che il numero totale di Slam previsti è sceso sotto i 10. La colpa è dell’età: come detto, per correggere per l’età si sottraggono 8 punti (0.08 Slam) per ogni anno oltre i 27. Per Djokovic e Nadal si tratta di una penalizzazione di 0.4 Slam, mentre sono 0.8 gli Slam cancellati dalla futura bacheca di Federer. Accade che il modello prevede il calo di rendimento dei Grandi Tre, e al contempo non ci sono molti giovani (come Pouille e Chung) nell’elenco in grado di compensarlo.

Nuove curve d’invecchiamento

L’interpretazione delle previsioni per i Grandi Tre alla luce degli Slam “mancanti” dipende da un paio di elementi:

  • la curva d’invecchiamento per le mega stelle è cambiata? I 30 sono i nuovi 25, o i 32 i nuovi 27?
  • la nuova generazione di giocatori riuscirà a essere forte abbastanza in fretta da scardinare la presa dei Grandi Tre?

C’è abbondanza di prove a dimostrazione di una modifica della curva d’invecchiamento, dovremmo cioè aspettarci risultati migliori dai trentenni di questa epoca rispetto a quanto accadeva negli anni ’80 e ’90. Questo ridurrebbe gran parte del divario. Ipotizziamo di spostare l’età di massimo picco a 31 anni, quattro in più rispetto alla media maschile di 27 per l’era Open. Così facendo aggiungiamo 0.32 Slam alla previsione di ogni giocatore, probabilmente aumentando di uno il computo previsto per i Grandi Tre. Complessivamente, vorrebbe dire portare il totale della precedente tabella a un po’ più di tre Slam addizionali, avvicinandosi alla media storica di 13 Slam. La variazione di età non sbroglia però la matassa dei Grandi Tre, perché li riguarda allo stesso modo. Solo, essere in parità a 21 Slam diventa leggermente più probabile che esserlo a 20 Slam.

La difficoltà di prevedere il livello di competizione

La seconda domanda è quella più importante, ma anche la meno pronosticabile. Pur risolvendo l’ostica incombenza di arrivare a conoscere il rendimento del singolo giocatore tra tre, quattro o cinque anni (e a volte, come nel caso di Nick Kyrgios, anche domani), rimarremmo comunque con l’ancora più difficile questione di prevedere il livello della competizione.

Nel 2003, la scimmia sarebbe stata convinta che i giocatori di vertice del momento, quelli che avevano raggiunto semifinali Slam nel 2001 e 2002, avrebbero raccolto 13 Slam tra il 2003 e il 2007. Erano 2.5 per Lleyton Hewitt, più uno a testa per Thomas JohanssonAlbert CostaPete SamprasMarat SafinDavid NalbandianJuan Carlos Ferrero. Questi sette giocatori ne hanno poi vinti solo due. L’intero gruppo di venti giocatori meritevoli di previsioni alla vigilia degli Australian Open 2003 ne ha vinti solo 3.

Non riusciremo probabilmente mai a stabilire con esattezza la bravura di quel gruppo rispetto ad altre epoche. La certezza che abbiamo è che nessuno è stato forte quanto Federer tra il 2003 e il 2005 e che, alla fine del periodo di cinque anni, anche Nadal è entrato a dominare la scena (solo Nalbandian era tra i primi 10 in classifica alla fine del 2007). La generazione degli Zverev/Tsitsipas/Auger-Aliassime/etc non raggiungerà l’apice toccato dai Fantastici Quattro, ma l’andamento dei prossimi venti Slam dipenderà più da loro che dalla (relativamente) più prevedibile traiettoria di carriera di Djokovic, Federer e Nadal.

Non ci rimane che un mucchio di incertezze già note ed errori con una parabola più ampia di un rovescio steccato di Federer. Però, rispetto a quanto sappiamo, la vetta della classifica Slam di tutti i tempi diventerà ancora più affollata.

Così parlo la scimmia.

GOAT Races: Forecasting Future Slams With a Monkey