Profiling la fonction Gini

Le profilage de code ou profiling en anglais signifie qu’on mesure le temps passé dans chaque partie d’un programme pour en découvrir les parties les plus coûteuses et les améliorer. On souhaite toujours accélérer un programme trop lent, le profiling permet de savoir sur quelles parties se concentrer.

Enoncé

On applique le profiling au code suivant pour découvrir laquelle de ces fonctions est la plus lente. Vous pouvez changer ce code pour un de ceux que vous avez écrits précédemment.

[1]:
def _gini_sort(Y):
    return list(sorted(Y))


def _gini_init(Y):
    return [[1, y] for y in Y]


def _gini_cumsum(couples):
    for i in range(1, len(couples)):
        couples[i][0] += couples[i - 1][0]
        couples[i][1] += couples[i - 1][1]
    for i in range(0, len(couples)):
        couples[i][0] /= couples[-1][0]
        couples[i][1] /= couples[-1][1]
    return couples


def _gini_final(couples):
    g = couples[0][0] * couples[0][1]
    n = len(couples)

    for i in range(1, n):
        dx = couples[i][0] - couples[i - 1][0]
        y = couples[i - 1][1] + couples[i][1]
        g += dx * y

    return 1.0 - g / 2


def gini(Y):
    Y = _gini_sort(Y)
    couples = _gini_init(Y)
    couples = _gini_cumsum(couples)
    return _gini_final(couples)


gini([1, 1, 1, 1, 1]), gini([0, 0, 0, 0, 100000])
[1]:
(0.5, 0.9)

Pour ces deux exemples caractéristiques, on retrouve bien des valeurs attendues.

Exercice 1 : profiler le code précédent

Le langage python dispose d’un module qui mesure le temps passé dans chaque fonction profile. Il faut l’utiliser.

[ ]:

Exercice 2 : changer la fonction _gini_final si possible en plus rapide

[ ]:

Exercice 3 : vous améliorez la fonction _gini_final, profilez pour savoir de combien ?

[ ]:

Exercice 4 : utiliser d’autres modules de profiling

Si c’est possible, comme pyinstrument ou py-spy. Il y a deux façons de faire du profiling :

  • déterministe : on mesure le temps passé dans chaque fonction, à chaque appel, ce type de profilage n’est souvent possible que pour des langages interprétés,

  • statistique : tous les centièmes de secondes, on regarde quelle ligne de quelle fonction le programme exécute. On compte ensuite combien de fois la ligne exécutée était dans une fonction pour déterminer le temps passé dans chaque fonction.

Les deux modules proposés sont statistiques, le premier est déterministe. Bien évidemment, le fait de mesurer le temps passé prend du temps également, plus on s’arrête souvant, plus l’exécution est ralentie.

[ ]:

Exercice 5 : la fonction _gini_cumsum contient deux boucles. Quelle est la plus rapide ?

[ ]:

Réponses

Exercice 1 : profiler le code précédent

On reprend un des exemples de cette page The Python Profilers.

[2]:
import cProfile, pstats, io
from pstats import SortKey

pr = cProfile.Profile()
pr.enable()

gini([1, 1, 1, 1, 1])

pr.disable()
s = io.StringIO()
sortby = SortKey.CUMULATIVE
ps = pstats.Stats(pr, stream=s).sort_stats(sortby)
ps.print_stats()
print(s.getvalue())
         48 function calls in 0.000 seconds

   Ordered by: cumulative time

   ncalls  tottime  percall  cumtime  percall filename:lineno(function)
        2    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/IPython/core/interactiveshell.py:3472(run_code)
        2    0.000    0.000    0.000    0.000 {built-in method builtins.exec}
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/codeop.py:117(__call__)
        1    0.000    0.000    0.000    0.000 /tmp/ipykernel_23329/1877708867.py:1(<module>)
        2    0.000    0.000    0.000    0.000 {built-in method builtins.compile}
        1    0.000    0.000    0.000    0.000 /tmp/ipykernel_23329/1359775409.py:31(gini)
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/contextlib.py:279(helper)
        4    0.000    0.000    0.000    0.000 {built-in method builtins.next}
        1    0.000    0.000    0.000    0.000 /tmp/ipykernel_23329/1359775409.py:9(_gini_cumsum)
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/contextlib.py:130(__enter__)
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/contextlib.py:139(__exit__)
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/contextlib.py:102(__init__)
        2    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/traitlets/traitlets.py:692(__get__)
        1    0.000    0.000    0.000    0.000 /tmp/ipykernel_23329/1359775409.py:19(_gini_final)
        4    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/IPython/core/compilerop.py:180(extra_flags)
        1    0.000    0.000    0.000    0.000 /tmp/ipykernel_23329/1359775409.py:1(_gini_sort)
        1    0.000    0.000    0.000    0.000 /tmp/ipykernel_23329/1359775409.py:5(_gini_init)
        4    0.000    0.000    0.000    0.000 {built-in method builtins.getattr}
        2    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/IPython/core/interactiveshell.py:3424(compare)
        2    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/traitlets/traitlets.py:654(get)
        1    0.000    0.000    0.000    0.000 {built-in method builtins.sorted}
        3    0.000    0.000    0.000    0.000 {built-in method builtins.len}
        1    0.000    0.000    0.000    0.000 /tmp/ipykernel_23329/1359775409.py:6(<listcomp>)
        2    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/IPython/core/interactiveshell.py:1229(user_global_ns)
        1    0.000    0.000    0.000    0.000 {method 'disable' of '_lsprof.Profiler' objects}



Tous les temps sont nuls. Le code est trop rapide. Il faut soit exécuter le code plusieurs fois, soit prendre un tableau plus grand.

[3]:
import cProfile, pstats, io
from pstats import SortKey

pr = cProfile.Profile()
pr.enable()

for i in range(1000):
    gini([1 for i in range(1000)])

pr.disable()
s = io.StringIO()
sortby = SortKey.CUMULATIVE
ps = pstats.Stats(pr, stream=s).sort_stats(sortby)
ps.print_stats()
print(s.getvalue())
         11038 function calls in 3.682 seconds

   Ordered by: cumulative time

   ncalls  tottime  percall  cumtime  percall filename:lineno(function)
        2    0.000    0.000    3.682    1.841 /home/xadupre/.venv/lib/python3.10/site-packages/IPython/core/interactiveshell.py:3472(run_code)
        2    0.000    0.000    3.682    1.841 {built-in method builtins.exec}
        1    0.132    0.132    3.682    3.682 /tmp/ipykernel_23329/4034582288.py:1(<module>)
     1000    0.024    0.000    3.436    0.003 /tmp/ipykernel_23329/1359775409.py:31(gini)
     1000    1.909    0.002    1.914    0.002 /tmp/ipykernel_23329/1359775409.py:9(_gini_cumsum)
     1000    1.058    0.001    1.060    0.001 /tmp/ipykernel_23329/1359775409.py:19(_gini_final)
     1000    0.007    0.000    0.398    0.000 /tmp/ipykernel_23329/1359775409.py:5(_gini_init)
     1000    0.392    0.000    0.392    0.000 /tmp/ipykernel_23329/1359775409.py:6(<listcomp>)
     1000    0.113    0.000    0.113    0.000 /tmp/ipykernel_23329/4034582288.py:8(<listcomp>)
     1000    0.013    0.000    0.039    0.000 /tmp/ipykernel_23329/1359775409.py:1(_gini_sort)
     1000    0.026    0.000    0.026    0.000 {built-in method builtins.sorted}
     3000    0.008    0.000    0.008    0.000 {built-in method builtins.len}
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/codeop.py:117(__call__)
        2    0.000    0.000    0.000    0.000 {built-in method builtins.compile}
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/contextlib.py:279(helper)
        4    0.000    0.000    0.000    0.000 {built-in method builtins.next}
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/contextlib.py:139(__exit__)
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/contextlib.py:130(__enter__)
        2    0.000    0.000    0.000    0.000 /usr/lib/python3.10/contextlib.py:102(__init__)
        2    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/traitlets/traitlets.py:692(__get__)
        4    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/IPython/core/compilerop.py:180(extra_flags)
        4    0.000    0.000    0.000    0.000 {built-in method builtins.getattr}
        2    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/IPython/core/interactiveshell.py:3424(compare)
        2    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/traitlets/traitlets.py:654(get)
        2    0.000    0.000    0.000    0.000 /home/xadupre/.venv/lib/python3.10/site-packages/IPython/core/interactiveshell.py:1229(user_global_ns)
        1    0.000    0.000    0.000    0.000 {method 'disable' of '_lsprof.Profiler' objects}



C’est un peu illisible. On filtre.

[4]:
def filtre(text):
    lines = text.split("\n")
    return "\n".join(filter(lambda t: "gini" in t, lines))


print(filtre(s.getvalue()))
     1000    0.024    0.000    3.436    0.003 /tmp/ipykernel_23329/1359775409.py:31(gini)
     1000    1.909    0.002    1.914    0.002 /tmp/ipykernel_23329/1359775409.py:9(_gini_cumsum)
     1000    1.058    0.001    1.060    0.001 /tmp/ipykernel_23329/1359775409.py:19(_gini_final)
     1000    0.007    0.000    0.398    0.000 /tmp/ipykernel_23329/1359775409.py:5(_gini_init)
     1000    0.013    0.000    0.039    0.000 /tmp/ipykernel_23329/1359775409.py:1(_gini_sort)

Exercice 2 : changer la fonction _gini_final si possible en plus rapide

[5]:
def _gini_final_faster(couples):
    g = couples[0][0] * couples[0][1]
    n = len(couples)

    # par construction, tous les dx sont identiques, cela fait des calculs en moins
    # le code suivant est plus rapide mais peut encore être optimisé
    dx = couples[0][0]
    sy = couples[0][0]
    for i in range(1, n):
        sy = couples[i - 1][1] + couples[i][1]
        g += dx * sy

    return 1.0 - g / 2


def gini_faster(Y):
    Y = _gini_sort(Y)
    couples = _gini_init(Y)
    couples = _gini_cumsum(couples)
    return _gini_final_faster(couples)


(
    gini_faster([0, 0, 0, 0, 5000]),
    gini_faster([1, 1, 1, 1, 1]),
    gini([0, 0, 0, 0, 5000]),
    gini([1, 1, 1, 1, 1]),
)
[5]:
(0.9, 0.5, 0.9, 0.5)

Exercice 3 : vous améliorez la fonction _gini_final, profilez pour savoir de combien ?

On appelle les deux fonctions pour pouvoir comparer.

[6]:
import cProfile, pstats, io
from pstats import SortKey

pr = cProfile.Profile()
pr.enable()

for i in range(1000):
    gini([1 for i in range(1000)])
    gini_faster([1 for i in range(1000)])

pr.disable()
s = io.StringIO()
sortby = SortKey.CUMULATIVE
ps = pstats.Stats(pr, stream=s).sort_stats(sortby)
ps.print_stats()
print(filtre(s.getvalue()))
     2000    3.121    0.002    3.130    0.002 /tmp/ipykernel_23329/1359775409.py:9(_gini_cumsum)
     1000    0.018    0.000    2.877    0.003 /tmp/ipykernel_23329/1359775409.py:31(gini)
     1000    0.017    0.000    2.543    0.003 /tmp/ipykernel_23329/1862792531.py:16(gini_faster)
     1000    0.866    0.001    0.867    0.001 /tmp/ipykernel_23329/1359775409.py:19(_gini_final)
     2000    0.011    0.000    0.788    0.000 /tmp/ipykernel_23329/1359775409.py:5(_gini_init)
     1000    0.528    0.001    0.530    0.001 /tmp/ipykernel_23329/1862792531.py:1(_gini_final_faster)
     2000    0.024    0.000    0.070    0.000 /tmp/ipykernel_23329/1359775409.py:1(_gini_sort)

La seconde version est plus rapide.

Exercice 4 : utiliser d’autres modules de profiling

pyinstrument n’est pas peut-être pas installé. Il fonctionne de la même façon.

[9]:
from pyinstrument import Profiler
from IPython.display import HTML

profiler = Profiler()
profiler.start()

for i in range(1000):
    gini([1 for i in range(1000)])
    gini_faster([1 for i in range(1000)])

profiler.stop()

HTML(profiler.output_html())
[9]:

C’est plus facile à lire.

Exercice 5 : la fonction _gini_cumsum contient deux boucles. Quelle est la plus rapide ?

Pour ce faire, on découpe la fonction en deux.

[10]:
def _gini_cumsum2a(couples):
    for i in range(1, len(couples)):
        couples[i][0] += couples[i - 1][0]
        couples[i][1] += couples[i - 1][1]
    return couples


def _gini_cumsum2b(couples):
    for i in range(0, len(couples)):
        couples[i][0] /= couples[-1][0]
        couples[i][1] /= couples[-1][1]
    return couples


def _gini_cumsum2(couples):
    _gini_cumsum2a(couples)
    _gini_cumsum2b(couples)
    return couples


def gini2(Y):
    Y = _gini_sort(Y)
    couples = _gini_init(Y)
    couples = _gini_cumsum2(couples)
    return _gini_final(couples)


gini2([1, 1, 1, 1, 1]), gini2([0, 0, 0, 0, 100000])
[10]:
(0.5, 0.9)
[11]:
import cProfile, pstats, io
from pstats import SortKey

pr = cProfile.Profile()
pr.enable()

for i in range(1000):
    gini2([1 for i in range(1000)])
    gini_faster([1 for i in range(1000)])

pr.disable()
s = io.StringIO()
sortby = SortKey.CUMULATIVE
ps = pstats.Stats(pr, stream=s).sort_stats(sortby)
ps.print_stats()
print(filtre(s.getvalue()))
     1000    0.023    0.000    3.580    0.004 /tmp/ipykernel_23329/239060152.py:21(gini2)
     1000    0.024    0.000    3.124    0.003 /tmp/ipykernel_23329/1862792531.py:16(gini_faster)
     1000    0.015    0.000    1.926    0.002 /tmp/ipykernel_23329/239060152.py:15(_gini_cumsum2)
     1000    1.898    0.002    1.905    0.002 /tmp/ipykernel_23329/1359775409.py:9(_gini_cumsum)
     2000    0.013    0.000    1.057    0.001 /tmp/ipykernel_23329/1359775409.py:5(_gini_init)
     1000    1.040    0.001    1.042    0.001 /tmp/ipykernel_23329/1359775409.py:19(_gini_final)
     1000    1.001    0.001    1.004    0.001 /tmp/ipykernel_23329/239060152.py:1(_gini_cumsum2a)
     1000    0.905    0.001    0.908    0.001 /tmp/ipykernel_23329/239060152.py:8(_gini_cumsum2b)
     1000    0.649    0.001    0.651    0.001 /tmp/ipykernel_23329/1862792531.py:1(_gini_final_faster)
     2000    0.030    0.000    0.076    0.000 /tmp/ipykernel_23329/1359775409.py:1(_gini_sort)

Elles sont aussi rapides l’une que l’autre. On peut néanmoins en accélérer une puisqu’on divise tous les éléments d’un tableau par une même valeur. On peut la stocker dans une variable plutôt que d’aller la chercher à chaque fois dans le tableau.

[12]:
def _gini_cumsum3b(couples):
    total0 = couples[-1][0]
    total1 = couples[-1][1]
    for i in range(0, len(couples)):
        couples[i][0] /= total0
        couples[i][1] /= total1
    return couples


def _gini_cumsum3(couples):
    _gini_cumsum2a(couples)
    _gini_cumsum3b(couples)
    return couples


def gini3(Y):
    Y = _gini_sort(Y)
    couples = _gini_init(Y)
    couples = _gini_cumsum3(couples)
    return _gini_final(couples)


gini2([1, 1, 1, 1, 1]), gini2([0, 0, 0, 0, 100000])
[12]:
(0.5, 0.9)
[13]:
import cProfile, pstats, io
from pstats import SortKey

pr = cProfile.Profile()
pr.enable()

for i in range(1000):
    gini2([1 for i in range(1000)])
    gini3([1 for i in range(1000)])

pr.disable()
s = io.StringIO()
sortby = SortKey.CUMULATIVE
ps = pstats.Stats(pr, stream=s).sort_stats(sortby)
ps.print_stats()
print(filtre(s.getvalue()))
     1000    0.022    0.000    3.461    0.003 /tmp/ipykernel_23329/239060152.py:21(gini2)
     1000    0.022    0.000    3.302    0.003 /tmp/ipykernel_23329/1743022160.py:16(gini3)
     2000    2.059    0.001    2.064    0.001 /tmp/ipykernel_23329/1359775409.py:19(_gini_final)
     2000    2.004    0.001    2.009    0.001 /tmp/ipykernel_23329/239060152.py:1(_gini_cumsum2a)
     1000    0.013    0.000    1.921    0.002 /tmp/ipykernel_23329/239060152.py:15(_gini_cumsum2)
     1000    0.018    0.000    1.739    0.002 /tmp/ipykernel_23329/1743022160.py:10(_gini_cumsum3)
     1000    0.917    0.001    0.919    0.001 /tmp/ipykernel_23329/239060152.py:8(_gini_cumsum2b)
     2000    0.012    0.000    0.919    0.000 /tmp/ipykernel_23329/1359775409.py:5(_gini_init)
     1000    0.699    0.001    0.701    0.001 /tmp/ipykernel_23329/1743022160.py:1(_gini_cumsum3b)
     2000    0.028    0.000    0.077    0.000 /tmp/ipykernel_23329/1359775409.py:1(_gini_sort)

C’est mieux même si l’amélioration ne paraît pas nécessairement significative par rapport au temps total, le résultat l’est si on regarde le temps fonction par fonction.

[ ]:


Notebook on github