Calcul intensif¶
Un seul ordinateur ne suffit plus aujourd’hui pour satisfaire tous les besoins
des datascientists. Ils ont besoin de nombreuses machines pour traiter
des volumns gigantesques de données. Ils ont besoin d’écrire du code
efficace pour apprendre des modèles de machines learning de plus en plus
gros. Calculs des statistiques simples sur des données de plusieurs centaines
de gigaoctets se fait le plus souvent avec une technologique Map/Reduce
sur des clusters de machine. Apprendre des réseaux de neurones profonds
se fait le plus souvent avec des processeurs GPU et de façon
parallélisée. Ce site GitHub/teachcompute
introduit ces deux voies.
Exercices
Compléments
L’intelligence artificielle est entrée dans le quotidien. Machine learning, deep learning, la porte d’entrée se fait par la programmation et principalement avec le langgage python. Le site Xavier Dupré contient beaucoup d’exemples sur beaucoup de sujets, souvent reliés au machine learning.