Calcul intensif¶
Un seul ordinateur ne suffit plus aujourd’hui pour satisfaire tous les besoins des datascientists. Ils ont besoin de nombreuses machines pour traiter des volumns gigantesques de données. Ils ont besoin d’écrire du code efficace pour apprendre des modèles de machines learning de plus en plus gros. Calculs des statistiques simples sur des données de plusieurs centaines de gigaoctets se fait le plus souvent avec une technologique Map/Reduce sur des clusters de machine. Apprendre des réseaux de neurones profonds se fait le plus souvent avec des processeurs GPU et de façon parallélisée. Ce site GitHub/teachcompute introduit ces deux voies.
L’intelligence artificielle est entrée dans le quotidien. Machine learning, deep learning, la porte d’entrée se fait par la programmation et principalement avec le langgage python. Le site Xavier Dupré contient beaucoup d’exemples sur beaucoup de sujets, souvent reliés au machine learning.