
La série « Calendrier de l’Avent » sur l’apprentissage automatique et l’apprentissage profond : le plan
il est très facile de former n’importe quel modèle. Et le processus de formation est toujours effectué avec la même méthode apparemment adaptée. On s’habitue donc à cette idée selon laquelle la formation de n’importe quel modèle est similaire et simple.
Avec autoML, Grid search et Gen AI, la « formation » des modèles d’apprentissage automatique peut être réalisée avec une simple « invite ».
Mais la réalité est que, lorsque nous effectuons model.fit, derrière chaque modèle, le processus peut être très différent. Et chaque modèle lui-même fonctionne très différemment avec les données.
On peut observer deux tendances très différentes, presque dans deux directions opposées :
- D’une part, nous formons, utilisons, manipulons et prédisons avec des modèles (tels que les modèles génératifs) de plus en plus complexes.
- D’un autre côté, nous ne sommes pas toujours capables d’expliquer des modèles simples (comme la régression linéaire, le classificateur discriminant linéaire) et de recalculer les résultats à la main.
Il est important de comprendre les modèles que nous utilisons. Et la meilleure façon de les comprendre est de les mettre en œuvre nous-mêmes. Certaines personnes le font avec Python, R ou d’autres langages de programmation. Mais il existe encore un obstacle pour ceux qui ne programment pas. Et de nos jours, comprendre l’IA est essentiel pour tout le monde. De plus, utiliser un langage de programmation peut également cacher certaines opérations derrière des fonctions déjà existantes. Et ce n’est pas expliqué visuellement, ce qui signifie que chaque opération n’est pas clairement affichée, puisque la fonction est codée puis exécutée, pour ne donner que les résultats.
Le meilleur outil à explorer, à mon avis, est donc Excel. Avec les formules qui montrent clairement chaque étape des calculs.
En fait, lorsque nous recevons un ensemble de données, la plupart des non-programmeurs l’ouvrent dans Excel pour comprendre ce qu’il contient. C’est très courant dans le monde des affaires.
Même de nombreux data scientists, moi y compris, utilisent Excel pour jeter un coup d’œil rapide. Et quand vient le temps d’expliquer les résultats, les afficher directement dans Excel est souvent le moyen le plus efficace, notamment devant les dirigeants.
Dans Excel, tout est visible. Il n’y a pas de « boîte noire ». Vous pouvez voir chaque formule, chaque nombre, chaque calcul.
Cela aide beaucoup à comprendre comment fonctionnent réellement les modèles, sans raccourcis.
De plus, vous n’avez rien à installer. Juste une feuille de calcul.
Je publierai une série d’articles sur la façon de comprendre et mettre en œuvre modèles d’apprentissage automatique et d’apprentissage profond dans Exceller.
Pour le « Calendrier de l’Avent », je publierai un article par jour.

A qui est destinée cette série ?
Pour les étudiants qui étudient, je pense que ces articles offrent un point de vue pratique. Il s’agit de donner du sens à des formules complexes.
Pour les développeurs de ML ou d’IA, qui, parfois, n’ont pas étudié la théorie – mais désormais, sans algèbre, probabilité ou statistiques compliquées, vous pouvez ouvrir la boîte noire derrière model.fit. Parce que pour tous les modèles, vous faites model.fit. Mais en réalité, les modèles peuvent être très différents.
Ceci s’adresse également aux managers qui n’ont peut-être pas toutes les connaissances techniques, mais à qui Excel donnera toutes les idées intuitives derrière les modèles. Par conséquent, en combinant votre expertise métier, vous pourrez mieux juger si l’apprentissage automatique est vraiment nécessaire et quel modèle pourrait être le plus adapté.
Donc, en résumé, il s’agit de mieux comprendre les modèles, l’entraînement des modèles, l’interprétabilité des modèles, et les liens entre les différents modèles.
Structure des articles
Du point de vue du praticien, nous classons généralement les modèles dans les deux catégories suivantes : l’apprentissage supervisé et l’apprentissage non supervisé.
Ensuite, pour l’apprentissage supervisé, nous avons la régression et la classification. Et pour l’apprentissage non supervisé, nous avons le clustering et la réduction de dimensionnalité.

Mais vous avez sûrement déjà remarqué que certains algorithmes peuvent partager une approche identique ou similaire, comme le classificateur KNN contre le régresseur KNN, le classificateur d’arbre de décision contre le régresseur d’arbre de décision, la régression linéaire contre le « classificateur linéaire ».
Un arbre de régression et une régression linéaire ont le même objectif, c’est-à-dire effectuer une tâche de régression. Mais lorsque vous essayez de les implémenter dans Excel, vous verrez que l’arbre de régression est très proche de l’arbre de classification. Et la régression linéaire est plus proche d’un réseau neuronal.
Et parfois les gens confondent K-NN avec K-means. Certains diront peut-être que leurs objectifs sont complètement différents et que les confondre est une erreur de débutant. MAIS, nous devons également admettre qu’ils partagent la même approche de calcul des distances entre les points de données. Il y a donc une relation entre eux.
Il en va de même pour la forêt d’isolement, car on peut voir que dans la forêt aléatoire, il y a aussi une « forêt ».
Je vais donc organiser tous les modèles d’un point de vue théorique. Il existe trois approches principales, et nous verrons clairement comment ces approches sont implémentées de manière très différente dans Excel.
Cet aperçu nous aidera à naviguer à travers tous les différents modèles et à relier les points entre bon nombre d’entre eux.

- Pour les modèles basés sur la distance, nous calculerons les distances locales ou globales, entre une nouvelle observation et l’ensemble de données d’entraînement.
- Pour les modèles arborescents, nous devons définir les divisions ou les règles qui seront utilisées pour créer des catégories de fonctionnalités.
- Pour les fonctions mathématiques, l’idée est d’appliquer des pondérations aux fonctionnalités. Et pour entraîner le modèle, la descente de gradient est principalement utilisée.
- Pour les modèles d’apprentissage profond, nous considérerons que le point principal concerne l’ingénierie des fonctionnalités, pour créer une représentation adéquate des données.
Pour chaque modèle, nous tenterons de répondre à ces questions.
Questions générales sur le modèle :
- Quelle est la nature du modèle ?
- Comment le modèle est-il formé ?
- Quels sont les hyperparamètres du modèle ?
- Comment la même approche modèle peut-elle être utilisée pour la régression, la classification ou même le clustering ?
Comment les fonctionnalités sont modélisé :
- Comment les fonctionnalités catégorielles sont-elles gérées ?
- Comment sont gérées les valeurs manquantes ?
- Pour les fonctionnalités continues, la mise à l’échelle fait-elle une différence ?
- Comment mesurons-nous l’importance d’une fonctionnalité ?
Comment pouvons-nous qualifier l’importance des fonctionnalités? Cette question sera également abordée. Vous savez peut-être que des packages comme LIME et SHAP sont très populaires et qu’ils sont indépendants du modèle. Mais la vérité est que chaque modèle se comporte de manière très différente, et il est également intéressant et important d’interpréter directement avec le modèle.
Relations entre les différents modèles
Chaque modèle fera l’objet d’un article séparé, mais nous aborderons les liens avec d’autres modèles.
Nous discuterons également des relations entre les différents modèles. Puisque nous ouvrons véritablement chaque « boîte noire », nous saurons également apporter des améliorations théoriques à certains modèles.
- KNN et LDA (Linear Discriminant Analysis) sont très proches. Le premier utilise une distance locale et le second une distance globale.
- L’augmentation du gradient est la même que la descente du gradient, seul l’espace vectoriel est différent.
- La régression linéaire est également un classificateur.
- L’encodage des étiquettes peut être, en quelque sorte, utilisé pour une fonctionnalité catégorielle, et il peut être très utile, très puissant, mais vous devez choisir les « étiquettes » judicieusement.
- SVM est très proche de la régression linéaire, encore plus proche de la régression de crête.
- LASSO et SVM utilisent un principe similaire pour sélectionner des fonctionnalités ou des points de données. Savez-vous que le deuxième S du LASSO est destiné à la sélection ?
Pour chaque modèle, nous aborderons également un point particulier qui manquera à la plupart des cours traditionnels. J’appelle cela la leçon non enseignée du modèle d’apprentissage automatique.
Formation de modèle vs réglage des hyperparamètres
Dans ces articles, nous nous concentrerons uniquement sur le fonctionnement des modèles et la manière dont ils sont formés. Nous ne discuterons pas du réglage des hyperparamètres, car le processus est essentiellement le même pour chaque modèle. Nous utilisons généralement la recherche par grille.

Liste des articles
Vous trouverez ci-dessous une liste, que je mettrai à jour en publiant un article par jour, à partir du 1er décembre !
A très bientôt !
…



