Commit 3b4da44e authored by Aude Chantel's avatar Aude Chantel

Orthographe sur tp_supervised.ipynb

parent 94dff63a
......@@ -6,13 +6,13 @@
"source": [
"# TP Apprentissage supervisé: Classification / Discrimination\n",
"\n",
"Dans ce tp, on fait de la Classification / Discrimination, c'est à dire qu'on connait les \"vrais\" labels de nos classes. \n",
"Dans ce tp, on fait de la Classification / Discrimination, c'est-à-dire que l'on connaît les \"vrais\" labels de nos classes. \n",
"\n",
"On va utiliser les données Breast cancer dataset (classification).\n",
"\n",
"Une description de ces données est disponible à https://scikit-learn.org/stable/datasets/index.html#breast-cancer-wisconsin-diagnostic-dataset. Jetez un coup d'oeil pour comprendre la probblématique.\n",
"Une description de ces données est disponible à l'adresse https://scikit-learn.org/stable/datasets/index.html#breast-cancer-wisconsin-diagnostic-dataset. Jetez un coup d'oeil pour comprendre la problématique.\n",
"\n",
"Importer les libraries de ce matin: numpy et scikit datasets."
"Importez les libraries de ce matin: `numpy` et `scikit datasets`."
]
},
{
......@@ -33,7 +33,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"Charger les données depuis datasets.load_boston. Que renvoie ceette fonction ? Charger vos données dans des variables appelées X et y opur respectivement les données et les labels."
"Chargez les données depuis `datasets.load_boston`. Que renvoie ceette fonction ? Chargez vos données dans des variables appelées X et y pour avoir, respectivement, les données et les labels."
]
},
{
......@@ -41,14 +41,14 @@
"metadata": {},
"source": [
"# Formatage du jeu de données\n",
"Pour entrainer nos alogrithmes, on va splitter notre jeu de données en 3 sous jeu de données: \n",
"Pour entraîner nos algorithmes, on va splitter notre jeu de données en 3 sous-jeux de données: \n",
"- train\n",
"- validation\n",
"- test\n",
"\n",
"Pourquoi est-ce nécessaire?\n",
"\n",
"Pour cela, utiliser la fonction scikit-learn `sklearn.model_selection.train_test_split`. Importer cette méthode, "
"Pour cela, utilisez la fonction scikit-learn `sklearn.model_selection.train_test_split`. Importez cette méthode, "
]
},
{
......@@ -63,7 +63,7 @@
"metadata": {},
"source": [
"# K-NNs\n",
"On va lancer les k-nns sur ce dataset.Essayer K = 1. Essayer K = n (n est le nombre de samples). Commentez."
"On va lancer les k-nns sur ce dataset. Essayez K = 1, puis K = n (n est le nombre de samples). Commentez."
]
},
{
......@@ -77,7 +77,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"Comment choisir K? Essayer différents K, regarder les résultats."
"Comment choisir K? Essayez différents K, regardez les résultats."
]
},
{
......@@ -92,7 +92,7 @@
"metadata": {},
"source": [
"# NBC / Algrotihme baeysien naif\n",
"On va maintenant utiliser l'agorithme baeysien naif, naive baeysian classifier pour les gens hype. Pour rappel, le modèle se base sur l'indépendance des _features_ et l'hypothèse gaussiennee. LEs amoureux de SY01 se souviendront de la formule de bayes: \n",
"On va maintenant utiliser l'agorithme bayésien naif (*naive baeysian classifier* pour les gens hype). Pour rappel, le modèle se base sur l'indépendance des _features_ et l'hypothèse gaussienne. Les amoureux de SY01 se souviendront de la formule de bayes: \n",
"$$\n",
"P(X | Y) = \\frac{P(Y|X) \\times P(X)}{P(Y)}\n",
"$$\n",
......@@ -103,14 +103,14 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"Consulter la doc pour connaître les arguments demandés. Utiliser cette algorithme sur le jeu boston"
"Consultez la doc pour connaître les arguments demandés. Utilisez cet algorithme sur le jeu `boston`"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"_Optionel_ Quels sont vos résultats? Essayer d'affichier vos clusters en 2D. (un peu chaud, à voir)"
"_Optionel_ Quels sont vos résultats? Essayez d'afficher vos clusters en 2D. (un peu chaud, à voir)"
]
},
{
......@@ -118,14 +118,14 @@
"metadata": {},
"source": [
"# Regression logistique\n",
"On va utiliser la regression logistique ou logistic regression. \n",
"On va utiliser la regression logistique (aka *logistic regression*). \n",
"Rappel de notre modèle, pour deux classes: \n",
"$$Pr(C_0 | features) + Pr(C_1 | features) = 1$$\n",
"$$Pr(C_1 | features) = \\frac{1}{1+\\exp^{w_O +w_1\\times features}}$$\n",
"On veut donc déterminer $w = (w_0,w_1)$\n",
"Et, de manière assez inattendue, Scikit propose un implémentation de la regression logistique. La doc scikit est consultable ici: https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html .\n",
"\n",
"Consulter la doc, lancer une regression logistique. "
"Consultez la doc, puis lancez une regression logistique. "
]
},
{
......@@ -139,8 +139,8 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"Le principal avantage de la regerssion logistique est son interprétabilité, grâce aux poids. \n",
"Quelles sont les features qui vous ont permi de discriminer entre les classes? Utiliser pour cela les poids du vecteurs $w$."
"Le principal avantage de la regression logistique est son interprétabilité, grâce aux poids. \n",
"Quelles sont les features qui vous ont permis de discriminer entre les classes? Utilisez pour cela les poids du vecteurs $w$."
]
},
{
......@@ -155,7 +155,7 @@
"metadata": {},
"source": [
"# SVM -- Support Vector Machine\n",
"Machine à vecteur de Support ou Système à Vaste Marge pour les littéraires, les SVMs sont des algorithmes plus complexes. Ils perdent l'interprétabilité de la logitic regression, mais permettent d'obtenir des fronitères de décision non linéaires grâce au kernel. Très puissants, ils ont été les algorithmes phare des années 90s et début 2000s.\n",
"Machine à vecteur de Support (Système à Vaste Marge pour les littéraires), les SVMs sont des algorithmes plus complexes. Ils perdent l'interprétabilité de la *logistic regression*, mais permettent d'obtenir des frontières de décision non linéaires grâce au kernel. Très puissants, ils ont été les algorithmes phares des années 90 et début 2000.\n",
"Le modèle est assez complexe, basé sur l'estimation de la marge. Voici pour rappel un schéma volé sur Wikipédia, qui présente le cas facilement séparable:\n",
"![](https://upload.wikimedia.org/wikipedia/commons/7/72/SVM_margin.png)\n",
"La puissance des SVM est basé sur la notion de Kernel explorée en détail ce matin. On utilisera le noyeau gaussien, appelé `rbf` dans scikit."
......@@ -166,14 +166,14 @@
"metadata": {},
"source": [
"Étonnement, nous utiliserons l'implémentation scikit-learn. La doc est ici : https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html\n",
"importez cette méthode. Consulter la doc string ou documentation intégrée. Quels sont les paramètres?"
"Importez cette méthode. Consulter la doc string ou la documentation intégrée. Quels sont les paramètres?"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Lancer un SVM sur nos données, avec un noyeau linéaire `kernel='linear'`. "
"Lancez un SVM sur nos données, avec un noyeau linéaire `kernel='linear'`. "
]
},
{
......@@ -194,7 +194,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"C'eest fini? Pas eencore? Toujours pas? La méthode est bien plus complexe que la regression logistique. Plus complexe --> plus de calculs --> plus lent.\n",
"C'eest fini? Pas encore? Toujours pas? La méthode est bien plus complexe que la regression logistique. Plus complexe --> plus de calculs --> plus lent.\n",
"Quels sont vos résultats? Sont-ils meilleurs que précédemment?"
]
},
......@@ -202,7 +202,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"En fait, il n'y a pas que le kernel qui paramètrise votre SVM. Le paramètre de régularisation aussi.Pour l'instant quel est votre paramètre C? Regardez dans la doc.\n",
"En fait, il n'y a pas que le kernel qui paramètrise votre SVM. Le paramètre de régularisation aussi. Pour l'instant quel est votre paramètre C? Regardez dans la doc.\n",
"\n",
"Essayez `C=20`. Commentez vos résultats."
]
......@@ -211,15 +211,15 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"Chercher un `C` optimal. Nous verrons plus tard comment faire cela automatiquement."
"Cherchez un `C` optimal. Nous verrons plus tard comment faire cela automatiquement."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"_optionel_ Vous souvenez vous de la commande magic permettant de connaitre le temps pris par un ligne? `%timeit`\n",
"Comparer le temps pris par la régression logistique et le SVM."
"_optionel_ Vous souvenez-vous de la commande magic permettant de connaitre le temps de calcul pour un ligne? `%timeit`\n",
"Comparez le temps pris par la régression logistique et le SVM."
]
},
{
......@@ -227,9 +227,9 @@
"metadata": {},
"source": [
"# Arbres de décision\n",
"Les arbres de décision sont une méthode extrêmement puissante, surtout qaund ils sont utilisés avec des méthodes de boosting (que nous verront aussi aujourd'hui). De plus, les arbres sont très interprétables.\n",
"Les arbres de décision sont une méthode extrêmement puissante, surtout quand ils sont utilisés avec des méthodes de boosting (que nous verrons aussi aujourd'hui). De plus, les arbres sont très interprétables.\n",
"![](https://upload.wikimedia.org/wikipedia/commons/2/25/Cart_tree_kyphosis.png)\n",
"On va utiliser cette méthode pour faire de la classification. Chercher l'implémentation scikit de cette méthode. En anglais, on parle de decision tree classifier.\n",
"On va utiliser cette méthode pour faire de la classification. Cherchez l'implémentation scikit de cette méthode. En anglais, on parle de *decision tree classifier*.\n",
"Consulter la doc string. "
]
},
......@@ -237,14 +237,14 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"Lancer un arbre avec DecisionTreeClassifier. Essayer sur votre ensemble de validation."
"Lancez un arbre avec `DecisionTreeClassifier`. Essayez sur votre ensemble de validation."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Bravo! Vous venez de découvrir l'overfitting!! C'est à dire que votre arbre a tout appris par coeur, et a donc trop de branche. Pour poursuivre la métaphore, on va utiliser une forêt, afin que les surapprentissage se compensent.\n",
"Bravo! Vous venez de découvrir l'*overfitting*!! C'est-à-dire que votre arbre a tout appris par coeur, et a donc trop de branches. Pour poursuivre la métaphore, on va utiliser une forêt, afin que les surapprentissages se compensent.\n",
"_optionel_ : tracer votre arbre en 2D. Vous pouvez utiliser le tuto suivant: https://scikit-learn.org/stable/auto_examples/tree/plot_iris.html#sphx-glr-auto-examples-tree-plot-iris-py"
]
},
......@@ -254,8 +254,8 @@
"source": [
"# Random Forest\n",
"Les forêts aléatoires sont des classifieurs extrêmement puissants, qui s'appuie sur le bootstrap, et le bagging. Ce sont des techniques statistiques assez avancées qui consistent à:\n",
"- bootstrap: faire des tirages avec remises dans le jeu de données\n",
"- bagging: entrainer le même modèle sur différents bootstrap, et faire un vote pour classifier.\n",
"- *bootstrap*: faire des tirages avec remise dans le jeu de données\n",
"- *bagging*: entrainer le même modèle sur différents bootstrap, et faire un vote pour classifier.\n",
"Problème: l'interprétation devient difficile.\n",
"La documentation est disponible à https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestClassifier.html"
]
......@@ -271,14 +271,14 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"Comparer vos résultats avec votre arbre. Regarder bien sur l'ensemble de test puis sur l'ensemble de validation. Que remarquez vous? À quoi cela est dû?"
"Comparez vos résultats avec votre arbre. Regardez bien sur l'ensemble de test puis sur l'ensemble de validation. Que remarquez-vous? À quoi cela est dû?"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Réssayez avec `n_arbres = 100`, `n_arbres = 333`. "
"Rééssayez avec `n_arbres = 100`, `n_arbres = 333`. "
]
},
{
......
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment