Distributions Multivariées pour le Machine Learning

Dans mes précédents articles, j’ai examiné les distributions discrètes et continues les plus couramment utilisées en science des données. Aujourd’hui, je voudrais vous présenter les distributions de probabilité multivariées continues, qui sont à la base de nombreux modèles de Machine Learning tels que la régression linéaire multivariée, l’analyse discriminante linéaire, l’analyse discriminante quadratique, etc.

Lire la suite


Distributions de probabilité continues pour le Machine Learning

Dans cet article, je vous propose de faire une repasse sur les distributions de probabilité classiques continues les plus utilisées en statistiques mais plus particulièrement en science des données. Les probabilités jouent un grand rôle en Machine Learning car elles permettent d’évaluer l’incertitude des prédictions qui sont réalisées.Une grande partie des modèles utilisés en Machine sont des modèles probabilistes.

Lire la suite


Distributions de probabilité discrètes pour le Machine Learning

 

Dans cet article, je vous propose de faire une repasse sur les distributions de probabilités classiques discrètes les plus utilisées en statistiques mais plus particulièrement en science des données. Les probabilités jouent un grand rôle en Machine Learning car elles permettent d’évaluer l’incertitude des prédictions qui sont réalisées. Une grande partie des modèles utilisés en Machine Learning sont des modèles probabilistes.

Lire la suite


Data science : Test de Cramer-Von-Mises

Nous voilà arriver au dernier article de notre série, qui traitera du test de Cramer-Von-Mises.

Le test de Cramer-Von-Mises est une modification du test d’Anderson-Darling. C’est donc un test d’ajustement qui permet de tester si une variable continue donnée suit une loi de distribution fixée. La  normalité est un cas particulier.

A l’instar du test d’Anderson-Darling, le test de Cramer-Von-Mises peut être considéré comme une version puissante  du test de Kolmogorov-Smirnov car très peu sensible aux valeurs extrêmes.

Ce test est implémenté sous la bibliothèque scipy (stats.cramervonmises) et avec le logiciel openturns (NormalityTest.CramerVonMisesNormal).

Lire la suite


Introduction au Machine Learning avec caret

Si vous voulez faire du Machine Learning avec R, le package caret (Classification And REgression Training) est l’un des packages indispensables que vous devez savoir manipuler. C’est un package qui met à votre disposition plus de 200 algorithmes de Machine Learning ( classification et régression)  avec une interface unifiée et simple à utiliser. C’est en quelques sortes l’un des “équivalents” du célèbre scikit-learn de python sur R.

Lire la suite


Data Science : Test de Shapiro-Wilk

Comme indiqué dans le premier article Data science : Droite de Henry, nous continuons notre série sur les tests de normalité avec ce troisième article consacré au test de Shapiro-Wilk.

Considéré comme le plus fiable des tests de normalité, ce test publié en 1965 par Samuel Shapiro et Martin Wilk était à l’origine limité à des échantillons de moins de 50 individus. Mais en 1982 puis 1992, Royston a apporté des modifications au test de Shapiro-Wilk pour qu’il soit valable pour des échantillons contenant jusqu’à 5000 individus.

Pour les illustrations nous utiliserons scipy (scipy.stats.shapiro).

Lire la suite


Data science : Les tests de Kolmogorov-Smirnov et Lilliefors

Les tests de Kolmogrov-Smirnov(KS) et Lilliefors(LF) sont certainement les tests les plus populaires lorsqu’il s’agit de tester la normalité d’un échantillon. Comme nous l’avons vu dans le premier article Data science : Droite de Henry, ces tests ne sont pas seulement réservés à la loi normale, la normalité n’étant qu’un cas particulier. Pour être plus précis, ils permettent de tester si un échantillon provient d’une distribution continue. Le test de Lilliefors, en particulier, ne s’applique qu’à trois distributions continues : NormaleExponentielle et Uniforme.

Lire la suite


Data science : Droite de Henry

De nombreuses procédures statistiques requièrent l’hypothèse de normalité, notamment lors des procédures statistiques paramétriques où on suppose que les données suivent une certaine distribution qui est généralement normale. Cet article est le premier d’une série de 5 qui a pour ambition de présenter le principe de la droite de Henry et les principaux tests de normalité notamment les tests de : Kolmogorov-Smirnov(KS), Lilliefors(LF), Shapiro-Wilks(SW), Anderson-Darling(AD) et enfin Cramer-Von Mises(CVM).

Lire la suite


La régression linéaire : Régression PCR & PLS ( 2/2)

La régression par les moindres carrés partiels (PLS) est très similaire à la régression PCR. Elle permet également de transformer les variables initiales en nouvelles variables non corrélées et que l’on peut classer par ordre d’importance. La régression PCR opte pour la part de variabilité qu’elles représentent parmi les variables explicatives initiales comme critère dimportance tandis que la régression PLS a choisi dopter pour leur lien avec la variable à expliquer. 

Lire la suite