Version DRAFT d'une formation Data Scientist que j'ai conçue à partir de sources diverses (voir références bibliographiques à la fin de chaque diapositive).
La formation est destinée aux personnes possédant des bases (~BAC+2) en statistiques et programmation (j'utilise R).
Je reste ouvert à tout commentaire, critique et correction. Je continuerai à mettre à jour les diapositives et à en ajouter d'autres si j'ai le temps.
1 hour to browse the algos stars of machine learning. No code, big concepts with a little math. Linear regression, classification (logistic regression / svm / tree), neural network, deep learning...
Version DRAFT d'une formation Data Scientist que j'ai conçue à partir de sources diverses (voir références bibliographiques à la fin de chaque diapositive).
La formation est destinée aux personnes possédant des bases (~BAC+2) en statistiques et programmation (j'utilise R).
Je reste ouvert à tout commentaire, critique et correction. Je continuerai à mettre à jour les diapositives et à en ajouter d'autres si j'ai le temps.
1 hour to browse the algos stars of machine learning. No code, big concepts with a little math. Linear regression, classification (logistic regression / svm / tree), neural network, deep learning...
Les 10 plus populaires algorithmes du machine learningHakim Nasaoui
Une présentation très simple montre les 10 algorithmes d’apprentissage automatique les plus populaires, qui donnent leurs définitions, leurs avantages, leurs inconvénients.
Définition du data mining, intervention du Data Mining dans une chaîne décisionnelle, applications, méthodes de travail, processus KDD (ECD, Extraction de connaissances à partir de Données), méthode SEMMA de SAS, méthode CRISP-DM, etc.
Machine Learning et Intelligence Artificielle : quelles applications pour le marketing digital ?
Deep Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de voix, de visages, de sentiments, quelles possibilités d’applications au marketing digital ? Comment commencer ? Avec quels outils et quelles compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle, que ce soit pour conduire des voitures autonomes, identifier les utilisateurs à partir de leur visage, traduire en temps réel des conversations téléphoniques, conseiller le bon produit, mimer le comportement du parfait assistant…
Cette débauche de moyens en recherche et développement génère la diffusion en Open Source des sources de nombreux algorithmes ou le foisonnement de fonctions et d’API de ML et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, les sentiments à partir d’un texte, ou pour anticiper des ruptures dans des comportements… En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitements considérables qui permettent d’appliquer ces algorithmes de ML sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Ce séminaire prospectif vise à démystifier le Deep Machine Learning, à en dessiner les premières applications potentielles pour le Marketing Digital et à en préciser les modalités de mise en œuvre ainsi que les impacts et les risques à identifier.
BigData_TP1: Initiation à Hadoop et Map-ReduceLilia Sfaxi
Pour accéder aux fichiers nécessaires pour faire ce TP, visitez: https://drive.google.com/folderview?id=0Bz7DokLRQvx7M2JWZEt1VHdwSE0&usp=sharing
Pour plus de contenu, Visitez http://liliasfaxi.wix.com/liliasfaxi !
La classification et l’identification des cultures par la télédétectionAbdessadek ELASRI
Recherche
Une grande partie de notre alimentation est assurée par les produits issus de l'agriculture. La production de denrées alimentaires de qualité et en quantité suffisante est essentielle pour le bien-être des gens partout dans le monde. Les plantes cultivées, tout comme les êtres vivants, ont besoin d'eau et de
nutriments pour croître. Elles sont également sensibles aux phénomènes météorologiques extrêmes, aux maladies et aux prédateurs. La télédétection peut fournir des données très utiles pour identifier et surveiller les cultures. Quand ces données sont organisées avec d'autres types de données dans un Système d'Information Géographique (SIG), elles deviennent un outil puissant d'aide à la décision pour tout ce qui touche aux cultures et aux pratiques culturales.
Les 10 plus populaires algorithmes du machine learningHakim Nasaoui
Une présentation très simple montre les 10 algorithmes d’apprentissage automatique les plus populaires, qui donnent leurs définitions, leurs avantages, leurs inconvénients.
Définition du data mining, intervention du Data Mining dans une chaîne décisionnelle, applications, méthodes de travail, processus KDD (ECD, Extraction de connaissances à partir de Données), méthode SEMMA de SAS, méthode CRISP-DM, etc.
Machine Learning et Intelligence Artificielle : quelles applications pour le marketing digital ?
Deep Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de voix, de visages, de sentiments, quelles possibilités d’applications au marketing digital ? Comment commencer ? Avec quels outils et quelles compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle, que ce soit pour conduire des voitures autonomes, identifier les utilisateurs à partir de leur visage, traduire en temps réel des conversations téléphoniques, conseiller le bon produit, mimer le comportement du parfait assistant…
Cette débauche de moyens en recherche et développement génère la diffusion en Open Source des sources de nombreux algorithmes ou le foisonnement de fonctions et d’API de ML et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, les sentiments à partir d’un texte, ou pour anticiper des ruptures dans des comportements… En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitements considérables qui permettent d’appliquer ces algorithmes de ML sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Ce séminaire prospectif vise à démystifier le Deep Machine Learning, à en dessiner les premières applications potentielles pour le Marketing Digital et à en préciser les modalités de mise en œuvre ainsi que les impacts et les risques à identifier.
BigData_TP1: Initiation à Hadoop et Map-ReduceLilia Sfaxi
Pour accéder aux fichiers nécessaires pour faire ce TP, visitez: https://drive.google.com/folderview?id=0Bz7DokLRQvx7M2JWZEt1VHdwSE0&usp=sharing
Pour plus de contenu, Visitez http://liliasfaxi.wix.com/liliasfaxi !
La classification et l’identification des cultures par la télédétectionAbdessadek ELASRI
Recherche
Une grande partie de notre alimentation est assurée par les produits issus de l'agriculture. La production de denrées alimentaires de qualité et en quantité suffisante est essentielle pour le bien-être des gens partout dans le monde. Les plantes cultivées, tout comme les êtres vivants, ont besoin d'eau et de
nutriments pour croître. Elles sont également sensibles aux phénomènes météorologiques extrêmes, aux maladies et aux prédateurs. La télédétection peut fournir des données très utiles pour identifier et surveiller les cultures. Quand ces données sont organisées avec d'autres types de données dans un Système d'Information Géographique (SIG), elles deviennent un outil puissant d'aide à la décision pour tout ce qui touche aux cultures et aux pratiques culturales.
Support Vector Machine (SVM) is a supervised machine learning algorithm that can be used for both classification and regression analysis. It works by finding a hyperplane in an N-dimensional space that distinctly classifies the data points. SVM selects the hyperplane that has the largest distance to the nearest training data points of any class, since larger the margin lower the generalization error of the classifier. SVM can efficiently perform nonlinear classification by implicitly mapping their inputs into high-dimensional feature spaces.
1) The document describes several use cases for processing and analyzing satellite images using the Orfeo Toolbox framework and Monteverdi application.
2) The use cases include opening an image and exploring the viewer tools, creating an ROI, thresholding, mean-shift segmentation, feature extraction, image concatenation, supervised SVM classification, unsupervised k-means clustering, and orthorectifying images with and without a DEM.
3) Advanced functions covered include superimposing a XS image over a higher resolution THR image using their geometric models.
2013 KDD conference presentation--"Multi-Label Relational Neighbor Classifica...Xi Wang
This document presents a new multi-label relational neighbor classification method called SCRN that uses social context features to improve classification performance on multi-label networked datasets. SCRN extracts social context features using edge clustering to represent potential group memberships. It then calculates class propagation probabilities and predicts labels using collective inference. Experimental results on DBLP, IMDb and YouTube datasets show SCRN significantly outperforms other methods in terms of various evaluation metrics like Micro-F1, Macro-F1 and Hamming Loss.
Une Approche d’Indexation et de Recherche d’Images Pulmonaires TDM par le Con...guest0bcdde
Pendant la dernière décennie, plusieurs systèmes d’indexation et de recherche d’images par le contenu visuel ont émergé afin de combler les limites de l’indexation textuelle des images. Dans ce travail, nous proposons une approche d’indexation et de recherche d’images pulmonaires tomodensitométriques (TDM) par le contenu visuel. Dans cette approche, nous modélisons le contenu visuel des images pulmonaires par un graphe (arbre) attribué. Ce dernier nous permet de bien représenter les différents aspects de similarité sur lesquels peut porter les requêtes des utilisateurs. En outre, nous nous intéressons à l'adaptation des descripteurs de texture aux images pulmonaires. En plus, nous utilisons une technique de réduction de la dimension des vecteurs de descripteurs dans le but d’accélérer la phase de la recherche.
La télédétection : un outil pour le suivi et l’évaluation de la désertificati...csfd
Begni Gérard, Escadafal Richard, Fontannaz Delphine et Hong-Nga Nguyen Anne-Thérèse, 2005. La télédétection : un outil pour le suivi et l’évaluation de la désertification. Les dossiers thématiques du CSFD. Numéro 2. 44 pp. - Toute une gamme de satellites et de capteurs permet de surveiller notre environnement, faire des comparaisons dans le temps et l’espace, et ainsi mieux comprendre le fonctionnement de nos écosystèmes et de notre planète. Ce dossier permet de savoir comment on passe d’un enregistrement fait à bord d’un satellite à une information utile pour lutter contre la désertification.
Text extraction using document structure features and support vector machinesKonstantinos Zagoris
This document presents a bottom-up text localization technique that uses document structure features and support vector machines. The technique detects and extracts text from document images through several steps: preprocessing, locating and merging blocks, extracting features from blocks, and using support vector machines trained on the features to classify blocks as containing text or not. The technique uses a flexible feature descriptor based on structural elements that can adapt to different document image types. Experimental results on document images show a 98.5% success rate in classifying blocks.
Signal and image processing on satellite communication using MATLABEmbedded Plus Trichy
Basic Explanations about satellite imaging and signal processing with the help of MATLAB.
Contact us: 23,Nandhi koil Street, Near Nakoda Showroom,Theppakulam,Trichy
Mb.No:9360212155.
Mail:embeddedplusproject@gmail.com,
FB:www.facebook.com/embeddedplusproject
Bonjour
Analyse Convexe : Projection d’un point sur un ensemble
Cours d'analyse convexe dans le cadre du master : Mathématiques et Applications de la FST de Settat - Université Hassan 1er.
https://youtu.be/hXxYcuKvppo
Cordialement
Pr JAOUAD DABOUNOU
FST DE SETTAT
UNIVERSITE HASSAN 1er
Racines en haut et feuilles en bas : les arbres en mathstuxette
1. The document discusses methods for clustering and differential analysis of Hi-C matrices, which represent the 3D organization of DNA.
2. It proposes extending Ward's hierarchical clustering to directly use Hi-C similarity matrices while enforcing adjacency constraints. A fast algorithm was also developed.
3. A new method called "treediff" was created to perform differential analysis of Hi-C matrices based on the Wasserstein distance between hierarchical clusterings. Software implementations of these methods were also developed.
Méthodes à noyaux pour l’intégration de données hétérogènestuxette
The document discusses a presentation about multi-omics data integration methods using kernel methods. The presentation introduces kernel methods, how they can be used to integrate heterogeneous omics data, and examples of applications. Specifically, it discusses using kernel methods to perform unsupervised transformation-based integration of multi-omics data. It also presents an application of constrained kernel hierarchical clustering to analyze Hi-C data by directly using Hi-C matrices as kernels.
Méthodologies d'intégration de données omiquestuxette
This document presents a presentation on multi-omics data integration methods given by Nathalie Vialaneix on December 13, 2023. The presentation discusses different types of omics data that can be integrated, both vertically across different levels of omics data on the same samples and horizontally across similar types of omics data on different samples. It also discusses different analysis approaches that can be taken, including supervised and unsupervised methods. The rest of the presentation focuses on unsupervised transformation-based integration methods using kernels.
The document discusses current and future work on analyzing Hi-C data and differential analysis of Hi-C matrices. It describes a clustering method developed to partition chromosomes based on Hi-C matrix similarity. It also introduces a new method called treediff for differential analysis of Hi-C data that calculates the distance between hierarchical clusterings. Current work includes reviewing differential analysis methods, investigating differential subtrees with multiple testing control, and inferring chromatin interaction networks.
Can deep learning learn chromatin structure from sequence?tuxette
This document discusses a deep learning model called ORCA that can predict chromatin structure from DNA sequence. The model uses a neural network with an encoder to extract features from sequence and a decoder to predict Hi-C matrices. It was trained on Hi-C data from multiple cell types and can predict interactions between regions at various resolutions. The model accurately captures features like CTCF-mediated loops and can predict effects of structural variants on chromatin structure. It allows for in silico mutagenesis to study how mutations may alter 3D genome organization.
Multi-omics data integration methods: kernel and other machine learning appro...tuxette
The document discusses multi-omics data integration methods, particularly kernel methods. It describes how kernel methods transform data into similarity matrices between samples rather than relying on variable space. Multiple kernel integration approaches are presented that combine multiple similarity matrices into a consensus kernel in an unsupervised manner, such as through a STATIS-like framework that maximizes the similarity between kernels. Examples of applications to datasets from the TARA Oceans expedition are given.
This document provides an overview of the MetaboWean and Idefics projects. MetaboWean aims to study the co-evolution of gut microbiota and epithelium during suckling-to-weaning transition in rabbits, using metabolomics, metagenomics, and single-cell RNA sequencing data. Idefics integrates multiple omics datasets from human skin samples to understand relationships between microorganisms and molecules and how they are structured in patient groups. The datasets include metagenomics, metabolomics, and proteomics from host and microbiota.
Rserve, renv, flask, Vue.js dans un docker pour intégrer des données omiques ...tuxette
ASTERICS is an interactive and integrative data analysis tool for omics data. It uses Rserve and PyRserve with Flask and Vue.js in a Docker container to integrate omics data. The backend uses Rserve and PyRserve with Flask on the server side, while the frontend uses Vue.js. This architecture was chosen for its open source and light design. Data communication between Rserve and PyRserve is limited, requiring an object database. ASTERICS is deployed using three Docker containers for R, Python, and
Apprentissage pour la biologie moléculaire et l’analyse de données omiquestuxette
This document summarizes a scientific presentation about molecular biology and omics data analysis. The presentation covers topics related to analyzing large omics datasets using methods like kernel methods, graphical models, and neural networks to learn gene regulation networks and predict phenotypes. Key challenges addressed are handling big data, missing values, non-Gaussian data types like counts and compositional data. The goal is to better understand complex biological systems from multi-omics data.
Quelques résultats préliminaires de l'évaluation de méthodes d'inférence de r...tuxette
The document summarizes preliminary results from evaluating methods for inferring gene regulatory networks from expression data in Bacillus subtilis. It finds that recall of the known network is generally poor (<20% for random forest), but inferred clusters still retain biological information about common regulators. It plans to confirm results, test restricting edges to sigma factors, and explore other inference methods like Bayesian networks and ARACNE.
Intégration de données omiques multi-échelles : méthodes à noyau et autres ap...tuxette
The document discusses methods for integrating multi-scale omics data using kernel and machine learning approaches. It describes how omics data is large, heterogeneous, and multi-scaled, creating bottlenecks for analysis. Methods discussed for data integration include multiple kernel learning to combine different relational datasets in an unsupervised way. The methods are applied to integrate different datasets from the TARA Oceans expedition to identify patterns in ocean microbial communities. Improving interpretability of the methods and making them more accessible to biological users is discussed.
Journal club: Validation of cluster analysis results on validation datatuxette
This document presents a framework for validating cluster analysis results on validation data. It describes situations where clustering is inferential versus descriptive and recommends using validation data separate from the data used for clustering. A typology of validation methods is provided, including validation based on the clustering method or results, and evaluation using internal validation, external validation, visual properties, or stability measures.
The document discusses the differences between overfitting and overparametrization in machine learning models. It explores how random forests may exhibit a phenomenon known as "double descent" where test error initially decreases then increases with more parameters before decreasing again. While double descent has been observed in other models, the document questions whether it is directly due to model complexity in random forests since very large trees may be unable to fully interpolate extremely large datasets.
Selective inference and single-cell differential analysistuxette
This document discusses selective inference and single-cell differential analysis. It introduces the problem of "double dipping" in the standard single-cell analysis pipeline where the same dataset is used for clustering and differential analysis. Two approaches for addressing this are presented: 1) A method that perturbs clusters before testing for differences, and 2) A test based on a truncated distribution that assumes clusters and genes are given separately. Experiments applying these methods to real single-cell datasets are described. The document outlines challenges in extending these approaches to more complex analyses.
SOMbrero : un package R pour les cartes auto-organisatricestuxette
SOMbrero is an R package that implements self-organizing map (SOM) algorithms. It can handle numeric, non-numeric, and relational data. The package contains functions for training SOMs, diagnosing results, and plotting maps. It also includes tools like a shiny app and vignettes to aid users without programming experience. SOMbrero supports missing data imputation and extends SOM to relational datasets through non-Euclidean distance measures.
Graph Neural Network for Phenotype Predictiontuxette
This document describes a study on using graph neural networks (GNNs) for phenotype prediction from gene expression data. The objectives are to determine if including network information can improve predictions, which network types work best, and if GNNs can learn network inferences. It provides background on GNNs and how they generalize convolutional layers to graph data. The authors implemented a GNN model from previous work as a starting point and tested it on different network types to see which network information is most useful for predictions. Their methodology involves comparing GNN performance to other methods like random forests using 10-fold cross validation.
A short and naive introduction to using network in prediction modelstuxette
The document provides an introduction to using network information in prediction models. It discusses representing a network as a graph with a Laplacian matrix. The Laplacian captures properties like random walks on the graph and heat diffusion. Eigenvectors of the Laplacian related to small eigenvalues are strongly tied to graph structure. The document discusses using the Laplacian in prediction models by working in the feature space defined by the Laplacian eigenvectors or directly regularizing a linear model with the Laplacian. This introduces network information and encourages similar contributions from connected nodes. The approaches are applied to problems like predicting phenotypes from gene expression using a known gene network.
Théorie de l’apprentissage et SVM : présentation rapide et premières idées dans le cadre fonctionnel
1. Une introduction aux SVM :Une introduction aux SVM :
travail sur des donntravail sur des donnééeses
fonctionnellesfonctionnelles
Nathalie Villa (GRIMM - SMASH)
Université Toulouse Le Mirail
Séminaire SMASH
8 octobre 2004
4. Séminaire SMASH
23 octobre 2004
On dispose de N observations :
Y1,…, YN
X1,…, XN ∈ ℑ
et on cherche à trouver fα la plus proche possible de f
parmi les fonctions d’un ensemble
Λ = {fα : ℑ → R ou {-1;1}}α
5. Séminaire SMASH
23 octobre 2004
Théorie de l’ApprentissageThéorie de l’Apprentissage
Une présentation rapide
6. Séminaire SMASH
23 octobre 2004
Le risque
Fonction de perte : L : R ×ℑ → [0;1]
exemples : L(y,fα(x)) = (y-fα(x))²
L(y,fα(x)) = 1{y = fα(x)}
Risque : R(α) = E (L(Y,fα(X)))
exemples : EQM
Probabilité d’erreur
Risque empirique : Remp(α) =
exemples : Erreur quadratique de prédiction
Nombre d’erreurs dans l’échantillon
∑=
N
i
ii
XfYL
N 1
))(,(
1
7. Séminaire SMASH
23 octobre 2004
Théorème (Vapnik 95)
Avec une probabilité supérieure à 1 - η, on a
N
h
RR emp
f
)4/ln(
)()(sup
η
αα
α
−
≤−
Λ∈
où h est la VC-dimension de Λ.
Pour le risque associé à la probabilité d’erreur
8. Séminaire SMASH
23 octobre 2004
VC-dimension ?
Exemple : Λ = {1H : H hyperplan de R²}
Λ sépare de toutes les manières
possibles trois points du plan
non alignés :
Λ ne peut séparer de toutes les
manières possibles 4 points du
plan.
VC-dimension = 3
9. Séminaire SMASH
23 octobre 2004
SVM pour ClassificationSVM pour Classification
et pour les données fonctionnelles… ?
11. Séminaire SMASH
23 octobre 2004
Discrimination
par hyperplans
Les hyperplans d’un espace vectoriel ont pour équation
<z,w> + b = 0
Λ = {fw,b : z → sign(<z,w>+b), ||w|| ≤ A}
Théorème : Soit R le rayon de la plus petite boule
contenant toutes les observations Z1,…,ZN. Alors, Λ a
pour VC dimension h tel que
h < R²A² + 1
12. Séminaire SMASH
23 octobre 2004
Hyperplans
optimaux
Reformulation du problème : on cherche à minimiser
2
w
2
1
sous la contrainte N...1i,1bw,ZY
ii
=∀≥
+><
Par la méthode des multiplicateurs de Lagrange, cela
revient à maximiser (en λ) :
∑∑ ==
><−=
N
1i
jiji
ji
N
1i
i
Z,ZYY)(W λλλλ
13. Séminaire SMASH
23 octobre 2004
Solution :
∑=
=
N
1i
ii*
i
*
ZYw λ
où seuls un certain nombre de λi sont non nuls (les Zi
correspondants sont appelés vecteurs supports)
Espace image
(grande dimension)
Z1,…, ZN
Vecteurs
supports
(participent à la
construction de la
frontière de
décision)
14. Séminaire SMASH
23 octobre 2004
Construction de
l’espace image
Définition : on appelle noyau de type positif une fonction
K : ℑ×ℑ→R telle que :
)x,...,x(),,...,(,1n
n1n1
∀∀≥∀ λλ
0)x,x(K
n
1j,i
jiji
≥∑=
λλ
15. Séminaire SMASH
23 octobre 2004
Théorème (de Moore-Aronszajn) : Il
existe un unique espace de Hilbert F de
fonctions définies sur ℑ dont K est un
noyau reproduisant ie :
où Kx = K(.,x) = Φ(x).
)'x,x(KK,K,)'x,x( F'xx
2
=><ℑ∈∀
Dans l’espace image, le
produit scalaire s’écrit
simplement à l’aide du
noyau K : <z,z’> = K(x,x’).
X Φ
Z
16. Séminaire SMASH
23 octobre 2004
Exemples de
noyaux
Noyau gaussien :
σ
2
'xx
e)'x,x(K
−
=
Noyau polynomial :
d
)1'x,x()'x,x(K +><=
Remarque : Il existe des conditions (dans R)
pour savoir si un noyau est de type positif
(noyaux de Mercer, noyaux de la forme F(||.||²),
etc)
QUID POUR LES ESPACES DE
DIMENSION INFINIE ?
17. Séminaire SMASH
23 octobre 2004
Autres idées de
noyaux :
))'x,x(()'x,x(K δℵ=
où ℵ est un noyau sur R et δ est une semi-distance
(basée sur l’ACP ou sur des dérivées).
A QUELLE(S) CONDITION(S) K
EST-IL UN NOYAU POSITIF ?
18. Séminaire SMASH
23 octobre 2004
Un mot sur le
choix du paramètre
1) Fixer une liste possible de paramètres à tester ;
2) Pour chaque paramètre :
a. Déterminer l'hyperplan optimal de paramètre w*
correspondant ;
b. Evaluer la VC-dimension h associé à cet hyperplan
par la procédure décrite plus loin ;
c. Evaluer l'erreur totale commise : (Remp + g( ))
3) Choisir le paramètre à plus faible erreur.
2
*
w
h
19. Séminaire SMASH
23 octobre 2004
Evaluation de la
VC-dimension
Théorème (de Moore-Aronszajn) : Soit R le rayon de la
plus petite boule contenant toutes les observations {Zi}i.
Alors l’ensemble des hyperplans discriminants tel que
||w||≤ A a pour VC-dimension h tel que
h < R²A² + 1
On évalue A en calculant la norme de w
On évalue R en minimisant R² sous la
contrainte : ||Zi – z*||² ≤ R² (par la méthode du
multiplicateur de Lagrange).