La sélection de caractéristiques pour calibrer des modèles
Lucia Gomez Teijeiro
À l'ère de l'information, l'analyse des données implique souvent de traiter de grandes quantités d'informations, communément appelées Big Data. L'un des moyens de rationaliser ce processus consiste à utiliser des méthodes de sélection des caractéristiques (FS). Ces techniques permettent de réduire les caractéristiques d'un ensemble de données tout en conservant suffisamment d'informations pour obtenir de meilleures performances de modélisation. Dans ce contexte, nous examinerons les avantages et les inconvénients potentiels associés à la FS, en tenant compte de l'objectif analytique et des caractéristiques intrinsèques des données. Bien qu'il existe de nombreuses techniques de SF, nous ne parlerons que de quelques-unes d'entre elles, comme celles qui utilisent la réduction de la dimensionnalité ou les graphes, qui peuvent servir d'outils précieux pour améliorer l'analyse des données.
Suggestion de formation
Articles en open-access
- Performance Analysis of Unsupervised Feature Selection Methods
- Feature Selection Using Principal Feature Analysis
- Concrete Autoencoders for Differentiable Feature Selection and Reconstruction
- Autoencoder Based Feature Selection Method for Classification of Anticancer Drug Response
- Laplacian Score for Feature Selection
- MCL - a cluster algorithm for graphs
Article (accès via le réseau UNIGE)
Article en open-access avec code
Post de blog avec code en open-access
- How to use Deep-Learning for Feature-Selection, Python, Keras
- Dimensionality Reduction using an Autoencoder in Python