Sofiene Alouini

Tokenisation, lemmatisation, stop-words… découvrez comment nettoyer vos textes en NLP pour réduire la taille du vocabulaire, limiter le bruit et améliorer les performances de vos modèles.

Les réseaux de neurones constituent aujourd'hui l'état de l'art pour diverses tâches d'apprentissage automatique. Ils sont très largement utilisés par exemple dans les domaines de la vision par ordinateur (classification d'images, détection d'objets, segmentation…) et du traitement automatique du langage (traduction automatique, reconnaissance voca...

Cet article est le premier d’une série sur les réseaux récurrents. Nous les introduisons ici en jouant avec du texte. Dans un prochain article, nous entrerons dans les arcanes des LSTM, avant d’exposer leur utilisation avancée sur des données de capteurs connectés.Êtes-vous nostalgiques de la période électorale ? Les grandes envolées lyriques de no...
