ÉVOLUTION DES STATE SPACE MODELS (SSM) EN 2023
SSM - Revue de littérature des SSM parus lors de l’année 2023
SSM - Revue de littérature des SSM parus lors de l’année 2023
SSM - Revue de littérature des SSM parus lors de l’année 2022
SSM - Bases des SSM en apprentissage profond via le modèle S4
Audio - Jeux de données pour pré-entraîner un modèle d’audio puis le finetuner sur une tâche en particulier
Projet - Cours sur l’apprentissage profond (édition 2021) de Yann Le Cun et Alfredo Canziani
Projet - Cours sur l’apprentissage profond (édition 2020) de Yann Le Cun et Alfredo Canziani
NLP - Un aperçu des techniques disponibles pour réaliser de l’augmentation de données textuelles en traitement du langage naturel
NLP - Illustration du modèle ALBERT de Lan et al.
NLP - Illustration du modèle Reformer de Kitaev et Kaiser
NLP - Illustration des divers prétraitement réalisables en NLP ainsi que des différents tokenizers fréquemment utilisés
NLP - Taches et jeux de données fréquemments utilisés dans les publications de NLP
NLP - Aperçu des architectures basées sur le Transformer de Vaswani et al.
NLP - Illustration du GPT2 de Radford et al.
NLP - Illustration du modèle BERT de Devlin et al. et de ses dérivés, notamment français : CamemBERT et FlauBERT
NLP - Illustration du modèle Transformer de Vaswani et al.
NLP - Illustration du principe de séquence vers séquence et du processus d’attention en traitement du langage naturel
NLP - Illustration des réseaux de neurones récurrents, des Long short-term memory, des Gated Recurrent Unit et de ELMo.
NLP - Illustration du word embedding et d’une technique de word embedding : le word2vec de Google
NLP - Illustration de la technique du bag-of-words