Comment un vecteur neuronal pourrait-il représenter les mots du langage, tant au niveau de leur forme qu’à celui de leur sens ? Au niveau perceptif, le cours examinera l’hypothèse que les phonèmes et les syllabes sont représentés par des codes neuronaux « factorisés » en voyelles et en consonnes, et même en traits phonétiques. Cette décomposition semble exister même chez le très jeune enfant, et donne une réalité neuronale aux traits phonétiques postulés par les linguistes. Au niveau du sens, l’analyse sémantique latente et, plus récemment, les modèles Word2Vec et GloVe attribuent à chaque mot un vecteur de concept dans un espace de haute dimension, et parviennent à capturer en partie les jugements humains de similarité entre concepts. Nous examinerons plusieurs expériences récentes qui évaluent à quel point ces modèles correspondent à l’encodage neuronal des concepts dans le cortex humain.
09:30 à 11:00
Cours
La représentation vectorielle des mots et des concepts
Stanislas Dehaene
09:30 à 11:00