Syllabus 2013/2014
 
Extrait PDF Anglais
Français
index
Module : TS315
Titre :
Processus aléatoire et théorie de l'information
Volumes horaires :
Cours Intégré : 10.00 h
Travail Individuel : 10.00 h
Travaux Pratiques : 2.67 h
Crédits ECTS :
1.50
Évaluation :
Enseignant(s) :
SIGRIST Zoe
CORRETJA Vincent - Responsable
Partagé par l'UE (les UEs) :
Niveau :
module de troisième année
Résumé :
De nombreux phénomènes aléatoires se manifestent dans la nature : c'est le cas des fluctuations de la température, de la pression atmosphérique, etc. En électronique et en télécommunications, l'étude des processus aléatoires est utile notamment dans le contexte des communications numériques ; certains signaux sont impossibles à caractériser a priori. L'exploitation des processus aléatoires est aussi à la base de nombreuses approches en traitement du signal, que ce soit pour caractériser le contenu fréquentiel du signal (analyse spectrale), ou pour débruiter, coder et tatouer un signal de parole. Plus généralement, les sources d'information telles que le son, les images sont aléatoires et varient dans le temps. Le cours de processus aléatoire/théorie de l'information vise donc à introduire les propriétés et les outils de traitement des phénomènes variant aléatoirement dans le temps. Il sert notamment pour les enseignements de traitement du signal et d'automatique.
Plan :
Partie Processus aléatoire :

1/Caractérisation des processus aléatoires :

Notion de moyenne,

illustrations d'un processus aléatoire dans le cas discret,

Densité de probabilité d'ordre supérieur,

propriétés des fonctions d'autocorrélation de d'autocovariance,

stationnarité et ergodicité

2/Chaînes de Markov Rappels sur la théorie des graphes orientés, chaînes de Markov à temps discret

Partie Théorie de l'information

1/ Estimation quantitative de l'information

Etude des sources: Entropie,entropie mutuelle et conditionnée, Information mutuelle

Cas des sources ergodiques et markoviennes

2/ codage entropique

Redondance des symboles et des messages

Longueur moyenne d'un code, longueur optimale

Code de Shannon-Fano

Code de Huffman

Prérequis :
probabilités
Document(s) :
support de cours
Mot(s) clé(s) :
fonction d'autocorrélation, fonction d'autocovariance, fonction d'intercorrélation, fonction d'intercovariance, matrice de corrélation, matrice de covariance, stationnarité au sens large, ergodicité, estimateurs de la fonction d'autocorrélation, chaîne de Markov, bruit blanc gaussien centré, bruit coloré.