GEOTRUST SSL CERTIFICATE
Titre : | Turbo Traitement à Faible Complexité |
Auteurs : | A. Ouardi, Directeur de thèse ; ATIG Mohamed, Auteur ; GHALEB Osamah Abdullah Maresh, Auteur |
Type de document : | texte imprimé |
Editeur : | univ saida- Dr.moulay tahar, 2021 |
Format : | 50p. / 27cm. |
Accompagnement : | CD |
Note générale : |
CHAPITRE 0I : Codage canal
CHAPITRE 02 : Traitement turbo CHAPITRE 03 : Les algorithmes de décodage à faible complexité CHAPITRE 04 : Simulation et résultats |
Langues: | Français |
Catégories : | |
Mots-clés: | Turbo-codes, Codage convolutif, décodage itératif, L'algorithme MAP, L’algorithme LogMAP. |
Résumé : |
Le terme « Codage » est généralement associé à la modélisation de l'information à transmettre en une série de symboles ou nombres pour la réalisation de plusieurs objectifs. Le cryptage ou le codage d'identification est couramment utilisé dans la transmission des données en vue d'en assurer une protection contre une mauvaise utilisation de l'information utile. D'autre part, la technique de codage source vise à compresser les informations et le codage canal cherche à immuniser ces mêmes informations contre les distorsions causées par le canal de communication.
Les turbo codes sont une classe de codes correcteurs d’erreurs approchant la limite théorique de capacité formulée par Claude Shannon. Conjointement à leurs excellentes performances de décodage, la complexité calculatoire modérée des turbo décodeurs a permis leur inclusion dans de nombreux standards de communications numériques. Un code correcteur d’erreur permet de corriger une ou plusieurs erreurs dans un mot de code en ajoutant aux informations des symboles redondants, autrement dits, des symboles de contrôle. Différents codes possibles existent les codes en bloc et les codes convolutifs mais dans notre mémoire nous traiterons seulement les codes convolutifs qui sont la base des turbo code. En 1993, Berrou Glavieux et Thitimajshima [23] ont développé une nouvelle approche aux codes correcteurs d’erreur. Il s'agit en fait de la concaténation parallèle ou série de deux codeurs convolutionnels récursifs et systématiques de faible longueur de contrainte à travers un entrelaceur. L'algorithme MAP était le premier algorithme utilisé dans un processus décodage itératif. Cet algorithme est optimal en termes de minimiser le BER, contrairement à l'algorithme de Viterbi, qui minimise la probabilité d'un chemin incorrect à travers le treillis sélectionné par le décodeur. Pour réduire la complexité du MAP, deux approximations de ce même algorithme connus sous les noms de Max-Log-MAP et Log-MAP sont proposées. La première consiste à transférer le calcul récursif de l'algorithme MAP, dans le domaine logarithmique, en invoquant une approximation qui réduit considérablement sa complexité. Cette approximation rend les performances de Max-Log-MAP sous optimales en comparaison avec le MAP. Alors, que la deuxième sert à corriger l'approximation de l'algorithme MaxLog- MAP et avoir les mêmes performances du MAP avec une fraction de sa complexité. |
Exemplaires (1)
Code-barres | Cote | Support | Localisation | Section | Disponibilité |
---|---|---|---|---|---|
TECT06363 | T.EN.MS00561 | Périodique | Salle des Thèses | Electronique | Disponible |
Documents numériques (1)
Turbo Traitement à Faible Complexité Adobe Acrobat PDF |