Date d'impression :
07.09.15
Page: http://test.sup-numerique.gouv.fr/pid31942/moteur-de-ressources.html
MOTEUR DE RESSOURCES
Consultez la rubrique :
Moteur de ressources
Fermer
Niv. 1
Niv. 2
Accueil du moteur de ressources
Ressources en auto-formation par mot-clé
T
Théorie de l'information
7
ressources en auto-formation :
Théorie de l'information
Rechercher
Tous les mots
Un des mots
L'expression exacte
FILTRES
1
1
Retour
Imprimer
Flux RSS
Date
Date
Titre
Auteur(s)
Affichage 10
Affichage 10
Affichage 20
Affichage 50
Affichage 100
7
résultats
page 1
sur 1
Résultats de
1 à 7
cours / présentation, démonstration
26/09/2011
Complexité des données et compression informatique
Description
:
S’il est une notion complexe à définir, c’est bien celle de complexité ! La théorie de la complexité de Kolmogorov fait le lien entre complexité et compression des données.
théorie de l'information
complexité des données
complexité de Kolmogorov
codage information
compression des données
fuscia
cours / présentation
16/02/2010
Illustrations de la notion d'entropie dans les deux théorèmes de Claude Shannon en théorie de l'information
Auteur(s)
:
Le Roux Joël
Description
:
Ce cours s'inscrit dans une démarche pédagogique sur la théorie de l'information. Le but de ce cours est d'aborder le concept d'entropie à partir des théorèmes de Shannon du codage de source et du codage de canal.
théorie de l'information
loi binomiale
formule de Stirling
théorème de Shannon
codage de canal
codage de source
fuscia
évaluation
OEF Entropie
Auteur(s)
:
XIAO Gang
Description
:
collection d'exercices sur l'entropie. Ce module est composé des exercices suivants : - Décimaux-3 ; - Décimaux-4 ; - Décimaux-5 ; - Entropie donnée - 2 ; - Entropie donnée - 3 ; - Entropie donnée - 4 ; - Existence d'entropie - 3 ; - Existence d'entropie ; - Fichier ...
Théorie de l'information
Informatique
wims
Probabilités
Shanon
Théorie du codage
évaluation
OEF Varicode
Auteur(s)
:
XIAO Gang
Description
:
collection d'exercices sur les codes à longueur variable. Ce module est composé des exercices suivants : - Chiffrage 6 ; - Codage donné - 2 ; - Codage donné - 3 ; - Déchiffrage 6 ; - Fichier informatique II ; - Instantané 6 ; - Longueur variable ; - Texte II ;
Théorie de l'information
Théorie du codage
Informatique
wims
Probabilités
Entropie
Huffman
cours / présentation
05/06/2013
Théorie algorithmique de l'information
Auteur(s)
:
DELAHAYE Jean-Paul
Description
:
Qu'est-ce que l'information et comment la mesurer ? qu'est-ce que la complexité et comment la mesurer ? En 2013, les travaux d'application sur la mesure de la complexité continuent car on est encore loin d'avoir tout compris. Les solutions proposées jusqu'à présent sont trop simplifiées ou trop ...
invariance
calcul informatique
théorie complexité
théorie de l'information
complexité algorithmique
complexité Kolmogorov
La théorie de la calculabilité
cours / présentation
03/10/2010
Théorie de l’information : modèles, algorithmes, analyse
Auteur(s)
:
Vallée Brigitte
Description
:
Tout étudiant d’un cours d’algorithmique de base apprend que la complexité moyenne de l’algorithme QuickSort est en O(n log n), celle de QuickSelect est en O(n) et celle de RadixSort est en O(n log n). De tels énoncés ont le mérite d’être simples, mais leur simplicité est trompeuse, car ils sont ...
analyse algorithmique
théorie de l'information
algorithme de tri
algorithme de recherche
complexité algorithme
analyse probabiliste
fuscia
évaluation
Varicode
Auteur(s)
:
Xiao Gang
Description
:
trouver un code avec des longueurs de mots données.
Théorie du codage
Théorie de l'information
wims
Kraft
McMillan
1