Passionné(e) de lecture ? Inscrivez-vous gratuitement ou connectez-vous pour rejoindre la communauté et bénéficier de toutes les fonctionnalités du site !  

Architectures Neuronales Pour La Conversion Analogique/Numerique

Couverture du livre « Architectures Neuronales Pour La Conversion Analogique/Numerique » de Bouhedda-M aux éditions Editions Universitaires Europeennes
Résumé:

Les travaux présentés dans ce travail porte principalement sur la mise en oeuvre de nouvelles architectures intelligentes, flexibles et moins complexes pour la conversion analogique/numérique rapide et précise. Cela répondra au besoin de l''industrie des capteurs intelligents (smart sensors) et... Voir plus

Les travaux présentés dans ce travail porte principalement sur la mise en oeuvre de nouvelles architectures intelligentes, flexibles et moins complexes pour la conversion analogique/numérique rapide et précise. Cela répondra au besoin de l''industrie des capteurs intelligents (smart sensors) et des composants MEMS à savoir, la digitalisation des signaux de capteurs et la réalisation d''une fonction importante de correction des non-linéarités de la caractéristique des capteurs. Plusieurs structures neuronales pour la conversion analogique/numérique ont été synthétisées et optimisées en vue de les implémenter sur circuits analogiques. Également, d''autres circuits analogiques et hybrides (analogique/FPGA) ont été réalisés pour la conversion analogique/numérique et la linéarisation en même temps. La conception de ces derniers était modulaire en utilisant des modèles neuronaux optimaux. Les architectures développées ont été soumises à des tests temporels, statistiques et spectraux normalisés qui ont permis d''en conclure sur les performances des nouvelles architectures réalisées en montrant la capacité de linéarisation et de conversion en binaire de la sortie d''un capteur non-linéaire.

Donner votre avis

Donnez votre avis sur ce livre

Pour donner votre avis vous devez vous identifier, ou vous inscrire si vous n'avez pas encore de compte.