Grâce à la nouvelle API
English readers : click here to read this article in your language.
Avec l’API NativeProcess introduite par Adobe AIR 2.0, il est possible de communiquer avec les logiciels présents sur le système sans restriction. Il est donc tout à fait correct d’imaginer des applications parlantes, grâce aux outils de synthèse vocale présents dans les OS récents.
C’est ce que la classe NativeSpeech fait en permettant une interaction avec l’exécutable /usr/bin/say sur Mac OS, et la librairie SAPI sur Windows (via un petit programme en C++ présent dans le répertoire de l’application AIR).
Cette classe affiche deux fonctions principales qui sont getVoices() et say(). Pour récupérer les résultats il suffit simplement d’écouter les évènements de type NativeSpeechEvent qui, dans le cas de getVoices() remonte un tableau des voix disponibles, et dans le cas de say() permet de détecter la fin du processus de synthèse vocale.
Voici une courte vidéo de démonstration :
Pour exécuter l’application de démonstration vous aurez besoin du Runtime Adobe AIR 2.0 beta dispo sur le Labs d’Adobe.
Pour plus de détails sur la classe NativeProcess, je vous conseille de vous rendre sur le blog de Christian Cantrell qui en explique le scénario d’utilisation.
Vous pouvez retrouver ce projet ainsi qu’une application de démonstration sur http://nativespeech.googlecode.com.