Bien que le schéma de classification illustré dans la Figure 8 apparaisse simple, cela est trompeur. Le classifier utilise des algorithmes de détection de la voix et du bruit extrêmement sophistiqués reposant sur le contenu fréquentiel et l’équilibrage spectral, ainsi que les propriétés temporelles des sons entrant, afin de déterminer la nature de l’environnement acoustique. De plus, la classification ne se produit pas sur la base de critères rigoureux prédéterminés, mais plus sur la base de modèle de probabilités, résultant ainsi en une classification des environnements d’écoute qui a montré une plus grande consistance avec la perception de l’utilisateur. L’évidence de la supériorité de cette méthode de classification a été mise en évidence par Tchorz et al (2006), qui compare le comportement de classification environnementale de 2 aides auditives haut de gamme. Dans cette étude, les échantillons sonores qui était jugés subjectivement comme étant soit « calme », « parole dans le bruit » ou « bruit », ont été présentés dans une chambre anéchoïque avec les aides auditives posées sur un KEMAR, et la classification environnementale enregistrée à la sortie de l’appareil. Les 2 aides auditives avaient parfaitement classé les environnements calmes (100%). Cependant, dans des environnements présentant plus de variations acoustiques, le système ReSound a montré un plus haut degré d’exactitude, comme illustré Figure 9. Sans tenir compte du type d’environnement, la méthode de classification ReSound était en accord avec la classification subjective des environnements.