
Je vous avais parlé dans un précédent article de l’API Oxford qui est le moteur de Speech2Text de Cortana.
Le problème c’est qu’une fois qu’on à le texte il faut en comprendre la sémantique ! Et c’est souvent très dépendant de la langue, du contexte, de l’application.
Il y a quelques jours le projet LUIS complémentaire à Cortana à donné accces à son API beta. Il est possible de créer ses propres « grammaires » d’application !
En gros le principe est de définir des entités nommées qui vont être recherchées dans le texte à l’aide de regexp intelligentes afin de déterminer l’intention de la phrase. L’API retourne ensuite un JSON avec le tout.
C’est comme les grammaires de SARAH ?
Dans SARAH le moteur de Microsoft cherche dans un arbre de décision la consonance la plus proche d’une phrase connue.
Dans Oxford on a du Speech2Text retournant une string dans la langue cible (ça marche en français). Puis LUIS va extraire le sens.
La ou ça me parait chaud c’est qu’il y a beaucoup de boulot:
- Il fait quelle temps ?
- Monte la température
- Il fait beau tu penses
- Je ne pense pas que mettre 22° dans le salon soit une bonne idée
Oui ça parle de temps et de température, à la limite on peut déterminer si c’est une action ou une question, mais bon, quand on rentre dans les négations ou les sentiments (ne pense pas … bonne)
Bientôt dans SARAH ?
Alors euh … j’ai fais des tests mais pas le temps en ce moment de finaliser les choses.
Par contre, pour un développeur C# l’exemple d’Oxford permet de faire du Speech2Text presque « out of the box » et intégré avec LUIS. Il suffit alors d’utiliser leur outil pour créer une grammaire puis de balancer une requête HTTP au serveur SARAH.
Mais j’ai des doutes sur LUIS en Français dans la vrai vie … et il faudrait pouvoir créer « collaborativement » ces grammaires LUIS car ça me semble être du boulot …



Répondre à Thomas Lefort Annuler la réponse.