J'essaie de mettre en œuvre la reconnaissance de la parole au texte en temps réel avec le service Google API en utilisant Ionic comme frontal. Je n'arrive pas à trouver une bibliothèque capable d'enregistrer à partir de Ionic et de diffuser l'enregistrement en temps réel pour le stocker dans le bac de stockage de Google. Avez-vous des suggestions ?
Comment puis-je diffuser un enregistrement audio en temps réel en ionique vers Firebase ?
En supposant que vous vouliez utiliser le cadre React Native. Vous pouvez télécharger le plugin Media du framework Ionic qui peut être utilisé pour enregistrer les fichiers audio. Voici un exemple (qui est développé en utilisant angulaire, mais vous pouvez comprendre le concept sous-jacent). Pour utiliser Firebase en temps réel, vous pouvez également télécharger le plugin Firebase
Il existe des plugins de streaming média, qui peuvent également être utilisés dans votre cas. Pour plus d'informations, je vous suggère d'utiliser la documentation officielle et de lire cet article de blog
Je ne pense pas qu'il soit nécessaire d'utiliser une bibliothèque ou un plugin spécial pour cela, vous pouvez simplement utiliser les technologies du Web pour y parvenir en utilisant l'API MediaDevices pour obtenir le flux audio du microphone de l'appareil et l'API Web Speech pour la reconnaissance vocale, et utiliser org/en-US/docs/Web/API/WebSocket" rel="nofollow noreferrer">WebSocket pour transmettre un flux audio en temps réel à l'API Speech-to-Text de Google et recevoir une réponse en temps réel.
Pour plus d'informations, consultez les ressources suivantes :
Pour une expérience de synthèse vocale sans heurts
Parler avec une page web - Transcriptions de discours en streaming