Bis zu 50 % günstiger als neu 3 Jahre rebuy Garantie Professionelles Refurbishment
ElektronikMedien
Tipps & News
AppleAlle anzeigen
TabletsAlle anzeigen
HandyAlle anzeigen
Fairphone
AppleAlle anzeigen
iPhone Air Generation
GoogleAlle anzeigen
Pixel Fold
HonorAlle anzeigen
HuaweiAlle anzeigen
Honor SerieY-Serie
NothingAlle anzeigen
OnePlusAlle anzeigen
OnePlus 11 GenerationOnePlus 12 Generation
SamsungAlle anzeigen
Galaxy XcoverWeitere Modelle
SonyAlle anzeigen
Weitere Modelle
XiaomiAlle anzeigen
Weitere Modelle
Tablets & eBook ReaderAlle anzeigen
Google
AppleAlle anzeigen
HuaweiAlle anzeigen
MatePad Pro Serie
MicrosoftAlle anzeigen
XiaomiAlle anzeigen
Kameras & ZubehörAlle anzeigen
ObjektiveAlle anzeigen
System & SpiegelreflexAlle anzeigen
WearablesAlle anzeigen
Fitness TrackerAlle anzeigen
SmartwatchesAlle anzeigen
Xiaomi
Konsolen & ZubehörAlle anzeigen
Lenovo Legion GoMSI Claw
NintendoAlle anzeigen
Nintendo Switch Lite
PlayStationAlle anzeigen
XboxAlle anzeigen
Audio & HiFiAlle anzeigen
KopfhörerAlle anzeigen
FairphoneGoogle
LautsprecherAlle anzeigen
Beats by Dr. DreGoogleYamahatonies
iPodAlle anzeigen

Handgeprüfte Gebrauchtware

Bis zu 50 % günstiger als neu

Der Umwelt zuliebe

Novel Techniques for Dialectal Arabic Speech Recognition

Mohamed Elmahdy, Rainer Gruhn, Wolfgang Minker (Broschiert, Englisch)

Keine Bewertungen vorhanden
Optischer Zustand
Beschreibung
Novel Techniques for Dialectal Arabic Speech describes approaches to improve automatic speech recognition for dialectal Arabic. Since speech resources for dialectal Arabic speech recognition are very sparse, the authors describe how existing Modern Standard Arabic (MSA) speech data can be applied to dialectal Arabic speech recognition, while assuming that MSA is always a second language for all Arabic speakers. In this book, Egyptian Colloquial Arabic (ECA) has been chosen as a typical Arabic dialect. ECA is the first ranked Arabic dialect in terms of number of speakers, and a high quality ECA speech corpus with accurate phonetic transcription has been collected. MSA acoustic models were trained using news broadcast speech. In order to cross-lingually use MSA in dialectal Arabic speech recognition, the authors have normalized the phoneme sets for MSA and ECA. After this normalization, they have applied state-of-the-art acoustic model adaptation techniques like Maximum Likelihood Linear Regression (MLLR) and Maximum A-Posteriori (MAP) to adapt existing phonemic MSA acoustic models with a small amount of dialectal ECA speech data. Speech recognition results indicate a significant increase in recognition accuracy compared to a baseline model trained with only ECA data.
106,99 €
Broschiert | Neu

oder

Auf Lager Versandbereit in 3-4 Werktagen
zzgl.

Du kannst wie immer einen Kaufalarm setzen, wenn du auf das gebrauchte Buch warten möchtest.

Auf Lager Versandbereit in 3-4 Werktagen
zzgl.

Handgeprüfte Gebrauchtware

Bis zu 50 % günstiger als neu

Der Umwelt zuliebe

Technische Daten


Erscheinungsdatum
13.04.2014
Sprache
Englisch
EAN
9781489999450
Herausgeber
Springer US
Sonderedition
Nein
Autor
Mohamed Elmahdy, Rainer Gruhn, Wolfgang Minker
Seitenanzahl
110
Auflage
1
Einbandart
Broschiert
Schlagwörter
Arabic dialect, Arabic speech recognition, ECA, ECA speech data, MAP, MLLR, MSA, arabic
Thema-Inhalt
TJF - Elektronik UYS - Digitale Signalverarbeitung (DSP) UYQL - Natürliche Sprachen und maschinelle Übersetzung TJK - Nachrichtententechnik, Telekommunikation CB - Sprache, allgemein und Nachschlagewerke CFX - Computerlinguistik und Korpuslinguistik
Thema-Zusatz
Afroasiatische Sprachen
Höhe
235 mm
Breite
15.5 cm

Hersteller: Springer Nature Customer Service Center GmbH, Europaplatz 3, Heidelberg, Deutschland, 69115, ProductSafety@springernature.com

Warnhinweise und Sicherheitsinformationen

Informationen nach EU Data Act

-.-
Leider noch keine Bewertungen
Leider noch keine Bewertungen
Schreib die erste Bewertung für dieses Produkt!
Wenn du eine Bewertung für dieses Produkt schreibst, hilfst du allen Kund:innen, die noch überlegen, ob sie das Produkt kaufen wollen. Vielen Dank, dass du mitmachst!