Bis zu 50 % günstiger als neu 3 Jahre rebuy Garantie Professionelles Refurbishment
ElektronikMedien
Tipps & News
AppleAlle anzeigen
TabletsAlle anzeigen
HandyAlle anzeigen
Fairphone
AppleAlle anzeigen
iPhone Air Generation
GoogleAlle anzeigen
Pixel Fold
HonorAlle anzeigen
HuaweiAlle anzeigen
Honor SerieY-Serie
NothingAlle anzeigen
OnePlusAlle anzeigen
OnePlus 11 GenerationOnePlus 12 Generation
SamsungAlle anzeigen
Galaxy XcoverWeitere Modelle
SonyAlle anzeigen
Weitere Modelle
XiaomiAlle anzeigen
Weitere Modelle
Tablets & eBook ReaderAlle anzeigen
Google
AppleAlle anzeigen
HuaweiAlle anzeigen
MatePad Pro Serie
MicrosoftAlle anzeigen
XiaomiAlle anzeigen
Kameras & ZubehörAlle anzeigen
ObjektiveAlle anzeigen
System & SpiegelreflexAlle anzeigen
WearablesAlle anzeigen
Fitness TrackerAlle anzeigen
SmartwatchesAlle anzeigen
Xiaomi
Konsolen & ZubehörAlle anzeigen
Lenovo Legion GoMSI Claw
NintendoAlle anzeigen
Nintendo Switch Lite
PlayStationAlle anzeigen
XboxAlle anzeigen
Audio & HiFiAlle anzeigen
KopfhörerAlle anzeigen
FairphoneGoogle
LautsprecherAlle anzeigen
Beats by Dr. DreGoogleYamahatonies
iPodAlle anzeigen

Handgeprüfte Gebrauchtware

Bis zu 50 % günstiger als neu

Der Umwelt zuliebe

Semi-Supervised Learning and Domain Adaptation in Natural Language Processing

Anders Søgaard (Broschiert, Englisch)

Keine Bewertungen vorhanden
Optischer Zustand
Beschreibung
This book introduces basic supervised learning algorithms applicable to natural language processing (NLP) and shows how the performance of these algorithms can often be improved by exploiting the marginal distribution of large amounts of unlabeled data. One reason for that is data sparsity, i.e., the limited amounts of data we have available in NLP. However, in most real-world NLP applications our labeled data is also heavily biased. This book introduces extensions of supervised learning algorithms to cope with data sparsity and different kinds of sampling bias. This book is intended to be both readable by first-year students and interesting to the expert audience. My intention was to introduce what is necessary to appreciate the major challenges we face in contemporary NLP related to data sparsity and sampling bias, without wasting too much time on details about supervised learning algorithms or particular NLP applications. I use text classification, part-of-speech tagging, and dependency parsing as running examples, and limit myself to a small set of cardinal learning algorithms. I have worried less about theoretical guarantees ("this algorithm never does too badly") than about useful rules of thumb ("in this case this algorithm may perform really well"). In NLP, data is so noisy, biased, and non-stationary that few theoretical guarantees can be established and we are typically left with our gut feelings and a catalogue of crazy ideas. I hope this book will provide its readers with both. Throughout the book we include snippets of Python code and empirical evaluations, when relevant.
26,74 €
Broschiert | Neu

oder

Auf Lager Versandbereit in 2-3 Werktagen
zzgl.

Du kannst wie immer einen Kaufalarm setzen, wenn du auf das gebrauchte Buch warten möchtest.

Auf Lager Versandbereit in 2-3 Werktagen
zzgl.

Handgeprüfte Gebrauchtware

Bis zu 50 % günstiger als neu

Der Umwelt zuliebe

Technische Daten


Erscheinungsdatum
22.05.2013
Sprache
Englisch
EAN
9783031010217
Herausgeber
Springer International Publishing
Titel in Originalsprache
Semi-Supervised Learning and Domain Adaptation in Natural Language Processing
Serien- oder Bandtitel
Synthesis Lectures on Human Language Technologies
Sonderedition
Nein
Autor
Anders Søgaard
Seitenanzahl
93
Auflage
1

Hersteller: Springer Nature Customer Service Center GmbH, ProductSafety@springernature.com

Warnhinweise und Sicherheitsinformationen

Informationen nach EU Data Act

-.-
Leider noch keine Bewertungen
Leider noch keine Bewertungen
Schreib die erste Bewertung für dieses Produkt!
Wenn du eine Bewertung für dieses Produkt schreibst, hilfst du allen Kund:innen, die noch überlegen, ob sie das Produkt kaufen wollen. Vielen Dank, dass du mitmachst!