SLP Notizen

Teil I
Kapitel 7: HMMs und Spracherkennung

Inhalt

  1. unterschiedliche Erkennungsaufgaben
    1. Einzelworterkennung vs. normale Sprache
    2. wenige Wörter, viele Wörter
  2. Spracherkenner-Architektur
    1. Ziel: Welches ist die wahrscheinlichste zugrundeliegende Äußerung (in der Sprache L) bei gegebener Beobachtung O?
    2. Problem: es ist unmöglich, alle Äußerungen aus L aufzubauen und einzeln zu prüfen
    3. Es sei O die Beobachtungsfolge, W die Wortfolge der Äußerung
    4. mit Bayes folgt Ŵ = argmaxW ∈ L P(O|W) × P(W)
    5. die a priori-Wahrscheinlichkeit P(W) wird mit Language Modell (N-Gramm oder PCFG?) ermittelt
    6. die a posteriori-Wahrscheinlichkeit P(O|W) wird durch das akustische Modell ermittelt
    7. Architektur: Schall → Waveform → Feature-Extraction → Feature Vectors → Phone Likelihood Estimation → Phone Likelihoods → Decoding → Words
  3. Übersicht über HMMs
  4. Viterbi-Algorithmus
  5. alternative Decoding-Methoden
  6. akustisches Vorverarbeitung von Sprache (=Feature Extraction)
  7. Berechnung akustischer Wahrscheinlichkeiten
  8. Training von Spracherkennern
  9. Signalsynthese für TTS
  10. menschliche Spracherkennung

letzte Änderung: 19. August 2006.

mail AT timobaumann.de