Разделы презентаций


АВТОМАТИЧНИЙ МОРФОЛОГІЧНИЙ АНАЛІЗ. ІМОВІРНІСНИЙ ПІДХІД. ВИКОРИСТАННЯ ПРИХОВАНОЇ

Содержание

БАЄСОВСЬКИЙ ВИВІД БАЄСОВСЬКА КЛАСИФІКАЦІЯСТАТИСТИЧНИЙ ВИВІД, В ЯКОМУ СПОСТЕРЕЖЕННЯ І/АБО СВІДЧЕННЯ ВИКОРИСТОВУЮТЬСЯ ДЛЯ ОНОВЛЕННЯ АБО ВИВЕДЕННЯ НОВОЇ ІМОВІРНОСТІ ТОГО, ЩО ГІПОТЕЗА МОЖЕ БУТИ ПРАВИЛЬНОЮ.ЗАДАЧА КЛАСИФІКАЦІЇ . ДАНІ ДЕЯКІ СПОСТЕРЕЖЕННЯ І ПОТРІБНО ВИЗНАЧИТИ

Слайды и текст этой презентации

Слайд 1АВТОМАТИЧНИЙ МОРФОЛОГІЧНИЙ АНАЛІЗ. ІМОВІРНІСНИЙ ПІДХІД. ВИКОРИСТАННЯ ПРИХОВАНОЇ МОДЕЛІ МАРКОВА (HMM)
ЛЕКЦІЯ №7

АВТОМАТИЧНИЙ МОРФОЛОГІЧНИЙ АНАЛІЗ. ІМОВІРНІСНИЙ ПІДХІД. ВИКОРИСТАННЯ ПРИХОВАНОЇ МОДЕЛІ МАРКОВА (HMM)ЛЕКЦІЯ №7

Слайд 2БАЄСОВСЬКИЙ ВИВІД БАЄСОВСЬКА КЛАСИФІКАЦІЯ
СТАТИСТИЧНИЙ ВИВІД, В ЯКОМУ СПОСТЕРЕЖЕННЯ І/АБО СВІДЧЕННЯ ВИКОРИСТОВУЮТЬСЯ

ДЛЯ ОНОВЛЕННЯ АБО ВИВЕДЕННЯ НОВОЇ ІМОВІРНОСТІ ТОГО, ЩО ГІПОТЕЗА МОЖЕ

БУТИ ПРАВИЛЬНОЮ.
ЗАДАЧА КЛАСИФІКАЦІЇ . ДАНІ ДЕЯКІ СПОСТЕРЕЖЕННЯ І ПОТРІБНО ВИЗНАЧИТИ ДО ЯКИХ КЛАСІВ З НАБОРУ ВОНИ НАЛЕЖАТЬ.

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

БАЄСОВСЬКИЙ ВИВІД БАЄСОВСЬКА КЛАСИФІКАЦІЯСТАТИСТИЧНИЙ ВИВІД, В ЯКОМУ СПОСТЕРЕЖЕННЯ І/АБО СВІДЧЕННЯ ВИКОРИСТОВУЮТЬСЯ ДЛЯ ОНОВЛЕННЯ АБО ВИВЕДЕННЯ НОВОЇ ІМОВІРНОСТІ

Слайд 3МОРФОЛОГІЧНИЙ АНАЛІЗ ЯК ЗАДАЧА КЛАСИФІКАЦІЇ
РЕЧЕННЯ -СПОСТЕРЕЖЕННЯ АБО ПОСЛІДОВНІСТЬ СПОСТЕРЕЖЕНЬ
МА –

ЯКА НАЙКРАЩА ПОСЛІДОВНІСТЬ НАБОРІВ МОРФОЛОГІЧНИХ ХАРАКТЕРИСТИК (ТЕГІВ) ВІДПОВІДАЄ ЦІЙ ПОСЛІДОВНОСТІ

СПОСТЕРЕЖЕНЬ
ІМОВІВНІСНИЙ ПІДХІД
РОЗГЛЯДАЮТЬСЯ ВСІ МОЖЛИВІ ПОСЛІДОВНОСТІ ТЕГІВ
З МНОЖИНИ ПОСЛІДОВНОСТЕЙ ОБИРАЄТЬСЯ НАЙБІЛЬШ ІМОВІРНА ДЛЯ ДАНОЇ ПОСЛІДОВНОСТІ N СЛІВ w1…wn

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

МОРФОЛОГІЧНИЙ АНАЛІЗ ЯК ЗАДАЧА КЛАСИФІКАЦІЇРЕЧЕННЯ -СПОСТЕРЕЖЕННЯ АБО ПОСЛІДОВНІСТЬ СПОСТЕРЕЖЕНЬМА – ЯКА НАЙКРАЩА ПОСЛІДОВНІСТЬ НАБОРІВ МОРФОЛОГІЧНИХ ХАРАКТЕРИСТИК (ТЕГІВ)

Слайд 4МОРФОЛОГІЧНИЙ АНАЛІЗ ЯК ЗАДАЧА КЛАСИФІКАЦІЇ (ПРОДОВЖЕННЯ)
З УСІХ ПОСЛІДОВНОСТЕЙ n ТЕГІВ

t1…tn ОБИРАЄМО ТАКУ ОДНУ ПОСЛІДОВНІСТЬ, ЩО P(t1…tn|w1…wn) МАЄ НАЙБІЛЬШЕ ЗНАЧЕННЯ.



СИМВОЛ

^ ОЗНАЧАЄ, ЩО ЦЕ НАЙКРАЩА ОЦІНКА
аrgmaxx f(x) ОЗНАЧАЄ, “ТАКЕ x ЩО МАКСИМІЗУЄ f(x)”

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

МОРФОЛОГІЧНИЙ АНАЛІЗ ЯК ЗАДАЧА КЛАСИФІКАЦІЇ (ПРОДОВЖЕННЯ)З УСІХ ПОСЛІДОВНОСТЕЙ n ТЕГІВ t1…tn ОБИРАЄМО ТАКУ ОДНУ ПОСЛІДОВНІСТЬ, ЩО P(t1…tn|w1…wn)

Слайд 5МОРФОЛОГІЧНИЙ АНАЛІЗ ЯК ЗАДАЧА КЛАСИФІКАЦІЇ (ПРОДОВЖЕННЯ)
РІВНЯННЯ ГАРАНТУЄ, ЩО БУДЕ ОТРИМАНА

НАЙКРАЩА ПОСЛІДОВНІСТЬ ТЕГІВ
ПИТАННЯ: ЯКИМ ЧИНОМ МОЖНА ОБЧИСЛИТИ ЙОГО ЗНАЧЕННЯ
ПОТРІБНО ВИКОРИСТАТИ

ТЕОРЕМУ БАЄСА ПЕРЕТВОРЕННЯ РІВНЯННЯ В НАБІР ІМОВІРНОСТЕЙ, ЯКІ МОЖЛИВО ОБЧИСЛИТИ

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

МОРФОЛОГІЧНИЙ АНАЛІЗ ЯК ЗАДАЧА КЛАСИФІКАЦІЇ (ПРОДОВЖЕННЯ)РІВНЯННЯ ГАРАНТУЄ, ЩО БУДЕ ОТРИМАНА НАЙКРАЩА ПОСЛІДОВНІСТЬ ТЕГІВПИТАННЯ: ЯКИМ ЧИНОМ МОЖНА ОБЧИСЛИТИ

Слайд 6Теоре́ма Ба́єса
 одна з основних теорем теорії ймовірностей, яка визначає ймовірність настання

події, коли відома тільки часткова інформація про подію.
Формула Баєса:

P(A) —

апріорна ймовірність гіпотези A;
P(A | B) — ймовірність гіпотези A при настанні події B ;
P(B | A) — ймовірність настання події B при істинності гіпотези A;
P(B) — ймовірність настання події B.

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

Теоре́ма Ба́єса одна з основних теорем теорії ймовірностей, яка визначає ймовірність настання події, коли відома тільки часткова інформація про

Слайд 7ТЕОРЕМА БАЄСА ТА ЇЇ ЗАСТОСУВАННЯ
ТЕОРЕМА БАЄСА


РЕЗУЛЬТАТ ЇЇ ЗАСТОСУВАННЯ
27.10.2009
Комп'ютерна лінгвістика (2009)

Романюк А.Б.

ТЕОРЕМА БАЄСА ТА ЇЇ ЗАСТОСУВАННЯТЕОРЕМА БАЄСАРЕЗУЛЬТАТ ЇЇ ЗАСТОСУВАННЯ27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.

Слайд 8АПРІОРНА ІМОВІРНІСТЬ ТА ФУНКЦІЯ ПРАВДОПОДІБНОСТІ (УМОВНА ІМОВІРНІСТЬ)
27.10.2009
Комп'ютерна лінгвістика (2009) Романюк

А.Б.
УМОВНА ІМОВІРНІСТЬ СПОСТЕРЕЖЕННЯ ПОСЛІДОВНОСТІ СЛІВ, ЯКЩО ГІПОТЕЗА ПОСЛІДОВНОСТІ ТЕГІВ ПРАВИЛЬНА
АПІОРНА

ІМОВІРНІСТЬ – ІМОВІРНІСТЬ ВИВЕДЕНА РАНІШЕ НІЖ СПОСТЕРЕЖЕННЯ СТАЛО ДОСТУПНЕ
АПРІОРНА ІМОВІРНІСТЬ ТА ФУНКЦІЯ ПРАВДОПОДІБНОСТІ (УМОВНА ІМОВІРНІСТЬ)27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.УМОВНА ІМОВІРНІСТЬ СПОСТЕРЕЖЕННЯ ПОСЛІДОВНОСТІ СЛІВ, ЯКЩО ГІПОТЕЗА

Слайд 9ПРИПУЩЕННЯ
ІМОВІРНІСТЬ ПОЯВИ СЛОВА ЗАЛЕЖИТЬ ТІЛЬКИ ВІД ЙОГО ТЕГА І НЕ

ЗАЛЕЖИТЬ ВІД ІНШИХ СЛІВ І ІНШИХ ТЕГІВ


ІМОВІРНІСТЬ ПОЯВИ ТЕГА ЗАЛЕЖИТЬ

ТІЛЬКИ ВІД ПОПЕРЕДНЬОГО ТЕГА, А НЕ ВІД ПОСЛІДОВНОСТІ ТЕГІВ

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

ПРИПУЩЕННЯІМОВІРНІСТЬ ПОЯВИ СЛОВА ЗАЛЕЖИТЬ ТІЛЬКИ ВІД ЙОГО ТЕГА І НЕ ЗАЛЕЖИТЬ ВІД ІНШИХ СЛІВ І ІНШИХ ТЕГІВІМОВІРНІСТЬ

Слайд 10ДВА ТИПИ ІМОВІРНОСТЕЙ
p(ti|ti-1) – ПЕРЕХІДНА ІМОВІРНІСТЬ ТЕГА
ВИЗНАЧНИК (DETERMINER) ІМОВІРНО ЗУСТРІЧАЄТЬСЯ

ПЕРЕД ПРИКМЕТНИКАМИ ТА ІМЕННИКАМИ
That/DT flight/NN
The/DT yellow/JJ hat/NN
ЗНАЧЕННЯ P(NN|DT) P(JJ|DT) Є

ВИСОКІ , А ЗНАЧЕННЯ P(DT|JJ) - ?.
ВИКОРИСТОВУЮЧИ МОРФОЛОГІЧНО РОЗМІЧЕНИЙ КОРПУС МОЖНА ВИЗНАЧИТИ P(NN|DT)


27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

ДВА ТИПИ ІМОВІРНОСТЕЙp(ti|ti-1) – ПЕРЕХІДНА ІМОВІРНІСТЬ ТЕГАВИЗНАЧНИК (DETERMINER) ІМОВІРНО ЗУСТРІЧАЄТЬСЯ ПЕРЕД ПРИКМЕТНИКАМИ ТА ІМЕННИКАМИThat/DT flight/NNThe/DT yellow/JJ hat/NNЗНАЧЕННЯ

Слайд 1127.10.2009
Комп'ютерна лінгвістика (2009) Романюк А.Б.

27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.

Слайд 12ДВА ТИПИ ІМОВІРНОСТЕЙ
p(wi|ti) – УМОВНА ІМОВІРНІСТЬ (ФУНКЦІЯ ПРАВДОПОДІБНОСТІ) СЛОВА
СЛОВОМ З

ТЕГОМ VBZ (3sg Pres verb) ІМОВІРНО БУДЕ ДІЄСЛОВО “is”
ВИКОРИСТОВУЮЧИ МОРФОЛОГІЧНО

РОЗМІЧЕНИЙ КОРПУС МОЖНА ВИЗНАЧИТИ P(is|VBZ)





27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

ДВА ТИПИ ІМОВІРНОСТЕЙp(wi|ti) – УМОВНА ІМОВІРНІСТЬ (ФУНКЦІЯ ПРАВДОПОДІБНОСТІ) СЛОВАСЛОВОМ З ТЕГОМ VBZ (3sg Pres verb) ІМОВІРНО БУДЕ

Слайд 1327.10.2009
Комп'ютерна лінгвістика (2009) Романюк А.Б.

27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.

Слайд 14ПРИКЛАД ВИЗНАЧЕННЯ НАЙБІЛЬШ ІМОВІРНОЇ ПОСЛІДОВНОСТІ ТЕГІВ
Secretariat/NNP is/VBZ expected/VBN to/TO race/VB

tomorrow/NR
People/NNS continue/VB to/TO inquire/VB the/DT reason/NN for/IN the/DT race/NN for/IN

outer/JJ space/NN
РОЗГЛЯДАЄМО НЕОДНОЗНАЧНІСТЬ СЛОВА race.

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

ПРИКЛАД ВИЗНАЧЕННЯ НАЙБІЛЬШ ІМОВІРНОЇ ПОСЛІДОВНОСТІ ТЕГІВSecretariat/NNP is/VBZ expected/VBN to/TO race/VB tomorrow/NRPeople/NNS continue/VB to/TO inquire/VB the/DT reason/NN for/IN

Слайд 15ДВІ МОЖЛИВІ ПОСЛІДОВНОСТІ ТЕГІВ
27.10.2009
Комп'ютерна лінгвістика (2009) Романюк А.Б.

ДВІ МОЖЛИВІ ПОСЛІДОВНОСТІ ТЕГІВ27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.

Слайд 16ЗНАЧЕННЯ ІМОВІРНОСТЕЙ НА ОСНОВІ КОРПУСА BROWN
P(NN|TO) = .00047
P(VB|TO) = .83
P(race|NN)

= .00057
P(race|VB) = .00012
P(NR|VB) = .0027
P(NR|NN) = .0012
P(VB|TO)P(NR|VB)P(race|VB) = .00000027
P(NN|TO)P(NR|NN)P(race|NN)=.00000000032


27.10.2009
Комп'ютерна

лінгвістика (2009) Романюк А.Б.
ЗНАЧЕННЯ ІМОВІРНОСТЕЙ НА ОСНОВІ КОРПУСА BROWNP(NN|TO) = .00047P(VB|TO) = .83P(race|NN) = .00057P(race|VB) = .00012P(NR|VB) = .0027P(NR|NN) =

Слайд 17ПРИХОВАНА МОДЕЛЬ МАРКОВА
ПРИХОВАНА МОДЕЛЬ МАРКОВА – ЦЕ ОПИСАНІ ДВА ТИПИ

ІМОВІРНОСТЕЙ
ПРИХОВАНА – МІСТИТЬ ПРИХОВАНИЙ ГЕНЕРАТОР ПОДІЙ ЩО СПОСТЕРІГАЮТЬСЯ
ПРИХОВАНИЙ ГЕНЕРАТОР МОЖЕ

БУТИ ЗМОДЕЛЬВАНИЙ НАБОРОМ СТАНІВ
ПОСЛІДОВНІСТЬ СТАНІВ ВИВОДИТЬСЯ НА ОСНОВІ ПОДІЙ, ЩО СПОСТЕРІГАЮТЬСЯ

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

ПРИХОВАНА МОДЕЛЬ МАРКОВАПРИХОВАНА МОДЕЛЬ МАРКОВА – ЦЕ ОПИСАНІ ДВА ТИПИ ІМОВІРНОСТЕЙПРИХОВАНА – МІСТИТЬ ПРИХОВАНИЙ ГЕНЕРАТОР ПОДІЙ ЩО

Слайд 18АРХІТЕКТУРА ПРИХОВАНОЇ МОДЕЛІ МАРКОВА
ВИПАДКОВА ЗМІННА X(T) – ЦЕ ЗНАЧЕННЯ ПРИХОВАНОЇ

ЗМІННОЇ В МОМЕНТ ЧАСУ T І ЗАЛЕЖИТЬ ТІЛЬКИ ВІД ЗНАЧЕННЯ

ПРИХОВАНОЇ ЗМІННОЇ X(T-1) В МОМЕНТ ЧАСУ T-1
ВИПАДКОВА ЗМІННА Y(T) – ЦЕ ЗНАЧЕННЯ ЗМІННОЇ, ЯКА СПОСТЕРІГАЄТЬСЯ В МОМЕНТ ЧАСУ T І ЗАЛЕЖИТЬ ТІЛЬКИ ВІД ЗНАЧЕННЯ ПРИХОВАНОЇ ЗМІННОЇ X(T)

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

АРХІТЕКТУРА ПРИХОВАНОЇ МОДЕЛІ МАРКОВАВИПАДКОВА ЗМІННА X(T) – ЦЕ ЗНАЧЕННЯ ПРИХОВАНОЇ ЗМІННОЇ В МОМЕНТ ЧАСУ T І ЗАЛЕЖИТЬ

Слайд 19ЛАНЦЮГ МАРКОВА
ЗВАЖЕНИЙ СКІНЧЕННИЙ АВТОМАТ – АВТОМАТ З ДОДАНИМИ ДО ДУГ

ІМОВІРНОСТЯМИ
СУМА ВСІХ ІМОВІРНОСТЕЙ, ЯКІ ВИХОДЯТЬ З ВУЗЛА ПОВИННА ДОРІВНЮВАТИ ОДИНИЦІ
ЛАНЦЮГ

МАРКОВА ОКРЕМИЙ ВИПАДОК ЗВАЖЕНОГО СКІНЧЕННОГО АВТОМАТУ В ЯКОМУ ВХІДНА ПОСЛІДОВНІСТЬ УНІКАЛЬНО ВИЗНАЧАЄ ЯКІ СТАНИ ПРОЙДЕ АВТОМАТ
ПРОБЛЕМУ НЕОДНОЗНАЧНОСТІ ЛАНЦЮГИ МАРКОВА ПРЕДСТАВИТИ НЕ МОЖУТЬ.
ВИКОРИСТОВУЮТЬСЯ ДЛЯ ВИЗНАЧЕННЯ ІМОВІРНОСТЕЙ ОДНОЗНАЧНИХ ПОСЛІДОВНОСТЕЙ

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

ЛАНЦЮГ МАРКОВАЗВАЖЕНИЙ СКІНЧЕННИЙ АВТОМАТ – АВТОМАТ З ДОДАНИМИ ДО ДУГ ІМОВІРНОСТЯМИСУМА ВСІХ ІМОВІРНОСТЕЙ, ЯКІ ВИХОДЯТЬ З ВУЗЛА

Слайд 20ЛАНЦЮГ МАРКОВА ДЛЯ ПРИХОВАНИХ СТАНІВ HMM
27.10.2009
Комп'ютерна лінгвістика (2009) Романюк

А.Б.
ПЕРЕХІДНІ ІМОВІРНОСТІ а ВИКОРИСТОВУЮТЬСЯ ДЛЯ ВИЗНАЧЕННЯ АПРІОРНОЇ ІМОВІРНОСТІ

ЛАНЦЮГ МАРКОВА ДЛЯ ПРИХОВАНИХ СТАНІВ HMM 27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.ПЕРЕХІДНІ ІМОВІРНОСТІ а ВИКОРИСТОВУЮТЬСЯ ДЛЯ ВИЗНАЧЕННЯ АПРІОРНОЇ

Слайд 21ФУНКЦІЯ ПРАВДОПОДІБНОСТІ ДЛЯ СПОСТЕРЕЖЕНЬ HMM
27.10.2009
Комп'ютерна лінгвістика (2009) Романюк А.Б.

ФУНКЦІЯ ПРАВДОПОДІБНОСТІ ДЛЯ СПОСТЕРЕЖЕНЬ HMM27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.

Слайд 22ФОРМАЛЬНЕ ВИЗНАЧЕННЯ HMM
НАБІР N СТАНІВ Q = q1, q2…qN;


ПОСЛІДОВНІСТЬ T СПОСТЕРЕЖЕНЬ O= o1, o2…oT;
КОЖНЕ СПОСТЕРЕЖЕННЯ ЦЕ СИМВОЛ

З НАБОРУ V = {v1,v2,…vV}
МАТРИЦЯ ПЕРЕХІДНИХ ІМОВІРНОСТЕЙ A = {aij}
КОЖЕН ЕЛЕМЕНТ МАТРИЦІ ПРЕДСТАВЛЯЄ ІМОВІРНІСТЬ ПЕРЕХОДУ ЗІ СТАНУ i В СТАН j
ПОСЛІДОВНІСТЬ ФУНКЦІЙ ПРАВДОПОДІБНОСТІ СПОСТЕРЕЖЕНЬ B=bi(Ot)
ІМОВІРНОСТІ ЩО СПОСТЕРЕЖЕННЯ oT ГЕНЕРУЄТЬСЯ ЗІ СТАНУ i

СПЕЦІАЛЬНИЙ ПОЧАТКОВИЙ І КІНЦЕВИЙ СТАНИ

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

ФОРМАЛЬНЕ ВИЗНАЧЕННЯ HMMНАБІР N СТАНІВ  Q = q1, q2…qN; ПОСЛІДОВНІСТЬ T СПОСТЕРЕЖЕНЬ O= o1, o2…oT; КОЖНЕ

Слайд 23АЛГОРИТМ ВІТЕРБІ
ЗАДАЧА ВИЗНАЧЕННЯ ПОСЛІДОВНОСТІ ЗМІННИХ, ЩО ЛЕЖИТЬ В ОСНОВІ ДЕЯКОЇ

ПОСЛІДОВНОСТІ СПОСТЕРЕЖНЬ НАЗИВАЄТЬСЯ ЗАДАЧЕЮ ДЕКОДУВАННЯ
АЛГОРИМ ВІТЕРБІ – КЛАСИЧНИЙ АЛГОРИТМ ДИНАМІЧНОГО

ПРОГРАМУВАННЯ.
ВПЕРШЕ ВИКОРИСТАНИЙ ДЛЯ РОЗПІЗНАВАННЯ УСНОГО МОВЛЕННЯ РАДЯНСЬКИМ ВЧЕНИМ, УКРАЇНЦЕМ Т.К.ВІНЦЮКОМ (1968)

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

АЛГОРИТМ ВІТЕРБІЗАДАЧА ВИЗНАЧЕННЯ ПОСЛІДОВНОСТІ ЗМІННИХ, ЩО ЛЕЖИТЬ В ОСНОВІ ДЕЯКОЇ ПОСЛІДОВНОСТІ СПОСТЕРЕЖНЬ НАЗИВАЄТЬСЯ ЗАДАЧЕЮ ДЕКОДУВАННЯАЛГОРИМ ВІТЕРБІ –

Слайд 24АЛГОРИТМ ВІТЕРБІ
ВХІДНІ ДАНІ: ПРИХОВАНА МОДЕЛЬ МАРКОВА, ПОСЛІДОВНІСТЬ СЛІВ (СПОСТЕРЕЖЕНЬ)
ВИХІДНІ ДАНІ:

НАЙБІЛЬШ ІМОВІРНІ ПОСЛІДОВНОСТІ СТАНІВ (ТЕГІВ) ТА ЇХ ІМОВІРНОСТІ.

27.10.2009
Комп'ютерна лінгвістика (2009)

Романюк А.Б.
АЛГОРИТМ ВІТЕРБІВХІДНІ ДАНІ: ПРИХОВАНА МОДЕЛЬ МАРКОВА, ПОСЛІДОВНІСТЬ СЛІВ (СПОСТЕРЕЖЕНЬ)ВИХІДНІ ДАНІ: НАЙБІЛЬШ ІМОВІРНІ ПОСЛІДОВНОСТІ СТАНІВ (ТЕГІВ) ТА ЇХ

Слайд 25АЛГОРИТМ ВІТЕРБІ
РОЗГЛЯДАЄТЬСЯ ПОСЛІДОВНІСТЬ СТАНІВ (ТЕГІВ) ЯКА ЗАВЕРШУЄТЬСЯ СТАНОМ j

З ТЕГОМ T.
ІМОВІРНІСТЬ ПОСЛІДОВНОСТІ ТЕГІВ МОЖЕ БУТИ РОЗДІЛЕНА НА ДВІ

ЧАСТИНИ
ІМОВІРНІСТЬ НАЙКРАЩОЇ ПОСЛІДОВНОСТІ ТЕГІВ ДЛЯ j-1
ПОМНОЖЕНА НА ПЕРЕХІДНУ ІМОВІРНІСТЬ ВІД ТЕГА В КІНЦІ ПОСЛІДОВНОСТІ j-1 ДО T.
ТА ІМОВІРНІСТЬ СПОСТЕРЕЖЕННЯ СЛОВА НА ОСНОВІ ТЕГА T.

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

АЛГОРИТМ ВІТЕРБІРОЗГЛЯДАЄТЬСЯ ПОСЛІДОВНІСТЬ СТАНІВ (ТЕГІВ) ЯКА ЗАВЕРШУЄТЬСЯ СТАНОМ j  З ТЕГОМ T.ІМОВІРНІСТЬ ПОСЛІДОВНОСТІ ТЕГІВ МОЖЕ БУТИ

Слайд 26АЛГОРИТМ ВІТЕРБІ
27.10.2009
Комп'ютерна лінгвістика (2009) Романюк А.Б.

АЛГОРИТМ ВІТЕРБІ27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.

Слайд 27АЛГОРИТМ ВІТЕРБІ
БУДУЄМО МАСИВ
СТОВПЧИКИ ВІДПОВІДАЮТЬ ВХІДНІЙ ПОСЛІДОВНОСТІ
РЯДКИ ВІДПОВІДАЮТЬ МОЖЛИВИМ СТАНАМ
СТОВПЧИКИ ЗАПОВНЮЮТЬСЯ

ЗЛІВА НАПРАВО З ВИКОРИСТАННЯМ ПЕРЕХІДНИХ ІМОВІРНОСТЕЙ І ІМОВІРНОСТЕЙ СПОСТЕРЕЖЕНЬ
ЗБЕРІГАЄТЬСЯ ШЛЯХ

З МАКСИМАЛЬНОЮ ІМОВІРНІСТЮ ДО КОЖНОЇ КОМІРКИ (А НЕ ВСІ МОЖЛИВІ ШЛЯХИ) .

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

АЛГОРИТМ ВІТЕРБІБУДУЄМО МАСИВСТОВПЧИКИ ВІДПОВІДАЮТЬ ВХІДНІЙ ПОСЛІДОВНОСТІРЯДКИ ВІДПОВІДАЮТЬ МОЖЛИВИМ СТАНАМСТОВПЧИКИ ЗАПОВНЮЮТЬСЯ ЗЛІВА НАПРАВО З ВИКОРИСТАННЯМ ПЕРЕХІДНИХ ІМОВІРНОСТЕЙ І

Слайд 28ПЕРЕХІДНІ ІМОВІРНОСТІ ТЕГІВ ТА ЗНАЧЕННЯ ІМОВІРНОСТЕЙ СПОСТЕРЕЖНЬ
27.10.2009
Комп'ютерна лінгвістика (2009) Романюк

А.Б.

ПЕРЕХІДНІ ІМОВІРНОСТІ ТЕГІВ ТА ЗНАЧЕННЯ ІМОВІРНОСТЕЙ СПОСТЕРЕЖНЬ27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.

Слайд 29АЛГОРИТМ ВІТЕРБІ (ПРИКЛАД)
27.10.2009
Комп'ютерна лінгвістика (2009) Романюк А.Б.

АЛГОРИТМ ВІТЕРБІ (ПРИКЛАД)27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.

Слайд 3027.10.2009
Комп'ютерна лінгвістика (2009) Романюк А.Б.

27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.

Слайд 3127.10.2009
Комп'ютерна лінгвістика (2009) Романюк А.Б.
АЛГОРИТМ ВІТЕРБІ (ПРИКЛАД)

27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.АЛГОРИТМ ВІТЕРБІ (ПРИКЛАД)

Слайд 32АНАЛІЗ ПОМИЛОК
27.10.2009
Комп'ютерна лінгвістика (2009) Романюк А.Б.
ТОЧНІСТЬ СУЧАСНИХ МА – 96-97%

МАТРИЦЯ

ПОМИЛОК (ПРАВІЛЬНІ\ПОМИЛКОВІ)


АНАЛІЗ ПОМИЛОК27.10.2009Комп'ютерна лінгвістика (2009) Романюк А.Б.ТОЧНІСТЬ СУЧАСНИХ МА – 96-97%МАТРИЦЯ ПОМИЛОК (ПРАВІЛЬНІ\ПОМИЛКОВІ)

Слайд 33НЕОБХІДНО ПРОЧИТАТИ
Daniel Jurafsky, James H. Martin Speech and Language Processing:

an Introduction to Natural Language Processing, Computational Linguistics, and Speech

Recognition - Second Edition Prentice Hall, 2008 -988. – Розділ,5 ст. 123-173.

27.10.2009

Комп'ютерна лінгвістика (2009) Романюк А.Б.

НЕОБХІДНО ПРОЧИТАТИDaniel Jurafsky, James H. Martin Speech and Language Processing: an Introduction to Natural Language Processing, Computational

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика