Ключовий залежний від даних член Pr(D|M) є правдоподібністю, він представляє ймовірність виникнення якихось даних за умови цієї моделі, M; його коректне обчислення є ключем до баєсового порівняння моделей.
При заданій задачі обирання моделі, в якій ми маємо зробити вибір серед двох моделей на підставі спостережуваних даних D, правдоподібність двох різних моделей M1 та M2, параметризованих векторами параметрів моделей та , оцінюється коефіцієнтом БаєсаK, що задається як
Якщо замість інтегралу коефіцієнта Баєса використовується правдоподібність, що відповідає оцінці максимальної правдоподібності параметра кожної з моделей, тоді ця перевірка стає класичною перевіркою відношенням правдоподібностей.[джерело?] На відміну від перевірки відношенням правдоподібностей, це баєсове порівняння моделей не залежить від жодного окремого набору параметрів, оскільки воно інтегрується над усіма параметрами в кожній з моделей (по відношенню до відповідних апріорних ймовірностей). І тим не менш, перевагою використання коефіцієнтів Баєса є те, що воно автоматично і цілком природно включає штраф за надлишкове включення структури моделі.[3] Воно таким чином захищає від перенавчання. Для моделей, для яких точна версія правдоподібності є недоступною або занадто витратною для чисельного оцінювання, для вибору моделі у баєсовій мережі може використовуватися приблизне баєсове обчислення,[4] із застереженням, що приблизно-баєсові оцінки коефіцієнтів Баєса часто є упередженими.[5]
Іншими підходами є:
розглядати порівняння моделей як задачу ухвалення рішення, обчислюючи очікуване значення або вартість кожного вибору моделі;
Значення K > 1 означає, що M1 підтримується даними, що розглядаються, сильніше, ніж M2. Зауважте, що класична перевірка гіпотез надає одній гіпотезі (або моделі) привілейованого статусу («нульова гіпотеза»), і розглядає лише свідчення проти неї. Гарольд Джеффріс запропонував шкалу для інтерпретації K:[6]
K
дХарт
біти
Сила свідчення
< 100
< 0
негативна (підтримує M2)
100—101/2
0—5
0—1.6
заледве варта згадування
101/2—101
5—10
1.6—3.3
істотна
101—103/2
10—15
3.3—5.0
сильна
103/2—102
15—20
5.0—6.6
дуже сильна
> 102
> 20
> 6.6
вирішальна
Другий стовпчик подає відповідну вагу свідчення в децигартлі (також відомих як децибани); біти додано у третьому стовпчику для ясності. Згідно з І. Дж. Ґудом[en], зміна у вазі свідчення в 1 децибан або 1/3 біту (тобто, зміна у співвідношенні шансів з рівних до приблизно 5:4) є приблизно настільки тонкою, наскільки люди можуть розсудливо розрізняти свої міри переконання в гіпотезах у повсякденному вжитку.[7]
Альтернативну, широко цитовану таблицю запропоновано Кассом та Рафтері[en]:[3]
2 ln K
K
Сила свідчення
0—2
1—3
не варте більш ніж просто згадки
2—6
3—20
позитивне
6—10
20—150
сильне
>10
>150
дуже сильне
Використання коефіцієнту Баєса або класичної перевірки гіпотез трапляється радше в контексті висновування, ніж ухвалення рішень в умовах невизначеності. Тобто, ми радше просто хочемо з'ясувати, яка з гіпотез є правильною, ніж справді ухвалювати рішення на базі цієї інформації. Частотне висновування проводить чітке розрізнення між цими двома, оскільки класичні перевірки гіпотез не є когерентними[en] у баєсовому сенсі. Баєсові процедури, включно з коефіцієнтами Баєса, є когерентними, тому немає потреби проводити таке розрізнення. Тоді висновування просто розглядається як особливий випадок ухвалення рішення в умовах невизначеності, в якому дією результату є повідомлення значення. Для ухвалення рішень баєсові статистики можуть використовувати коефіцієнт Баєса у поєднанні з апріорним розподілом та функцією втрат, пов'язаною зі здійсненням невірного вибору. В контексті висновування функція втрат набуватиме форми оцінювального правила[en]. Наприклад, використання логарифмічної оцінювальної функції[en] призводить до того, що очікувана корисність набуває форми відстані Кульбака — Лейблера.
Приклад
Припустімо, що ми маємо випадкову змінну, що продукує успіх або невдачу. Ми хочемо порівняти модель M1, де ймовірністю успіху є q = ½, та іншу модель M2, де q є невідомим та ми приймаємо, що апріорним розподіломq є рівномірний на [0,1]. Ми робимо вибірку з 200, і виявляємо 115 успіхів та 85 невдач. Правдоподібність може бути обчислено згідно біноміального розподілу:
Отже, ми маємо
але
Тоді відношенням є 1.197…, що є «заледве вартим згадування», незважаючи на те, що воно вказує трішки в бік M1.
Це не є тим самим, що й класична перевірка відношенням правдоподібностей, що знайшла би оцінку максимальної правдоподібності для q, а саме 115⁄200 = 0.575, звідки (замість усереднення за всіма можливими q). Це дає відношення правдоподібностей 0.1045, і таким чином вказує на M2.
Сучасний метод відносної правдоподібності, на відміну від класичного відношення правдоподібностей, враховує кількість вільних параметрів у моделях. Метод відносної правдоподібності може застосовуватися наступним чином. Модель M1 має 0 параметрів, і тому значенням її ІКА є 2·0 − 2·ln(0.005956) = 10.2467. Модель M2 має 1 параметр, і тому значенням її ІКА є 2·1 − 2·ln(0.056991) = 7.7297. Отже, M1 є приблизно у exp((7.7297 − 10.2467)/2) = 0.284 разів ймовірнішою за M2 для мінімізації втрати інформації. Відтак, M2 є трохи кращою, але M1 не може виключатися.
Частотнаперевірка гіпотезиM1 (що розглядається тут як нульова гіпотеза) видала би тут зовсім інший результат. Така перевірка каже, що M1 мала би бути відкинутою на рівні значущості 5%, оскільки ймовірністю отримання 115 або більше успіхів з вибірки з 200, якщо q = ½, є 0.0200, та оскільки двобічний критерій[en] отримання значення настільки ж віддаленого, або віддаленішого за 115, є 0.0400. Зауважте, що 115 є у більш ніж двох стандартних відхиленнях від 100.
M2 є складнішою моделлю за M1, оскільки вона має вільний параметр, що дозволяє їй моделювати дані ближче. Здатність коефіцієнтів Баєса враховувати це є тією причиною, чому баєсове висновування було висунуто як теоретичне обґрунтування та узагальнення Бритви Оккама, що зменшує похибки першого роду.[8]
Denison, D. G. T.; Holmes, C. C.; Mallick, B. K.; Smith, A. F. M. (2002). Bayesian Methods for Nonlinear Classification and Regression. John Wiley. ISBN0-471-49036-9. (англ.)
Duda, Richard O.; Hart, Peter E.; Stork, David G. (2000). Section 9.6.5. Pattern classification (вид. 2nd). Wiley. с. 487—489. ISBN0-471-05669-3. (англ.)
Gelman, Andrew; Carlin, John B.; Stern, Hal S.; Dunson, David B.; Vehtari, Aki; Rubin, Donald B. (2013). Bayesian Data Analysis (вид. III). CRC Press. ISBN978-1439840955. Архів оригіналу за 26 Червня 2015. Процитовано 26 Червня 2015. (англ.)