Лапласа теорема
 
а б в г д е ж з и й к л м н о п р с т у ф х ц ч ш щ ъ ы ь э ю я
 

Лапласа теорема

Лапласа теорема , проста з граничних теорем теорії вірогідності, що відноситься до розподілу відхилень частоти появи події при незалежних випробуваннях від його вірогідності. У загальному вигляді ця теорема доведена П. Лапласом в книзі «Аналітична теорія вірогідності» (1812). Один окремий випадок Л. т. був відомий А. Муавру (1730), у зв'язку з чим Л. т. інколи називається теоремою Муавра — Лапласа. Формулювання Л. т. така. Хай при кожному з n незалежних випробувань вірогідність появи деякої події Е рівна р (0< р <1) і хай m позначає число випробувань, в яких подія Е фактично настає; тоді вірогідність нерівності

 

  при чималому числі випробувань n скільки завгодно мало відрізняється від

  .

  Якщо позначити через X до випадкову величину, що набуває значення, рівного 1, при появі події Е в до -му випробуванні і значення, рівне 0, при його непояві, то m представляється як сума незалежних випадкових величин m = X 1 + ...+ X n . Це дозволяє розглядати Л. т. як окремий випадок загальніших граничних теорем теорії вірогідності, зокрема Ляпунова теореми .

  Наближені значення вірогідності, Л, що даються. т., на практиці використовуються як точні при npq порядка декілька десятків і більшому.

 

  Літ. див.(дивися) при ст. Граничні теореми теорії вірогідності.

  Ю. Ст Прохоров.