§ 37. Вероятностные оценки запросов

Определим вероятностные оценки n(N), h(N) запросов для пространства вычислений программы Pr по правилу R. Рассмотрим SLDF-дерево некоторого запроса N пространства вычислений. Если SLDF-дерево не успешно, то оценки n(N), h(N) не определены. Для успешного SLDF-дерева рассмотрим множество {SLDF1, ..., SLDFm} всех успешных нормализованных SLDF’-выводов целей Nq1, ..., Nqm у которых конечные запросы N1k1, ..., Nmkm не содержат переменных. Если это множество пусто, то оценки n(N), h(N) не определены.

Вычислим оценки n1, ..., nm, равные правой части неравенств следствия 4.4, для вероятностей m(Nq^1) ³ n1, ..., m(Nq^m) ³ nm запросов Nq1, ..., Nqm . Вычислим также оценки h1, ...,  hm, равные правой части неравенств теоремы 4.2 для условных вероятностей m(Nq^1 / N1k1F^) > h1, ...,  m(Nq^m / NmkmF^) > hm запросов Nq1, ..., Nqm. Положим n(N) = sup{n1, ..., nm}, h(N) = sup{h1, ..., hm}. Выбор операции sup не регламентируется чисто логическими соображениями. В данном случае автор исходит из желания объединить такие понятия как логический вывод (с вероятностными оценками) и предсказание.

Если один из выводов SLDF1, ..., SLDFm состоит только в применении фактов, то, как следует из теоремы, он будет иметь оценку h(N) = 1. Назовем такой SLDF-вывод проверкой истинности запроса N (по аналогии с семантическим программированием [104]). Предсказанием запроса N будем называть такой SLDF-вывод запроса Nq, на котором достигается оценка h(N). Оценкой предсказания запроса N будем называть величину h(N). Если предсказание не определено, то оценка предсказания h(N) не определена.

Пусть M = áU, mñ – вероятностная Эрбранова модель, согласованная с классом G.

Определение 28. Программа Pr истинна на Эрбрановой модели N, N £ Pr тогда и только тогда, когда каждое правило истинно на N. Правило истинно на N тогда и только тогда, когда оно истинно на N при любых состояниях (при любых отображениях r : X ® U) [90].

Определение 29. Программа Pr истинна на классе моделей G тогда и только тогда, когда N £ Pr, N Î G.


Распространим вероятность m на множество формул со свободными переменными F0. Для j Î F0\S положим  где QG – множество всех подстановок основных термов вместо переменных. Для правил C = A ¬ B1, ..., Bk k ³ 0, определим условную вероятность равенством m(C) = m(A) / m(B1& ... &Bk), если правило не содержит переменных, и равенствами

если правило содержит переменные. Если m((B1& ... &Bk)q) = 0 для некоторой подстановки q Î QG или m(B1& ... &Bk) = 0 для B1& ... &Bk Î Â, то значение m(C) не определено. При k = 0 правило C = A ¬ рассматривается как правило A ¬ true с вероятностью посылки m(true) = 1. Далее запись m(C) всегда означает, что вероятность m(C) определена. Обозначим через PR0, PR0 Ì PR множество всех правил сигнатуры S, для которых вероятность m определена.

Лемма 13. m(jq) > m(j), j Î F0, q – некоторая подстановка ■

Лемма 14. Если программа Pr истинна на классе моделей G, то m(C) = 1, C Î Pr.

Доказательство. Пусть C = A ¬ B1, ..., Bk; C Î Pr, k > 0;


Рассмотрим правило C = Aq ¬ (B1, ..., Bk)q, q Î QG, и условную вероятность m(Aq / (B1, ..., Bk)q). Каждая подстановка q Î QG однозначно определяет некоторое состояние r : X ® U. Так как программа Pr истинна на G, для любого состояния, то для любой подстановки q Î QG будем иметь G(Aq ¬ (B1, ..., Bk)q) = G. Так как мера m согласована с классом моделей G, то из G(j1) = G(j2) следует m(j1) = m(j2) и, следовательно, m(Aq ¬ (B1, ..., Bk)q) = 1, откуда m(Aq / (B1, ..., Bk)q) = 1. Поэтому m(C) = 1, если m(C) определена ■