Пусть — множество причин (входов) и — множество результатов. Если — функция из в интервал ,
и — нечеткая мера на , то
где .
Задача состоит в оценке (уточнении) причин по нечеткой информации.
Пусть — нечеткая мера на , связана с условной нечеткой мерой :
Предполагается следующая интерпретация вводимых мер: оценивает степень нечеткости утверждения "один из элементов был причиной", , оценивает степень нечеткости утверждения "один из элементов является результатом благодаря причине "; характеризует степень нечеткости утверждения: " — действительный результат".
Пусть описывает точность информации , тогда по определению .
Метод обучения должен соответствовать обязательному условию: при получении информации нечеткая мера меняется таким образом, чтобы
возрастала. Предположим, что и
удовлетворяют -правилу. Пусть
является убывающей, тогда
где . При этих условиях существует :
Обучение может быть осуществлено увеличением тех значений () нечеткой меры , которые увеличивают , и уменьшением тех значений () меры , которые не увеличивают . Можно показать, что на величину влияют только такие , что . Следовательно, нечеткий алгоритм обучения следующий:
Параметр регулирует скорость обучения, т.е. скорость сходимости . Чем меньше , тем сильнее изменяется . В приведенном алгоритме нет необходимости увеличивать больше, чем на , так как большое увеличение не влияет на . Приведем некоторые свойства модели обучения.
Свойство 1.
Если повторно поступает одна и та же информация, то происходит следующее:
a. новое больше старого () и новое
меньше старого (), следовательно, новая мера не меньше старой меры , и новая мера
b. при предположении , ,
сходится к и сходится к 0 для .
Свойство 2.
Если поступает одна и та же информация повторно: для всех , то .
Следовательно, и сходится к для всех .
Свойство 3. Предельное значение не зависит от начального значения тогда, когда на вход повторно поступает одна и та же информация.
Пример.
Рассмотрим модель глобального поиска экстремума неизвестной функции с несколькими локальными экстремумами.