MATLAB.Exponenta
–Û·Ë͇ Matlab&Toolboxes

Проектирование систем управления\Fuzzy Logic Toolbox

С.Д.Штовба "Введение в теорию нечетких множеств и нечеткую логику"

В оглавление книги \ К следующему разделу \ К предыдущему разделу

18. Cохранение прозрачности нечеткой модели Мамдани при обучении по экспериментальным данным

Введение

При нечетком моделировании чаще других используют базу знаний в формате Мамдани, в которой антецеденты и консеквенты правил заданы нечеткими множествами типа «Низкий», «Средний», «Высокий» и т.п. Нечеткие правила в таком формате предложены Заде в работе [1], на основе которой Мамдани и Ассилиан разработали первый нечеткий контроллер [2]. В противовес моделям типа «черный ящик», нечеткие модели Мамдани являются прозрачными – их структура содержательно интерпретируется в терминах, понятных не только разработчикам с высокой математической квалификацией, а и заказчикам – врачам, экономистам, менеджерам. Прозрачность нечетких моделей Мамдани является одним из главных преимуществ, благодаря которому нечеткие технологии успешно конкурируют с другими методами, особенно для тех прикладных задач, где возможность содержательной интерпретация важнее точности моделирования.

Для повышения точности нечеткую модель обучают, т.е. итерационно изменяют ее параметры с целью минимизации отклонения результатов логического вывода от экспериментальных данных. Настраивают как веса правил, так и функции принадлежности нечетких термов. Обучение нечеткой модели Мамдани представляет собой задачу нелинейной оптимизации, исследованию которой посвящено огромное количество теоретических и прикладных работ. В них основной акцент делается на достижении максимальной точности обучения нечеткой модели. При этом настраиваемые параметры иногда изменяются настолько сильно, что возникают сложности содержательной интерпретации нечеткой модели. Таким образом, «погоня за точностью» приводит к потере важного конкурентного преимущества – прозрачности нечеткой модели. Если прозрачность модели второстепенна, тогда при идентификации зависимостей разумнее использовать другие (не нечеткие) методы, адекватность которых обычно лучше [3].

Ниже исследуется новый способ сохранения прозрачности нечеткой модели Мамдани и повышения ее точности при обучении по экспериментальным данным. Материал организован следующим образом. В начале описывается нечеткая модель Мамдани, формализуется обучение модели в виде задачи нелинейной оптимизации и анализируются способы повышения точности обучения. Затем формулируются требования прозрачности нечеткой модели Мамдани и анализируются основные методы ее сохранения. Для повышения точности модели Мамдани предлагается настраивать дополнительные параметры – границы носителя нечетких множеств в консеквентах правил, а для сохранения ее прозрачности – сокращается количество управляемых переменных и вводятся новые ограничения. Типовая и предложенная схемы обучения сравниваются на примере прогнозирования топливной эффективности автомобиля.

1. Нечеткая модель Мамдани

Нечеткую базу знаний Мамдани запишем следующим образом [1, 2, 4, 5]:

Если        (1)

где - нечеткий терм, которым оценивается переменная xi в j-ом правиле, i = 1,n;
- нечеткое заключение j-го правила;
m – количество правил в базе знаний;
wj ∈ [0,1] – весовой коэффициент, отражающий адекватность j-го правила.

Базу знаний Мамдани можно трактовать как разбиение пространства влияющих факторов на зоны с размытыми границами, внутри которых функция отклика принимает нечеткое значение. Количество таких нечетких зон равно числу правил.

Введем следующие обозначения, необходимые для дальнейшего изложения материала:

μj(xi) – функция принадлежности входа xi нечеткому терму , т. е.

;

μdj(y) – функция принадлежности выхода y ∈ нечеткому терму , т.е.

.

Степень выполнения посылки j-го правила для текущего входного вектора X* = (x*1, x*2, …, x*n) рассчитывают так:

μj(X*) = wjj(x*1) ^ x*2) ^ … ^ x*n)), j = 1,m,

где ^ обозначает t-норму, которую в нечетком выводе Мамдани обычно реализуют операцией минимума.

В результате логического вывода по j-му правилу базы знаний получаем такое нечеткое значение выходной переменной y:

        (2)

где imp – импликация, которая в нечетком выводе Мамдани реализуются операцией минимума, т.е. «срезанием» функции принадлежности μdj(y) по уровню μj(X*). Математически это записывается так:

,

Результирующее нечеткое множество получают объединением нечетких множеств (2):

,

что соответствует операции максимума над функциями принадлежности:

μy*(y) = max(μd1*(y), μd2*(y), …, μdm*(y)).

Четкое значение выхода y*, соответствующее входному вектору X*, определяется через дефаззификацию нечеткого множества . Наиболее часто применяется дефаззификация по методу центра тяжести

,

которая обеспечивает наилучшую динамику обучения нечеткой модели [6].

 

2. Задача обучения нечеткой модели Мамдани

Обучающую выборку, связывающую входы с выходом исследуемой зависимости, обозначим следующим образом:

(Xr, yr),       r = 1,M,       (3)

где Xr = (xr1, xr2, …, xrn) – входной вектор в r-ой паре данных и yr – соответствующий выход;
M – объем выборки.

Для математической постановки задачи обучения нечеткой модели по выборке (3) введем следующие обозначения:

P – вектор параметров функций принадлежности термов входных и выходной переменных;
W – вектор весовых коэффициентов правил базы знаний;
F(P, W, Xr) – результат вывода по нечеткой базе знаний Мамдани с параметрами (P, W) при значении входов Xr.

Согласно [4–8] обучение нечеткой модели состоит в отыскании такого вектора (P, W), чтобы:

.       (4)

При настройке функций принадлежности применимы 5 способов, согласно которым координаты вектора P задают:

1) коэффициенты параметрической функции принадлежности каждого нечеткого терма [4–8]. Например, треугольная функция принадлежности задается тремя коэффициентами, которые соответствуют ядру и границам носителя нечеткого множества. Длина вектора P рассчитывается следующим образом: , где kU – количество коэффициентов функции принадлежности U -го нечеткого терма; N – количество нечетких термов в базе знаний (1);

2) границы α-сечений каждого нечеткого терма [7]. В этом случае , где hU – количество α -сечений U-го нечеткого терма. Например, для задания α-сечений на уровнях 0, 0.5 и 1 необходимо 6 коэффициентов – (left0, right0, left0.5, right0.5, left1, right1). Смысл этих коэффициентов иллюстрирует рис. 1;

3) лингвистические квантификаторы типа «очень», «более-менее» и т.п. [9, 10]. В этом случае |P| = N . Квантификатор «очень» концентрирует нечеткое множество, а квантификатор «более-менее» размазывает его. Операции концентрации и размазывания нечетких множеств реализуются возведением функции принадлежности в степень 2 и ½ соответственно [1];

4) коэффициенты сжатия-растяжения нечетких термов [9]. Эти коэффициенты соответствуют показателям степени, в которую возводят функцию принадлежности. Влияние этого коэффициента на график функции принадлежности иллюстрирует рис. 2. Значения 2 и ½ коэффициента сжатия-растяжения эквивалентны квантификаторам «очень» и «более-менее»;

5) коэффициенты функции принадлежности, лингвистический квантификатор и коэффициент сжатия-растяжения для каждого нечеткого терма [9]. Этот гибридный подход объединяет рассмотренные выше 1, 2 и 4 способы. В этом случае размерность задачи оптимизации (4) сильно возрастает, потому что число настраиваемых коэффициентов каждого нечеткого терма возрастает на 2 в сравнении с первым способом.


Рис. 1. Представление нечеткого множества тремя α-сечениями

 


Рис. 2. Изменение нечеткого множества с помощью коэффициента сжатия-растяжения (β)

 

Сравнительный анализ способов настройки функций принадлежности сведен в табл. 1. Чаще других применяют первый способ настройки функций принадлежности из-за хорошего баланса между точностью и продолжительностью обучения нечеткой модели. Этот способ и будем использовать в дальнейшем.

 

Таблица 1. Сравнение способов настройки функций принадлежности

Способ Преимущества Недостатки
1 Дифференцируемая целевая функция. Тип функции принадлежности при настройки не может быть изменен.
2 Дифференцируемая целевая функция.
Не требуется аналитическая модель функций принадлежности.
Потенциально достижима высокая точность обучения.
Большая размерность задачи оптимизации (4).
Много ограничений на управляемые переменные, необходимых для обеспечения выпуклости нечетких множеств.
3 Минимальная размерность задачи оптимизации (4). Ядра нечетких множеств не настраиваются.
Дискретная задача оптимизации с малым количеств альтернатив, что не позволяет настроить нечеткую модель точно.
4 Минимальная размерность задачи оптимизации (4).
Дифференцируемая целевая функция.
Ядра нечетких множеств не настраиваются.
5 Потенциально достижима высокая точность обучения. Смешанная дискретно-непрерывная задача оптимизации большой размерности.

 

3. Прозрачность нечеткой модели

Нечеткую модель Мамдани будем считать прозрачной при выполнении таких условий:

1) база знаний не является противоречивой или избыточной, т.е. не содержит правил с одинаковыми антецедентами;

2) база знаний согласована с количеством термов, т.е. каждый терм фигурирует хотя бы в одном нечетком правиле;

3) для произвольного входного вектора на выходе получается не пустое нечеткое множество;

4) по отдельности каждая функция принадлежности содержательно интерпретируется, т.е. соответствующее нечеткое множество является нормальным и выпуклым [11, 12];

5) каждое терм-множество содержательно интерпретируется, т.е.:

  • количество термов не слишком большое, чтобы эксперт каждому нечеткому множеству мог поставить в соответствие лингвистическую оценку [11 – 13]. Следуя работам [7, 14] целесообразно мощность терм-множества ограничить сверху «магическим» числом 7±2 [15];
  • нечеткие множества разных термов не должны быть эквивалентными или почти эквивалентными [11–13]. Следовательно, графики функций принадлежности соседних термов, например, “Низкий” и “Ниже среднего”, должны различаться визуально;
  • не должна нарушаться линейная упорядоченность нечетких множеств. Обозначим через – нечеткий терм с порядковым номером i в упорядоченном по принципу от меньшего к большему терм–множестве, i = 1,N. Тогда условие линейной упорядоченности терм-множества переменной x на интервале запишем так:

           (5)

    где μi(x) и μj(x) – функции принадлежности термов и , i<j;
    core – ядро нечеткого множества;

Кроме этого, желательно чтобы база знаний была компактной, т.е. содержала минимальное (или близкое к нему) количество правил, необходимых для адекватного моделирования исследуемой зависимости. При большом числе входных переменных компактность базы знаний обеспечивает иерархическое представление правил [7, 14].

После настройки функций принадлежности возникают следующие типовые нарушения прозрачности нечетких моделей (рис. 3):

а) сильная схожесть функций принадлежности соседних нечетких множеств (“Низкий ” и “Ниже среднего ” на рис. 3), что может внести противоречия в базу знаний;

б) потеря линейной упорядоченности терм-множества через разную размазаность функций принадлежностей – на интервале [65, 82] нечеткое множество “Средний” больше нечеткого множества “Выше среднего”, а на интервале [0, 3] нечеткое множество “Ниже среднего” больше нечеткого множества “Низкий”, хотя должно быть наоборот;

в) неинтерпретабельность крайнего терма – уменьшения значений переменной x от 8 до 0 снижает степень принадлежности нечеткому терму “Низкий”, хотя должно быть наоборот.

г) неполное накрытие нечеткими множествами интервала возможных значений входных переменных – числа из диапазона [82, 88] не принадлежат нечетким множествам.


Рис. 3. Типовые нарушения прозрачности нечеткой модели

 

4. Способы защиты прозрачности нечеткой модели

Первые 2 условия прозрачности нечеткой модели касаются базы знаний. Будет предполагать, что они удовлетворены при ее формировании и при обучении правила не изменяются.

Третье условие можно выполнить используя нечеткие термы, носитель которых не уже диапазона изменения соответствующей входной переменной. Для этого проще всего использовать параметрические функции принадлежности с областью определения (-∞, ∞) , например, гауссову кривую:

μ(x) = exp(-(x-b)² / 2c²),       (6)

где b – координата максимума; c>0 – коэффициент концентрации.

Четвертое условие легко выполнить с помощью параметрических функции принадлежности, которые задают выпуклые и нормальные нечеткие множества. При этом надо ограничить ядра нечетких множеств диапазоном изменения соответствующей переменной. Например, для функции принадлежности (6) это ограничение записывается так: b ∈ .

Для выполнения 5-го условия применяют три подхода, которые используют: 1) формальный критерий прозрачности; 2) лингвистические квантификаторы для модификации функций принадлежности; 3) семантические ограничения.

По первому подходу синтезируют некоторый критерий прозрачности T(P) нечеткой модели и переходят от (4) к следующей задаче многокритериальной оптимизации [16]: найти вектор (P, W), чтобы:

       (7)

Для решения задачи (7) типовыми методами оптимизации синтезируют интегральный критерий [12]. Можно также перевести один из критериев в ограничение, что преобразует (7) в задачу условной оптимизации.

Расчет прозрачности нечеткой модели обычно осуществляют на основе следующего коэффициента схожести нечетких множеств [12, 13, 16]:

       (8)

где и – нечеткие множества, для которых рассчитывается коэффициент схожести; supp – носитель нечеткого множества; | | – мощность множества. Значение коэффициента схожести равно 1, если нечеткие множества эквиваленты, и равно 0, если нечеткие множества не пересекаются. Формула (8) пригодна для расчета коэффициента схожести нечетких множеств с компактными носители. Если носителями нечетких множеств является (-∞, ∞), то формула (8) не работает. В этом случае ее можно модифицировать, заменив носители на α-сечения:

где α<<1, например, α=0.01.

В качестве показателя прозрачности выбирают величину, обратную к среднему или максимальному коэффициенту схожести по всех парам нечетких множеств из базы знаний. Использование коэффициента (8) защищает лишь от одного нарушения прозрачности нечеткой модели – схожести функций принадлежности нечетких термов. Поэтому его изолированное использование не сохраняет прозрачность нечеткой модели.

По второму подходу функции принадлежности настраивают изменяя лингвистические квантификаторы нечетких множеств [9, 10]. При этом исходные функции принадлежности подбирают таким образом, чтобы любая комбинация квантификаторов не нарушала прозрачность терм-множеств. Недостатком этого подхода является низкая точность настройки нечеткой модели.

По третьему подходу в (4) вводят следующие ограничения на значения управляемых переменных:

нечеткие множества полностью накрывают интервал возможных значений входных переменных [11], т.е. для любое число из этого интервала принадлежит с ненулевой степенью хотя бы одному нечеткому множеству;    (9)
координаты максимумов функций принадлежности нечетких термов ограничены диапазонами изменения соответствующих переменных [5, 7, 11];    (10)
пересекаются только функции принадлежности соседних нечетких термов [11];    (11)
высота пересечения нечетких множеств соседних термов ограничена снизу и сверху [17];    (12)
расстояние между координатами максимумов функций принадлежностей соседних термов ограничено снизу [5, 13];    (13)
длина определенного α-сечения каждого нечеткого множества ограничена снизу и сверху [16].    (14)

Ограничения (9) – (14) можно использовать совместно или изолировано. Однако даже при удовлетворении всем ограничениям возможны нарушения линейной упорядоченности терм-множества и потеря интерпретабельности функций принадлежностей крайних термов. Поэтому в работе [17] предлагается использовать новые ограничения, которые можно сформулировать как требования нечеткого разбиения Руспини (Ruspini)) интервала входных значений:

где Vi – мощность терм-множества переменной xi, i = 1,n. При использовании разбиения Руспини совместно с треугольными функциями принадлежности настраивать можно только ядра некрайних нечетких множеств, т.к. остальные коэффициенты связаны с ними (рис. 4). Такое уменьшение настраиваемых коэффициентов снижает точность обучения нечетких моделей [9]. Кроме того, разбиение Руспини применимо только для нечетких множеств с компактными носителями, например, заданных треугольной или трапециевидной функциями принадлежности. Использование таких функций принадлежностей увеличивает объем базы знаний, т.к. для произвольного входного вектора должно существовать хотя одно правила с ненулевой степенью выполнения. В статье [9] совместно с (9)–(11) используется следующее ограничение:

нижняя и верхняя границы ядра и носителя каждого нечеткого терма ограничены снизу и сверху.    (15)

По сравнению с условием нечеткого разбиения при этих ограничениях нечеткие модели получаются точнее. Однако при обучении интерпретабельность крайних термов не сохраняется. Еще одним недостатком, как и при использовании нечеткого разбиения, является большой объем базы знаний.


Рис. 4. Треугольные функции принадлежности при нечетком разбиении

Таким образом, жесткие ограничения в виде разбиения Руспини сохраняют прозрачность нечеткой модели при обучении, но существенно снижают точность. Проанализированные попытки смягчить эти ограничения повышают точность обучения, но приводят к различным нарушениям прозрачности. Ниже предлагаются новый подход к обучению функций принадлежности, повышающий точность нечеткой модели Мамдани не в ущерб прозрачности.

 

5. Повышение точности обучения модели Мамдани за счет расширения носителя нечетких множеств

В большинстве нечетких моделях Мамдани дефаззификация выполняется по методу центра тяжести. Для таких нечетких моделей нами выявлен эффект сужения диапазона выходных значений (рис. 5а), который состоит в следующем. Минимальное значение на выходе нечеткой модели Мамдани будет, когда степень выполнения правила с консеквентом «Низкий» равна 1, а степени выполнения остальных правил равны 0. В этом случае результат логического вывода находиться посредством дефаззификации нечеткого множества «Низкий». Аналогично, максимальным выходным значением будет результат дефаззификации нечеткого множества «Высокий». Чем размазанее нечеткие множества «Низкий» и «Высокий», тем дальше результаты дефаззификации от координат максимумов функций принадлежности, и, соответственно, от требуемых границ выходных значений.

Устранить эффект сужения диапазона выходных значений без ущерба для прозрачности можно расширив носитель нечетких множеств (рис. 5б). Таким образом, на точность обучения модели Мамдани кроме перечисленных в разделе 2 параметров влияют также границы носителя нечетких множеств выходной переменной. Поэтому имеет смысл попытаться повысить точность обучения нечеткой модели добавив эти 2 параметра в вектор управляемых переменных задачи оптимизации (4).


Рис. 5. Сужение интервала выходных значений нечеткой модели Мамдани при дефаззификации по центру тяжести

Пример 1. Рассматривается зависимость (рис. 6) топливной эффективности автомобиля (количество миль, которые можно проехать на одном галлоне топлива – y) от массы автомобиля ( x1 ) и года выпуска модели ( x2 ) [18]. Нечеткая модель Мамдани о зависимости y = f(x1, x2) приведена в табл. 2 и табл. 3. Используется гауссова функция принадлежности (6). Модель реализуем в Fuzzy Logic Toolbox.


Рис. 6. Экспериментальные данные

 

Таблица 2. Нечеткая база знаний

№ правила x1 x2 y
1 Light New High
2 Heavy Old Low
3 Light Old Average

 

Таблица 3. Параметры исходных функций принадлежности

Нечеткий терм b c
Light 1613 1500
Heavy 5140 1500
Old 70 6
New 82 3
Low 9 5
Average 30 5
High 46.6 5

 

Тестирование (рис. 7а) показывают, что нечеткая модель плохо работает для автомобилей с очень малой и очень высокой топливной эффективности. Расширение носителя нечетких множеств выходной переменной y существенно повышает точность моделирования (рис. 7б и рис. 8).

а) исходная модель б) модель с расширенным носителем нечетких
множеств выходной переменной

 

Рис. 7. Тестирование нечетких моделей


Рис. 8. Зависимость ошибки моделирования от границ носителя нечетких множеств выходной переменной

 

6. Новая схема сохранения прозрачности нечеткой модели Мамдани

Для обеспечения небольшого объема базы знаний будем использовать нечеткие множества с некомпактным носителем, например, с гауссовой функцией принадлежности (6). Для предотвращения эффекта сужения диапазона выходных значений в вектор управляемых переменных задачи (4) включим границы носителя нечетких множеств выходной переменной. Для сохранения прозрачности нечеткой модели в задачу оптимизацию (4) введем ограничения (5), (9) и (13). Ограничения (5) и (9) проще всего реализовать подобрав диапазоны изменения коэффициентов концентраций (b) гауссовой функции принадлежности (6). Кроме этого, координаты максимумов крайних термов настраивать не будем, а установив их равными границам возможных значений переменных. Это защитит от потери неинтерпретабельности функций принадлежности крайних нечетких термов, а также сократит размерность задачи оптимизации (4). Весовые коэффициенты будем настраивать только для тех правил, адекватность которых вызывает сомнения. Значения остальных весовых коэффициентов приравняем к 1. Уменьшение количества настраиваемых параметров кроме сокращения времени оптимизации позволяет также снизить объем обучающей выборки экспериментальных данных.

Пример 2. Сравним результаты обучения нечеткой модели из предыдущего примера по новой и типовой схеме.

При типовой схеме обучения будет 17 управляемых переменных:

  • 3 весовых коэффициента правил базы знаний;
  • 7 коэффициентов концентраций функций принадлежности нечетких термов;
  • 7 координат максимума функций принадлежности нечетких термов.

Обучение проведем с ограничениями (9), (10) и (13).

При новой схеме обучения будет 11 управляемых переменных:

  • весовой коэффициент третьего правила базы знаний, т.к. адекватность первого и второго правила очевидна;
  • левая и правая границы носителя нечетких множеств выходной переменной y;
  • 7 коэффициентов концентраций функций принадлежности нечетких термов;
  • координата максимума функции принадлежности нечеткого терма “Average”.

В обучающую выборку включим автомобили с нечетными порядковыми номерами, а в тестовую – с четными. Обучение проведем c использование функции fmincon из Optimization Toolbox протяжении 15 итераций.

Распределения ошибок на тестовой выборке (рис. 9) при оптимизации из разных начальных точек показывают, что обучение по новой схеме в среднем точнее. Функции принадлежности и весовые коэффициенты правил наилучших нечетких моделей, полученных обучением по обеим схемам, приведены на рис. 10 и в табл. 4. Ошибки на тестовой выборки стали: RMSE=2.930 – после обучения по типовой схеме и RMSE=2.884 – после обучения по новой схеме. Несмотря на меньшее количество настраиваемых параметров, обучение по новой схеме оказалась даже точнее. Что касается прозрачности, то использование типовой схемы обучения привело к неинтерпретабельности крайнего терма “Heavy” (рис. 10а). При новой схеме обучения нечеткая модель осталась прозрачной (рис. 10б).


Рис. 9. Распределение ошибок на тестовой выборке (статистика 100 экспериментов)

 


Рис. 10. Функции принадлежности наилучших нечетких моделей

 

Таблица 4. Веса правил наилучших нечетких моделей

№ правила После обучения по типовой схеме После обучения по новой схеме
1 0.405 1
2 0.994 1
3 0.251 0.159

 

Выводы

Сформулированы требования прозрачности нечеткой модели Мамдани. Выявлены типовые нарушения прозрачности нечеткой модели, которые возникают как побочный эффект обучения по экспериментальным данным. Установлено, что методы сохранения прозрачности нечетких моделей формируют жесткую систему ограничений, которая не позволяет достичь высокой точности обучения. Показано, что описанные в литературе способы повышения точности обучения за счет смягчения этих ограничений приводят к некоторым нарушениям прозрачности нечеткой модели. Предложена новая схема обучения нечеткой модели Мамдани, отличающаяся от известных: 1) расширением носителя нечетких множеств выходной переменной; 2) исключением из настраиваемых параметров координат максимумов функций принадлежности крайних термов; 3) введением ограничения на линейную упорядоченность нечетких множеств в рамках одного терм-множества. Компьютерные эксперименты свидетельствуют, что обучение по новой схеме не приводит к нарушениям прозрачности нечеткой модели. При этом точность нечеткой модели получается не хуже, чем при типовом обучении. Благодаря возможности получения точных и прозрачных моделей предложенная схема обучения будет полезной при идентификации нелинейных зависимостей с помощью нечетких баз знаний в медицине, экономике, биологии, социологии и других в областях, где важны как адекватность модели, так и содержательная интерпретация ее параметров. Предложенную схему обучения нечетких моделей Мамдани можно реализовать в системе MATLAB, используя Fuzzy Logic Toolbox и Optimization Toolbox.

 

Литература

  1. Zadeh L. Outline of a New Approach to the Analysis of Complex Systems and Decision Processes // IEEE Trans. Syst. Man Cybernet. №3. – 1973. – P. 28-44. (Русский перевод: Заде Л. Основы нового подхода к анализу сложных систем и процессов принятия решений. В кн. «Математика сегодня». Пер. с англ. М.: Знание. – 1974. – С. 5-49).
  2. Mamdani E.H., Assilian S. An Experiment in Linguistic Synthesis with Fuzzy Logic Controller // Int. J. Man-Machine Studies. – 1975. – Vol. 7. №1. – P.1–13.
  3. Nauck D., Kruse R. Neuro-Fuzzy Systems for Function Approximation // Fuzzy Sets and Systems. – 1999. – Vol. 101, №2. – P. 261-271
  4. Yager R., Filev D. Essentials of Fuzzy Modeling and Control. USA: John Wiley & Sons. – 1994. – 387p.
  5. Штовба С.Д. Проектирование нечетких систем средствами MATLAB. М.: Горячая линия – Телеком. – 2007. – 288 с.
  6. Ротштейн А.П., Штовба С.Д. Влияние методов дефаззификации на скорость настройки нечеткой модели // Кибернетика и системный анализ. –2002. – №5. – С.169–176.
  7. Ротштейн А.П. Интеллектуальные технологии идентификации: нечеткая логика, генетические алгоритмы, нейронные сети. – Винница: УНІВЕРСУМ–Вінниця, 1999. – 320 с.
  8. Ротштейн А.П., Кательников Д.И. Идентификация нелинейных зависимостей нечеткими базами знаний // Кибернетика и системный анализ. – 1998. – №5. – С. 53–61.
  9. Casillas J., Cordon O., Jose del Jesus M., Herrera F. Genetic Tuning of Fuzzy Rule Deep Structures Preserving Interpretability and Its Interaction With Fuzzy Rule Set Reduction // IEEE Transactions on Fuzzy Systems. Vol. 13, №1. – 2005. – P. 13–29.
  10. Alcala R., Alcala-Fdez J., Casillas J., Cordon O., Herrera F. Hybrid Learning Models to Get the Interpretability-Accuracy Trade-Off in Fuzzy Modeling // Soft Computing. – №10. – 2006. – P. 717–734.
  11. Babuska R. Construction of Fuzzy Systems – Interplay between Precission and Transparency. In Proc. of European Symposium on Intelligent Techniques, Aachen (Germany). – 2000. – P. 445–452.
  12. Roubos H., Setnes M., Abonyi J. Learning Fuzzy Classification Rules from Data. In “Developments in Soft Computing” (Eds.: John R. and Birkenhead R.). Berlin: Springer –Verlag. – 2001.– P. 108–115.
  13. Paiva R.P., Dourado A. Merging and Constrained Learning for Interpretability in Neuro-Fuzzy Systems // In Proc. of European Symposium on Intelligent Technologies, Hybrid Systems and Their Implementation on Smart Adaptive Systems “EUNITE”. Tenerife (Spain). – 2001. – P. 17–21.
  14. Rotshtein A. Design and Tuning of Fuzzy Rule–Based System for Medical Diagnosis. In “Fuzzy and Neuro–Fuzzy Systems in Medicine” (Eds.: Teodorescu N.H., Kandel A., and Jain L.C.). USA, Boca–Raton: CRC–Press.–1998.– P. 243–289.
  15. Miller G.A. The Magic Number Seven Plus or Minus Two: Some Limits on Our Capacity for Processing Information // Psychological Review. – 1956. – №63. – P. 81–97.
  16. Jimhez F., Gomez-Skanneta A., Roubos H., Babuska R. A Multi-objective Evolutionary Algorithm for Fuzzy Modeling // In Proc. of International Fuzzy Systems Association and the North American Fuzzy Information Processing Society Joint Conference (IFSA/NAFIPS). Canada, Vancouver, 2001. – P. 1222–1228.
  17. Riid A. Transparent Fuzzy Systems: Modeling and Control. PhD Thesis. Tallinn Technical University: Department of Computer Control. Tallinn (Estonia). – 2002. – 227 p. (http://www.dcc.ttu.ee/andri/teosed/tfs-mac.pdf).
  18. MPG data base of UCI Machine Learning Repository.

 

Примечание: вышеизложенный материал базируется на статье Штовба С.Д. Обеспечение точности и прозрачности нечеткой модели Мамдани при обучении по экспериментальным данным // Проблемы управления и информатики. – 2007. – №4. – С. 102–114.

В оглавление книги \ К следующему разделу \ К предыдущему разделу


Поиск по сайту:

Система Orphus

Яндекс.Метрика