MATLAB.Exponenta
–Û·Ë͇ Matlab&Toolboxes

Математика\Neural Network Toolbox

Список функций Neural Network Toolbox: Оглавление

Приведено детальное описание большинства функций Neural Network Toolbox. Функции сгруппированы по назначению.

  Функции для анализа

  • rrsurf – поверхность ошибки нейрона с единственным входом
  • maxlinlr – максимальная скорость обучения для линейного нейрона

  Функции отклонения

  • boxdist – расстояние между двумя векторами
  • dist – евклидова весовая функция отклонения
  • linkdist – связанная фунция отклонения
  • mandist – весовая функция отклонения Манхеттена

  Функции графического интерфейса

  • nntool – вызов графического интерфейса пользователя

  Функции инициализации слоя

  • initnw – функция инициализации Нгуен-Видроу (Nguyen-Widrow )
  • initwb – функция инициализации по весам и смещениям

  Функции обучения

  • learncon – обучающая функция смещений
  • learngd – обучающая функция градиентного спуска
  • learngdm – обучающая функция градиентного спуска с учетом моментов
  • learnh – обучащая функция Хэбба
  • learnhd – обучающая функция Хэбба с учетом затухания
  • learnis – обучающая функция instar
  • learnk – обучающая функция Кохонена
  • learnlv1 – LVQ1 обучающая функция
  • learnlv2 – LVQ2 обучающая функция
  • learnos – outstar обучающая функция
  • learnp – обучающая функция смещений и весов перцептрона
  • learnpn - обучающая функция нормализованных смещений и весов перцептрона
  • learnsom – обучающая функция самоорганизующейся карты весов
  • learnwh – правило обучения Уидроу-Хоффа (Widrow-Hoff)

  Линейные функции поиска

  • srchbac – одномерная минимизация с использованием поиска с возвратом
  • srchbre – одномерная локализация интервала с использованием метода Брента (Brent)
  • srchcha - одномерная минимизация с использованием метода Караламбуса (Charalambous)
  • srchgol - одномерная минимизация с использованием золотого сечения
  • srchhyb - одномерная минимизация с использованием гибридного бисекционного поиска

  Функции вычисления производных от входов сети

  • dnetprod – вычисление производной от входов сети с перемножением входов
  • dnetsum – вычисление производной от входов сети с суммированием входов

  Входные функции сети

  • netprod – функция произведения входов
  • netsum – функция суммирования входов

  Функции инициализации сети

  • initlay – функция послойной инициализации сети

  Функции использования сети

  • adapt – разрешает адаптацию сети
  • disp – отображает свойства нейронной сети
  • display – отображает имена переменных и свойства сети
  • init – инициализация нейронной сети
  • sim – моделирование нейронной сети
  • train – тренировка нейронной сети

  Функции создания новой сети

  • network – создание нейронной сети пользователя
  • newc – создание конкурентного слоя
  • newcf – создание каскадной направленной сети
  • newelm – создание сети обратного распространения Элмана (Elman)
  • newff – создание однонаправленной сети
  • newfftd – создание однонаправленной сети с входными задержками
  • newgrnn – создание обобщенной регрессонной нейронной сети
  • newhop – создание рекуррентной сети Хопфилда
  • newlin – создание линейного слоя
  • newlind – конструирование линейного слоя
  • newlvq – создание квантованной сети
  • newp – создание перцептрона
  • newpnn – конструирование вероятностной нейронной сети
  • newrb – конструирование сети с радиальным базисом
  • newrbe – конструирование точной сети с радиальными базисными функциями
  • newsom – создание самоорганизующейся карты

  Функции производных функционирования

  • dmae – средняя абсолютная ошибка вычисления производной
  • dmse – средне-квадратичная ошибка производной
  • dmsereg - средне-квадратичная ошибка производной w/reg
  • dsse – cуммарная квадратичная ошибка производной

  Функции выполнения

  • mae - средняя абсолютная ошибка
  • mse – средне-квадратичная ошибка
  • msereg - средне-квадратичная ошибка w/reg
  • sse - cуммарная квадратичная ошибка

  Функции графики

  • hintonw – график Хинтона для матрицы весов
  • hintonwb – график Хинтона для матрицы весов и векторов смещений
  • plotbr – график функционирования сети при регулярной тренировке (Bayesian)
  • plotep – изображение положений весов и смещений на поверхности ошибки
  • plotes – изображение поверхности ошибок единичного входного нейрона
  • plotpc – изображение линии классификации в векторном пространстве перцептрона
  • plotperf – графическое представление функционирования сети
  • plotpv - графическое представление входных целевых векторов
  • plotsom – графическое представление самоорганизующейся карты
  • plotv – графическое представление векторов в виде линий, выходящих из начала координат
  • plotvec - графическое представление векторов различными цветами

  Функции предварительной и пост обработки

  • postmnmx – ненормализованные данные, которые были нормализованы посредством prenmmx
  • postreg – линейный регрессионный анализ выходов сети по отношению к целевым значениям обучающего массива
  • poststd – ненормированные данные, которые были нормированы с помощью функции prestd
  • premnmx – нормирование данных в диапазоне от –1 до +1
  • prepca – анализ главных компонент для входных данных
  • prestd – нормирование данных к единичному стандартному отклонению и нулевому среднему
  • tramnmx – преобразование данных с предварительно вычисленными минимумом и максимумом
  • trapca – преобразование данных с использованием PCA матрицы, вычисленной с помощью функции prepca
  • trastd – преобразование данных с использованием предварительно вычисленных значений стандартного отклонения и среднего

  Функции поддержки Simulink

  • gensim – генерация блока Simulink для моделирования нейронной сети

  Топологические функции

  • gridtop – топологическая функция в виде сеточного слоя
  • hextop – топологическая функция в виде гексагонального слоя
  • randtop – топологическая функция в виде случайного слоя

  Функции тренировки

  • trainb – пакетная тренировка с использованием правил обучения для весов и смещений
  • trainbfg – тренировка сети с использованием квази–Ньютоновского метода BFGS
  • trainbr – регуляризация Bayesian
  • trainc – использование приращений циклического порядка
  • traincgb – метод связанных градиентов Пауэлла-Била (Powell-Beale)
  • traincgf - метод связанных градиентов Флетчера-Пауэлла (Fletcher-Powell)
  • traincgp - метод связанных градиентов Полака-Рибира (Polak-Ribiere)
  • traingd – метод градиентного спуска
  • traingda – метод градиентного спуска с адаптивным обучением
  • traingdm - метод градиентного спуска с учетом моментов
  • traingdx - метод градиентного спуска с учетом моментов и с адаптивным обучением
  • trainlm – метод Левенберга-Маркара (Levenberg-Marquardt)
  • trainoss – одноступенчатый метод секущих
  • trainr – метод случайных приращений
  • trainrp – алгоритм упругого обратного распространения
  • trains – метод последовательных приращений
  • trainscg - метод шкалированных связанных градиентов

  Производные функций активации

  • dhardlim – производная ступенчатой функции активации
  • dhardlms – производная симметричной ступенчатой функции активации
  • dlogsig – производная сигмоидной (логистической) функции активации
  • dposlin – производная положительной линейной функции активации
  • dpurelin – приозводная линейной функции активации
  • dradbas – производная радиальной базисной функции активации
  • dsatlin – производная насыщающейся линейной функции активации
  • dsatlins – производная симметричной насыщающейся функции активации
  • dtansig – производная функции активации гиперболический тангенс
  • dtribas – производная треугольной функции активации

  Функции активации

  • compet – конкурирующая функция активации
  • hardlim – ступенчатая функция активации
  • hardlims – ступенчатая симметричная функция активации
  • logsig – сигмоидная (логистическая) функция активации
  • poslin – положительная линейная функция активации
  • purelin – линейная функция активации
  • radbas – радиальная базисная функция активации
  • satlin – насыщающаяся линейная функция активации
  • satlins – симметричная насыщающаяся линейная функция активации
  • softmax – функция активации, уменьшающая диапазон входных значений
  • tansig – функция активации гиперболический тангенс
  • tribas – треугольная функция активации

  Полезные функции

  • calca – вычисляет выходы сети и другие сигналы
  • calca1 – вычисляет сигналы сети для одного шага по времени
  • calce – вычисляет ошибки слоев
  • calce1 - вычисляет ошибки слоев для одного шага по времени
  • calcgx – вычисляет градиент весов и смещений как единственный вектор
  • calcjejj – вычисляет Якобиан
  • calcjx – вычисляет Якобиан весов и смещений как одну матрицу
  • calcpd – вычисляет задержанные входы сети
  • calcperf – вычисление выходов сети, сигналов и функционирования
  • formx – формирует один вектор из весов и смещений
  • getx – возвращает все веса и смещения сети как один вектор
  • setx – устанавливает все веса и смещения сети в виде одного вектора

  Векторные функции

  • cell2mat – объединяет массив элементов матриц в одну матрицу
  • combvec – создает все комбинации векторов
  • con2seq – преобразует сходящиеся векторы в последовательные векторы
  • concur – создает сходящиеся векторы смещений
  • ind2vec – преобразование индексов в векторы
  • mat2cell – разбиение матрицы на массив элементов матриц
  • minmax – вычисляет минимальные и максимальные значения строк матрицы
  • normc – нормирует столбцы матрицы
  • normr – нормирует строки матрицы
  • pnormc – псевдо-нормировка столбцов матрицы
  • quant – дискретизация величины
  • seq2con – преобразование последовательных векторов в сходящиеся векторы
  • sumsqr – сумма квадратов элементов матрицы
  • vec2ind – преобразование векторов в индексы

  Функции инициализации весов и смещений

  • initcon – "сознательная” функция инициализации
  • initzero – инициализация с установкой нулевых значений весов и смещений
  • midpoint – инициализация с установкой средних значений весов
  • randnc – инициализация с установкой нормализованных значений столбцов весовых матриц
  • randnr - инициализация с установкой нормализованных значений строк весовых функций
  • rands – инициализация с установкой симметричных случайных значений весов и смещений
  • revert – возвращение весам и смещениям значений, соответствующих предыдущей инициализации

  Функции весовых производных

  • ddotprod – производная скалярного произведения

  Весовые функции

  • dist – Евклидово расстояние
  • dotprod – весовая функция в виде скалярного произведения
  • mandist – весовая функция – расстояние Манхеттена
  • negdist – весовая функция – отрицательное расстояние
  • normprod – нормированное скалярное произведение

Поиск по сайту:

Система Orphus

Яндекс.Метрика