ݺߣ

ݺߣShare a Scribd company logo
Лекция 6 Рекуррентные сети на базе персептрона Сеть Хопфилда. Сеть Хемминга.
Персептронная сеть  RMLP RMLP – Recurrent MultiLayer Perceptron Случай одного входного и выходного нейронов y(k)=f(x(k),x(k-1),…,x(k-(N-1)),y(k-1),…,y(k-P)) N-1 –  количество задержек входного сигнала P –  количество задержек выходного сигнала
RMLP:  алгоритм обучения  Метод наискорейшего спуска,  online  режим Функция ошибки (один выход): Случайная инициализация весов Для момента времени  t  и  входного вектора  x(t)  вычислить состояния всех нейронов сети Вычислить значения производных Изменить веса Перейти на шаг 2.
Рекуррентная сеть Эльмана
Сеть Эльмана :  алгоритм обучения  Метод наискорейшего спуска,  online  режим Функция ошибки: Случайная инициализация весов, равномерное из  [-1,1] Для момента времени  t  сформировать входной вектор  x(t)   Вычислить вектор градиента Изменить веса Перейти на шаг 2.
Сеть  RTRN RTRN – Real Time Recurrent Network RTRN –  частный случай сети Эльмана
RTRN –  алгоритм обучения   Метод наискорейшего спуска,  online  режим Случайная инициализация весов, равномерное из  [-1,1] Для момента времени  t  сформировать входной вектор  x(t)   Вычислить вектор градиента Изменить веса Перейти на шаг 2.
Сеть с обратными связями
Ассоциативная память Ассоциативная память: сеть Хопфилда. Гетероассоциативная память: сеть Хемминга,  BAM  (двунаправленная ассоциативная память).
Структура сети Хопфилда Условие окончания:
Бинарные системы
Устойчивость сети Достаточное условие устойчивости: - функция Ляпунова.
Обучение Хебба Емкость сети при обучении по методу Хебба около  0.15 K  ( при ошибке 1%) . Условие окончания: Один обучающий пример: P  обучающих примеров:
Обучение методом проекций W  - матрица весов  K*K ; X  - матрица  K*P , составленная из обучающих векторов.  x (i)  - обучающий вектор; W (0) =0; Емкость сети Хопфилда:  K-1
Обучение методом   -проекций Градиентная форма алгоритма минимизации целевой функции     - константа обучения; Многократное предъявление обучающих выборок. Условие окончания: изменение весов меньше заданного значения.
Достоинства и недостатки сети Хопфилда Достоинства. 1. Скорость при аппаратной реализации. 2. Слабая зависимость сходимости от размерности сети. Недостатки. 1. Локальные минимумы. 2. Формирование функции энергии. 3. Небольшая емкость.
Области применения 1. Ассоциативная память. 2. Распознавание образов. 3. Задачи оптимизации.
Расстояние Хемминга Расстояние Хемминга между векторами  y  и  d . Двоичные вектора: Биполярные вектора:
Сеть Хемминга
Функционирование сети Хемминга Обрабатываемые данные: биполярные вектора. Этапы функционирования: 1. Вычисление расстояния Хемминга между входным вектором и образцами, закодированными в весах первого слоя. 2. Выбор образца с наименьшим расстоянием (сеть  MAXNET). 3 . Формирование выходного вектора, соответствующего входному вектору.
Обучение сети Хемминга Обучающая выборка:  {( x (j) ,y (j) )}  j=1,2,…,p . Слой  MAXNET : Слой 1: Выходной слой:
Схема работы Входной вектор:  x Выходной слой: формирование вектора результата. Слой 1: Слой  MAXNET :
Сравнение сетей Хопфилда и Хемминга Задача кластеризации.  Вход: 100. Количество кластеров: 10. Количество связей: Хопфилд: 100*100=10000; Хемминг: 1000+100=1100. Экспериментально показано, что сеть Хемминга демонстрирует лучшие результаты, чем сеть Хопфилда.
Особенности сети Хемминга Емкость сети:  P  (количество нейронов первого слоя). Достоинства: 1. Простой алгоритм работы. 2. Простой алгоритм обучения. 3. Емкость не зависит от размерности входного сигнала. Недостатки: 1. Неопределенность результата, при одинаковом расстоянии до двух и более векторов. 2. Способность распознавать только слабозашумленные образы. 3. Бинарные (биполярные) входные вектора.
Ad

Recommended

сети эвм и средства телекоммуникаций
сети эвм и средства телекоммуникаций
student_kai
Сверточные нейронные сети
Сверточные нейронные сети
Ivan Kavalerov
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
Yandex
Лекция №13 "Глубокие нейронные сети"
Лекция №13 "Глубокие нейронные сети"
Technosphere1
Сергей Герасимов (ВМК МГУ), Александр Мещеряков (Институт космических исследо...
Сергей Герасимов (ВМК МГУ), Александр Мещеряков (Институт космических исследо...
Mail.ru Group
Семинар 7. Многопоточное программирование на OpenMP (часть 7)
Семинар 7. Многопоточное программирование на OpenMP (часть 7)
Mikhail Kurnosov
Семинар 3. Многопоточное программирование на OpenMP (часть 3)
Семинар 3. Многопоточное программирование на OpenMP (часть 3)
Mikhail Kurnosov
Дмитрий Кропотов, ВМК МГУ, Группа Байесовских Методов, «Методы оптимизации бо...
Дмитрий Кропотов, ВМК МГУ, Группа Байесовских Методов, «Методы оптимизации бо...
Mail.ru Group
нейронные сети
нейронные сети
hudvin
Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана"
Technosphere1
CV2015. Лекция 6. Нейросетевые алгоритмы.
CV2015. Лекция 6. Нейросетевые алгоритмы.
Anton Konushin
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
ITMO University
Лекция №11 "Основы нейронных сетей"
Лекция №11 "Основы нейронных сетей"
Technosphere1
Введение в Deep Learning
Введение в Deep Learning
Grigory Sapunov
Лекция 2
Лекция 2
Ivan Stolyarov
Илья Трофимов - машинное обучение с помощью vw
Илья Трофимов - машинное обучение с помощью vw
Pavel Mezentsev
2012.11.06 машинное обучение с помощью vw
2012.11.06 машинное обучение с помощью vw
Илья Трофимов
Лекция 5
Лекция 5
Ivan Stolyarov
NVIDIA Deep Learning.
NVIDIA Deep Learning.
Skolkovo Robotics Center
Лекция 9
Лекция 9
Ivan Stolyarov
Лекция 8
Лекция 8
Ivan Stolyarov
Лекция 7
Лекция 7
Ivan Stolyarov
Лекция 4
Лекция 4
Ivan Stolyarov
Лекция 3
Лекция 3
Ivan Stolyarov
Лекция 1
Лекция 1
Ivan Stolyarov

More Related Content

Similar to Лекция 6 (11)

нейронные сети
нейронные сети
hudvin
Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана"
Technosphere1
CV2015. Лекция 6. Нейросетевые алгоритмы.
CV2015. Лекция 6. Нейросетевые алгоритмы.
Anton Konushin
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
ITMO University
Лекция №11 "Основы нейронных сетей"
Лекция №11 "Основы нейронных сетей"
Technosphere1
Введение в Deep Learning
Введение в Deep Learning
Grigory Sapunov
Лекция 2
Лекция 2
Ivan Stolyarov
Илья Трофимов - машинное обучение с помощью vw
Илья Трофимов - машинное обучение с помощью vw
Pavel Mezentsev
2012.11.06 машинное обучение с помощью vw
2012.11.06 машинное обучение с помощью vw
Илья Трофимов
Лекция 5
Лекция 5
Ivan Stolyarov
NVIDIA Deep Learning.
NVIDIA Deep Learning.
Skolkovo Robotics Center
нейронные сети
нейронные сети
hudvin
Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана"
Technosphere1
CV2015. Лекция 6. Нейросетевые алгоритмы.
CV2015. Лекция 6. Нейросетевые алгоритмы.
Anton Konushin
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
ITMO University
Лекция №11 "Основы нейронных сетей"
Лекция №11 "Основы нейронных сетей"
Technosphere1
Введение в Deep Learning
Введение в Deep Learning
Grigory Sapunov
Илья Трофимов - машинное обучение с помощью vw
Илья Трофимов - машинное обучение с помощью vw
Pavel Mezentsev
2012.11.06 машинное обучение с помощью vw
2012.11.06 машинное обучение с помощью vw
Илья Трофимов

More from Ivan Stolyarov (6)

Лекция 9
Лекция 9
Ivan Stolyarov
Лекция 8
Лекция 8
Ivan Stolyarov
Лекция 7
Лекция 7
Ivan Stolyarov
Лекция 4
Лекция 4
Ivan Stolyarov
Лекция 3
Лекция 3
Ivan Stolyarov
Лекция 1
Лекция 1
Ivan Stolyarov
Ad

Лекция 6

  • 1. Лекция 6 Рекуррентные сети на базе персептрона Сеть Хопфилда. Сеть Хемминга.
  • 2. Персептронная сеть RMLP RMLP – Recurrent MultiLayer Perceptron Случай одного входного и выходного нейронов y(k)=f(x(k),x(k-1),…,x(k-(N-1)),y(k-1),…,y(k-P)) N-1 – количество задержек входного сигнала P – количество задержек выходного сигнала
  • 3. RMLP: алгоритм обучения Метод наискорейшего спуска, online режим Функция ошибки (один выход): Случайная инициализация весов Для момента времени t и входного вектора x(t) вычислить состояния всех нейронов сети Вычислить значения производных Изменить веса Перейти на шаг 2.
  • 5. Сеть Эльмана : алгоритм обучения Метод наискорейшего спуска, online режим Функция ошибки: Случайная инициализация весов, равномерное из [-1,1] Для момента времени t сформировать входной вектор x(t) Вычислить вектор градиента Изменить веса Перейти на шаг 2.
  • 6. Сеть RTRN RTRN – Real Time Recurrent Network RTRN – частный случай сети Эльмана
  • 7. RTRN – алгоритм обучения Метод наискорейшего спуска, online режим Случайная инициализация весов, равномерное из [-1,1] Для момента времени t сформировать входной вектор x(t) Вычислить вектор градиента Изменить веса Перейти на шаг 2.
  • 9. Ассоциативная память Ассоциативная память: сеть Хопфилда. Гетероассоциативная память: сеть Хемминга, BAM (двунаправленная ассоциативная память).
  • 10. Структура сети Хопфилда Условие окончания:
  • 12. Устойчивость сети Достаточное условие устойчивости: - функция Ляпунова.
  • 13. Обучение Хебба Емкость сети при обучении по методу Хебба около 0.15 K ( при ошибке 1%) . Условие окончания: Один обучающий пример: P обучающих примеров:
  • 14. Обучение методом проекций W - матрица весов K*K ; X - матрица K*P , составленная из обучающих векторов. x (i) - обучающий вектор; W (0) =0; Емкость сети Хопфилда: K-1
  • 15. Обучение методом  -проекций Градиентная форма алгоритма минимизации целевой функции  - константа обучения; Многократное предъявление обучающих выборок. Условие окончания: изменение весов меньше заданного значения.
  • 16. Достоинства и недостатки сети Хопфилда Достоинства. 1. Скорость при аппаратной реализации. 2. Слабая зависимость сходимости от размерности сети. Недостатки. 1. Локальные минимумы. 2. Формирование функции энергии. 3. Небольшая емкость.
  • 17. Области применения 1. Ассоциативная память. 2. Распознавание образов. 3. Задачи оптимизации.
  • 18. Расстояние Хемминга Расстояние Хемминга между векторами y и d . Двоичные вектора: Биполярные вектора:
  • 20. Функционирование сети Хемминга Обрабатываемые данные: биполярные вектора. Этапы функционирования: 1. Вычисление расстояния Хемминга между входным вектором и образцами, закодированными в весах первого слоя. 2. Выбор образца с наименьшим расстоянием (сеть MAXNET). 3 . Формирование выходного вектора, соответствующего входному вектору.
  • 21. Обучение сети Хемминга Обучающая выборка: {( x (j) ,y (j) )} j=1,2,…,p . Слой MAXNET : Слой 1: Выходной слой:
  • 22. Схема работы Входной вектор: x Выходной слой: формирование вектора результата. Слой 1: Слой MAXNET :
  • 23. Сравнение сетей Хопфилда и Хемминга Задача кластеризации. Вход: 100. Количество кластеров: 10. Количество связей: Хопфилд: 100*100=10000; Хемминг: 1000+100=1100. Экспериментально показано, что сеть Хемминга демонстрирует лучшие результаты, чем сеть Хопфилда.
  • 24. Особенности сети Хемминга Емкость сети: P (количество нейронов первого слоя). Достоинства: 1. Простой алгоритм работы. 2. Простой алгоритм обучения. 3. Емкость не зависит от размерности входного сигнала. Недостатки: 1. Неопределенность результата, при одинаковом расстоянии до двух и более векторов. 2. Способность распознавать только слабозашумленные образы. 3. Бинарные (биполярные) входные вектора.