Интеллектуальные развлечения. Интересные иллюзии, логические игры и загадки.

Добро пожаловать В МИР ЗАГАДОК, ОПТИЧЕСКИХ
ИЛЛЮЗИЙ И ИНТЕЛЛЕКТУАЛЬНЫХ РАЗВЛЕЧЕНИЙ
Стоит ли доверять всему, что вы видите? Можно ли увидеть то, что никто не видел? Правда ли, что неподвижные предметы могут двигаться? Почему взрослые и дети видят один и тот же предмет по разному? На этом сайте вы найдете ответы на эти и многие другие вопросы.

Log-in.ru© - мир необычных и интеллектуальных развлечений. Интересные оптические иллюзии, обманы зрения, логические флеш-игры.

Привет! Хочешь стать одним из нас? Определись…    
Если ты уже один из нас, то вход тут.

 

 

Амнезия?   Я новичок 
Это факт...

Интересно

В Америке примерно 2.383.000 человек носят фамилию Смит.

Еще   [X]

 0 

Штучні нейронні мережі (Руденко О. Г., Бодянський Є. В.)

Аннотация:
У навчальному посібнику викладено основні принципи побудови штучних нейронних мереж (ШНМ) як самостійного напрямку в теорії інтелектуальних систем, подано біологічний аналог штучного нейрона і процеси обробки інформації в біологічних системах. Наведено різноманітні моделі штучних нейронів і розглянуто властивості мереж, побудованих на їх основі, починаючи від персептрона і закінчуючи новітніми розробками в цій галузі. Значну увагу приділено методам навчання ШНМ, питанням раціонального вибору і спрощення їх архітектури. Окремий розділ посібника присвячений розгляду прикладного аспекту використання нейромережевих технологій (фінансове прогнозування, адаптивне управління складними об’єктами за умов невизначеності, обробка відео- та мовних сигналів, фільтрація і стиснення інформації тощо).
Для студентів, аспірантів і науково-технічних співробітників, які займаються створенням сучасних способів обробки інформації.

Перевод:
В учебном пособии изложены основные принципы построения искусственных нейронных сетей как самостоятельного направления в теории интеллектуальных систем, подан биологический аналог искусственного нейрона и процессы обработки информации в биологических системах. Приведены разнообразные модели искусственных нейронов и рассмотрены свойства сетей, построенных на их основе, начиная от персептрона и заканчивая новейшими разработками в этой отрасли. Значительное внимание уделено методам обучения искусственных нейронных сетей, вопросам рационального выбора и упрощения их архитектуры. Отдельный раздел пособия посвящен рассмотрению прикладного аспекта использования нейросетевых технологий (финансовое прогнозирование, адаптивное управление сложными объектами при условиях неопределенности, обработка видео- и языковых сигналов, фильтрация и сжатие информации и тому подобное).

Содержание:
ЗМІСТ

ПЕРЕДМОВА
ВСТУП
1. БІОЛОГІЧНІ ОСНОВИ НЕЙРОННИХ МЕРЕЖ
1.1. Мозок людини
1.2. Нейрон
1.3. Передавання інформації

2. ОСНОВНІ ПОНЯТТЯ ШТУЧНИХ НЕЙРОННИХ МЕРЕЖ
2.1. Структура штучного нейрона
2.2. Моделі штучних нейронів
2.2.1. Формальна модель нейрона Маккаллоха — Піттса
2.2.2. Модель нейрона Адаліни
2.2.3. Модель нейрона Фукушіми
2.2.4. Модель штучного нейрона Гопфілда
2.2.5. Модель Ґроссберґа
2.2.6. Узагальнена модель нейрона
2.2.7. ∑-П-нейрон
2.2.8. Стохастичний нейрон
2.3. Топологія ШНМ
2.3.1. ШНМ прямого поширення
2.3.2. ШНМ зворотного поширення
2.3.3. Повнозв’язні ШНМ
2.4. Навчання ШНМ
2.4.1. Правило навчання Гебба (корелятивне, співвідносне навчання)
2.4.2. Дельта-правило
2.4.3. Розширене дельта-правило
2.4.4. Конкурентне навчання
2.4.5. Стохастичне навчання
2.4.6. Градієнтні методи навчання
2.4.7. Навчання з підкріплюванням

3. РАННІ АРХІТЕКТУРИ ШНМ
3.1. Одношарові ШНМ
3.1.1. Одношаровий персептрон
3.1.2. Навчання персептрона
3.1.3. Теорема збіжності для персептрона
3.1.4. Адаліна
3.1.5. Н-Адаліна
3.1.6. Вхідна зірка Ґроссберґа
3.1.7. Вихідна зірка
3.2. Лінійна роздільність
3.3. Багатошарові ШНМ
3.3.1. Багатошаровий персептрон
3.3.2. Мадаліна
3.3.3. ШНМ, що заснована на МГУА
3.4. Алгоритм зворотного поширення помилки
3.4.1. Обчислення ваг нейронів вихідного шару
3.4.2. Обчислення ваг нейронів прихованого шару

4. ШНМ-КОМПАРАТОР

5. АСОЦІАТИВНА ПАМ’ЯТЬ
5.1. Асоціативна мережа прямого поширення
5.2. Алгоритми навчання асоціативної пам’яті
5.2.1. Правило навчання Гебба
5.2.2. Дельта-правило
5.2.3. Алгоритми навчання, що використовують операцію псевдообернення матриці вхідних сигналів
5.2.4. Розпізнавання спотвореного образу
5.3. Гетероасоціативна пам’ять
5.4. Автоасоціативна пам’ять
5.5. Двоспрямована асоціативна пам’ять

6. МЕРЕЖА ГОПФІЛДА
6.1. Модель Гопфілда
6.2. Навчання в мережі Гопфілда
6.2.1. Накопичення образів у мережі Гопфілда
6.2.2. Виклик образу
6.3. Синхронна мережа Гопфілда
6.4. Неперервна мережа Гопфілда
6.5. Асоціативна мережа BSB

7. СИНЕРГЕТИЧНИЙ КОМП’ЮТЕР

8. МЕРЕЖА ХЕММІНГА

9. ДИНАМІЧНІ РЕКУРСИВНІ ШНМ
9.1. Структура ДРМ
9.2. Неперервні ДРМ
9.3. Дискретна ДРМ
9.3.1. Повнозв’язні ДРМ
9.3.2. Частково-рекурсивні мережі
9.3.3. Локально-рекурсивні мережі прямого поширення
9.4. Навчання ДРМ
9.4.1. Алгоритм зворотного поширення помилки
9.4.2. Адаптивний алгоритм навчання

10. МЕРЕЖА ВЕКТОРНОГО КВАНТУВАННЯ
10.1. Структура мережі векторного квантування
10.2. Неконтрольоване навчання мережі ВК
10.3. Коонтрольоване навчання мережі ВК
10.3.1. LVQ1
10.3.2. LVQ2.1
10.3.3. LVQ3
10.3.4. OLVQ1

11. МЕРЕЖА КОГОНЕНА
11.1. Структура мережі Когонена
11.2. Навчання мережі Когонена
11.3. Вибір функції «сусідства»
11.4. Побудова мапи Когонена

12. МЕРЕЖІ ЗУСТРІЧНОГО ПОШИРЕННЯ
12.1. Архітектура мережі зустрічного поширення
12.2. Навчання шару Когонена
12.2.1. Нормування входів
12.2.2. Корекція вагових коефіцієнтів
12.2.3. Ініціалізація елементів вагової матриці
12.3. Навчання шару Ґроссберґа
12.4. Повна мережа зустрічного поширення

13. МАШИНА БОЛЬЦМАНА
13.1. Структура машини Больцмана
13.2. Навчання в машині Больцмана
13.2.1. Модель відпалювання
13.2.2. Алгоритм навчання машини Больцмана
13.2.3. Обговорення алгоритму навчання
13.2.4. Алгоритм класифікації (розпізнавання)
13.3. Машина Коші

14. СТОХАСТИЧНІ МЕРЕЖІ
14.1. Байєсівський класифікатор
14.2. Вікна Парзена
14.3. Структура стохастичної мережі
14.4. Узагальнено-регресійна ШНМ
14.4.1. Рівняння регресії
14.4.2. Узагальнено-регресійна мережа

15. РАДІАЛЬНО-БАЗИСНА МЕРЕЖА
15.1. Архітектура РБМ
15.1.1. Структура мережі
15.1.2. Нейрон шаблонного шару мережі
15.2. Навчання радіально-базисної мережі
15.2.1. Вибір параметрів центрів і відхилень σ
15.2.2. Самонавчання параметрів центрів
15.2.3. Навчання мережі із учителем
15.2.4. Зміна кількості нейронів шаблонного шару
15.3. Нормалізована радіально-базисна мережа
15.4. Гіпербазисна мережа
15.4.1. Структура мережі
15.4.2. Навчання мережі

16. НЕЙРОННА МЕРЕЖА СМАС
16.1. Принцип роботи мережі
16.2. Структура мережі СМАС
16.3. Кодування інформації
16.4. Вибір базисних функцій
16.5. Гешування інформації
16.5.1. Алгоритми гешування інформації у СМАС
16.5.2. Геш-колізії
16.6. Навчання мережі

17. НЕОКОГНІТРОН
17.1. Структура неокогнітрона
17.2. Процес розпізнавання образу
17.2.1. Розпізнавання неспотвореного образу
17.2.2. Розпізнавання спотвореного образу
17.3. Структура S-нейрона
17.4. Навчанння неокогнітрона
17.4.1. Навчання без учителя
17.4.2. Навчання з учителем
17.5. Неокогнітрон з механізмом вибірної уваги

18. КАСКАДНО-КОРЕЛЯЦІЙНІ МЕРЕЖІ
18.1. Архітектура мережі
18.2. Навчання ККМ
18.3. Основні переваги ККМ

19. МЕРЕЖА З ЕЛЕМЕНТАМИ ЗАТРИМКИ СИГНАЛУ
19.1. Структура мережі
19.2. Навчання мережі
19.2.1. Алгоритм зворотного поширення помилки
19.2.2. Прискорення процесу навчання
19.3. Ієрархічні мережі з часовою затримкою сигналу

20. МЕРЕЖІ НА ОСНОВІ ТЕОРІЇ АДАПТИВНОГО РЕЗОНАНСУ
20.1. Мережа ART-1
20.1.1. Архітектура й призначення основних модулів
20.1.2. Функціонування мережі
20.1.3. Функціонування ART-1
20.2. Мережа ART-2
20.2.1. Динаміка мережі ART-2
20.2.2. Навчання мережі ART-2
20.3. Мережа ART-2a
20.4. Мережа ART MAP
20.5. Інші мережі ART
20.5.1. Мережа ART-3
20.5.2. FUZZY-ART

21. МЕТОДИ СПРОЩЕННЯ СТРУКТУРИ МЕРЕЖ
21.1. Методи вилучення ваг
21.1.1. Вилучення ваг, що мають найменші значення
21.1.2. Метод OBD
21.1.3. Метод OBS
21.2. Методи вилучення нейронів
21.2.1. Вилучення нейронів з урахуванням їх важливості
21.2.2. Вилучення нейронів прихованого шару з використанням вартісної функції
21.2.3. Вилучення ваг з використанням вартісної функції

22. ГЕНЕТИЧНІ АЛГОРИТМИ
22.1. Кодування генетичної інформації
22.2. Генетичні оператори
22.3. Цільова функція
22.4. Реалізація ГА
22.5. Генетичні алгоритми й ШНМ
22.5.1. Визначення синаптичних ваг
22.5.2. Оптимізація топології ШНМ

23. ПРИКЛАДИ ЗАСТОСУВАННЯ ШНМ
23.1. Синтезатор мови — NETtalk
23.2. Система автоматичного керування автомобілем
23.3. Розв’язання задачі про комівояжера
23.4. Ідентифікація нелінійних динамічних об’єктів
23.5. Нейрокерування нелінійними об’єктами
23.6. Кластеризація даних
23.7. Стиснення даних
23.7.1. Стиснення даних за допомогою мережі Когонена
23.7.2. Стиснення зображень за допомогою ієрархічної ШНМ СМАС
23.8. Фінансове прогнозування на основі ШНМ
23.8.1. Прогнозування ринку акцій з використанням багатошарового персептрона
23.8.2. Прогнозування ринку акцій на основі мереж ART
23.9. Нейромережева інформаційно-довідкова система

Література
Метка темы:
Нейронные сети

ISBN: ISBN 966-8530-73-X

Издатель: ТОВ «Компанія СМІТ»

Год издания: 2006

Страниц: 404

Язык: украинский

Качество: Хорошее



С книгой «Штучні нейронні мережі» также читают:

комментариев нет  

Отпишись
Ваш лимит — 2000 букв

Включите отображение картинок в браузере  →