InfoCity
InfoCity - виртуальный город компьютерной документации
Реклама на сайте



Подробная информация газовый монтажный пистолет цена у нас на сайте.



Размещение сквозной ссылки

 

Теория построения Нейрокомпьютерных сетей


Введение


Плохая изученность принципов функционирования человеческого мозга заставляет ученых выходить за пределы современных биологических знаний в поисках структур , способных выполнять полезные функции . Поэтому очень слаба связь с биологией , ИНС продолжают сравнивать с мозгом т.к. их функционирование напоминает человеческое познание .

Краткая историческая справка


Человеческий мозг состоит из огромного числа нейронов ,связанных и взаимодействующих между собой . С развитием науки и техники , ученым удалось создать математические модели мозга , что показало не только их способность повторять функции мозга , но и способность выполнять функции , имеющие свою собственную ценность. То есть появились два направления нейронного моделирования :

1. понять механизмы функционирования нервной системы человека на уровне физиологии и психологии .

2. создать ВС , выполняющие функции сходные с функциями мозга

Д. Хэбба в 1949 г. предложил закон обучения искусственных нейронных сетей (ИНС). 50-60 гг. первые искусственные нейронные сети . Минский , Розенблатт , Уидроу и др. разработали сети состоящие из одного слоя нейронов (персептроны) . Они были использованы для широкого класса задач ( предсказание погоды , анализ ЭКГ) . Далее не велись работы два десятилетия после доказательства Минского о неспособности однослойных сетей решать многие простые задачи .

В 80-90 гг. возобновились разработки ИНС ,которые показали , что Минский был слишком пессимистичен.

Биологический нейрон


Нервная система человека имеет 100000000000 нейронов участвующих примерно в 1000000000000000 передающих связях . Способность нейрона - обработка и передача электрохимических сигналов по нервным путям , которые образуют коммуникационную систему мозга. Дендриты идут от тела клетки к другим нейронам , где они принимают сигналы в точках соединения , называемых 'синапсами '. Принятые сигналы суммируют и подходят к телу нейрона , когда их сумма превышает некоторый порог , нейрон возбуждается и передает сигнал другим нейронам .

Искусственный нейрон


Искусственный нейрон.

X={x1,x2, ... , xn} - множество входных сигналов ( соответствует сигналам , приходящим в синапсы биологического нейрона).

W={w1,w2, ... , wn} - вес который соответствует 'силе' одной биологи ческой синаптической связи .

- блок суммирования , соответствующий телу биологического элемента.

NET - выход блока суммирования.

Активационные функции


F - активационная функция , преобразующая сигнал NET . Если блок F сужает диапазон изменения OUT так , что при любых значениях NET , значения OUT принадлежат некоторому конечному интервалу , то F называется 'сжимающей ' функцией . В качестве примера показана наиболее часто используемая логистическая или ' сигмоидальная ' (S - образная) функция .

По аналогии с электронными системами активационную функцию можно считать нелинейной усилительной характеристикой искусственного нейрона . Коэффициент усиления это отношение приращения OUT к приращению NET , он выражается наклоном кривой. Центральная область логистической функции , имеющая большой коэффициент усиления решает проблему обработки слабых сигналов , в то время как , области с падающим усилением на положительном и отрицательных концах подходят для больших возбуждений.

Вывод : нейрон функционирует с большим усилением в широком диапазоне уровня входного сигнала.

Другой широко используемой исходной по форме с ней функцией является гиперболический тангенс . Она часто используется биоло гами в качестве математической модели активации нервной клетки. OUT = th( x ) - является S - образной функцией

Свойства :

1. не принимают во внимание задержки во времени ко торые воздействуют на динамику системы . Входные сигналы сразу же порождают выходные.

2. не учитывать воздействий функций частотной модуля ции или синхронизирующей функции биологического нейрона , что является очень важным свойством для построения ИНС.

Однослойные ИНС


W - матрица весов , она имеет m - строк ( число входов) и n - столбцов (число нейронов)

w32 - это вес , связывающий третий вход со вторым нейроном N={y1 , y2 , ... , yn} - сигналы на выходе

N = X*W

Многослойные ИНС


1. нелинейная активационная функция

N = ( XW1) W2 = {т.к. умножение матриц ассоциативно} = X(W1W2) Это показывает, что двухслойная линейная сеть эквивалентна одному слою с весовой матрицей, равной произведению двух весовых матриц То есть многослойные ИНС с нелинейной активационной функцией между слоями не приводят к увеличению вычислительной мощности по сравнению с однослойной.

2. сети с обратными связями

Сети более общего вида , имеющие соединения от выхода к входам, называются сетями с обратными связями . У сетей без обратных связей нет памяти , их выход полностью определяется текущими входами и значениями весов .В некоторых конфигурациях сетей с обратными связями предыдущие значения выходов возвращаются на входы . Выход ,следовательно , определяется как текущим входом , так и предыдущими выходами . По этой причине сети с обратными связями могут обладать свойствами , сходными с кратковременной человеческой памятью , сетевые выходы частично зависят от предыдущих входов.

Обучение ИНС


Самое важное свойство ИНС - это их способность к обучению , которое сильно напоминает процесс интеллектуального развития человеческой личности .Конечно пока возможности обучения сетей ограничены но уже есть некоторые достижения как например ' говорящая сеть ' Сейновского .

цель обучения :

Сеть обучается ,чтобы для некоторого множества входов давать желаемое множество выходов. Обучение осуществляется путем последовательного предъявления входных векторов с одновременной подстройкой весов в соответствии с определенной процедурой . В процессе обучения веса сети постепенно становятся такими , чтобы каждый входной вектор вырабатывал выходной вектор .

Различают алгоритмы обучения с учителем и без учителя.

обучение с учителем :

Для каждого входного вектора существует целевой вектор , представляющий собой требуемый выход ( обучающая пара ). Выход сети сравнивают с целевым вектором и разность ( ошибка ) с помощью обратной связи подается в сеть и веса изменяются в соответствии с алгоритмом минимизации ошибки .

обучение без учителя :

Это более правдоподобная для биологической системы модель обучения ,развитая Кохоненом и другими. Обучающее множество состоит лишь из входных векторов . Обучающий алгоритм подстраиваетвеса сети так , чтобы получались согласованные выходные векторы , т.е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы. Процесс обучения ,следовательно, выделяет статистические свойства обучающего множества и группирует сходные векторы в классы .

алгоритмы обучения :

Большинство современных алгоритмов обучения выросло из концеп ций Хэбба .Им предложена модель обучения без учителя , в которой синаптическая сила (вес) возрастает ,если активированы оба нейрона, источник и приемник . Таким образом часто используемые пути в сети усиливаются и феномен привычки и обучения через повторение получает объяснение . ИНС ,использующей обучение по Хэббу ,наращивание весов определяется произведением уровней возбуждения передающего и принимающего нейронов . Это можно записать как

wij( n+1 ) = wij(n) + alpha*OUTi*OUTj

wij(n) - значение веса то нейрона i к нейрону j до подстройки

wij( n+1 ) - значение веса то нейрона i к нейрону j после подстройки

alpha - коэффициент скорости обучения

OUTi - выход нейрона i и вход нейрона j

OUTj - выход нейрона j

Сети ,использующие обучение по Хэббу ,конструктивно развивались, однако за последние 20 лет были развиты более эффективные алгоритмы обучения например алгоритмы : Гроссберга , Уидроу-Хоффа.


Реклама на InfoCity

Яндекс цитирования



Финансы: форекс для тебя








1999-2009 © InfoCity.kiev.ua