Microsoft PowerPoint - AT 3-2 .ppt

Слични документи
Microsoft Word - III godina - EA - Metodi vjestacke inteligencije

УНИВЕРЗИТЕТ У БЕОГРАДУ МАШИНСКИ ФАКУЛТЕТ Предмет: КОМПЈУТЕРСКА СИМУЛАЦИЈА И ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА Задатак број: Лист/листова: 1/1 Задатак 5.1 Pостоје

ПА-4 Машинско учење-алгоритми машинског учења

I колоквијум из Основа рачунарске технике I СИ- 2017/2018 ( ) Р е ш е њ е Задатак 1 Тачка А Потребно је прво пронаћи вредности функција f(x

P11.3 Analiza zivotnog veka, Graf smetnji

PowerPoint Presentation

Microsoft Word - SIORT1_2019_K1_resenje.docx

Optimizacija

Newtonova metoda za rješavanje nelinearne jednadžbe f(x)=0

Microsoft PowerPoint - Predavanje3.ppt

Рачунарска интелигенција

Орт колоквијум

SVEUČILIŠTE U ZAGREBU FAKULTET STROJARSTVA I BRODOGRADNJE ZAVRŠNI RAD Mario Svačina Zagreb, 2014.

ИНТЕЛИГЕНТНИ ТЕХНОЛОШКИ СИСТЕМИ АТ-6 Когнитивна роботика: Оцењивање положаја мобилног робота и карактеристичних објеката у технолошком окружењу Оцењив

1

Орт колоквијум

PowerPoint Presentation

Увод у организацију и архитектуру рачунара 1

Microsoft PowerPoint - C-4-1

Klasifikacija slika kucnih brojeva dubokim konvolucijskim modelima

Slide 1

ELEKTROTEHNIČKI FAKULTET, UNIVERZITET U BEOGRADU KATEDRA ZA ELEKTRONIKU UVOD U ELEKTRONIKU - 13E041UE LABORATORIJSKA VEŽBA Primena mikrokontrolera

Матрична анализа конструкција

P9.1 Dodela resursa, Bojenje grafa

Tutoring System for Distance Learning of Java Programming Language

Verovatnoća - kolokvijum 17. decembar Profesor daje dva tipa ispita,,,težak ispit i,,lak ispit. Verovatnoća da student dobije težak ispit je

Техничко решење: Метода мерења ефективне вредности сложенопериодичног сигнала Руководилац пројекта: Владимир Вујичић Одговорно лице: Владимир Вујичић

SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA SEMINAR Duboke neuronske mreže Florijan Stamenković Voditelj: Marko Čupić Zagreb, ožujak 2

Орт колоквијум

TEORIJA SIGNALA I INFORMACIJA

Development Case

1 Konusni preseci (drugim rečima: kružnica, elipsa, hiperbola i parabola) Definicija 0.1 Algebarska kriva drugog reda u ravni jeste skup tačaka opisan

Programski jezik QBasic Kriteriji ocjenjivanja programiranje(b) - QBasic razred 42

Programski jezik QBasic Kriteriji ocjenjivanja programiranje(b) - QBasic razred 42

UNIVERZITET U BEOGRADU MATEMATIČKI FAKULTET MASTER RAD Iskazne neuronske mreže za aproksimaciju kombinatornih kola na osnovu uzorka ulaza i izlaza Stu

POSLOVNI INFORMACIONI SISTEMI I RA^UNARSKE

SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA ZAVRŠNI RAD br Autonomno kretanje virtualnih objekata Marin Hrkec Zagreb, lipanj 201

Техничко решење: Софтвер за симулацију стохастичког ортогоналног мерила сигнала, његовог интеграла и диференцијала Руководилац пројекта: Владимир Вуји

Орт колоквијум

Classroom Expectations

LAB PRAKTIKUM OR1 _ETR_

06 Poverljivost simetricnih algoritama1

P3.2 Paralelno programiranje 2

Matematka 1 Zadaci za vežbe Oktobar Uvod 1.1. Izračunati vrednost izraza (bez upotrebe pomoćnih sredstava): ( ) [ a) : b) 3 3

AKVIZICIJA PODATAKA SA UREĐAJEM NI USB-6008 NI USB-6008 je jednostavni višenamjenski uređaj koji se koristi za akviziciju podataka (preko USBa), kao i

Microsoft PowerPoint - Topic02 - Serbian.ppt

SVEUČILIŠTE JOSIPA JURJA STROSSMAYERA U OSIJEKU FAKULTET ELEKTROTEHNIKE, RAČUNARSTVA I INFORMACIJSKIH TEHNOLOGIJA Sveučilišni preddiplomski studij PRI

Vektorske funkcije i polja Mate Kosor / 23

Projektovanje informacionih sistema i baze podataka

Microsoft PowerPoint - Topic02 - Serbian.ppt

Microsoft PowerPoint - DAC.ppt [Compatibility Mode]

Microsoft PowerPoint - 03-Slozenost [Compatibility Mode]

SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA ZAVRŠNI RAD br Klasifikacija srčanih bolesti na temelju EKG signala uz pomoć strojno

3.Kontrlne (upravlja~ke) strukture u Javi

Microsoft PowerPoint - 10 PEK EMT Logicka simulacija 1 od 2 (2012).ppt [Compatibility Mode]

2015_k2_z12.dvi

РАСПОРЕД ИСПИТА У ИСПИТНОМ РОКУ ЈАНУАР 1 ШКОЛСКЕ 2016/2017. ГОДИНЕ (последња измена ) Прва година: ПРВА ГОДИНА - сви сем информатике Име пр

Microsoft Word - Smerovi 1996

Microsoft Word - ETH2_EM_Amperov i generalisani Amperov zakon - za sajt

MIP-heuristike (Matheuristike) Hibridi izmedu metaheurističkih i egzaktnih metoda Tatjana Davidović Matematički institut SANU

Numeričke metode u fizici 1, Projektni zadataci 2018./ Za sustav običnih diferencijalnih jednadžbi, koje opisuju kretanje populacije dviju vrs

Slide 1

СТРАХИЊА РАДИЋ КЛАСИФИКАЦИJА ИЗОМЕТРИJА И СЛИЧНОСТИ Према књизи [1], свака изометриjа σ се може представити ком позици - jом неке транслациjе за векто

Napredno estimiranje strukture i gibanja kalibriranim parom kamera

Odreivanje neodreenosti hadronske strukture metodama strojnog ucenja

SVEUČILIŠTE U ZAGREBU FAKULTET ELEKTROTEHNIKE I RAČUNARSTVA ZAVRŠNI RAD br PREDVIÐANJE POTROŠNJE ELEKTRIČNE ENERGIJE NA SVEUČILIŠTU U ZAGREBU FA

Microsoft PowerPoint - OOPpredavanja05 [Compatibility Mode]

ТЕОРИЈА УЗОРАКА 2

DUBINSKA ANALIZA PODATAKA

Grafovi 1. Posmatrajmo graf prikazan na slici sa desne strane. a) Odrediti skup čvorova V i skup grana E posmatranog grafa. Za svaku granu posebno odr

DISKRETNA MATEMATIKA

Mere slicnosti

ЛИНЕАРНА ФУНКЦИЈА ЛИНЕАРНА ФУНКЦИЈА у = kх + n А утврди 1. Које од наведених функција су линеарне: а) у = 2х; б) у = 4х; в) у = 2х 7; г) у = 2 5 x; д)

I година Назив предмета I термин Вријеме II термин Вријеме Сала Математика : :00 све Основи електротехнике

I година Назив предмета I термин Вријеме II термин Вријеме Сала Математика : :00 све Основи електротехнике

I година Назив предмета I термин Вријеме II термин Вријеме Сала Математика : :00 све Основи електротехнике

PowerPoint Presentation

Slide 1

PLAN I PROGRAM ZA DOPUNSKU (PRODUŽNU) NASTAVU IZ MATEMATIKE (za 1. razred)

untitled

I година Назив предмета I термин Вријеме Сала Математика :00 све Основи електротехнике :00 све Програмирање

9. : , ( )

Microsoft PowerPoint - 3_Elektrohemijska_korozija_kinetika.ppt - Compatibility Mode

Slide 1

Техничко решење: Метода мерења реактивне снаге у сложенопериодичном режиму Руководилац пројекта: Владимир Вујичић Одговорно лице: Владимир Вујичић Аут

6-8. ČAS Celobrojno programiranje Rešavamo sledeći poblem celobrojnog programiranja: Gde pretpostavljamo da je A celobrojna matrica dimenzije,. Takođe

1 MATEMATIKA 1 (prva zadaća) Vektori i primjene 1. U trokutu ABC točke M i N dijele stranicu AB na tri jednaka dijela. O

UDŽBENIK 2. dio

Betonske i zidane konstrukcije 2

Microsoft Word - Dopunski_zadaci_iz_MFII_uz_III_kolokvij.doc

Celobrojno programiranje Rešavamo sledeći poblem celobrojnog programiranja: min c T x Ax = b x 0 x Z n Gde pretpostavljamo da je A celobrojna matrica

Algoritmi i arhitekture DSP I

Postavka 2: Osnovni graf algoritmi 1 DISTRIBUIRANI ALGORITMI I SISTEMI Iz kursa CSCE 668 Proleće 2014 Autor izvorne prezentacije: Prof. Jennifer Welch

Uvod u statistiku

АНКЕТА О ИЗБОРУ СТУДИЈСКИХ ГРУПА И МОДУЛА СТУДИЈСКИ ПРОГРАМИ МАСТЕР АКАДЕМСКИХ СТУДИЈА (МАС): А) РАЧУНАРСТВО И АУТОМАТИКА (РиА) и Б) СОФТВЕРСКО ИНЖЕЊЕ

KATALOG ZNANJA IZ INFORMATIKE

P1.0 Uvod

PowerPoint Presentation

Microsoft PowerPoint - 13-Funkcije_2.ppt [Compatibility Mode]

УНИВЕРЗИТЕТ У НОВОМ САДУ ОБРАЗАЦ 6

Транскрипт:

Алгоритам учења перцептрона Корак : Иницијализација. Нека је t=0 и нека вектор иницијалних тежинскиходноса w(t) R a дефинише иницијалнопресликавање од скривених неурона до излазног неурона. Корак : Изабрати стимулацију (подстреке) перцептрона примењујућиузоркеизобучавајућегскупа x k наслучајанначин, што се може исказати помоћу x k (t)=(s k (t),o k (t)) {0,}, где је o k циљни вектор, којипредстављазахтеваниодговорнастимулацију. Корак : Израчунати активацију неурона у скривеном слоју h k, на основуактивацијеулазнихнеурона, h k (t)= q(s k (t)). Корак 4: Израчунати активацију излазног неурона мреже r k, на основу активације неурона из скривеног слоја, r k (t)= f(net)= f(w(t) T, h k (t)), причемује f(net)=акоје net 0 и f(net)=0 акоје net < 0. Корак 5: Модификовати тежинске односе између скривених неурона иизлазногнеурона, w(t+)= w(t)+[ o k (t)- r k (t)]h k (t). Корак 6: Зауставитиучењеакоје t > t max или o k (t)= r k (t), за k=,...,n, иначенекаје t=t+итадајенеопходновратитисенакорак. 7/5

Детаљна анализа перцептрона у погледу могућности и ограничења примене Marvin Minsky и Seymour Papert (969) Главна карактеристика: линеарна дискриминациона функција у простору узорака у коначном броју итерација; y y - - + - - x x - - - a) Коректна класификација: самоза линеарно раздвајајуће класе узорака; а), самоједан процесирајући елемент перцептрона јепотребан, собзиром да је цела површина раздељена једном правом линијом на два одвојена региона, који су идентификовани са + и -; б), регион формиран од много правих линија => неопходно развити више перцептроназаовајпроблем. b) 8/5

Реализација логичког ИЛИ w =, w =, w =, w =, w =, w = -, θ = 0.5, θ =.5, θ = 0.5. 9/5

Вишеслојни перцептрони Проширују могућности класификације на шире скупове; Уводе се појмови хиперраван и хиперпростор, тако да су хиперравни, за n-димензионални простор (хиперпростор), одређене n- димензијом; У n-димензионалном улазном простору X, хиперраван H која врши сепарацију, дефинисана је на следећи начин: w x + wx + + wn xn = θ = w0 w x x Вектор тежинских односа w = [w,w,,w n ] Т управанна хиперраван; H + X X Каолинеарнисепаратор, перцептрон има велика ограничења у погледу нелинеарних пресликавања (бинарнаактивационафункција). 0/5

Backpropagation (BP) неуронска мрежа Развијена са циљем да се реши проблем нелинеарног пресликавања из улазног простора у излазни простор; Остварује се и модификација тежинских односа и између улазног и скривеног слоја неурона; Као и перцептрон, BP неуронска мрежа је мрежа са простирањем сигнала унапред; Реализује супервизорски вид учења; Користиградијентнипоступакприобучавању; Учипресликавањаизулазногпростораузоркауизлазнипростор, кроз процес минимизације грешке између актуелног излаза и захтеваног излаза; /5

Backpropagation (BP) неуронска мрежа Процес учења почиње са презентацијом улазног облика узорка BP мрежи; Простирањем кроз мрежу улазног облика узорка остварује се излазни облик; Затим се примењује генералисано делта правило да би се утврдила грешканаизлазу, којупростирањемуназадпрекоскривеногслоја, користи за лагано модификовање сваког тежинског односа између неурона; Поступак се понавља за сваки нови узорак; Систем BP неуронске мреже користи сигмоидну активациону функцију; Применом генералисаног делта правила утврђена грешка се коригује, тако што се користи први извод сигмоидне функције f (net)= f (S). Уколикосигмоиднафункција f(net) бржерасте, онда требаизвршитивећукорекцијугрешкеиобрнуто. /5

Архитектура BP мреже bias Елементарна архитектура BP мреже има три слоја; СлојевиСлојеви потпуноповезани; Користисеиструктураса више од једног скривеног слоја. I= [i,i, i,...,i R ] T улазни слој скривени слој излазни слој O=[o,o, o,...,o S ] T Број неурона у сваком слоју зависи од области примене, као и број скривених слојева; Најчешће постоји само један скривени слој, јер је BP мрежа са таквом структуром у стању да обезбеди репродуковање скупа захтеваних излазних облика за све обучавајуће парове; ЕкстраЕкстра улаз - неурон је увек активан и има излазно стање bias неурон; Понашасеумрежикаоисвакидругинеурон, иимазадатакдапартиципира у процесу учења побољшава конвергентне карактеристике BPмреже. /5

Генералисано делта правило Применом генералисаног делта правилa остварују се основне карактеристике мреже генерализација и нелинеарно раздвајање; M број обучавајућих парова, R број неурона у улазном слоју и С број неурона у излазном слоју; Обучавајућипарови (x,y )...(x М,y М ), којисудоведенина улаз мреже, обезбеђују мрежи могућност да реализује нелинеарнопресликавањеизмеђу x i и y i вектора, за i=,...,м. Lбројслојевамрежеинекајеса означенсвакислој: = 0 улазнислој, =,...,L скривенислој(еви), = L излазнислој. 4/5

Генералисано делта правило Неуронскамрежаима K неуронаусвакомслоју (гдеје =,...,L), Улазиуk-тинеурон -тогслојасудатипреко, зај=,...,k (истовременои излази неурона претходног слоја), који се могу означити са ; Сумирана улазна вредност за k-ти неурон у слоју је: S Излаз из k-тог неурона у -том слоју је остварен као резултат активације неурона; Преко функције преноса пропушта се улаз дат преко израза: K = net = O = f j= Грешка на излазном слоју L, BP неуронске мреже, је представљена разликом између израчунатих и задатих излаза: w kj ( S ) I + θ k O E pi = K L k= ( ) y O 5/5

Генералисано делта правило Минимизација грешке: = = K K E pi ( y O ) = y f k ( S ) k = k= ( ) =... = K K 0 0 K K y fk wkj f j + w ju fu w jvoiv + θ u + θ j θ k k = = = = j u v ГрадијентгрешкеЕ p, уодносунатежинскеодносе (заизлазнислој (=)): E w O I ( y O ) = ( y O ) f ( S ) I pi = k kj wkj Негативни предзнак указује на то да је правац промене тежинских односа са негативним градијентом Еp. 6/5

Генералисано делта правило ПравацпростирањаградијентагрешкеЕ p. Инкремент промене тежинских односа, за задати параметар учења η, је: i kj ( y O ) f ( S ) I η δ I w = η = k δ = ( y O ) f ( S ) k Параметар учења η се најчешће бира у опсегу од 0.5 (спорије обучавање) до 0.75 (брже, али нестабилније); Тежински односи се итеративно мењају док грешка Еp не оствари минумумутачки z min. Метода променљивог параметра:у почетку обучавања параметар η већи, током обучавања η се смањује, омогућавајући тако мрежи боље карактеристике учења. 7/5

Генералисано делта правило Други скривени слој (=): E w pi ju = K K O I I ( y ) ( ) ( ) ( ) O = y O f k S wkj f j S I iu k = i ju Први скривени слој (=): O O w ju Наосновуописаноггенералисаногделтаправила, алгоритамучења BP мрежеможесепредставитипрекоседамкорака, датихунаставку. k = w = ηδ I δ = f j ( S ) δ wkj E w = pi uv K ( y O ) K k = K K ( y O ) f k ( S ) wkj f j ( S ) w ju f u ( S iu ) x iv k= = k= O j= I O O O iu O iu iu w K iwuv = ηδ iu xiv δ iu = fu ( Siu ) δ w j= iu uv ju 8/5

Алгоритам учења BP неуронске мреже 9/5

Коришћене сигмоидне функције 0/5

E p Глобалнии локални минимуми z z min Понекад се обучавање BP неуронске мреже зауставља у тачки која се налази негде на правцу простирања градијента Еp, пре него што је стварни минимум остварен, јер је та вредност грешке Еp задовољавајућа. То управо говори о комплексности проблема конвергенције. z w Попречни пресек хипотетичке комплекснеповршигрешкее p у простору тежинских односа; Тачка z min јеглобални минимум. Каоштосевиди, наслициимаидругихтачака, z и z, којепредстављају локалне минимуме; Градијентни поступак минимизацијегрешкее p има зациљдасеуместоових локалних минимума пронађе глобални минимум. /5

Стохастички алгоритам тражења глобалног минимума E p w() w() w() w(0) w(6) w(7) w(8) w(9) w() w(5) w(4) w(0) w() w() Корисна хеуристичка техника напуштања тренутног локалног минимума и конвергирања ка дубљим локалним минимумима; Иницијализација алгоритма је у тачки w(0); w w w Трајекторија конвергенције се креће ка стриктном локалном минимуму који се налазиуw ; Након дивергенције до тачке w(), алгоритам враћа трајекторију конвергенције у w(4) уз тренутно задржавање у близини стриктног локалног минимума w; Следећа итерација: кретање ка тачки w(6); Обезбеђује секвенцијално конвергирање ка глобалном минимуму у w(0); /5

Стохастички алгоритам тражења глобалног минимума Бегом изстриктног глобалног минимума, преко тачака w() и w() (узевентуални одлазакиутачку w()), алгоритам остварује конвергенцију у стриктном глобалном минимуму w ; E p w() w() w() w(0) w(6) w(7) w(8) w(9) w() w(5) w(4) w(0) w() w() w w w У практичној примени алгоритам спорије конвергира ка глобалном минимуму; Свакиследећипутпроцесјезнатнобржи! Наградно питање: Да ли је брзина конвергенције важна за учење неуронске мреже? Одговор: Да, завећинупроблемавезанихзапроцесодлучивања, посебно када су роботи у питању! /5

Софтвер за симулирање вештачких неуронских мрежа- BPnet У BPnet-у је спроведена стохастичка конвергенција; Реализовано је рескалирање вредности улазних и излазних неурона каоињиховонормирање, причемусутевредностисведенена распон од 0. до 0.9, због успешне и брже стохастичке конвергенције; Када је конвергенција успешно завршена, вредностисеконвертују, рескалирањем у супротном смеру у стварне вредности (нпр. углова ротацијезазглобоверобота, З.Миљковић-књига); Конвергенција грешке Еp се прати и преко неколико контрола софтвера BPnet ( min. saved error ); Важну улогу у процесу конвергенције грешке Еp има и параметар учења η; Морадабудедовољномаликакоутоку тражења глобалног минимума или дубљег локалног минимума не би дошло до тога да мрежа веома тешко и споро пронађе уопште било какав прихватљив минимум грешке Еp; За конкретан проблем оптимална вредност параметра учења η је била 0.. 4/5

Хвалана напажњи! Питања? :: ИТС :: Вештачке неуронске мреже 5/5