www.wikidata.uk-ua.nina.az
Ne plutati z onlajn ta oflajn V informatici interakti vne mashi nne navcha nnya angl online machine learning ce metod mashinnogo navchannya v yakomu dani stayut dostupnimi poslidovno i yih vikoristovuyut dlya utochnennya najkrashogo peredbachuvacha dlya majbutnih danih na kozhnomu kroci na vidminu vid metodiv paketnogo navchannya angl batch learning yaki porodzhuyut najkrashij peredbachuvach shlyahom navchannya na vsomu trenuvalnomu nabori danih za raz Interaktivne navchannya ye poshirenoyu metodikoyu yaku vikoristovuyut u sferah mashinnogo navchannya de trenuvannya nad usim naborom danih obchislyuvalno nezdijsnenne sho vimagaye vikoristannya pozayadrovih algoritmiv en Jogo takozh vikoristovuyut u situaciyah koli neobhidno shob algoritm dinamichno pristosovuvavsya do novih zakonomirnostej u danih abo koli sami dani porodzhuyutsya yak funkciya chasu napriklad u peredbachuvanni cin akcij en Algoritmi interaktivnogo navchannya mozhut buti shilnimi do katastrofichnoyi interferenciyi en cyu problemu mozhlivo rozv yazuvati za dopomogoyu pidhodiv pokrokovogo navchannya Zmist 1 Vvedennya 2 Statistichnij viglyad interaktivnogo navchannya 2 1 Priklad linijni najmenshi kvadrati 2 2 Paketne navchannya 2 3 Interaktivne navchannya rekursivni najmenshi kvadrati 2 4 Stohastichnij gradiyentnij spusk 2 5 Pokrokovij stohastichnij gradiyentnij spusk 2 6 Yadrovi metodi 2 7 Interaktivna opukla optimizaciya 2 7 1 Idi za liderom IZL 2 7 2 Idi za regulyarizovanim liderom IZRL 2 8 Interaktivnij subgradiyentnij spusk ISS 2 9 Inshi algoritmi 3 Bezperervne navchannya 4 Interpretaciyi interaktivnogo navchannya 5 Vtilennya 6 Div takozh 7 Primitki 8 PosilannyaVvedennya RedaguvatiU postanovci kerovanogo navchannya nalezhit navchitisya funkciyi f X Y displaystyle f X to Y nbsp de X displaystyle X nbsp rozglyadayut yak prostir vhodiv a Y displaystyle Y nbsp yak prostir vihodiv yaka robit dobri peredbachennya na vipadkah uzyatih zi spilnogo rozpodilu jmovirnosti p x y displaystyle p x y nbsp na X Y displaystyle X times Y nbsp Naspravdi uchen nikoli ne znaye spravzhnogo rozpodilu p x y displaystyle p x y nbsp nad primirnikami Natomist uchen zazvichaj maye dostup do trenuvalnogo naboru prikladiv x 1 y 1 x n y n displaystyle x 1 y 1 ldots x n y n nbsp U cij postanovci funkciyu vtrat zadayut yak V Y Y R displaystyle V Y times Y to mathbb R nbsp tak sho V f x y displaystyle V f x y nbsp vimiryuye riznicyu mizh peredbachenim znachennyam f x displaystyle f x nbsp ta istinnim znachennyam y displaystyle y nbsp Idealna meta obrati taku funkciyu f H displaystyle f in mathcal H nbsp de H displaystyle mathcal H nbsp ce prostir funkcij zvanij prostorom gipotez shobi deyake ponyattya zagalnih vtrat bulo minimizovanim Zalezhno vid tipu modeli statistichna chi zmagalna mozhlivo vinahoditi rizni ponyattya vtrat yaki vedut do riznih algoritmiv navchannya Statistichnij viglyad interaktivnogo navchannya RedaguvatiU modelyah statistichnogo navchannya vvazhayut sho trenuvalni zrazki x i y i displaystyle x i y i nbsp vzyato z istinnogo rozpodilu p x y displaystyle p x y nbsp a meta polyagaye v minimizaciyi ochikuvanogo riziku I f E V f x y V f x y d p x y displaystyle I f mathbb E V f x y int V f x y dp x y nbsp Poshirena paradigma v cij situaciyi ocinyuvati funkciyu f displaystyle hat f nbsp cherez minimizaciyu empirichnogo riziku abo regulyarizovanu minimizaciyu empirichnogo riziku zazvichaj regulyarizaciyeyu Tihonova Vibir funkciyi vtrat tut porodzhuye dekilka dobre vidomih algoritmiv navchannya takih yak regulyarizovani najmenshi kvadrati ta opornovektorni mashini Suto interaktivna model u cij kategoriyi vchitimetsya na osnovi lishe novogo vhodu x t 1 y t 1 displaystyle x t 1 y t 1 nbsp potochnogo najkrashogo peredbachuvacha f t displaystyle f t nbsp ta deyakoyi dodatkovoyi zberezhenoyi informaciyi vid yakoyi zazvichaj ochikuyut vimog do zberigannya nezalezhnih vid rozmiru trenuvalnih danih Dlya bagatoh formulyuvan napriklad nelinijnih yadrovih metodiv istinne interaktivne navchannya nemozhlive hocha mozhlivo vikoristovuvati pevnij viglyad gibridnogo interaktivnogo navchannya z rekursivnimi algoritmami de f t 1 displaystyle f t 1 nbsp dozvoleno zalezhati vid f t displaystyle f t nbsp j usih poperednih tochok danih x 1 y 1 x t y t displaystyle x 1 y 1 ldots x t y t nbsp U comu vipadku stalist vimog do zberigannya bilshe ne garantovano oskilki vin vimagaye zberigannya vsih poperednih tochok danih ale rozv yazannya mozhe zajmati menshe chasu na obchislennya z dodavannyam novoyi tochki danih u porivnyanni z paketnimi metodikami navchannya Zagalnoyu strategiyeyu podolannya vishevkazanih problem ye vikoristannya minipaketiv angl mini batches yaki obroblyayut nevelikij paket b 1 displaystyle b geq 1 nbsp tochok danih za raz ce mozhna vvazhati psevdointeraktivnim navchannyam dlya b displaystyle b nbsp znachno menshogo za zagalnu kilkist trenuvalnih tochok Minipaketni metodiki vikoristovuyut z povtoryuvanim prohodzhennyam trenuvalnih danih dlya otrimannya optimizovanih pozayadrovih en versij algoritmiv mashinnogo navchannya napriklad stohastichnogo gradiyentnogo spusku U poyednanni zi zvorotnim poshirennyam ce narazi ye faktichnim trenuvalnim metodom dlya trenuvannya shtuchnih nejronnih merezh Priklad linijni najmenshi kvadrati Redaguvati Dokladnishe Linijni najmenshi kvadrati en Dlya poyasnennya riznomanitnih idej v interaktivnomu navchanni vikoristovuyut prostij priklad linijnih najmenshih kvadrativ Ci ideyi dostatno zagalni shobi yih bulo mozhlivo zastosovuvati do inshih postanovok napriklad z inshimi opuklimi funkciyami vtrat Paketne navchannya Redaguvati Rozglyanmo postanovku kerovanogo navchannya de f displaystyle f nbsp linijna funkciya yakoyi potribno navchitisya f x j w x j w x j displaystyle f x j langle w x j rangle w cdot x j nbsp de x j R d displaystyle x j in mathbb R d nbsp vektor vhodiv tochok danih a w R d displaystyle w in mathbb R d nbsp vektor linijnogo filtra Meta polyagaye v obchislenni vektora filtra w displaystyle w nbsp Z ciyeyu metoyu kvadratichnu funkciya vtrat V f x j y j f x j y j 2 w x j y j 2 displaystyle V f x j y j f x j y j 2 langle w x j rangle y j 2 nbsp vikoristovuyut dlya obchislennya vektora w displaystyle w nbsp yakij minimizuye empirichni vtrati I n w j 1 n V w x j y j j 1 n x j T w y j 2 displaystyle I n w sum j 1 n V langle w x j rangle y j sum j 1 n x j T w y j 2 nbsp de y j R displaystyle y j in mathbb R nbsp Nehaj X displaystyle X nbsp ce matricya danih i d displaystyle i times d nbsp a y R i displaystyle y in mathbb R i nbsp vektor stovpec cilovih znachen pislya nadhodzhennya pershih i displaystyle i nbsp tochok danih Vihodyachi z pripushennya sho kovariacijna matricya S i X T X displaystyle Sigma i X T X nbsp nevirodzhena v inshomu razi krashe diyati podibnim chinom z regulyarizaciyeyu Tihonova najkrashij rozv yazok f x w x displaystyle f x langle w x rangle nbsp zadachi linijnih najmenshih kvadrativ zadayetsya cherez w X T X 1 X T y S i 1 j 1 i x j y j displaystyle w X T X 1 X T y Sigma i 1 sum j 1 i x j y j nbsp Teper obchislennya kovariacijnoyi matrici S i j 1 i x j x j T displaystyle Sigma i sum j 1 i x j x j T nbsp zajmaye O i d 2 displaystyle O id 2 nbsp chasu obernennya matrici d d displaystyle d times d nbsp zajmaye O d 3 displaystyle O d 3 nbsp chasu todi yak reshta mnozhennya zajmaye O d 2 displaystyle O d 2 nbsp chasu dayuchi zagalnij chas O i d 2 d 3 displaystyle O id 2 d 3 nbsp Koli zagalna kilkist tochok u nabori danih n displaystyle n nbsp dlya pereobchislennya rozv yazku pislya nadhodzhennya kozhnoyi tochki danih i 1 n displaystyle i 1 ldots n nbsp nayivnij pidhid matime povnu skladnist O n 2 d 2 n d 3 displaystyle O n 2 d 2 nd 3 nbsp Zauvazhte sho yaksho zberigati matricyu S i displaystyle Sigma i nbsp to dlya yiyi utochnennya na kozhnomu kroci potribno lishe dodavati x i 1 x i 1 T displaystyle x i 1 x i 1 T nbsp sho zajmaye O d 2 displaystyle O d 2 nbsp chasu znizhuyuchi zagalnij chas do O n d 2 n d 3 O n d 3 displaystyle O nd 2 nd 3 O nd 3 nbsp ale z dodatkovim miscem dlya zberigannya O d 2 displaystyle O d 2 nbsp shobi zberigati S i displaystyle Sigma i nbsp 1 Interaktivne navchannya rekursivni najmenshi kvadrati Redaguvati Algoritm rekursivnih najmenshih kvadrativ RNK angl recursive least squares RLS rozglyadaye interaktivnij pidhid do zadachi najmenshih kvadrativ Mozhlivo pokazati sho yaksho vstanoviti pochatkovi znachennya w 0 0 R d displaystyle textstyle w 0 0 in mathbb R d nbsp ta G 0 I R d d displaystyle textstyle Gamma 0 I in mathbb R d times d nbsp to rozv yazok zadachi linijnih najmenshih kvadrativ navedenoyi v poperednomu rozdili mozhlivo obchislyuvati nastupnim iteruvannyam G i G i 1 G i 1 x i x i T G i 1 1 x i T G i 1 x i displaystyle Gamma i Gamma i 1 frac Gamma i 1 x i x i T Gamma i 1 1 x i T Gamma i 1 x i nbsp w i w i 1 G i x i x i T w i 1 y i displaystyle w i w i 1 Gamma i x i x i T w i 1 y i nbsp Navedenij vishe iterativnij algoritm mozhlivo dovesti za dopomogoyu indukciyi za i displaystyle i nbsp 2 Ce dovedennya takozh pokazuye sho G i S i 1 displaystyle Gamma i Sigma i 1 nbsp RNK takozh mozhlivo rozglyadati v konteksti adaptivnih filtriv div RNK en Skladnist cogo algoritmu dlya n displaystyle n nbsp krokiv stanovit O n d 2 displaystyle O nd 2 nbsp sho na poryadok shvidshe za vidpovidnu skladnist paketnogo navchannya Vimogi do zberigannya na kozhnomu kroci i displaystyle i nbsp tut zberigati matricyu G i displaystyle Gamma i nbsp sho stanovit stali O d 2 displaystyle O d 2 nbsp Na toj vipadok koli S i displaystyle Sigma i nbsp virodzhena rozglyanmo regulyarizovanij variant funkciyi vtrat zadachi j 1 n x j T w y j 2 l w 2 2 displaystyle sum j 1 n x j T w y j 2 lambda w 2 2 nbsp Vidtak legko pokazati sho pracyuye toj samij algoritm G 0 I l I 1 displaystyle Gamma 0 I lambda I 1 nbsp j iteraciyi prodovzhuyut davati G i S i l I 1 displaystyle Gamma i Sigma i lambda I 1 nbsp 1 Stohastichnij gradiyentnij spusk Redaguvati Dokladnishe Stohastichnij gradiyentnij spuskKoli ce w i w i 1 G i x i x i T w i 1 y i displaystyle textstyle w i w i 1 Gamma i x i x i T w i 1 y i nbsp zaminiti na w i w i 1 g i x i x i T w i 1 y i w i 1 g i V w i 1 x i y i displaystyle textstyle w i w i 1 gamma i x i x i T w i 1 y i w i 1 gamma i nabla V langle w i 1 x i rangle y i nbsp abo G i R d d displaystyle Gamma i in mathbb R d times d nbsp na g i R displaystyle gamma i in mathbb R nbsp ce staye algoritmom stohastichnogo gradiyentnogo spusku V comu vipadku skladnist cogo algoritmu dlya n displaystyle n nbsp krokiv znizhuyetsya do O n d displaystyle O nd nbsp Vimogi do zberigannya na kozhnomu kroci i displaystyle i nbsp stali j stanovlyat O d displaystyle O d nbsp Prote rozmir kroku g i displaystyle gamma i nbsp neobhidno obirati retelno shobi rozv yazati zadachu minimizaciyi ochikuvanogo riziku yak opisano vishe Obravshi rozmir kroku zatuhannya g i 1 i displaystyle gamma i approx frac 1 sqrt i nbsp mozhlivo dovesti zbizhnist serednoyi iteraciyi w n 1 n i 1 n w i displaystyle overline w n frac 1 n sum i 1 n w i nbsp Cya postanovka ye okremim vipadkom stohastichnoyi optimizaciyi dobre vidomoyi zadachi optimizaciyi 1 Pokrokovij stohastichnij gradiyentnij spusk Redaguvati Na praktici mozhlivo vikonuvati dekilka stohastichnih gradiyentnih prohodiv nad danimi takozh zvanih ciklami abo epohami Otrimanij takim chinom algoritm nosit nazvu pokrokovogo gradiyentnogo metoda angl incremental gradient method j vidpovidaye iteraciyi w i w i 1 g i V w i 1 x t i y t i displaystyle textstyle w i w i 1 gamma i nabla V langle w i 1 x t i rangle y t i nbsp Osnovna vidminnist vid metodu stohastichnogo gradiyenta polyagaye v tomu sho tut obirayut poslidovnist t i displaystyle t i nbsp shobi virishuvati yaku trenuvalnu tochku vidvidati na i displaystyle i nbsp tomu kroci Taka poslidovnist mozhe buti stohastichnoyu abo determinovanoyu Vidtak kilkist iteracij vidokremlyuyetsya vid kilkosti tochok kozhnu tochku mozhlivo rozglyadati dekilka raziv Mozhlivo prodemonstruvati sho metod pokrokovogo gradiyenta zabezpechuye minimizaciyu empirichnogo riziku 3 Pokrokovi metodi mozhut buti korisnimi pri rozglyadi cilovih funkcij skladenih iz sumi bagatoh chleniv napriklad empirichnoyi pohibki sho vidpovidaye duzhe velikomu naboru danih 1 Yadrovi metodi Redaguvati Div takozh Yadrovij metod Yadra mozhlivo vikoristovuvati dlya rozshirennya navedenih vishe algoritmiv do neparametrichnih modelej abo modelej de parametri utvoryuyut neskinchennovimirnij prostir Vidpovidna procedura bilshe ne bude istinno interaktivnoyu peredbachayuchi natomist zberigannya vsih tochok danih ale vse zh shvidshoyu za metod gruboyi sili Ce obgovorennya obmezhuyetsya vipadkom kvadratichnih vtrat hocha jogo mozhe buti rozshireno do bud yakih opuklih vtrat Za dopomogoyu prostoyi indukciyi mozhlivo pokazati 1 sho yaksho X i displaystyle X i nbsp ce matricya danih a w i displaystyle w i nbsp ce rezultat pislya i displaystyle i nbsp krokiv algoritmu SGS to w i X i T c i displaystyle w i X i T c i nbsp de c i c i 1 c i 2 c i i R i displaystyle textstyle c i c i 1 c i 2 c i i in mathbb R i nbsp a poslidovnist c i displaystyle c i nbsp zadovolnyaye rekursiyu c 0 0 displaystyle c 0 0 nbsp c i j c i 1 j j 1 2 i 1 displaystyle c i j c i 1 j j 1 2 i 1 nbsp i c i i g i y i j 1 i 1 c i 1 j x j x i displaystyle c i i gamma i Big y i sum j 1 i 1 c i 1 j langle x j x i rangle Big nbsp Zauvazhte sho tut x j x i displaystyle langle x j x i rangle nbsp ye prosto standartnim yadrom na R d displaystyle mathbb R d nbsp a peredbachuvach maye viglyad f i x w i 1 x j 1 i 1 c i 1 j x j x displaystyle f i x langle w i 1 x rangle sum j 1 i 1 c i 1 j langle x j x rangle nbsp Teper yaksho natomist vvodyat zagalne yadro K displaystyle K nbsp i pokladayut peredbachuvach yak f i x j 1 i 1 c i 1 j K x j x displaystyle f i x sum j 1 i 1 c i 1 j K x j x nbsp to te same dovedennya takozh pokazhe sho peredbachuvach yakij minimizuye vtrati za metodom najmenshih kvadrativ otrimuyetsya zaminoyu navedenoyi vishe rekursiyi na c i i g i y i j 1 i 1 c i 1 j K x j x i displaystyle c i i gamma i Big y i sum j 1 i 1 c i 1 j K x j x i Big nbsp Navedenij vishe viraz vimagaye zberigannya vsih danih dlya utochnennya c i displaystyle c i nbsp Zagalna chasova skladnist dlya rekursiyi pri ocinyuvanni dlya n displaystyle n nbsp toyi tochki danih stanovit O n 2 d k displaystyle O n 2 dk nbsp de k displaystyle k nbsp ce vitrati na obchislennya yadra na odnij pari tochok 1 Takim chinom vikoristannya yadra dozvolilo perejti vid skinchennovimirnogo prostoru parametriv w i R d displaystyle textstyle w i in mathbb R d nbsp do mozhlivo neskinchennovimirnoyi funkciyi podanoyi yadrom K displaystyle K nbsp natomist vikonuyuchi rekursiyu na prostori parametriv c i R i displaystyle textstyle c i in mathbb R i nbsp rozmirnist yakogo taka sama yak i rozmir trenuvalnogo naboru danih Zagalom ce naslidok teoremi pro podannya en 1 Interaktivna opukla optimizaciya Redaguvati Interaktivna opukla optimizaciya IOO angl online convex optimization OCO 4 ce zagalna sistema dlya uhvalyuvannya rishen yaka vikoristovuye dlya stvorennya efektivnih algoritmiv opuklu optimizaciyu Cya sistema polyagaye v povtoryuvanij gri nastupnim chinom Dlya t 1 2 T displaystyle t 1 2 T nbsp Uchen otrimuye vhid x t displaystyle x t nbsp Uchen vidaye w t displaystyle w t nbsp z fiksovanoyi opukloyi mnozhini S displaystyle S nbsp Priroda povertaye opuklu funkciyu vtrat v t S R displaystyle v t S rightarrow mathbb R nbsp Uchen zaznaye vtrat v t w t displaystyle v t w t nbsp j utochnyuye svoyu modelMetoyu ye minimizuvati smutok abo riznicyu mizh sukupnimi vtratami ta vtratami retrospektivno najkrashoyi fiksovanoyi tochki u S displaystyle u in S nbsp Yak priklad rozglyanmo vipadok interaktivnoyi linijnoyi regresiyi najmenshih kvadrativ Tut vektori vag pohodyat iz opukloyi mnozhini S R d displaystyle S mathbb R d nbsp a priroda povertaye opuklu funkciyu vtrat v t w w x t y t 2 displaystyle v t w langle w x t rangle y t 2 nbsp Zauvazhte sho y t displaystyle y t nbsp neyavno povertayetsya razom z v t displaystyle v t nbsp Prote deyaki zadachi interaktivnogo peredbachuvannya v sistemu IOO ne vpisuyutsya Napriklad v interaktivnomu klasifikuvanni oblast peredbachuvannya ta funkciyi vtrat ne opukli U takih scenariyah vikoristovuyut dvi prosti metodiki dlya uopuklyuvannya en randomizaciyu ta surogatni funkciyi vtrat dzherelo Nizhche navedeno kilka prostih algoritmiv interaktivnoyi opukloyi optimizaciyi Idi za liderom IZL Redaguvati Najprostishe pravilo navchannya namagatisya obirati na potochnomu kroci gipotezu yaka maye najmenshi vtrati nad usima minulimi raundami Cej algoritm maye nazvu Idi za liderom angl Follow the leader FTL a raund t displaystyle t nbsp zadayetsya prosto yak w t a r g m i n w S i 1 t 1 v i w R w displaystyle w t operatorname arg min w in S sum i 1 t 1 v i w R w nbsp Cej metod vidtak mozhlivo rozglyadati yak zhadibnij algoritm Dlya vipadku interaktivnoyi kvadratichnoyi optimizaciyi de funkciya vtrat v t w w x t 2 2 displaystyle v t w w x t 2 2 nbsp mozhlivo prodemonstruvati mezhu smutku yaka zrostaye yak log T displaystyle log T nbsp Prote dlya algoritmu IZL podibni mezhi nemozhlivo otrimati dlya inshih vazhlivih simejstv modelej takih yak interaktivna linijna optimizaciya Dlya cogo potribno vidozminiti IZL dodavshi regulyarizaciyu Idi za regulyarizovanim liderom IZRL Redaguvati Ce prirodna vidozmina IZL yaku vikoristovuyut shobi stabilizuvati rozv yazki IZL j otrimuvati krashi mezhi smutku Obirayut funkciyu regulyarizaciyi R S R displaystyle R S rightarrow mathbb R nbsp i navchannya v raundi t vikonuyut takim chinom w t a r g m i n w S i 1 t 1 v i w R w displaystyle w t operatorname arg min w in S sum i 1 t 1 v i w R w nbsp Yak osoblivij priklad rozglyanmo vipadok interaktivnoyi linijnoyi optimizaciyi tobto koli priroda povertaye funkciyi vtrat viglyadu v t w w z t displaystyle v t w langle w z t rangle nbsp Krim togo nehaj S R d displaystyle S mathbb R d nbsp Pripustimo sho obirayut funkciyu regulyarizaciyi R w 1 2 h w 2 2 displaystyle R w frac 1 2 eta w 2 2 nbsp dlya deyakogo dodatnogo chisla h displaystyle eta nbsp Todi mozhlivo pokazati sho iteraciya minimizaciyi smutku nabuvaye viglyadu w t 1 h i 1 t z i w t h z t displaystyle w t 1 eta sum i 1 t z i w t eta z t nbsp Zauvazhte sho ce mozhlivo perepisati yak w t 1 w t h v t w t displaystyle w t 1 w t eta nabla v t w t nbsp sho viglyadaye tochno yak pokrokovij gradiyentnij spusk Yaksho S ce natomist deyakij opuklij pidprostir R d displaystyle mathbb R d nbsp to neobhidno bude robiti proyekciyu na S sho dast vidozminene pravilo utochnennya w t 1 P S h i 1 t z i P S h 8 t 1 displaystyle w t 1 Pi S eta sum i 1 t z i Pi S eta theta t 1 nbsp Cej algoritm vidomij yak vidkladena proyekciya angl lazy projection oskilki vektor 8 t 1 displaystyle theta t 1 nbsp nakopichuye gradiyenti Vin takozh vidomij yak algoritm podvijnogo userednyuvannya Nesterova U comu scenariyi linijnoyi funkcij vtrat i kvadratichnoyi regulyarizaciyi smutok obmezhenij O T displaystyle O sqrt T nbsp i vidtak serednij smutok zvoditsya do 0 yak i bazhano Interaktivnij subgradiyentnij spusk ISS Redaguvati Div takozh Subgradiyentnij metod Navedenim vishe dovedeno mezhu smutku dlya linijnih funkcij vtrat v t w w z t displaystyle v t w langle w z t rangle nbsp Shob uzagalniti cej algoritm na dovilnu opuklu funkciyu vtrat vikoristovuyut subgradiyent v t w t displaystyle partial v t w t nbsp funkciyi vtrat v t displaystyle v t nbsp yak linijne nablizhennya v t displaystyle v t nbsp blizko w t displaystyle w t nbsp sho daye algoritm interaktivnogo subgradiyentnogo spusku angl online subgradient descent OSD Vstanoviti pochatkovi znachennya parametra h w 1 0 displaystyle eta w 1 0 nbsp Dlya t 1 2 T displaystyle t 1 2 T nbsp Zrobiti peredbachennya z vikoristannyam w t displaystyle w t nbsp otrimati vid prirodi f t displaystyle f t nbsp Obrati z t v t w t displaystyle z t in partial v t w t nbsp Yaksho S R d displaystyle S mathbb R d nbsp zrobiti utochnennya w t 1 w t h z t displaystyle w t 1 w t eta z t nbsp Yaksho S R d displaystyle S subset mathbb R d nbsp zrobiti proyekciyu sukupnih gradiyentiv na S displaystyle S nbsp tobto w t 1 P S h 8 t 1 8 t 1 8 t z t displaystyle w t 1 Pi S eta theta t 1 theta t 1 theta t z t nbsp Algoritm ISS mozhlivo vikoristovuvati dlya vivedennya mezh smutku O T displaystyle O sqrt T nbsp dlya interaktivnoyi versiyi OVM dlya klasifikuvannya yaka vikoristovuye zavisni vtrati v t w max 0 1 y t w x t displaystyle v t w max 0 1 y t w cdot x t nbsp Inshi algoritmi Redaguvati Kvadratichno regulyarizovani algoritmi IZRL vedut do algoritmiv vidkladenih proyekcij gradiyenta yak opisano vishe Shobi vikoristati navedene vishe dlya dovilnih opuklih funkcij i regulyarizatoriv vikoristovuyut interaktivnij dzerkalnij spusk en Optimalnu regulyarizaciyu zadnim chislom mozhe buti vivedeno dlya linijnih funkcij vtrat ce vede do algoritmu AdaGrad en Dlya evklidovoyi regulyarizaciyi mozhlivo pokazati mezhu smutku O T displaystyle O sqrt T nbsp yaku mozhlivo vdoskonaliti dali do O log T displaystyle O log T nbsp dlya silno opuklih ta eksponencijno ugnutih funkcij vtrat Bezperervne navchannya RedaguvatiBezperervne navchannya angl continual learning oznachaye bezperervne vdoskonalennya navchenoyi modeli shlyahom obrobki bezperervnih potokiv informaciyi 5 Mozhlivosti bezperervnogo navchannya vazhlivi dlya programnih sistem ta avtonomnih agentiv yaki vzayemodiyut u realnomu sviti sho postijno zminyuyetsya Prote bezperervne navchannya ce viklik dlya mashinnogo navchannya ta modelej nejronnih merezh oskilki bezperervne otrimannya dostupnoyi pokrokovo informaciyi z nestacionarnih rozpodiliv danih zazvichaj prizvodit do katastrofichnogo zabuvannya en Interpretaciyi interaktivnogo navchannya RedaguvatiParadigma interaktivnogo navchannya maye rizni interpretaciyi zalezhno vid viboru modeli navchannya kozhna z yakih maye rizni naslidki shodo peredbachuvalnoyi yakosti poslidovnosti funkcij f 1 f 2 f n displaystyle f 1 f 2 ldots f n nbsp Dlya cogo obgovorennya vikoristano prototip algoritmu stohastichnogo gradiyentnogo spusku Yak zaznacheno vishe jogo rekursiyu zadano formuloyu w t w t 1 g t V w t 1 x t y t displaystyle textstyle w t w t 1 gamma t nabla V langle w t 1 x t rangle y t nbsp Persha interpretaciya rozglyadaye metod stohastichnogo gradiyentnogo spusku v zastosuvanni do viznachenoyi vishe zadachi minimizaciyi ochikuvanogo riziku I w displaystyle I w nbsp 6 Dijsno u vipadku neskinchennogo potoku danih oskilki vvazhayetsya sho prikladi x 1 y 1 x 2 y 2 displaystyle x 1 y 1 x 2 y 2 ldots nbsp berutsya z rozpodilu p x y displaystyle p x y nbsp n o r to poslidovnist gradiyentiv V displaystyle V cdot cdot nbsp u navedenij vishe iteraciyi ye n o r vibirkoyu stohastichnih ocinok gradiyenta ochikuvanogo riziku I w displaystyle I w nbsp j vidtak mozhlivo zastosuvati rezultati skladnosti dlya metodu stohastichnogo gradiyentnogo spusku dlya obmezhennya vidhilennya I w t I w displaystyle I w t I w ast nbsp de w displaystyle w ast nbsp ce minimizator I w displaystyle I w nbsp 7 Cya interpretaciya takozh spravedliva u vipadku skinchennogo trenuvalnogo naboru hoch pri bagatokratnih prohodah danimi gradiyenti vzhe j ne ye nezalezhnimi vse odno v osoblivih vipadkah otrimati rezultati skladnosti mozhlivo Druga interpretaciya stosuyetsya vipadku skinchennogo trenuvalnogo naboru j rozglyadaye algoritm SGS yak primirnik metodu pokrokovogo gradiyentnogo spusku 3 U comu vipadku natomist divlyatsya na empirichnij rizik I n w 1 n i 1 n V w x i y i displaystyle I n w frac 1 n sum i 1 n V langle w x i rangle y i nbsp Oskilki gradiyenti V displaystyle V cdot cdot nbsp v iteraciyah pokrokovogo gradiyentnogo spusku takozh ye stohastichnimi ocinkami gradiyenta I n w displaystyle I n w nbsp cya interpretaciya takozh pov yazana z metodom stohastichnogo gradiyentnogo spusku ale zastosovuyetsya dlya minimizaciyi empirichnogo riziku a ne ochikuvanogo Oskilki cya interpretaciya rozglyadaye empirichnij rizik zamist ochikuvanogo bagatorazovi prohodi danimi legko dozvoleni j faktichno vedut do zhorstkishih mezh na vidhilennya I n w t I n w n displaystyle I n w t I n w n ast nbsp de w n displaystyle w n ast nbsp minimizator I n w displaystyle I n w nbsp Vtilennya RedaguvatiVowpal Wabbit en vidkrita shvidka pozayadrova sistema interaktivnogo navchannya yaka viriznyayetsya pidtrimkoyu nizki zveden mashinnogo navchannya zvazhuvannya vazhlivosti ta viborom riznih funkcij vtrat ta algoritmiv optimizaciyi Vona vikoristovuye geshuvalnij tryuk en dlya obmezhennya rozmiru naboru oznak nezalezhno vid obsyagu trenuvalnih danih scikit learn proponuye pozayadrovi vtilennya algoritmiv dlya Klasifikuvannya perceptron klasifikator SGS nayivnij bayesiv klasifikator Regresiyi regresor SGS pasivno agresivnij regresor Klasteruvannya minipaketni k seredni Vidilyannya oznak minipaketne navchannya slovnikiv en pokrokovij MGK Div takozh RedaguvatiParadigmi navchannya Pokrokove navchannya Vidkladene navchannya Avtonomne navchannya en utochniti termin protilezhna model Navchannya z pidkriplennyam Bagatorukij bandit Kerovane navchannyaZagalni algoritmi Interaktivnij algoritm Interaktivna optimizaciya en Potokovij algoritm en Stohastichnij gradiyentnij spuskModeli navchannya Teoriya adaptivnogo rezonansu en Iyerarhichna chasova pam yat Algoritm k najblizhchih susidiv Navchane vektorne kvantuvannya en PerceptronPrimitki Redaguvati a b v g d e zh L Rosasco T Poggio Machine Learning a Regularization Approach MIT 9 520 Lectures Notes Manuscript Dec 2015 Chapter 7 Online Learning angl Yin Harold J Kushner G George 2003 Stochastic approximation and recursive algorithms and applications angl vid Second New York Springer s 8 12 ISBN 978 0 387 21769 7 a b Bertsekas D P 2011 Incremental gradient subgradient and proximal methods for convex optimization a survey Optimization for Machine Learning 85 angl Hazan Elad 2015 Introduction to Online Convex Optimization angl Foundations and Trends in Optimization Parisi German I Kemker Ronald Part Jose L Kanan Christopher Wermter Stefan 2019 Continual lifelong learning with neural networks A review Neural Networks angl 113 54 71 ISSN 0893 6080 arXiv 1802 07569 doi 10 1016 j neunet 2019 01 012 Bottou Leon 1998 Online Algorithms and Stochastic Approximations Online Learning and Neural Networks angl Cambridge University Press ISBN 978 0 521 65263 6 Stochastic Approximation Algorithms and Applications Harold J Kushner and G George Yin New York Springer Verlag 1997 ISBN 0 387 94916 X 2nd ed titled Stochastic Approximation and Recursive Algorithms and Applications 2003 ISBN 0 387 00894 2 angl Posilannya Redaguvati6 883 Online Methods in Machine Learning Theory and Applications Alexander Rakhlin MIT angl Otrimano z https uk wikipedia org w index php title Interaktivne mashinne navchannya amp oldid 40346007