www.wikidata.uk-ua.nina.az
Velika movna model abo velika model movi VMM abo LLM vid angl large language model ce model movi sho skladayetsya z nejronnoyi merezhi z bagatma parametrami vid desyatkiv miljoniv do milyardiv navchenih na velikij kilkosti nemarkovanogo tekstu za dopomogoyu samokerovanogo abo napivkerovanogo navchannya 1 LLM z yavilisya priblizno u 2018 roci ta dobre spravlyayutsya z riznomanitnimi zavdannyami Ce zmistilo fokus doslidzhen obrobki prirodnoyi movi z poperednoyi paradigmi pidgotovki specializovanih kerovanih modelej dlya konkretnih zavdan Hocha termin velika movna model ne maye formalnogo viznachennya vin chasto vidnositsya do modelej glibokogo navchannya z miljonami abo navit milyardami parametriv yaki buli poperedno navcheni na velikomu korpusi LLM ce modeli zagalnogo priznachennya yaki vidminno spravlyayutsya z shirokim spektrom zavdan na vidminu vid navchannya dlya odnogo konkretnogo zavdannya napriklad analiz nastroyiv rozpiznavannya imenovanih ob yektiv abo matematichne mirkuvannya 2 Diapazon i majsternist z yakoyu voni mozhut vikonuvati zavdannya yak pravilo ye funkciyeyu kilkosti resursiv danih rozmiru parametriv obchislyuvalnoyi potuzhnosti vidilenih dlya nih 3 Zmist 1 Arhitektura 1 1 Tokenizaciya 2 Navchannya 3 PrimitkiArhitektura RedaguvatiVeliki movni modeli najchastishe vikoristovuyut arhitekturu tipu transformer yaka z 2018 roku stala standartnoyu tehnikoyu glibokogo navchannya dlya poslidovnih danih ranishe najbilsh poshirenimi buli rekurentni arhitekturi taki yak LSTM Tokenizaciya Redaguvati LLM ce matematichni funkciyi vhid i vihid yakih ye spiskami chisel Otzhe slova potribno peretvoriti na chisla LLM vikoristovuyut okremij tokenizator yakij vidobrazhaye mizh tekstami ta spiskami cilih chisel Cej tokenizator zazvichaj spochatku adaptuyetsya do vsogo navchalnogo naboru danih a potim zamorozhuyetsya do togo yak LLM bude navchenij Tokenizator vikonuye podvijnu rol yaka vklyuchaye stisnennya tekstu sho ekonomit obchislyuvalni resursi Napriklad zagalni slova abo frazi na kshtalt de znahoditsya mozhut buti zakodovani v odin token zamist semi simvoliv Inshoyu funkciyeyu tokenizatoriv ye stisnennya tekstu sho ekonomit obchislennya Zvichajni slova chi frazi yak ot de ye mozhna zakoduvati odnim markerom zamist 7 simvoliv U seriyi OpenAI GPT vikoristovuyetsya tokenizator de 1 marker vidobrazhaye priblizno 4 simvoli abo priblizno 0 75 slova u zvichajnomu anglijskomu teksti 4 Nezvichajnij anglijskij tekst mensh peredbachuvanij tomu mensh stiskayetsya tomu dlya koduvannya potribno bilshe tokeniv Tokenizator ne mozhe vivoditi dovilni cili chisla Zazvichaj voni vivodyat lishe cili chisla v diapazoni 0 1 2 V 1 displaystyle 0 1 2 V 1 nbsp de V displaystyle V nbsp nazivayetsya rozmirom jogo slovnikovogo zapasu Deyaki tokenizeri zdatni obroblyati dovilnij tekst zazvichaj pracyuyuchi bezposeredno z Unicode ale deyaki ni Zustrichayuchi tekst yakij ne koduyetsya tokenizator vivodit specialnij marker chasto 0 yakij predstavlyaye nevidomij tekst Ce chasto zapisuyetsya yak UNK napriklad u statti BERT Inshij specialnij marker yakij zazvichaj vikoristovuyetsya ce PAD chasto 1 dlya zapovnennya Ce vikoristovuyetsya tomu sho LLM zazvichaj vikoristovuyutsya dlya paketiv tekstu odnochasno i ci teksti ne koduyutsya do odnakovoyi dovzhini Oskilki LLM zazvichaj vimagayut shob vhidni dani buli masivom bez zubciv korotshi zakodovani teksti povinni buti dopovneni poki voni ne zbigayutsya z dovzhinoyu najdovshogo Navchannya RedaguvatiBilshist LLM poperedno navcheni takim chinom sho vrahovuyuchi navchalnij nabir tekstovih markeriv model peredbachaye markeri v nabori danih Isnuye dva zagalnih stili takoyi poperednoyi pidgotovki 5 avtoregresiya stil GPT peredbachiti nastupne slovo yaksho vzyati segment tekstu napriklad Ya lyublyu yisti model peredbachaye nastupni markeri napriklad morozivo maskovanij BERT style close test vrahovuyuchi segment tekstu napriklad I like to MASK MASK cream model peredbachaye zamaskovani leksemi napriklad eat ice Primitki Redaguvati Goled Shraddha 7 travnya 2021 Self Supervised Learning Vs Semi Supervised Learning How They Differ Analytics India Magazine Wei Jason Tay Yi Bommasani Rishi Raffel Colin Zoph Barret Borgeaud Sebastian Yogatama Dani Bosma Maarten ta in 31 serpnya 2022 Emergent Abilities of Large Language Models Transactions on Machine Learning Research angl ISSN 2835 8856 rekomenduyetsya displayauthors dovidka Bowman Samuel R 2023 Eight Things to Know about Large Language Models arXiv 2304 00612 OpenAI API platform openai com angl Arhiv originalu za 23 kvitnya 2023 Procitovano 30 kvitnya 2023 Zaib Munazza Sheng Quan Z Emma Zhang Wei 4 lyutogo 2020 A Short Survey of Pre trained Language Models for Conversational AI A New Age in NLP Proceedings of the Australasian Computer Science Week Multiconference 1 4 ISBN 9781450376976 arXiv 2104 10810 doi 10 1145 3373017 3373028 Otrimano z https uk wikipedia org w index php title Velika movna model amp oldid 40626969