www.wikidata.uk-ua.nina.az
Standart vinyatkiv dlya robotiv takozh vidomij yak protokol vinyatkiv dlya robotiv abo prosto robots txt ce standartnij sposib komunikaciyi vebsajtiv z poshukovimi robotami ta inshimi robotami Standart viznachaye yak povidomiti vebrobota pro te yaki chastini vebsajtu ne povinni buti obrobleni abo proskanovani Roboti chasto vikoristovuyutsya poshukovimi sistemami shob vstanoviti kategoriyu sajtu Ne vsi roboti spivpracyuyut z danim standartom napriklad Email address harvesting en spam boti en shkidlivi programi i roboti sho skanuyut na urazlivosti mozhut navpaki pochati z tih chastin vid yakih yim skazano trimatisya ostoron Hocha standart i vidriznyayetsya vid Sitemaps ale mozhe vikoristovuvatisya v poyednanni z nim Zmist 1 Istoriya 2 Pro standart 3 Bezpeka 4 Prikladi 5 Nestandartni rozshirennya 5 1 Crawl delay 5 2 Allow 5 3 Sitemap 5 4 Host 6 Primitki 7 Div takozhIstoriya RedaguvatiStandart buv zaproponovanij Martinom Kosterom pri roboti na Nexor v lyutomu 1994 roku Charlz Stross stverdzhuye sho ce vin sprovokuvav Kostera do stvorennya ideyi robots txt pislya togo yak vin napisav nekorektno pracyuyuchij veboglyadach sho viklikalo vipadkovu DoS ataku na server Kostera Vin shvidko stav standartom de fakto yakomu ninishni ta majbutni poshukovi roboti povinni sliduvati bilshist vikonala u tomu chisli v poshukovih sistemah takih yak WebCrawler Lycos ta AltaVista Pro standart RedaguvatiKoli vlasniki sajtiv hochut dati vkazivki poshukovim robotam voni pomishayut tekstovij fajl robots txt v korin yihnogo sajtu e g https www example com robots txt Cej fajl mistit vkazivki v specifichnomu formati divis priklad nizhche Roboti yaki pracyuyut z cim standartom namagayutsya otrimati cej fajl i prochitati vkazivki v nomu pered tim yak otrimayut bud yakij inshij fajl z vebsajtu Yaksho fajl ne isnuye poshukovi roboti vvazhayut sho vlasnik ne bazhaye nadavati bud yakih konkretnih instrukcij ta proglyadayut ves sajt robots txt fajl na vebsajti funkcionuvatime yak vkazivka robotam ignoruvati pevni fajli abo katalogi pri skanuvanni sajtu Ce mozhe buti vikoristano dlya zberezhennya osobistoyi informaciyi vid poshukovih sistem abo yaksho vmist pevnogo katalogu mozhe buti nepravilno interpretovanij abo ne pidhodit do osnovnoyi kategoriyi sajtu Abo yaksho yakijs dodatok maye pracyuvati tilki z pevnimi danimi Posilannya na storinki v spisku robots txt vse she mozhut z yavlyatisya v rezultatah poshuku yaksho voni priv yazani z storinok yaki proglyadati dozvoleno Fajl robots txt pokrivaye tilki odne pohodzhennya Dlya vebsajtiv z bagatma subdomenami kozhen maye mati vlasnij robots txt fajl Yaksho example com maye fajl robots txt a a example com ni to pravila yaki vikoristovuyutsya dlya example com ne budut vikoristovuvatisya na a example com Takozh kozhen protokol ta port maye mati svij vlasnij robots txt fajl http example com robots txt ne bude zastosovanij na https example com 8080 abo https example com Bagato osnovnih poshukovih sistem takih yak Ask AOL Baidu Bing Google Yahoo ta Yandex sliduyut comu standartu Fajl robots txt vstanovlyuye pravila skanuvannya sajtu dlya poshukovih robotiv poshukovih sistem Pered tim yak zdijsniti analiz sajtu poshukovi roboti vikonuyut perevirku cogo fajlu Zavdyaki takij proceduri voni mozhut pidvishiti efektivnist skanuvannya i zaoshaditi svoyi resursi 1 Bezpeka RedaguvatiPopri vikoristannya terminiv dozvoliti i zaboroniti protokol ye suto konsultativnij i spirayetsya na chesnist vebrobotiv Shkidlivi vebroboti navryad chi budut sliduvati robots txt deyaki mozhut navit navpaki vikoristovuvati robots txt yak pidkazku shob znajti zaboroneni posilannya i perejti bezposeredno do nih U konteksti robots txt fajli bezpeka cherez obmezhennya ne rekomenduyetsya yak tehnika bezpeki Prikladi RedaguvatiCej priklad govorit vsim robotam sho voni mozhut pereglyadati vsi fajli cherez znak dostupu dlya vsih ta Disallow vkazivka yaka nemaye znachen Ce znachit sho zhodna storinka ne ye zaboronenoyu User agent Disallow Takij zhe rezultat mozhe buti dosyagnutij porozhnim abo vzagali vidsutnim fajlom robots txt Cej priklad govorit vsim robotam trimatisya podali vid vsogo sajtu User agent Disallow A cej priklad govorit vsim robotam ne zahoditi v tri katalogi User agent Disallow cgi bin Disallow tmp Disallow junk Cej priklad vkazuye vsim robotam trimati podali vid odnogo pevnogo fajlu User agent Disallow directory file html Zauvazhte sho vsi inshi fajli v comu katalozi budut dostupni Cej priklad zaboronyaye dostup do sajtu tilki pevnomu robotu User agent BadBot zamistiti BadBot faktichnim botom koristuvacha Disallow Cej priklad govorit dvom pevnim robotam ne zahoditi do pevnih katalogiv User agent BadBot zamistiti BadBot faktichnim botom koristuvacha User agent Googlebot Disallow private Priklad yakij pokazuye yak mozhut buti vikoristani komentari Komentar pishetsya pislya simvolu Simvol pishetsya na pochatku ryadka abo pislya vkazivok User agent vidpovidaye vsim robotam Disallow vkazuye vid chogo trimatisya podali Takozh mozhlivo pererahuvati bagato robotiv z yihnimi vlasnimi pravilami Danij ryadok viznachaye dostup poshukovim sistemam Dekilka sajtiv takih yak Google pidtrimuyut dekilka ryadkiv agentiv sho dozvolyaye operatoru zaboronyati dostup pidgrupi svoyih servisiv z vikoristannyam konkretnih ryadkiv koristuvackogo agenta Priklad sho demonstruye kilka agentiv User agent googlebot Vsi servisi Google Disallow private zaboroniti cej katalog User agent googlebot news Tilki servis novin Disallow zaboroniti skriz User agent Bud yakij robot Disallow something zaboroniti cej katalogNestandartni rozshirennya RedaguvatiCrawl delay Redaguvati Crawl delay znachennya yake vkazuye poshukovikam zatrimku dlya povtornogo zavantazhennya storinki Oskilki ce znachennya ne ye chastinoyu standartu to i jogo interpretaciya zalezhit vid botiv yakimi vono zchituyetsya Yandex interpretuye crawl delay yak kilkist sekund yaki potribno zachekati pered povtornim poshukom Bing interpretuye yak rozmir chasovogo vikna vid 1 do 30 sekund protyagom yakogo BingBot zajde na sajt tilki raz User agent Crawl delay 10 Z 15 lyutogo 2018 roku Yandeks perestav vrahovuvati 2 direktivu Crawl delay Shob zadati shvidkist z yakoyu roboti budut zavantazhuvati storinki sajtu vikoristovujte shvidkist obhodu sajtu u Yandeks Vebmasteri Allow Redaguvati Deyaki z poshukoviki pidtrimuyut vkazivku Allow yaka ye obernenoyu do vkazivki Disallow Ce korisno koli vi hochete vkazati poshukoviku ominati vsyu direktoriyu ale hochete shob deyaki HTML dokumenti znahodilisya ta indeksuvalisya Dlya sumisnosti z usima robotami yaksho vi hochete dozvoliti dostup do odnogo fajlu v povnistyu zaboronenij direktoriyi vam slid pomistiti direktivu Allow pershoyu a za neyu vzhe Disallow napriklad Allow directory1 myfile html Disallow directory1 Cej priklad zaboronyaye vse v direktivi directory1 za vinyatkom directory1 myfile html do poki vkazivki roztashovani v pravilnomu poryadku Poryadok vazhlivij tilki dlya tih robotiv sho sliduyut standartu u vipadku z Google abo Bing poryadok ne vazhlivij Sitemap Redaguvati Deyaki poshukoviki pidtrimuyut vkazivku Sitemap sho dozvolyaye vikoristovuvati dekilka Sitemaps v odnomu fajli robots txt v takij formi Sitemap http www gstatic com s2 sitemaps profiles sitemap xml Sitemap http www google com hostednews sitemap index xml Host Redaguvati Deyaki poshukoviki Yandex pidtrimuyut direktivu Host yaka vikoristovuyetsya na sajtah z bagatma dzerkalami shob vkazati yakijs pevnij domen Host example com Abo alternativnij Host www example com Zauvazhte Ce ne pidtrimuyetsya vsima poshukovikami i yaksho i vikoristovuyetsya to maye buti vkazano vnizu fajlu robots txt pislya direktivi Crawl delay S 20 bereznya 2018 roku Yandeks perestav vrahovuvati 3 direktivu Host Primitki Redaguvati Sho take robots txt Arhiv originalu za 17 lipnya 2020 Shvidkist obhodu abo pro zmini v obliku direktivi Crawl delay https webmaster yandex ru ros 15 02 2018 Arhiv originalu za 11 travnya 2020 Procitovano 15 02 2018 301 j redirekt povnistyu zaminiv direktivu Host ros Arhiv originalu za 17 travnya 2021 Procitovano 17 travnya 2021 Div takozh RedaguvatiSecurity txt Povne kerivnictvo po vikoristannyu fajlu Robots txt Arhivovano 21 listopada 2021 u Wayback Machine Otrimano z https uk wikipedia org w index php title Robots txt amp oldid 40542280