30 Dec
Google Nu Va Mai Sustine Directiva Noinde In Robotstt

Google Nu va Mai Susține Directiva Noindex în Robots.txt

Incepand cu 1 septembrie, Google va inceta să susțină reguli neacceptate și nepublicate in protocolul exclusiv pentru roboți, a anunțat compania pe blogul Google Webmaster. Asta inseamnă că Google nu va mai suporta fișierele robots.txt cunoindex directivă enumerată in dosar.

Incepem prin a cere scuze daca sau strecurat greseli gramaticale datorita traducerii automate cu Google, tot Google anunta ca nu va mai susține directiva noindex in robots.txt, modificările se referă la modul in care Google ințelege unele dintre directivele care nu sunt acceptate in fișierul dvs. robots.txt.

in interesul menținerii unui ecosistem sănătos și a pregătirii pentru viitoarele versiuni open source viitoare, retragem tot codul care gestionează reguli neacceptate și nepublicate (cum ar fi noindex) la 1 septembrie 2019. Pentru cei dintre voi care s-au bazat pe noindex Directiva de indexare in fișierul robots.txt, care controlează crawling-ul, există o serie de opțiuni alternative ”, a spus compania.

Care sunt alternativele? Google a enumerat următoarele opțiuni, cele pe care probabil că ar fi trebuit să le folosești oricum:

(1). Noindex in metaetichetele roboților: acceptată atat in ​​anteturile de răspuns HTTP, cât și în HTML, directiva noindex este cea mai eficientă modalitate de a elimina adresele URL din index atunci cand este permisă accesarea cu crawlere.
(2). 404 și 410 Coduri de stare HTTP : Ambele coduri de stare inseamnă că pagina nu există, ceea ce va renunța la astfel de adrese URL din indexul Google după ce sunt crawlate și procesate.
(3). Protecție prin parolă: Dacă marcajul nu este utilizat pentru a indica abonament sau conținut cu pagină de plată , ascunderea unei pagini in spatele unei autentificări o va elimina in general din indexul Google.
(4). Interziceți in robots.txt: Motoarele de căutare pot indexa doar paginile despre care știu, astfel incat blocarea paginii de a fi accesată de multe ori Inseamnă că conținutul acesteia nu va fi indexat. In timp ce motorul de căutare poate indexa și o adresă URL bazată pe linkuri din alte pagini, fără a vedea conținutul in sine, ne propunem să facem astfel de pagini mai puțin vizibile in viitor.
(5). Instrumentul Console de căutare Eliminare URL : Instrumentul este o metodă rapidă și ușoară pentru a elimina temporar o adresă URL din rezultatele căutării Google.

Devenind un standard, ieri, Google a anunțat că compania lucrează la crearea protocolului de excludere a roboților ca fiind un standard și aceasta este probabil prima schimbare. De fapt, Google a lansat parser-ul robots.txt ca un proiect open source, impreună cu acest anunț, ieri.

De ce Google se schimbă acum. Google a căutat să schimbe asta de ani buni și, odată cu standardizarea protocolului, poate acum să inainteze. Google a spus că „a analizat modul de utilizare a regulilor robots.txt”. Google se concentrează pe analizarea implementărilor neacceptate ale proiectului de internet, cum ar fi intarzierea cu crawl,nofollow, și noindex. "Intrucat aceste reguli nu au fost niciodată documentate de Google, in mod natural, utilizarea lor in raport cu Googlebot este foarte scăzută", a spus Google. Aceste greșeli afectează prezența site-urilor web in rezultatele căutării Google in moduri pe care nu le considerăm webmasteri intenționate.

De ce ne pasă?

Cel mai important este să vă asigurați că nu utilizați directiva noindex in fișierul robots.txt. Dacă doriți să faceți modificările sugerate mai sus inainte de 1 septembrie. De asemenea, uitați să vedeți dacă utilizați comenzile nofollow sau crawl-delay și, dacă da, căutați să utilizați adevărata metodă acceptată pentru directivele care urmează.

Sursa: https://searchengineland.com

SEO SEO News Update Google Directiva Noindex

0 Comments

Join Conversation