http://prntscr.com/srsox-zobaczcie zrzut ekrany. Nie wiem dlaczego pojawił się taki błąd. Jak to rozwiązać?
No skoro w robots.txt zabroniles dostepu, to nie rozumiem zdziwienia.
http://www.robotstxt.org/robotstxt.html
Zmien plik robots.txt - w linku wyzej masz opisane jak sie go tworzy. Aktualnie zabrania on dostepu (Disallow) robotom do calej zawartosci serwera (/).
Where to put it
The short answer: in the top-level directory of your web server.
Zadaj sobie przynajmniej minimum trudu.
Z plikiem jest wszystko ok:
http://wychowaniefizyczne.net/robots.txt
Poczekaj na ponowne odwiedziny robota.
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
a slash po Disallow nie oznacza blokowania?
Prawda, poprzednia wersja wygladala inaczej, aktualny powinien byc ok. To to co teraz zmieniles?
http://prntscr.com/srsox
a slash po Disallow nie oznacza blokowania?
Disallow oznacza blokowanie,
/ - oznacza blokowanie wszystkiego, znajdujacego sie ponizej katalogu root, czyli wszystkiego na serwerze
Nowe wpisy oznaczaja, ze zablokowane beda zawartosci katalogow /wp-admin i /wp-includes, reszta powinna byc dostepna.
utworzyłem plik txt robots.txt składający się z dwóch linijek
User-agent: *
Disallow:
To wszystko, grałem go w katalogu ogólnym, na serwerze nie było innego pliku robots.txt...
wgraj to co miałeś wcześniej czyli:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: http://wychowaniefizyczne.net/sitemap.xml.gz
no ale to ciągle miałem i po co mam to wgrywać jeszcze raz?
Teraz mam
User-agent:*
Disallow:
wg google'a wcześniej robots.txt wyglądał tak jak na screenie i blokował wszystko
Tak, teraz też jest ok, choć dla świętego spokoju wolałbym mieć zablokowany dostęp do katalogów admina
a co jeśli nie zablokuje? Czy odblokowanie strony zajmuje troche czasu robotowi? Bo narazie nadal mam zablokowane...
Tak zajmie to trochę czasu (na nowe witryny robot google'a zagląda z reguły co kilka-kilkanaście dni). W celu przyspieszenia procesu możesz "zaprosić" robota do ponownego zindeksowania strony
http://support.google.com/webmasters/bin/answer.py?hl=pl&answer=1352276
a ktorą opcje zaznaczyć URL czy URL ze wszystkimi stronami zeby indeksował?
Twoja strona jest w indeksie Google, bot odwiedzał ją na początku lutego.
Jednak mnie bardziej ciekawi, dlaczego prowadzisz niemal lustrzaną kopię tej strony pod innym adresem? Nie jest to dobre rozwiązanie pod kątem wyników w Google.
dodane: pospieszyłem się. Niektóre artykuły są powielone zdaje się. Nie jest to najlepszy pomysł, ale lepsze to niż kopia strony 1:1.
A indeksuj wszystko co ma być zaindeksowane, czyli URL + podstrony.