Wrong email or password! Try one more time.

Forgot password?

Username should only contain alpha-numeric characters.

An account with this email already exists.

Password should contain at least 6 characters.

An email with a confirmation link has been sent to you.

Did you forget your password? Don't panic. Enter your email address,
and we will email you a link where you may create a new password.

If this address exists, we will send you an email with further instructions.

Back to authentication

Ce crede Google despre cloaking?

Ce crede Google despre cloaking? - răspuns de Matt Cutts

Rezumat:

Nu există cloaking de tip white-hat. Iar Google ia măsuri serioase împotriva acestei tehnici deoarece este manipulatoare şi reprezintă o experienţă proastă pentru utilizatori. Există cazuri când aţi putea servi conţinut diferit în funcţie de adresa IP sau stringul User-Agent, dar chiar şi atunci – n-ar trebui să trataţi Googlebot în mod diferit faţă de utilizatorii umani. Geolocaţia şi redirecţionarea mobilă sunt considerate prietenoase. Cât timp serverul nu conţine un cod special care caută intenţionat user-agentul 'Googlebot' sau adresa IP ce aparţine lui Googlebot - totul ar trebui să fie în regulă.

 

Răspunsul lui Matt:

Astăzi vom vorbi despre tehnica cloaking.   Multă lume are întrebări despre cloaking. Ce este mai exact? Cum o defineşte Google? De ce are un risc ridicat?   Există multă documentaţie HTML. Am postat multe articole şi pe blog. Dar am vrut să fac un filmuleţ despre cloaking şi să răspund la câteva întrebări, să le ofer oamenilor câteva reguli ca să se asigure că nu au intrat într-o zonă cu risc ridicat.  

Ce înseamnă cloaking?

Cloaking reprezintă situaţia în care conţinutul prezentat utilizatorilor este diferit faţă de cel prezentat către Googlebot. Imaginaţi-vă că avem un server web. Un utilizator vine şi cere o pagină. El primeşte pagina şi totul e bine. Acum, Googlebot cere şi el o pagină. Şi primeşte şi Googlebot o pagină. În majoritatea situaţiilor, Googlebot primeşte acelaşi conţinut ca şi utilizatorii. Toată lumea fericită. Cloaking e situaţia în care conţinutul prezentat utilizatorilor e diferit faţă de cel prezentat către Googlebot. Fără îndoială, e un risc ridicat. E o încălcare a principiilor noastre de calitate.   Dacă dai o căutare pe Google cu principiile noastre de calitate, găseşti o listă cu toate lucrurile – multă documentaţie suplimentară despre cum poţi afla dacă eşti într-o zonă cu risc ridicat. Să explicăm puţin asta. De ce considerăm cloaking o tehnică maliţioasă, sau de ce cloaking nu e acceptat de Google? Ei bine, răspunsul se află în zilele de început ale motoarelor de căutare, când multă lume inducea în eroare cu ajutorul tehnicilor cloaking. În cazul unei vizite din partea Googlebot, un server web care făcea cloaking putea să returneze o pagină numai cu desene animate, să zicem Disney. Dar când un utilizator vizita pagina, serverul web putea să returneze conţinut porno sau ceva similar. Aşadar, când dădeai o căutare cu desene Disney pe Google, puteai să vezi o pagină care părea să conţină desene, apăsai pe ea şi dădeai peste porno. E o experienţă extrem de neplăcută. Oamenii se plâng de asta.  

Toate tipurile de cloaking contravin politicilor noastre de calitate

Nu există „white hat cloaking”. Cu siguranţă, când cineva face ceva care induce total în eroare, atunci ne mobilizăm cel mai tare. Atunci se implică cel mai mult echipa de combatere a spamului web. Dar – orice tip de cloaking e împotriva politicilor noastre.   Care sunt principalele reguli ce vă protejează să nu intraţi într-o zonă cu risc ridicat?   Un mod de a aborda tehnica cloaking este să recuperezi conţinutul unei pagini, cu Wget sau cURL, de exemplu. Descarci o oglindă a paginii respective şi generezi un cod hash pe baza ei, adică iei tot conţinutul şi îl reduci la un număr. Apoi te prefaci că eşti Googlebot, folosind User-Agent-ul „Googlebot” (avem şi o funcţia specială în Instrumentele Google pentru Webmaster – „preia ca Googlebot”). Aşadar, preiei o pagină ca Googlebot şi îi calculezi suma de control hash. Şi dacă numerele sunt diferite, atunci e o problemă. Este posibil să fi intrat într-o zonă cu risc ridicat. Dar paginile pot fi şi dinamice. Este posibil să existe marcaje temporare sau reclame care se schimbă, deci nu e o regulă bătută în cuie.   O altă procedură euristică simplă pe care o poţi folosi este să analizezi codul serverului web. Găseşti ceva care verifică intenţionat anume User-Agent-ul „Googlebot” sau adresa IP ce aparţine lui Googlebot? Pentru că dacă faci ceva foarte diferit, sau special, sau neobişnuit pentru Googlebot (User-Agent sau adresă IP) – există posibilitatea să se returneze către Googlebot conţinut diferit faţă de cel returnat către utilizatori. Acesta e un risc ridicat. Aveţi în vedere aceste lucruri.   Acum, multă lume care practică tactici white hat şi nu vor să se implice absolut deloc în cloaking şi vor să se asigure că stau departe de zonele cu risc ridicat ne întreabă: „cum rămâne cu geolocaţia şi User-Agenţii folosiţi de telefoane şi dispozitive mobile?”. Şi vestea bună, într-un fel un rezumat – e că nici nu e nevoie să vă faceţi griji. Dar să vedem mai exact de ce geolocaţia şi tratarea telefoanelor mobile nu reprezintă cloaking. Până acum am avut un utilizator. Să zicem că acest utilizator vine din Franţa. Şi mai aducem un utilizator complet diferit, să zicem că din Marea Britanie. Într-o lume ideală, dacă există conţinut disponibil pe un domeniu .fr sau .uk, sau în limbi diferite, pentru că acesta a fost tradus, este extrem de util dacă cineva cu o adresă IP din Franţa obţine conţinut în limba franceză. Utilizatorul ar fi mult mai încântat. Ce face geolocaţia? Ori de câte ori un server web primeşte o cerere, te uiţi la adresa IP şi spui: „aha, această adresă IP e din Franţa. Trimit versiunea în limba franceză sau îl direcţionez pe utilizator către versiunea .fr a domeniului meu”. Dacă un utilizator are browserul setat pe limba engleză, sau adresa IP e din America sau Canada, spui „aha, cel mai bun mesaj ar fi deci în engleză”, doar dacă nu vine din partea franceză a Canadei, desigur. Deci, ce facem este să luăm decizia pe baza adresei IP. Dacă nu ai inventat vreo ţară, de exemplu Googlandia, de unde să vină Googlebot – atunci nu faci ceva special sau diferit pentru Googlebot. Cel puţin acum, când am făcut acest filmuleţ, robotul Googlebot vine din Statele Unite. Aşa că ar trebui să trataţi Googlebot ca pe un vizitator din Statele Unite, adică să returnaţi conţinutul în engleză. Recomandăm chiar în general să trataţi Googlebot ca pe un navigator desktop obişnuit, de exemplu Internet Explorer sau orice alt browser de pe care se vizitează cel mai site-ul respectiv. Geolocaţia – adică identificarea adresei IP şi reacţionarea la aceasta – e bună, atât timp cât nu reacţionezi numai la intervalul de adrese IP utilizate de Googlebot. În schimb, te gândeşti care e per ansamblu cea mai bună experienţă a utilizatorului în funcţie de adresa IP.   La fel, când vine cineva nou, să spunem că intră de pe telefonul mobil, de exemplu iPhone sau Android. Şi ai identificat: „bun, acesta e un User-Agent complet diferit. Are capabilităţi complet diferite”. E perfect ok să răspunzi la acel User-Agent şi să-i dai o versiune mai comprimată a website-ului sau ceva care să se potrivească mai bine pe un ecran mai mic. Din nou, diferenţa este că, dacă tratezi Googlebot ca pe un utilizator desktop şi nu faci nimic special sau diferit – atunci nu e nicio problemă. Deci, identifici particularităţile telefonului mobil şi returnezi în consecinţă o pagină personalizată, dar nu încerci să faci nimic manipulator sau care să inducă în eroare. Nu tratezi Googlebot diferit, în funcţie de User-Agent, ceea ce e foarte bine.   Un ultim lucru pe care vreau să-l menţionez – ţine puţin de „utilizatorii avansaţi”. Unii spun „bun, nu voi face distincţia pe baza stringului User-Agent sau zona exactă de adrese IP de unde vine Googlebot, dar parcă aş verifica doar cookie-urile. Şi dacă cineva nu răspunde la cookie-uri sau nu tratează JavaScript în mod obişnuit, atunci abordez asta diferit”. Şi testul de control este: e asta, de fapt, o scuză pentru a încerca să găseşti o cale să tratezi Googlebot diferit sau să încerci să găseşti o metodă de depista Googlebot şi a-l face să facă ceva complet diferit?   Din nou, întrebarea de bază din spatele tehnicii cloaking este: tratezi utilizatorii la fel cum tratezi Googlebot? Dorim să analizăm şi prezentăm cam aceeaşi pagină pe care o va vizualiza şi utilizatorul. Deci vrem ca experienţa utilizatorului final atunci când acesta accesează un rezultat Google să fie aceeaşi cu cea în care utilizatorul ar fi ajuns singur la pagina respectivă. De aceea Googlebot nu trebuie tratat diferit. De aceea cloaking este o experienţă neplăcută şi încalcă politicile noastre de calitate. Şi de aceea îi acordăm o atenţie sporită. Nu există „white hat cloaking”. Chiar vrem să ne asigurăm că pagina pe care utilizatorul o vizualizează este aceeaşi pagină pe care o vizualizează Googlebot.   Sper că aceste informaţii au fost de ajutor şi explică puţin tehnica de cloaking, cu principalele sale reguli. Şi din nou, dacă încă sunteţi nelămuriţi, puneţi-vă întrebarea: am un cod special care caută user-agentul „Googlebot” sau adresa IP specifică Googlebot şi le tratez cumva diferit? Dacă nu îi acordaţi un tratament special şi returnaţi pagina pe baza geolocaţiei, sau a user-agenţilor specifici dispozitivelor mobile, atunci este OK. Doar dacă trataţi în mod specific Googlebot ca pe ceva diferit, atunci intraţi într-o zonă cu risc ridicat. Avem mai multă documentaţie pe website-ul nostru. Dar sper că v-am explicat în mare ce anume definim noi drept cloaking, de ce luăm această tehnică în serios şi cum abordăm efectul de ansamblu încercând să decidem dacă ceva este sau nu este cloaking.   Experienţa pe care o are utilizatorul este la final ceea ce ne interesează. Astfel, indiferent de cod, dacă un conţinut returnat către Googlebot este radical diferit faţă de cel returnat către utilizatori, atunci ne alertăm.

de Matt Cutts - Directorul Departamentului de Calitate a Căutării, Google

 

Videoclipul original: