Video: Roxen - Spune-mi | Official Video (Noiembrie 2024)
Pentru a-mi primi noutățile, scanez adesea Google News, care agregă articole din întreaga lume pe baza a ceea ce „robotul” a determinat este în trend. Este vorba despre ce este în trend. În general, lipsește noutățile de ultimă oră și ignoră total comentariile importante, precum coloana mea. În schimb, pare să preferă accesul la linkuri moarte - prin care mă refer la Wall Street Journal , care necesită un abonament pentru a citi.
Astăzi este un caz în acest sens. În CES a apărut o veste de ultimă oră despre rețeaua de vase făcând o ofertă pentru a cumpăra Clearwire. Însă, în loc să facă legătura cu oricare dintre poveștile aferente prin intermediul site-urilor web gratuite și citibile, Google decide că povestea de top ar trebui să provină din Wall Street Journal .
În trecut, Google a avut un fel de tranzacție care le-a permis utilizatorilor să citească cel puțin paragraful principal, sau chiar întregul articol, înainte de a fi blocat de tabla de plată. Dacă nu cunoașteți un bypass truc (discutat mai jos), acest lucru nu se mai aplică. Acum te ocupi de pachetul de plăți și ai terminat. Presupun că abonații reali depășesc acest lucru, dar mă întreb cum bots Google trec prin ea pentru a găsi povestea în primul rând. Google plătește? Mă îndoiesc de asta. Deci trebuie să existe un fel de backdoor pentru roboții Google, nu?
Acest lucru este fals și face un serviciu pentru utilizatorii Google. Google trece prin toate aceste probleme pentru a învinge oamenii care încearcă să joace sistemul, dar lasă Wall Street Journal să atragă această cascadă? Acesta este în esență un abonament plătit pentru Wall Street Journal . Asta vrea Google? Google primește o reducere?
Nu poate fi atât de greu pentru Google să remedieze pur și simplu această supărare. Dureaza un minut - cinci blaturi. Este prea multă muncă?
Dacă o companie are un serviciu de plată încorporat în serviciul său, Google nu ar trebui să caute deloc pe site. Robotii ar trebui să știe că există un plan de plată și să evite pur și simplu căutarea. Și, da, aș dori o explicație cu privire la modul exact în care roboții pot căuta pe un site blocat de un panou de plată. Este un mister.
Un panou de plată ar trebui să fie exact același cu un „robots.txt” care să spună botului pe crawler să plece. Însă, ceva este pește în relația WSJ -Google. Cel mai simplu mod de a ucide toți roboții este o meta tag în fișierul robots.txt, astfel: .
WSJ în schimb blochează în mod specific anumite sub-directoare, dar aparent nu toate. Și mai ciudat, dacă faceți o căutare Google News pentru același articol, în loc să faceți pur și simplu clic pe linkul din rundown, primiți articolul printr-un alt mecanism.
Provoc pe cititorii mai tehnici de acolo să-și dea seama ce se întâmplă cu acești doi, examinând fișierul robots.txt folosit de WSJ . Un document public este disponibil aici.
Oricare ar fi cazul, site-urile au rapoarte de plată din motive financiare. Dacă vor să joace jocuri cu conținutul lor, acesta este un lucru, dar ar trebui să fie interzis de la rezultatele căutării, în același mod în care Google încearcă să zădărnicească oamenii care încearcă să joace sistemul. Google va interzice un blogger neplăcut la căderea unei pălării pentru un comportament schițat. Cum ar fi să te ocupi de site-uri mai mari la fel?
Îl poți urma pe John C. Dvorak pe Twitter @therealdvorak.
Mai multe John C. Dvorak:
Pleacă de pe subiect cu John C. Dvorak.
VEZI TOATE FOTOGRAFIILE DIN GALERIE