как защитить JS от декодера Гугля?

Demiurg

Guest
думать тут не надо, надо сравнивать время реакции с периудом переиндксации основных для тебя поисковиков.
 

Klaus

SEO Cthulhu
Demiurg
пять дней, с момента начала парсинга кодированного JS.
пять дней, чтобы понять, что гугля анализирует JS и строит зависимость от наличия той или иной информации в JS(про другие зависимости умолчу), а не просто парсит.
многие еще и не почесались
 

Demiurg

Guest
Klaus
я не пойму, ты жалуешься или хвастаешься.
 

nagash

Guest
пять дней, а ты до сих пор ленишся поставить NOINDEX
и даже не представляешь как заставить гугля НЕ индексировать то, что ты не хочешь, чтобы он индексировал...
и всё пытаешся придумать некий мифический алгоритм, который он не сможет распарсить...
если сможет распарсить браузер (а без этого нафиг JS и не нужен) - значит по этому же механизму распарсит и гугл...
надеюсь тебе это понятно?
JS это стандартизированный язык програмирования...
следовательно ты не сможешь внести ничего такого, что воспримится браузерами и не воспримится гуглем...
если тебе не хватило на это пяти дней... нечего тут пытаться доказать, что ты вообще разбираешся хоть в чём-то.
 

Klaus

SEO Cthulhu
nagash
веришь нет, мне пофиг на индексацию того, чего не нужно...
если не понял, читай сначала

по поводу того, что гугль распарсит (или захочет это сделать) любой JS. Пока наверное трудно с этим согласиться, потому что до сего момента он это НЕ ДЕЛАЛ, до тебя хоть это доходит или ты в танке?

Не вижу смысла продолжать бесполезный спор. Тем паче с теми кто не в теме и не по теме форума.

-~{}~ 21.02.05 02:17:

Demiurg
вообще конечно хвастался, но больше с желанием предупредить остальных. Потому как в отличии от большинства не страдаю жлобством.
 

Demiurg

Guest
Klaus
тогда ты форум не тот выбрал. позсказать, где оптимизаторы тусуются ?
 

Klaus

SEO Cthulhu
Demiurg
дык изначально и спрашивал токо про JS код only, согласись?
и кто навязал всю эту муть?
 

Demiurg

Guest
про js код тебе ответил нагашик на ближайшие 20 лет вперед.
 

Klaus

SEO Cthulhu
ну ну, вот и вольготно пока, пока следуют совету нагашика
 

Sad Spirit

мизантроп (Старожил PHPClub)
Команда форума
Диагноз: товарищ занимается клоакингом, подсовывая поисковикам "оптимизированный" контент по прямым ссылкам, а пользователям --- читаемый контент по ссылкам на js. Ему не нужно, чтобы робот видел страницы, т.к. на них контент, никакого отношения к "оптимизированному" не имеющий.

Задрали меня такие оптимизаторы, честно говоря. наконец-то гугль за них, [censored], взялся.
 

yugene

Отошел от дел
А нельзя, к примеру, вынести JavaScript в отдельный *.js, доступ к которому запретить для Гугла?
 

Klaus

SEO Cthulhu
Sad Spirit
читай правила форума
не след выходить за рамки...

yugene
конечно можно, но есть свои фишки для присутствия кода в теле паги.

Предварительные выводы:
Паги проиндексировались, тест прошел успешно, гугль ПОКА не парсит код закодированный способом, что я привел по ссылке на стр.1.
 

young

Новичок
меня всегда прикалывают две армии

первая пытается наколоть поисковики
вторая - специальные департаменты по борьбе с первыми

:)
 

Demiurg

Guest
young
так всегда было и будет, пока поисковики пользуются популярностью. Автор же этой темы не отномится ни к ожной ни к другой "армии".
 

Mauser

Новичок
.des., Demiurg. Вы просто нихрена не поняли что человеку надо. Ему не надо закрывать страничку от индексации, ему надо ссылки сделать невидимыми, причем не все, а только некоторые. noindex не поможет.
robots.txt тоже не поможет, так как ссылка вообще может вести на сторонний сайт. И к тому же роботс все равно не закрывает факта существования страницы. Он просто запрещает пауку ее спрашивать, но не мешает ее видеть.

Sad Spirit , как раз клоакинг делается просто по айпи и не надо вообще думать про скрипты. Скриптами закрывают нежелательные разделы хороших сайтов или при адаптации чужих скриптов на скорую руку.

nagash, любой язык стандартизированный. Но гугль не резиновый парсить все что попало. flash тоже стандартизированный. Тем не менее пока что ни один поисковик не читает текстов в нем.
 

Sad Spirit

мизантроп (Старожил PHPClub)
Команда форума
Автор оригинала: Mauser
.des., Demiurg. Вы просто нихрена не поняли что человеку надо. Ему не надо закрывать страничку от индексации, ему надо ссылки сделать невидимыми, причем не все, а только некоторые. noindex не поможет.
robots.txt тоже не поможет, так как ссылка вообще может вести на сторонний сайт. И к тому же роботс все равно не закрывает факта существования страницы. Он просто запрещает пауку ее спрашивать, но не мешает ее видеть.
ОК, объясни задачу, при которой надо закрыть для паука факт существования страницы. У меня почему-то в голову приходят исключительно на#бки алгоритмов поисковика.

И полегче на поворотах с "нихрена не поняли".
 

Mauser

Новичок
Sad Spirit, а любой случай когда надо закрыть страничку ввиду ее бесполезности в серпе с целью экономии ПРа. Скажем страничу регистрации на форуме. Robots не подходит, так как роботс закрывает саму страничку от индексации, но она продолжает иметь ПР и даже может быть найдена в серпе. Вот смотри: http://www.google.com/search?q=site:www.crutop.nu+crutop Видишь? А у http://www.crutop.nu/ - ПР=4 видишь? А ведь там стоит роботс закрывающий все вглухую.

А насчет обмана поисковика ты говоришь ерунду, потому что как раз обман поисковика состоит в том, что бы ему подсовывать не тот контент что людям. Скрипт для этого подходит очень плохо. Люди то все равно увидят что там суют паучку просто вырубив у себя выполнение скрипта. И настучат.

И если ты этого не понимаешь, то ты именно что не понял ни хрена :) тут уж как не поворачивай :)
 
Сверху