как защитить JS от декодера Гугля?

Klaus

SEO Cthulhu
как защитить JS от декодера Гугля?

Привет.
Подскажите какой-нить енкодер для JS хитромудрый.
А то что-то гугля в послед время раскодирует простенькую кодировку, вытаскивает урлы(о которых он вообще знать не должен) из JS и еще и индексирует их, засранец.

P.S. MS Encoder не предлагать :)
 

Klaus

SEO Cthulhu
при чем тут robots.txt???
урлы которые не надо индексить - их тысячи, + лежат файлы в тех же каталогах которые индекстить НАДО
 

Фанат

oncle terrible
Команда форума
при том, что этот файл отвечает за работу с поисковиками.
и незачем так орать.
 

Klaus

SEO Cthulhu
да не ору я, друже Фанат.
это я просто акцент сделал..

А по поводу файловой структуры, понимаешь, она уже есть и эти пути заточены во многих местах.
Поэтому проще переписать JS чем менять структуру.

Раньше проблем небыло, прятать JS мне неоткого, кроме ботов. А тут вдруг Гугля обзавелся парсером JS и индексит все url подрят которые найдет в JS.

-~{}~ 20.02.05 23:50:

напишу еще раз про robots.txt

его не могу использовать, так как:
1. таких файлов (нетребующих индексации) - тысячи.
2. файлы лежат в тех же каталогах, которым индексация _необходима_.
3. расширение у неиндексируемых файлов такое же как у тех которым индексация необходима.
4. гугля вообще не должен знать о наличии таких файлов(точнее о наличии этих урлов в JS) дабы не проводить неуместные сравнения.
 

Klaus

SEO Cthulhu
.des.
хочешь я тебе его наизусть прочитаю? :)
ты скажи толком, что именно там должно заострить мое внимание?

-~{}~ 21.02.05 00:07:

вобщем парни, я знаю что поиск другого пути (и часто наиболее оптимального) в крови этого форума. Поэтому ОЧЕНЬ часто, беру решения отсюда, поэтому и постов так мало, т.к. практически на любой вопрос есть ответ.

Однако сейчас, проблема упирается не в поиске другого пути, а только в то, что я просил.
Я конечно счас поищу решения на других ресурсах, их было много. Но хотелось что-нить из нашей серии чудомысли.
 

.des.

Поставил пиво кому надо ;-)
Klaus вы хотите невозможного заставить гугл различать ваш контент на индексируемый и нет.

1. Сказок не бывает. На каждой странице, которую индексировать не нужно NOINDEX.
На каждой странице в которой содержатся ссылки на страницы, не подлежащие индексаци - NOFOLLOW. Можно в принципе обойтись и NOFOLLOW, но не всегда.
Так что закатываем рукава и идем править.

2. Эксперименты с яваскриптом. Сделать его не читаемым для гугла. например собирать урлы из частей, но все это грязные хаки и к употреблению не рекомендуются.
 

Klaus

SEO Cthulhu
.des.
1. ссылок на эти файлы больше нигде нет, токо в JS. Мне нужно не просто чтобы гугл зашел по этим адресам, увидел что индексить их не надо и отвалил, мне надо что бы он вообще о них не знал. (p.s. часто слышу что ему вообще наплевать на meta, и иной раз и на robots.txt)

2. дык в том-то и дело, что урлы были разбиты на несколько частей, и вот токо послед 5 дней он их собирает в кучку.

почему я еще спросил, просто мож уже кто столкнулся с этим и написал js скриптик который парсеру гугля не по зубам.
 

Фанат

oncle terrible
Команда форума
и почему все сумасшедшие рунета так любят этот форум?..
 

tony2001

TeaM PHPClub
Klaus
тебе решение предложили - NOINDEX.
будь так добр - ХОТЯ БЫ ПОПРОБУЙ ЕГО, а потом рассуждай - "наплевать" гуглю на него или нет.
 

Klaus

SEO Cthulhu
tony2001
ну скоко можно повторять: мне надо что бы он вообще о них не знал, даже не так... мне надо что бы он их не видел в JS и не мог на этом строить свои сравнения(алгоритмы) между N паг на которых он нашел эти урлы.

куда делась телепатия? ну все надо разжевать...

-~{}~ 21.02.05 01:03:

Фанат
поддерживаю вопрос

-~{}~ 21.02.05 01:08:

кста, вот тут можно заенкодить
http://www.terra.es/personal7/karlosizi/js/1.html
мож кому еще понадобиться
правда не уверен, что гугль не раскодирует, буду тестить, напишу результат.

зы. не мое, содрано, о чем подписано.
 

Klaus

SEO Cthulhu
Параноя не параноя, но на заработке сказывается.

Отвлекитесь немного от программинга и взгляните на то, что творится счас в выдаче. И задайте сами себе вопрос, а с чего это гугля вдруг так стал усиленно парсить JS.
 

Demiurg

Guest
Все очень просто, гугл пытается проиндекировать максимум не нарушая при этом общепринятых правил.
 

Demiurg

Guest
я думаю, что твоя работа тоже мало связяна с SE. А настоящие оптимизаторы уже давно научились быстро подстраиваться под изменения алгоритмов поисковиков.
 
Сверху