Этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
Политика конфиденциальности
|
|
|
Создание поисковых роботов
|
|||
|---|---|---|---|
|
#18+
:) Вот такая тема интересная. Кто может поделиться информацией (любой, ибо знания чуть выше нуля). Буду благодарна всем. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2004, 18:15 |
|
||
|
Создание поисковых роботов
|
|||
|---|---|---|---|
|
#18+
а чего тут думать садишся и пишешь. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2004, 19:13 |
|
||
|
Создание поисковых роботов
|
|||
|---|---|---|---|
|
#18+
Мой уровень в этом вопросе примерно такой же, но идея примерно такая.. сканирование адресов на предмет открытого 80го порта, проверка на HTTP сервис, ну и дальше скачивание файликов от туда и их индексация. Про индексацию краем глаза видел много научных работ ;-) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 30.11.2004, 19:38 |
|
||
|
Создание поисковых роботов
|
|||
|---|---|---|---|
|
#18+
Почитай статью, как устроен Google. The Anatomy of a Large-Scale Hypertextual Web Search Engine PS По ссылкам из статьи пройдись ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 01.12.2004, 11:40 |
|
||
|
Создание поисковых роботов
|
|||
|---|---|---|---|
|
#18+
Идея такая, на каждой уважающей себя поисковой машине имеются форма для ввода сайтов. Если у тебя нет списка сайтов, с которых начинается опрос, придётся создать его вручную. Поисковая машина начинает качать сайты по списку, заглядывая в разделы ссылок на другие сайты. Таким образом по сети ссылок создаётся образ интернета. Математические модели отвечают за то, что-бы минимизировать трафик, не выкачивая несколько раз один сайт и создание структур данных, наиболее приспособленных для поиска. На сайтах часто добавляют специальны файлы для роботов, обычно robots.txt, в котором определяют правила поведения робота. Например можно запретить индексировать страницу. -- Posted via ActualForum NNTP Server 1.1 ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.12.2004, 11:32 |
|
||
|
Создание поисковых роботов
|
|||
|---|---|---|---|
|
#18+
Есть неплохая книжка на тему: Spidering Hacks 100 Industrial-Strength Tips & Tools правда там основная ориентация на Perl тут, если пороешься можешь что-то отыскать: http://forum.searchengines.ru/forumdisplay.php?forumid=26 ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 02.12.2004, 11:37 |
|
||
|
|

start [/forum/topic.php?fid=16&tid=1348051]: |
0ms |
get settings: |
12ms |
get forum list: |
16ms |
check forum access: |
3ms |
check topic access: |
3ms |
track hit: |
43ms |
get topic data: |
8ms |
get forum data: |
2ms |
get page messages: |
36ms |
get tp. blocked users: |
1ms |
| others: | 251ms |
| total: | 375ms |

| 0 / 0 |
