Этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
Политика конфиденциальности

Новые сообщения [новые:0]
Дайджест
Горячие темы
Избранное [новые:0]
Форумы
Пользователи
Статистика
Статистика нагрузки
Мод. лог
Поиск
|
|
30.11.2004, 18:15
|
|||
|---|---|---|---|
|
|||
Создание поисковых роботов |
|||
|
#18+
:) Вот такая тема интересная. Кто может поделиться информацией (любой, ибо знания чуть выше нуля). Буду благодарна всем. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
|
|
|
30.11.2004, 19:13
|
|||
|---|---|---|---|
Создание поисковых роботов |
|||
|
#18+
а чего тут думать садишся и пишешь. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
|
|
|
30.11.2004, 19:38
|
|||
|---|---|---|---|
|
|||
Создание поисковых роботов |
|||
|
#18+
Мой уровень в этом вопросе примерно такой же, но идея примерно такая.. сканирование адресов на предмет открытого 80го порта, проверка на HTTP сервис, ну и дальше скачивание файликов от туда и их индексация. Про индексацию краем глаза видел много научных работ ;-) ... |
|||
|
:
Нравится:
Не нравится:
|
|||
|
|
|
01.12.2004, 11:40
|
|||
|---|---|---|---|
Создание поисковых роботов |
|||
|
#18+
Почитай статью, как устроен Google. The Anatomy of a Large-Scale Hypertextual Web Search Engine PS По ссылкам из статьи пройдись ... |
|||
|
:
Нравится:
Не нравится:
|
|||
|
|
|
02.12.2004, 11:32
|
|||
|---|---|---|---|
Создание поисковых роботов |
|||
|
#18+
Идея такая, на каждой уважающей себя поисковой машине имеются форма для ввода сайтов. Если у тебя нет списка сайтов, с которых начинается опрос, придётся создать его вручную. Поисковая машина начинает качать сайты по списку, заглядывая в разделы ссылок на другие сайты. Таким образом по сети ссылок создаётся образ интернета. Математические модели отвечают за то, что-бы минимизировать трафик, не выкачивая несколько раз один сайт и создание структур данных, наиболее приспособленных для поиска. На сайтах часто добавляют специальны файлы для роботов, обычно robots.txt, в котором определяют правила поведения робота. Например можно запретить индексировать страницу. -- Posted via ActualForum NNTP Server 1.1 ... |
|||
|
:
Нравится:
Не нравится:
|
|||
|
|
|
02.12.2004, 11:37
|
|||
|---|---|---|---|
|
|||
Создание поисковых роботов |
|||
|
#18+
Есть неплохая книжка на тему: Spidering Hacks 100 Industrial-Strength Tips & Tools правда там основная ориентация на Perl тут, если пороешься можешь что-то отыскать: http://forum.searchengines.ru/forumdisplay.php?forumid=26 ... |
|||
|
:
Нравится:
Не нравится:
|
|||
|
|
|

start [/forum/topic.php?fid=16&tablet=1&tid=1348051]: |
0ms |
get settings: |
8ms |
get forum list: |
19ms |
check forum access: |
3ms |
check topic access: |
3ms |
track hit: |
546ms |
get topic data: |
9ms |
get forum data: |
2ms |
get page messages: |
37ms |
get tp. blocked users: |
1ms |
| others: | 236ms |
| total: | 864ms |

| 0 / 0 |
