+  HandyCache форум
|-+  Главная категория» Общие вопросы» Кеширование по размеру или контенту
Имя пользователя:
Пароль:
Страниц: [1]   Вниз
  Отправить эту тему    Печать  
Автор Тема: Кеширование по размеру или контенту  (Прочитано 978 раз)
0 Пользователей и 1 Гость смотрят эту тему.
Terfe
Постоялец
***

Репутация: +4/-1
Offline Offline

Сообщений: 124


« : 15 Сентябрь 2016, 19:48:55 »

Есть сайт, у которого ссылки на файлы являются уникальными, никогда не повторяющимися. Ссылка в виде бессвязного набора символов (генерируется рандомно, видимо). Количество файлов весьма ограничено. Браузер и НС, естественно, закачивают каждый файл по ссылке при навигации по сайту.
Как можно закешировать файлы, чтоб они не скачивались каждый раз заново, хотя бы для конкретного сайта?

Сайт отдает файлы в gzip. Внутри архивов одинаковые имена файлов.
Если не НС, то может есть сторонние средства, которые позволят закешировать по размеру (хотя бы) или контенту?
Сообщить модератору   Записан
Zork
Новичок
*

Репутация: +4/-1
Offline Offline

Сообщений: 34


« Ответ #1 : 16 Сентябрь 2016, 05:02:10 »

Что бы не обновлять файлы по размеру используйте расширение eA_Dont_update_file_by_size из дистрибутива HC
Сообщить модератору   Записан
Anymore
Beta tester
*****

Репутация: +17/-0
Offline Offline

Сообщений: 330


« Ответ #2 : 16 Сентябрь 2016, 08:08:24 »

Так то бы на сам сайт посмотреть.
Сообщить модератору   Записан
YuS
Ветеран
*****

Репутация: +27/-3
Offline Offline

Сообщений: 593


crazy


« Ответ #3 : 16 Сентябрь 2016, 17:35:16 »

Как можно закешировать файлы, чтоб они не скачивались каждый раз заново, хотя бы для конкретного сайта?
Не всё всегда возможно, но "Преобразование URL" и регэкспы в помощь... оно для этого в самый раз предназначено.
Сообщить модератору   Записан
Terfe
Постоялец
***

Репутация: +4/-1
Offline Offline

Сообщений: 124


« Ответ #4 : 18 Сентябрь 2016, 19:20:27 »

Не всё всегда возможно, но "Преобразование URL" и регэкспы в помощь... оно для этого в самый раз предназначено.
Повторюсь, ссылки рандомные, типа
site.com/fs?AwErT
site.com/fs?ByWka
site.com/fs?NjSauh
и т.д.
По таким ссылкам отдаются разные, но повторяющиеся файлы.
Каким правилом можно покрыть такие ссылки?
Добавлено: 18 Сентябрь 2016, 18:05:33

Что бы не обновлять файлы по размеру используйте расширение eA_Dont_update_file_by_size из дистрибутива HC
Пробовал еще до создания темы. Оно сравнивает размер среди одинаковых по имени файлов/ссылок. А у сайта ссылки никогда не повторяются.
Нужно, чтоб перед загрузкой НС сравнил размер файла по ссылке с размерами всех файлов в кеше в определённой директории сайта. Если найден файл с таким же размером в кеше, то нужно его выдать браузеру, а файл по ссылке не скачивать.
Кто может решить такую задачку? Улыбка
Сообщить модератору   Записан
YuS
Ветеран
*****

Репутация: +27/-3
Offline Offline

Сообщений: 593


crazy


« Ответ #5 : 18 Сентябрь 2016, 19:22:06 »

Повторюсь, ссылки рандомные, типа
site.com/fs?AwErT
site.com/fs?ByWka
site.com/fs?NjSauh
и т.д.
По таким ссылкам отдаются разные, но повторяющиеся файлы.
Каким правилом можно покрыть такие ссылки?
Вам уже подсказали, что необходимы реальные, рабочие ссылки для примера.
Как минимум:
1. Несколько разных ссылок на один файл
2. Несколько разных ссылок на разные файлы
3. Ссылки нужны как формирующие, так и результирующие...
А иначе обсуждение не имеет смысла...
Сообщить модератору   Записан
alex77
Старожил
****

Репутация: +11/-1
Offline Offline

Сообщений: 447



« Ответ #6 : 19 Сентябрь 2016, 09:24:23 »

Пробовал еще до создания темы. Оно сравнивает размер среди одинаковых по имени файлов/ссылок. А у сайта ссылки никогда не повторяются.
Нужно, чтоб перед загрузкой НС сравнил размер файла по ссылке с размерами всех файлов в кеше в определённой директории сайта. Если найден файл с таким же размером в кеше, то нужно его выдать браузеру, а файл по ссылке не скачивать.
Кто может решить такую задачку? Улыбка
судя по этому задача не решаемая: сайт размер файлов не передает, да и к тому же ссылки сгенерированные
Добавлено: 19 Сентябрь 2016, 16:22:10

Сайт отдает файлы в gzip. Внутри архивов одинаковые имена файлов.
ХК точно не умеет "смотреть" внутри архивов
Сообщить модератору   Записан
Tilks
Новичок
*

Репутация: +8/-1
Offline Offline

Сообщений: 49


« Ответ #7 : 19 Сентябрь 2016, 11:05:52 »

Сайт отдает файлы в gzip. Внутри архивов одинаковые имена файлов.
попробовать поправить заголовок запроса, удалив возможность обработать gzip, тогда должен вернуть без сжатия. (строка заголовка  Accept-Encoding: gzip, deflate)
Сообщить модератору   Записан
Zoynels
Новичок
*

Репутация: +1/-0
Offline Offline

Сообщений: 41


« Ответ #8 : 24 Сентябрь 2016, 12:10:46 »

судя по этому задача не решаемая: сайт размер файлов не передает, да и к тому же ссылки сгенерированные
Добавлено: 19 Сентябрь 2016, 16:22:10

ХК точно не умеет "смотреть" внутри архивов
задача думаю решаемая, но только если сервер возвращает Content-Length: сделать расширение которое будет записывать размер файла в байтах вместо имени файла (hc.preform_cache_file_name('site.com\fs\123455 bytes') в AnswerHeaderReceived)

вот только, если два файла имеют одинаковый размер, но разное содержимое, то будет выдавать только тот который записан в кеше, а не то что вы реально запрашиваете.
Сообщить модератору   Записан
Страниц: [1]   Вверх
  Отправить эту тему    Печать  

 
Перейти в: