Feb. 8th, 2018

recoder: (masked)

В очередной раз наткнулся на битые внешние ссылки в своих блогах и решил начать разбираться с этой бедой, не дожидаясь идеального решения в виде своего собственного сервера.

Взял, написал себе небольшой скриптец ljlinks.py для выкусывания внешних ссылок из последних 20 постов. Потом начал запускать его с опенсорсным скриптом archivenow, который сохраняет выбранные ссылки в публичные архивы типа Web Archive или Archive.is. И теперь достаточно раз в недельку запускать единственную команду:

for u in `./ljlinks.py --username $LJUSER --password $LJPASS`; \
    do archivenow --is --ia $u; done

Было бы замечательно иметь где-нибудь ещё скрипт-редиректор который бы проверял жив ли ещё адресуемый ресурс и в зависимости от этого перенаправлял на живой ресурс или на его архивную копию. Только вот боюсь что такого сервиса быть не может, потому что его спаммеры тут же съедят. Эх...

Далее - поставил себе в Chrome плагинчик Archiveror который обещает автоматически архивировать всё что я складываю в закладки. Тоже какое-никакое подспорье в борьбе с энтропией.

И ещё надо будет на досуге поисследовать WebRecorder, который webrecorder.io. По крайней мере идеи там любопытные.

December 2024

S M T W T F S
1234567
891011121314
15161718192021
22232425 262728
293031    

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Sep. 9th, 2025 02:27 am
Powered by Dreamwidth Studios