recoder: (Default)

Несколько лет назад один латвийский программист Pēteris Caune написал гениальную в своей простоте систему мониторинга интернет-сервисов HealthChecks.io: каждый сервис раз в определённое время должен прислать уведомление "я ещё жив", а когда уведомления перестают приходить - владельцу приходит предупреждение. Работает отлично, успешно мониторит мой домашний сервер. Рекомендую.

Но жизнь - штука чудесатая...

В начале этого марта известный паралитик-программист Иван Бакаидов перенёс концепцию "пингов жизни" на людей и запилил телеграм-бота mystatusok, который за вас будет беспокоить ваших друзей и близких вопросом "всё ли хорошо?" и уведомлять когда адресат вдруг перестанет выходить на связь.

Modern problems require modern solutions.

recoder: (Default)

Сегодня у меня любопытный юбилей: 20 лет этому Живому Журналу! Практически пол-жизни. Формально конечно меньше , но уж точно больше чем пол-жизни творческой.

Статистика блоггинга у меня скромная: чуть больше 1400 заметок, чуть меньше 10000 комментов. В последнее время COVID и прочие житейские неурядицы и вовсе испортили статистику. Всего двенадцать постов за весь ебучий 2020 год - ну куда это годится? То ли дело раньше было!

Откроешь какой-нибудь 2006 год, полистаешь... Увы, больше половины ссылок в старых постах протухли и не ведут никуда. Так что информационная ценность этого архива сомнительна.

Зато какая ностальгическая ценность! Ещё и сам ЖЖ теперь масла подливает - каждый день присылает рассылочку "а ты помнишь что писал пятнадцать лет назад?". Почитаешь, вспомнишь, какая жизнь была... другая. Да и сам ЖЖ был другой.

Попробую мысленно вернуться в те славные времена. Больше думать, чаще писать, меньше залипать во всяких Твиттерах да Фейсбуках.

Make LiveJournal great again!

recoder: (Default)

Давным-давно (по интернетовским меркам), в 2007 году несколько пацанов из Yahoo выкатили совершенно революционный сервис Pipes, призванный быть аналогом юниксовых пайпов, только для модного тогда Web 2.0. Сервис позволял в визуальной форме настроить сбор данных из разнообразных онлайновых источников (типа RSS-фидов), нужным образом преобразовать их, и выдать результат в виде нового фида. При всей кажущейся простоте продукт был потрясающей мощности - я сам на нём писал чертовски полезные агенты и аггрегаторы.

Однако летом 2015 года эффективная Мариссочка добралась и до Pipes и прикрыла их нафик. С тех пор прошло несколько лет, но достойной замены яхушным трубам так и не появилось. Появились IFTTT, Zapier, Automate.io позволяющие интегрировать разные онлайновые сервисы. Даже Microsoft накатал какой-то Flow. Подтянувшиеся open-source разработчики наваяли Python-библиотеку Riko для написания трасформационных скриптов и среду для управления агентами Huginn. Но ничего сравнимого по простоте, мощности и изяществу так и не появилось (страшный как моя жизнь pipes.digital не считается)

Я конечно ничего не понимаю в flow-based программировании, но было бы клёво сделать такой специальный язык для описания процессов получения, обработки, и форматирования структурированных данных. И чтобы на нём можно было создавать самодостаточные модули и публиковать их для повторного использования (можно через GitHub например). А потом берёшь такой модуль и запускаешь его как serverless лямбду (в AWS или в Google или в Azure). Удобно, модно, молодёжно. Никто такого ещё не написал случайно?

recoder: (Default)

Оказывается, идея ненавидимых многими сокращаторов ссылок вроде TinyURL или Bit.ly уходит корнями в далёкие девяностые, когда OCLC справедливо озаботилась тем, что документы в интернетах могут переезжать и хорошо бы их как-то уникально идентифицировать. Для этого они ещё в 1995 году придумали концепцию Persistent uniform resource locator (PURL), которая по сути и есть абстрактный сокращатор, позволяющий регистрировать перманентные ID для ресурсов и служить резолвером-редиректором.

Первую реализацию они опубликовали на purl.org, потом лицензировали эту технологию другим PURL-провайдерам, а в конечном счёте всё переехало под крыло Internet Archive (что кмк очень хорошо) и сейчас живёт по адресу https://archive.org/services/purl/

Любопытно, что примерно в то же время в RFC были впервые зафиксированы концепции URN, которые делают примерно то же самое - идентифицируют сущности, которые могут быть транслированы в URLы. Типы сущностей правда жёстко стандартизированы в IANA в отличие от PURLов, но мне всё равно интересно почему эти концепции так и не слились воедино.

Забавно, что в перманентном мире IPFS разработчики решают обратную проблему: придумать какой-то механизм чтобы определённому имени соответствовало изменяющееся содержимое (да ещё и в распределённой среде). И оказывается что это тоже непросто.

recoder: (Default)

Мерзопакостный Facebook после дрючки за Cambridge Analytica решил запретить сторонним приложениям постить что-либо в пользовательскую ленту. И предложил вместо этого по каждому чиху делать "Share" ручками. Bastards!

У меня-то была идея держать Фейсбук ради аггрегации отовсюду разного контента: постов отсюда из ЖЖ, твитов из Twitter, цитаток из Tumblr, фильмов из Letterboxd, и т.д. Увы, похоже ещё один аггрегатор накрылся, нормально работающим остался только Soup.

Как ни странно, кое-что ещё работает - фоточки из Instagram пока ещё постятся, пивные заметки из Untapped долетают. Что даёт некоторую надежду на исправление ситуации. Впрочем, что я - оптимист что ли? Только свой собственный персональный хаб спасёт нас...

recoder: (masked)

Похоже, не одного меня достали проблемы с архивацией интернетов. За прошедший год помимо уже установленного в Chrome Archiveror'a, обнаружились ещё парочка любопытных расширений.

Во-первых, Memex от WorldBrain.io: он индексирует и локально архивирует всю историю посещений и все закладки. Очень помогает в ситуациях "кажется месяц назад я где-то что-то подобное уже видал..." За деньги он умеет ещё все данные хранить в облаке и синхронизироваться, но мой внутренний мини-параноик мне запретил это делать.

Во-вторых, нашёлся Toby с одноимённым расширением. Он предлагает организовать все закладки по категориям и показывать всё это на стартовой странице. Это конечно не так полезно как Memex, но решает проблему "опять открыл три сотни закладок и всё тормозит".

И ещё - простенький веб-сервис saved.io: чтобы сохранить страничку с его помощью, надо просто дописать saved.io/ в адресной строке перед полным URL. Ничего особенного, но простота процесса подкупает.

Остальные найденные инструменты сложил на Diigo по тегу "archiving". И продолжил поиски...

recoder: (masked)

В очередной раз наткнулся на битые внешние ссылки в своих блогах и решил начать разбираться с этой бедой, не дожидаясь идеального решения в виде своего собственного сервера.

Взял, написал себе небольшой скриптец ljlinks.py для выкусывания внешних ссылок из последних 20 постов. Потом начал запускать его с опенсорсным скриптом archivenow, который сохраняет выбранные ссылки в публичные архивы типа Web Archive или Archive.is. И теперь достаточно раз в недельку запускать единственную команду:

for u in `./ljlinks.py --username $LJUSER --password $LJPASS`; \
    do archivenow --is --ia $u; done

Было бы замечательно иметь где-нибудь ещё скрипт-редиректор который бы проверял жив ли ещё адресуемый ресурс и в зависимости от этого перенаправлял на живой ресурс или на его архивную копию. Только вот боюсь что такого сервиса быть не может, потому что его спаммеры тут же съедят. Эх...

Далее - поставил себе в Chrome плагинчик Archiveror который обещает автоматически архивировать всё что я складываю в закладки. Тоже какое-никакое подспорье в борьбе с энтропией.

И ещё надо будет на досуге поисследовать WebRecorder, который webrecorder.io. По крайней мере идеи там любопытные.

recoder: (masked)

Цифровая тётка с косой нанесла очередной удар в спину: внезапно обнаружилось, что моя коллекция инфографики на vi.sualize.us накрылась медным тазом. Вместо графиков и котиков по моим URLам почему-то теперь открываются какие-то дизайнерские интерьеры. Покопавшись в мементовом WebArchive удалось выяснить, что последний раз мой аккаунт архивировался в декабре прошлого года, после чего сайт верломно похерился, словно в издёвку оставив мне в аккаунте пару картинок и грустного котика. Сволочи!

Старый del.icio.us был недавно опять перекуплен, на этот раз Pinboard'ом за полсотни штук грина, замигрирована на мемориальный сервер, и обещается оставаться в read-only статусе, но всё равно до сих пор лежит в дауне. Балбесы!

Неожиданно Facebook начал допиливать свои Saved Links - организовали там коллекции и сделали кое-какой поиск, но для промышленной организации ссылок всё равно не подходит. Максимум что я могу доверить Фейсбуку - это быть моим inbox'ом для ссылок с мобильных устройств.

Но есть и хорошие новости! Я нашёл своих единомышленников объединившихся в Archive Team. Они также как и я верят в ценность архивации всего, также ненавидят сокращаторы. Сейчас вот спасают ЖЖшечку и SoundCloud.

Могу пожелать коллегам из Archive Team успехов в борьбе с мировой интернет-энтропией, но всё равно считаю что спасение утопающих - дело рук самих утопающих. И пойду дальше пилить свой сохранятор...

recoder: (masked)

Ален нови, ностра алис! Что означает — ежели один человек построил, другой завсегда разобрать может.
© к/ф Формула Любви
По мере того как веб-дизайнеры, науськиваемые SEOшниками, всё больше изгалялись в своей креативности, на нашей стороне всё больше крепло желание как-то пресечь всё это на корню, чтобы просто побыстрее добраться до искомого текста, запрятанного за баннерами, всплывающими подписками и прочей мишурой.

Сначала пробовали бороться AdBlock'ами, и они конечно помогали, но хотелось большей унификации. Появились читалки вроде покойной Readability (от которой впрочем ещё остаётся Mercury API). Тут же подтянулись монстры: Google с его неоднозначным AMP и Facebook с Instant Article начали тянуть одеяло на себя, предлагая упрощённые версии страниц со своей рекламой под эгидой заботы о мобильных пользователях.

А вот в нашу сторону одеяло пока никто не тянул. Пока красавчик Дуров не запилил Telegram с его Instant View. Они сделали именно то, что я думал реализовать в своей читалке: сделали возможность к каждому сайту написать свой собственный фильтр, который грамотно вытянет нужную информацию и оформатирует в хорошо читаемом виде. И объявили конкурс с призовым фондом в $200000 на самые хорошие темплейты для сайтов.

Такое обязательно надо будет заинтегрировать в свою веб-читалку. А ещё мне всё больше нравится идея использовать сам Телеграм (с ботом) как клиент для многих задач. Дуров наверное именно этого и добивается...

recoder: (masked)

В процессе дизайна персонального архиватора обнаружил что существует достаточно официальный (RFC 7089) протокол для архивации веб-ресурсов под названием Memento. Авторы протокола пошли оригинальным путём и просто расширили стандартную процедуру "content negotiation" ещё одним измерением - временем!

В схеме Memento клиент может сделать HEAD-запрос к ресурсу (на сервере, поддерживающем эту схему) с указанием заголовка "Accept-Datetime: {date}" и сервер отвечает на такой запрос стандартным 200 OK с указанием места где живёт "TimeGate" - сервер архивации, и выглядит это как "Link: {uri}, rel=timegate". После этого можно обратиться к таймгейт-серверу и он выдаст 302 Found туда где уже и выдадут запрошенную архивную копию.

На основе этого протокола придумали решение моей проблемы протухающих ссылок - Robust Links. Тэг ссылки просто расширяется дополнительными атрибутами data-versiondate и data-versionurl, так что ссылки выглядят примерно так:

<a href="http://thekeepers.org/" data-versionurl="http://archive.today/DTt8f" data-versiondate="2014-11-01">http://thekeepers.org/</a>
// rendered as http://thekeepers.org/

Такие декорированные ссылки небольшим скриптом можно превратить в мини-менюшки выбора конкретной сохранённой версии документа по ссылке. К сожалению, обычному бложеку на LJ/DW такая техника не подходит потому что сторонний скрипт так легко не подцепить. Поэтому Memento-сервисы обычно поддерживают запросы вида GET /{date}/{resource uri}, однако стандартизация сюда ещё не добралась и каждый сервис лепит что-то своё.

Увы, серьёзных сервисов поддерживающих Memento, не так уж и много: Wayback Machine, Archive Today, Perma.cc. Wayback Machine примечательна своим возрастом - она архивирует интернет с 2001 года (я там даже нашёл свой старый хомяк из прошлого тысячелетия!). Archive Today поражает качеством архивирования - видимо они загружают страницы в headless browser и сохраняют получившееся состояние. Однако совершенно непонятно кому принадлежит этот сервис и соответственно неясно сколько он ещё протянет. Perma.cc пилится Гарвардским университетом, так что стоит предположить что он переживёт все подобные сервисы, что и является его главным преимуществом.

Чувствую, в своём хабе-архивариусе надо будет запилить поддержку Memento. Незачем велосипеды изобретать. Было бы совсем круто сделать этот протокол распределённым, чтобы каждый такой сервачок мог спросить у соседних сервачков "а у вас такого URLя не найдётся?", но как только начинаешь думать о децентрализации - сразу всплывает такое количество проблем, что всё желание думать дальше и пропадает. Поэтому наш девиз - каждый сам за себя!

recoder: (masked)

Выкроил на неделе чутка свободного времени, пошерстил интернеты на предмет персональной системы архивации ссылок. Результаты неутешительные: понаписано много чего, а того чего надо мне - нету. Толи никому такого не надо, толи я странного хочу, толи и то и другое...

В списке self-hosted архиваторов есть ровно две позиции:

  1. Wallabag. Хоть внутри и на богомерзком PHP, но снаружи выглядит неплохо. Много хороших фич: работающая readability, теги, поиск, RSS-фиды, импорт, экспорт в mobi/epub. Есть мобильные приложения.
  2. Nunux. Более молодёжный: на NodeJS, с модными external identities, приличным REST API. Но

Букмаркеров оказалось больше, но все страшные как атомная война: Shaarli, SemanticScuttle, Pinry, UnMark.

Сокращаторов тоже есть несколько: lstu, polr, YOURLS. Но только последний делает что-то сложнее тупого управления одной таблицей в БД, да и тот на PHP. Но мне кажется, свой сокращатор и так пишется за пару вечеров на любимом языке.

В общем, кое-что уже написано, но не очень хорошо и непонятно как это всё интегрировать.

От отчаяния пошёл посмотреть на готовые сервисы: pinboard, raindrop, diigo, stash.ai, contentle, historious. Нашёл даже такой оверкилл как BookmarkOS. И приличным из них всех мне кажется только Diigo. И я бы даже раскошелился на $50/год чтобы включить архивацию страниц, однако где гарантии что лет через пять от не уйдёт в царство Аида, унеся с собой тысячи заботливо разложенных закладок?

Чем дальше - тем больше мне хочется сесть и написать себе свой собственный аналог того же Diigo с самыми важными фичами:

  • каталогизатор ссылок (теги, коллекции)
  • сокращатор ссылок
  • архивация содержимого ссылок
  • поиск по сохранённым ссылкам
  • оптимизатор содержимого a-la readability/newspaper
  • ведение очереди/очередей для чтения

А чтобы самому не писать мобильные клиенты - написать прокси-сервер для клиента от Wallabag.

Несложно же должно быть для опытного программера с современными-то фреймворками. А если получится - можно будет развить всё это дело в более продвинутый персональный интернет-хаб. Так сказать, мои личные розовые очки для интернетов. (Пошёл набрасывать спецификации и освежать в памяти навыки deployment'a.)

recoder: (masked)

Отправился я недавно перечитать кой-чего из старого ЖЖ примерно десятилетней давности (да-да, я тот самый человек который перечитывает старые записи и даже иногда возвращается к старым дискуссиям). И после недолгого щёлканья по ссылкам остался в лёгком шоке от того что добрая половина гиперссылок протухла и более никуда не ведёт. Пошёл пошарить по своим коллекциям ссылок и пришёл в полнейшее расстройство. Увы, связность гипертекста не выдерживает испытание временем.

Плач Интернет-Ярославны )

В общем, хочу завести себе небольшой уютный интернет-оазис, где будет порядок и #стабильность. Куда можно будет отложить закладочку, классифицировать её, и не забыть закешировать её содержимое на случай потери связности. Там же вести списки для чтения всяческих лонгридов на замену почившей Readability. Туда же прикрутить свой собственный сокращатор ссылок, который будет жить столько, сколько я решу.

И захостить всё это на своём собственном сервере, чтобы ни от кого не зависеть!

Должно быть несложно...

recoder: (Default)

К тому, что в этих ваших интернетах постоянно кто-то неправ я смог привыкнуть, хоть было и нелегко. А вот к тому что там всё постоянно пропадает мой Lawful Neutral Alignment никак не приспособится!

На этот раз экзистенциальной печали подкинул сервис Readability. Удобная такая штука была поначалу: кидаешь туда всякие longread'ы лёгким щелчком букмарклета, она их переформатирует для более удобного чтения, а потом даёт это читать - хоть на их странице, хоть в приложениях на мобиле. Несмотря на то, что количество недочитанного там постоянно росло (и грозило полностью превратиться в stack'o'shame), всё равно это было очень удобно для чтения за ланчем, в очередях, и в других местах уединения.

А потом что-то пошло не так: сначала начали мешать в сервис социальщину, и вместо своих отложенных статеек я стал первым делом видеть произведения каких-то графоманов. Потом начало отчаянно глючить мобильное приложение - то покажет все 900 статей, то покажет что ничего нет, а то захочет минут 15-20 синхронизироваться. И вдруг случился внезапный коллапс: практически одновременно Readability объявила о своём закрытии и их главная альтернатива Instapaper внезапно продалась Pinterest'у (что тоже означает скорый конец).

Ну ладно, свой архив статеек с Readability я вытяну, а потом своим скриптом допилю до читабельного состояния. Но что дальше? Двигаться на оставшийся Pocket и молиться Зевсу чтобы и он не закрылся? Уходить на какой-нибудь платный сервис вроде El Curator надеясь что его платность позволит ему протянуть подольше? Или наоборот пойти на какой-нибудь мини-сервис типа Klip.me или Basket ожидая что раз они мелкие, то может владельцы не так быстро разорятся?

Или уже не ждать милостей от интернетовской природы и запилить себе свой собственный сервачок с чем-нибудь самопальным или оперсорным типа Wallabag? Мне так видится, что надёжность и долговечность своего карманного сервера вполне сравнима с любым онлайн-сервисом, будь он гаражный стартап или Гугловский продукт.

internet

recoder: (Default)
Немного Футурамы )

Однако, совершенно необязательно дожидаться чёрных пятниц и прочих распродаж, чтобы отловить хорошую скидку. Для этого есть отлично функционирующие роботы, которым достаточно скормить ссылку на магазин, указать желаемую цену (ну почти как обратный аукцион), и сидеть ждать уведомления в почту. Таких роботов довольно много разных (Lootr, Zing Sale, Price Jot, Price Chirp, 5&10), но я пользовался только тремя, IMHO лучшими:

1. The Tracktor. Трактор строго заточен под Amazon: даёшь ему ASIN и цену и ждёшь письма, когда можно закупить желаемое. Добавив его в Chrome, можно прямо в Амазоне видеть график изменения цен за последнее время. А это чертовски полезно!

2. Keepa. Кипа с виду немного гиковская, но по умениям ничуть не уступает Трактору: отслеживает товары на Amazon'e, присылает уведомления (в том числе мобильные!), и так же умеет рисовать графики изменения цен, если поставить его расширение в браузер.

3. Camel Camel Camel. Верблюд-в-Кубе - кажется самый старый из выживших сервисов такого вида (или PriceDrop самый старый?), но тем не менее и он тоже идёт в ногу со временем: и расширения опубликовал, и интеграцию с амазоновскими wishlists прикрутил.

Если не ограничивать свой выбор Амазоном - можно попробовать ещё Invisible Hand, который подскажет оптимальные цены прямо поверх Амазоновской страницы. Или Slick Deals который сравнивает цены между разными магазами. А ещё есть универсальный myAlerts выросший из TrackIf.com. И наверняка уже появились какие-нибудь новые, которых я ещё не видел.

Умельцы конечно могут сами на питоне наваять такое, тягая данные с priceJSON или напрямую с Amazon'a. Но я уже слишком стар для этого. Мне проще покликать на кнопки и пойти ещё подремать...

Приятного потреблятства!

internet

recoder: (Default)

Эта неделя у меня явно не задалась. Всё за что ни берусь - разваливается к чертям собачьим. Вот на днях пошёл в Яндекс Блоги поискать в своих и дружеских бложеках. Тыкался-тыкался, ну ничего не находится! Подумал было что запретил индексацию, проверил - всё на месте. С горем пополам и помощью Google нашёл почти всё что нужно и почти было успокоился. И тут коллега [livejournal.com profile] livelight сообщил что это последствия диверсии Яндекса просто выкинувшего старый архив блого записей. Поиск сейчас работает только по свежим и относительно свежим записям. Это не ошибка, мы намеренно пошли на такой шаг. В основном потому что подавляющее большинство пользователей ищут свежее, к архивам обращаются весьма редко. Типа, не выёживайтесь и слушайте свои Валенки!

Нельзя сказать чтобы это случилось неожиданно. Яндексовский поиск стабильно разваливался последние несколько лет. Сначала удушили неудобный топ блогов. Потом прикрыли блого-хостинг. Само качество поиска тоже убивало: любой поиск на общие темы неизменно выдавал несколько страниц либо очевидных спаммеров либо пятирублёвых ольгинских ботов. А теперь вот ррраз - и начинаем всё с нуля. Мо-лод-цы.

Впрочем кое-что у них отлично получается: то шпионский софт опять случайно выпустят, то на Google через ФАС наедут. Нашли себя ребята.

Итак, кто виноват - разобрались. Теперь - что делать?

Ходить в Яндекс жаловаться - бесполезно. Спасение утопающих - дело рук самих утопающих! Решение "в лоб" очевидно - укачать все интересующие журналы и искать по ним grep'ом. Правда инструментарий для скачивания давненько не обновлялся. Придётся наверное засучить рукава и написать свой ljarchive, с блэкждеком и опциями. Заодно наконец Python до конца доучу.

Ну а в перспективе - надо пилить себе свой поисковичок поверх своего блого-хаба. Заодно наверное решится проблема нахождения чего-либо полезного в Facebook'e. Вообще, много чего можно решить и улучшить. Где только время на это взять?..

yandex internet

recoder: (masked)

Коллега [livejournal.com profile] bluedrag недавно напомнил о бренности происходящего в ЖЖ. В любой момент ЖЖешчка может лечь под DDOSом, заблокировать меня или френдов, вообще объявить о закрытии, или "утеряться иным способом™". И что же я буду перечитывать холодными зимними ночами?

Вот была у Яндекса неплохая блогоплатформа "Я.ru", в которую было очень удобно аггрегировать все свои бложики, складывать ссылочки с цитатками и всё такое. Однако видать оно оказалось для Янедкса непрофильным и вместо развития сервиса его прикрыли на корню. Хорошо хоть дали контент зазеркалить в [livejournal.com profile] ya_recoder. Но все ссылочки на нажитое непосильным трудом - протухли, и это обидно.

Был ещё Google Buzz, но тот помер ещё быстрее чем Я.ru. Где-то в интернетах всё ещё доживают свои дни аггрегаторы помельче да покорявее (ну например NetVibes или там Soup), но уже становится очевидно, что в перспективе - доверять нельзя никому.

Поэтому чем дальше - тем больше желание завести себе свой локальный хаб. Что-то типа того же Я.ru или Facebook'a, чтобы был мой собственный и с моими собственными фичами:

  • Чтобы была двусторонняя синхронизация с другими сервисами: ЖЖ, Твиттером, Инстаграммом, Форсквером и т.д. RSS/ATOM/OAuth, все дела.
  • Чтобы был удобный редактор постов, которые бы потом транслировались в тот же ЖЖ: например чтобы понимал markdown, чтобы было легко исходнички вставлять, и пр.
  • Чтобы посты были типизированные. Ну хотя бы: текст, ссылка, картинки-музыка-видео, короткий статус. Но можно и ещё придумать: оценку чего-нибудь, гео-позицию или check-in, GPS-треки, и много другого (см. open schema).
  • Чтобы было удобно делать посты-цитаты: зашёл на страницу, выделил нужный кусочек, ткнул в букмарклет, а хаб сам бы HTML подчистил и в таком виде запостил.
  • Вообще, хочу чтобы все мои ссылочки кешировались: хоть картинкой, хоть полным текстом. Типа как CoralCDN делает.
  • Поверх всего этого - поиск нормальный запилить. А то поисковикам доверия уже немного осталось.

Ещё бы было здорово, чтобы себе на том же хабе френд-ленту сделать: для начала просто OPML/RSS/ATOM-читалку. Но это я наверное уже слишком многого захотел, и в одном флаконе.

Вот гуглю теперь - есть уже что-то похожее или пора засучить рукава и садиться писать? И не получится ли в результате Diaspora? Впрочем, в любом случае - так дальше жить нельзя.

lj internet

recoder: (masked)

В своих долгих попытках более-менее формализовать и смоделировать свою жизнь у меня получилось выделить три главных измерения: время, пространство и дерево целей. Время моделируется календарём. Пространство моделируется гео.картой. Цели и задачи - всякими ToDo-менеджерами. Похоже есть ещё одно, социальное измерение, но я как социофоб его пока игнорирую.

Конечно очень хочется, чтобы был такой один большой ЦУП, где все разнообразные потоки данных можно было свести вместе и разложить на эти взаимосвязанные измерения. Увы, поиски Священного Грааля всё ещё не увенчались успехом, но кое-какие успехи - имеются, и в основном благодаря Гуглу. Временное измерение хорошо вписывается в Google Calendar, а пространственное неплохо визуализируется в Google Maps. Пара дополнительных бонусов - это Gmail Contacts и странноватый Google+ для работы с социальным измерением, и загадочный Google Now, который всё лучше и лучше учится сводить всю эту информацию с пользой для меня. Однако интеграция всяких источников календарных данных в Google Calendar - дело несложное, но муторное - выцеплять из каждого сервиса iCal feed, потом импортировать и следить чтобы ничего не отвалилось.

А намедни довольно случайно я наткнулся на такую штуку как Sunrise Calendar. Это такой календарь-интегратор, который умеет автомагически вытягивать календарные данные из многих сервисов и аккуратно представлять из в виде элегантного календаря. Дополнительный плюс - это интеграция с некоторыми менеджерами задач, так что есть потенциал подвести поближе ещё одно измерение. Увы, мой текущий DoIt.im внешний API почему-то открутил и не хочет ни с кем интегрироваться.

Как положено в наше время - к веб-версии календаря прилагаются и мобильные клиенты. Попробую пожить месячишко-другой с этим чудом. Посмотрю на свои впечатления. И буду держать пальцы скрещенными надеясь что их не купил какой-нибудь очередной корпоративный монстр.

internet software

recoder: (Default)

И те кто говорят, что пить надо меньше, и те кто говорят что пить можно сколько влезет, сходятся в том что пить - надо.
Сезон праздничных запоев на родине напомнил мне сделать микро-обзорец социальных сеток для интернет-пьяниц, желающих употреблять алкогольные напитки в современном стиле: социально и онлайн.

Винное направление конечно же особенное. Вообще, количество понтов в области потребления перебродившего виноградного сока иногда просто поражает. Сорта, года, плантации, виноградники и прочите винтажи-купажи... При том, что среднее вино за $10 не очень-то отличается от вина за $90. Однако иногда в этом хочется убедиться самому. И в этом часто помогают винные сети:

Пивные сеточки будут попроще, однако они тоже неплохо справляются со своей задачей: фиксировать свои пивные впечатления и подбирать рекомендации когда хочется попробовать чего-то новенького:

Присоединяйтесь!

Отдельно надо упомянуть отечественный сервис Yesterday.me, ведущий статистику потребляемого алкоголя. Статистика можно складывать в литры, можно рисовать на графиках, можно меряться количеством с френдами. Но наверное самое главное - это мотивационная составляющая, крайне экспрессивно изложенная благодарным юзером:

Братюни, спасибо вам... )

Как говорится, drink responsibly, то есть бухайте, но в меру!

alcohol internet

recoder: (Default)

В этих интернетах не разберёшься, кто прикалывается, а кто правда дебил.
© народная онлайн-мудрость
На волне околовыборной политической активности пошёл полистать политические твиттеры наших общественных деятелей. Полистал-полистал и остался в лёгком замешательстве. Ну понятно - старые-добрые Перзидент Роисси и Депутат Едина Росс - признаные сатирики-юмористы. Двойник Игоря Сечина - тоже злобная сатира. С Жириновским тоже понятно - он всегда бы сам себе пародист на себя самого, так что неважно его это твиты или он на самом деле В.Жириновский.

А дальше... Перефразируя Кларка - любая достаточно продвинутая сатира практически неотличима от магии оригинала. Читаешь какого-нибудь Суркова или Чурова - вроде бы смешно. Читаешь Исаева или там Соловьёва - вроде смешно, но люди-то похоже всерьёз говорят.

Похоже, господин Пелевин в своих фантазиях оказался совсем недалёк от реальностей. И вот сидишь, пролистываешь Рогозина, Волошина, Зюганова, Чубайса, Дворковича и других - и не понимаешь, то ли шутки шутятся, а то ли правда все такие альтернативно одарёные (и возможно генетически).

В общем, в моём представлении политики в интернетах моего обратного теста Тьюринга не проходят. И наверное, это скорее печально, чем смешно.

И закончу КВНовской частушкой (а как известно в каждой шутке найдётся доля чего-нибудь полезного):

Он писал о нас неправду в Твиттере - ходит с дырами от вил на свитере.

politics internet twitter

recoder: (Default)

Видимо совсем я стар стал. Который год смотрю на бурно цветущий Twitter и совершенно не втыкаю - в чём его гениальность? RSS же существовал уже стопиццот лет и со всех сторон говорили что это неудобно, непрактично и вообще никому не нужно. Тут же - сделали точно такой же RSS только хуже (и сам RSS оттуда в конце концов отломали), ограничили со всех сторон и прежде всего размером сообщения - и народ туда слетается стаями. Не понимаю. Сомневаюсь, что пипл ценит там передовые real-time'овые технологии, тем более что появились они довольно недавно. Единственное объяснение, которое меня устраивает - это то, что ограничение в 140 символов уравняло в возможностях поколение ADHD со всеми остальными и они, ликуя, ломанулись в этот плавильный котёл.

* * *

Ну и кстати - примерно так же недолюбливаю Facebook. Все эти современные сервисы стараются вывалить на тебя какой-то нескончаемый поток совершенно неструктурированной информации, которая моментально устаревает. Это конечно вполне в тренде современной копроэкономики, однако наш Тайный Орден очень этому печалится. Вот к примеру - найдите в вашем Фейсбуке где ты чекинился во вторую субботу мая (а это, поверьте, бывает нужно). Вот то-то же. Так что никак не могу называть всё это информационными сервисами. Максимум - очередными социально-развлекательными явлениями. А сам пока остаюсь тут, в ЖЖ.

* * *

Кстати - понял наконец, что такое Google Plus (меня искать тут: http://gplus.to/recoder). Это такой твиттер с сегментацией аудитории и без ограничения в 140 символов (и с отличным Android-клиентом). И применения такому твиттеру я как раз вижу - делать тематические микро-рассылки. Вот только народ туда пока не подтянулся. А вообще, у Гугла сложилась довольно полная палитра сервисов: писать своё - Google+, собирать всё своё из других мест - Buzz, собирать чужое интересное - Reader, фотохостинг - Picasa, всякие гео-штучки - Latitude, Maps, HotPot. Остаётся только ждать, когда они всё это смешают в правильной пропорции и соберётся критическая масса. Пока вот к сожалению этого не происходит. Будем ждать. Hail Google!

» buzz internet

December 2024

S M T W T F S
1234567
891011121314
15161718192021
22232425 262728
293031    

Syndicate

RSS Atom

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Dec. 24th, 2025 09:11 am
Powered by Dreamwidth Studios