Опубликован первый выпуск проекта Gitmal, позволяющего генерировать статические сайты для навигации по Git-репозиториям. Содержимое репозитория преобразуется в наглядное web-представление в стиле GitHub (пример), состоящее только из статических HTML-страниц и не требующее выполнения скриптов на сервере. Подобный подход позволяет создавать сайты для просмотра содержимого git-репозиториев, для работы которых требуются минимальные ресурсы на сервере. Код проекта написан на языке Go и распространяется под лицензией MIT...Подробнее: https://www.opennet.dev/opennews/art.shtml?num=64365
Ооо, прям для Ъ-энтерпрайз-форчун-500-ЭКСПЕРТА тема - как раз "в гит по оглавлению", без жыес, аутентификации и вот этого вот всего. Можно самому себе мылом коммиты слать - и результат в красивом виде коту показывать...
Ну знаешь ли, для локальной инфраструктуры, где поднимать полноценный гити/гогс не хочется или дорого в плане взаимодействия с отбитыми дядями из ИБ - самый попс.
> Ну знаешь ли, для локальной инфраструктуры, где поднимать полноценный гити/гогс не хочется
> или дорого в плане взаимодействия с отбитыми дядями из ИБ -
> самый попс.Так это им ни в одном месте не замена и не конкурент - это "смотрелка only", аналог cgit https://git.zx2c4.com/cgit/ от которого не вытекают глаза (Зато последний на вид мал-мала полезней).
Просто в S3 залить и забыть
Что мешает поднять gitea? Даже на малинке шустро работает.
если все сайты так сделать, то будет нормальный интернет, как было при дедах
Гемини, уже есть, уже сделали.
Как веб1.0, все статично и быстро, но... обычные юзеры дуреют от прикормки кнопочками и менюшками и теперь пересадить их обратно на статичные страницы...
> Гемини, уже есть, уже сделали.Это как гипертектовый фидонет? По нужности)
> Как веб1.0, все статично и быстро, но... обычные юзеры дуреют от прикормки кнопочками и менюшками
Угу, вот негодяи! Не хотят пользоваться древностью.
> и теперь пересадить их обратно на статичные страницы...
Вот в одной стране решили пересадить народ на жигули.
Но они чего-то сопротивляются! Непонятно почему. Ведь буханку можно починить в тайге при помощи овна и палок. А эти неблагодарные хотят климаконтроль и мультимедийку!
Нет, гемини - это «мы придумали интернет на маркдауне». То, что интернет даже в 1.0 так не выглядел и никто их об этом не просил - это, как у нас водится, проблема реальности, а не наша.
> Вот в одной стране решили пересадить народ на жигули.Не-а! Решили что заводы будут там же где и покупатели :-р
Правдо, как у наши во всём - всё через (_|_) и доооооооооооолго :(
Как только объясните как через этот гемини заказать пиццу, пообщаться с нейросетью или посмотреть прон - сразу переключусь.
А для таких как ты - веб2.0 и придумали. Давай, в одну руку пиццу, в другую - свой отросток, носом - тыкай текст рободураку и вперед!
веб-сервер это уже сам по себе динамический контент
Я тот самый дед и не надо мне интернета моей молодости, не было там ничего нормального.
Тогда интернет был свободен!
От чего)?
Что тогда, что сейчас ты мог сделать свой сайт и положить его в интернет.
Сейчас тебе надо купить^W"бесплатно получить" специальный пропуск в интернет от "доверенных" контор под названием "сертификат для https". и этот пропуск в любой момент у тебя могут отобрать.а без пропуска никто твой сайт-страничку посмотреть не сможет.
А примеры того, как у тебя отобрали сертификат ты приведешь?
А то даже у сайтов органов страны-агрессора никто не отзывал
Да и бесплатный работающий по ACME центр не один
> А то даже у сайтов органов страны-агрессора никто не отзывалЭти - сами выдают :)
> и этот пропуск в любой момент у тебя могут отобратьКак только кто-то это реально, в не в твоих фантазиях, сделает, можешь сразу бежать писать про это новость и подрывать доверие ко всей системе CA. Пока увы, есть основания им доверять побольше чем параноикам и луддитам, потому что отобранных сертов не было, а баннеры воткнутые на тот же опеннет были неоднократно подтверждены.
> Тогда интернет был свободен!В первую очередь он был свободен от контента.
Черт с ними, с маркетплейсами и пиццей, полезная информация была фрагментарной, часто очень специфической, а поисковые инструменты были примитивные.
Что не хочется вернуться во времена, когда ты мечтал чтобы картинки грузились снизу вверх))?Не, что-то нормальное (по тем временам))) находилось.
Новизна и впечатления молодости всё-таки были.
Тёплые ламповые модемы, которые пищали и скрипели, подключение по диалапу (борьба с соседями за телефон) в ночное время тк дешевле, чаты, первые онлайн игры, впечатления от магии флеша...Сейчас уже понимаешь что это просто восторг молодости.
По нынешним меркам это уже всё устарело.
Лампочка Татьяныча.
Я такой же дед и поддерживаю. Вот этих подкроватников из поколения альфа, которые с жиру бесятся, посадить бы за их любимый статичный веб 1.0 по модему. Через месяц расскажут про неописуемую радость.
> если все сайты так сделать, то будет нормальный интернет, как было при дедахНет, даже деды в свое время не додумались до такой дичи, как нагибать сервак по десять минут на репу для генерации гигабайтов мусора. Даже дидовый cgit, внезапно, вполне динамичен и работает поверх CGI.
Ты че, не одупляешь что происходит? Деды в свое время сказали «нет, так чото криво работает, так жить нельзя» и придумали все эти ненавидимые вами веб дваноли, хтмл5 и прочее. В целом всех все устраивает, но есть кучку нытиков, IT-ролевиков, которые внезапно захотели вернуться в ту эпоху, от которой деды сквозь боль нас уводили) Но так как кроме этой кучки никто этого не хочет - они выдавили из гемини и теперь на форумах обсуждают, как затащить в этот убогий маркдаун народ))
О, ну эт поинтереснее stagit будет
Прикрутить к этому полнотекстовый поиск и вообще конфетка будет. Больше всего при просмотре отдельных инстансов GitLab бесит, что поиск только после регистрации, а задача, как правило, просто один раз найти какой-то коммит.
тащить голанг с тонной зависимостей, когда есть cgit?
Понь-цепт все же разный, не? cGit - cgi-SSR 90е style, а вот это - static site generator, который создает статические слепки на момент времени. Часто пишут + редко читают - выбирай cgit, редко меняют, часто смотрят - прикручивай палка-к-веревка через какой pre-commit вот это.
cgit могет в кэш, и тоже может статических страниц нагенерировать заранее. так что зачем нужен сабж пока непонятно.
19 мб готовый статический бинарник, что ты куда тащить собрался… признайся просто что натренирован на голанг бросаться
если 19 мегабайт и статические бинарники для тебя - норма, то не о чем разговаривать// как выборочно вендорлокнутые голангщики комментируют сообщения
> если 19 мегабайт и статические бинарники для тебя - норма, то не о чем разговариватьГентушник что-то там заикается про норму, лол. Это тулза, чтобы на сервак ее раз закинуть и не делать себе голову.
> Это тулза, чтобы на сервак ее раз закинуть и не делать себе голову.и эта тулза называется cgit
>если 19 мегабайт и статические бинарникиТы сможешь объяснить что не так с 19 мб и статической сборкой? Только не прибегая к лозунгам, твоим личным жизненным принципам и страхам. «Голанг плоха потому что гугол придумал его для деревяшков», «статическая линковка плоха (я скозал)» — это не аргументы. Без шуток, объясни в каких условиях 19 мб и статическая сборка в контексте конкретно этой программы это прямо блокер-блокер, использовать нельзя, надо искать что-то другое.
Да. Тут особенно важен контекст.Сколько бы не было дырок и ошибок в слинкованных библиотеках этой сборки - да нас...
много нас в общем.
просто выучи нормальный ЯП, и тебе не придётся выпрашивать на форумах разрешения предоставить свои жалкие веб-синьорские оправдания, как сейчас
> Подобный подход позволяет создавать сайты для просмотра содержимого git-репозиториев, для работы которых требуются минимальные ресурсы на сервере.И при этом:
> Генерация web-страниц для репозиториев [...] выполняется за 25 минут на MacBook Air M2 и приводит к сохранению около 2 ГБ файлов.
Ну, и где тут "минимальные ресурсы"? Как серваку нужно отдавать гораздо больше данных (не говоря уж о том, чтобы из обновлять и хранить, лол), так и клиенту нужно гораздо больше этих данных качать. Зато героически избавились от AJAX (и от здравого смысла заодно).
Два гига статики это много что ли? Это же генерируется для всех веток и всех файлов в репозитории. Да и пользователю их не нужно все скачивать, обычно зашёл посмотрел какой надо файл и вышел.Вот почему это занимает 25 минут на неплохом компьютере конечно загадка. Возможно, типикал гошный тяп-ляп девелопмент, но это надо смотреть.
> Это же генерируется для всех веток и всех файлов в репозитории.И перегенерируется при любом изменении в любой ветке.
Удобненько.
Экономичненько.
> Возможно поддержание web-представления в актуальном виде через __инкрементальные обновления__
Ну, я так понимаю, что 25 минут - это для трех репозиториев. При этом если на какой-нибудь zig посмотреть - так там 500+ мб размер репозитория и 30к коммитов - общий размер в 2 Гб на оба-трое так-то вполне себе хороший результат. Опять же - инкременты поддерживаются.
Прикольно выглядит
https://github.com/cyrusmsk/rendergit-dрендерит страничку за считанные секунды в единый HTML - где уже можно хоть поиском хоть grepом искать что нужно
Да-да, давайте нагенерим гигабайты статики по всей истории, в которую даже никто смотреть не будет. Ради, напомните, чего?
мне еще понравилось как проект с 8 коммитами сделанный за 3 дня сразу получил версию 1.0 :)