Kompx.com or Compmiscellanea.com

Легкие браузеры для Linux

Операционные системы : Linux

Netsurf : Hv3 : Dillo : Links2

Сейчас подлинные легкие веб браузеры, это такие браузеры, которые не работают или сильно ограничено работают с JavaScript и Flash. Потому что веб браузер даже с самым легким интерфейсом сделается тяжелым при работе с современным интернетом, перегруженным скриптами и мультимедией. Таких браузеров немного и часть из них движется к тому, что бы стать работающими с JavaScript - т.е. к тому, что бы выбыть из категории "Легкие веб браузеры".

Легкие веб браузеры могут быть более продвинутыми - работать с CSS. Или менее - не работать с CSS или работать очень слабо.

Netsurf - / home page /

Самый продвинутый на данный момент легкий веб браузер для Linux. Весьма основательная поддержка CSS. Хорошая работа с HTML. Очень слабая поддержка JavaScript, которая может быть отключена. Для *nix систем есть версии, которые могут работать без X, используя framebuffer графической карты. Изначально создан для RISC OS и только потом портирован на Linux. Есть так же версии для других *nix систем, для AmigaOS, AmigaOS 4, Atari OS, BeOS/Haiku, Mac OS X, MorphOS.

Подробнее о технических характеристиках Netsurf )

NetSurf 3.0 on PuppyLinux 5.2.8:

netsurf-browser.org

[Image] : NetSurf - 1

NetSurf 3.0 on PuppyLinux 5.2.8:

w3schools.com/browsers/browsers_stats.asp

[Image] : NetSurf - 2

NetSurf 3.0 on PuppyLinux 5.2.8:

en.wikipedia.org/wiki/Netsurf

[Image] : NetSurf - 3

NetSurf 3.0 on PuppyLinux 5.2.8:

ebay.com

[Image] : NetSurf - 4

NetSurf 3.0 on PuppyLinux 5.2.8:

kompx.com/en/web-browsers-for-dos.htm

[Image] : NetSurf - 5

NetSurf 3.0 on PuppyLinux 5.2.8:

twitter.com

[Image] : NetSurf - 6

Hv3 - / home page /

Менее продвинутый легкий веб браузер для Linux, но все же имеющий значительную поддержку CSS. Слабая поддержка JavaScript / ECMAScript. Неплохая работа с HTML. Имеются версии для Linux и Windows.

Подробнее о технических характеристиках Hv3 )

Hv3 20070702:

tkhtml.tcl.tk

[Image] : Hv3 - 1

Hv3 20070702:

w3schools.com/browsers/browsers_stats.asp

[Image] : Hv3 - 2

Hv3 20070702:

en.wikipedia.org/wiki/Tkhtml

[Image] : Hv3 - 3

Hv3 20070702:

ebay.com

[Image] : Hv3 - 4

Hv3 20070702:

twitter.com

[Image] : Hv3 - 6

Dillo - / home page /

Частичная, улучшающаяся с новыми версиями поддержка CSS. Работа с HTML умеренно хорошая. Быстрый, быстрее только Links2. Разные версии Dillo работают в Linux, FreeBSD, Mac OS X и других *nix системах, RISC OS, на некоторых КПК и SONY PlayStation2. Есть порты под DOS и Windows.

Подробнее о технических характеристиках Dillo )

Dillo 2.2.1:

dillo.org

[Image] : Dillo - 1

Dillo 2.2.1:

w3schools.com/browsers/browsers_stats.asp

[Image] : Dillo - 2

Dillo 2.2.1:

en.wikipedia.org/wiki/Dillo

[Image] : Dillo - 3

Dillo 2.2.1:

ebay.com

[Image] : Dillo - 4

Dillo 2.2.1:

twitter.com

[Image] : Dillo - 6

Links2 - / home page /

Менее продвинутый легкий веб браузер для Linux - нет поддержки CSS; до версии 2.1pre28 была слабая, не мешающая поддержка JavaScript. Работа с HTML умеренно хорошая. Самый быстрый из рассматриваемых - может самый быстрый из вообще всех веб браузеров с графическим интерфейсом. Может работать и без X, используя SVGALib или framebuffer графической карты. Версии для Linux, FreeBSD, OpenBSD, NetBSD, других *nix систем, OS/2, AtheOS, BeOS, Windows (Cygwin).

( Подробнее о технических характеристиках Links2 )

Links2 2.1pre21:

links.twibright.com

[Image] : Links2 - 1

Links2 2.1pre21:

w3schools.com/browsers/browsers_stats.asp

[Image] : Links2 - 2

Links2 2.1pre21:

en.wikipedia.org/wiki/Links_(web_browser)

[Image] : Links2 - 3

Links2 2.1pre21:

ebay.com

[Image] : Links2 - 4

Links2 2.1pre21:

twitter.com

[Image] : Links2 - 6

Помимо вышеупомянутых, есть еще один легкий веб браузер - Mosaic-CK. Однако версия для Linux экспериментальная и требует к тому же установки дополнительного софта, что может оказать хлопотным или невозможным в некоторых дистрибутивах.


Aliosque subditos et thema

 

Lynx. Извлечение данных из веб-страниц

 

Помимо просмотра / отображения веб-страниц, Lynx может выводить форматированный текст содержания веб-документа или его HTML источник на стандартный вывод. И это затем может быть обработано с помощью некоторых инструментов, имеющихся в Linux, таких как gawk, Perl, sed, grep, и т.д. Некоторые примеры: Работа с внешними ссылками Подсчитать количество внешних ссылок Lynx выводит список ссылок из содержимого веб-документа на стандартный вывод. Grep ищет только строки, начинающиеся с "http:", перенаправляет результат далее, опять для grep, который выбирает из них строки не начинающиеся с "http://compmiscellanea.com" and "http://www.compmiscellanea.com" (внешние ссылки веб-страницы), wc подсчитывает число извлеченных внешних ссылок и отображает его: lynx -dump -listonly "http://compmiscellanea.com/en/elinks.htm" | grep -o "http:.*" | grep -E -v "http://compmiscellanea.com|http://www.compmiscellanea.com" | wc -l Найти внешние ссылки и сохранить их в файл Lynx выводит список ссылок из содержимого веб-документа на стандартный вывод. Grep ищет только строки, начинающиеся с "http:", перенаправляет результат далее, опять для grep, который выбирает из них строки не начинающиеся с "http://compmiscellanea.com" and "http://www.compmiscellanea.com" (внешние ссылки веб-страницы) и сохраняет их в файл: lynx -dump -listonly "http://compmiscellanea.com/en/elinks.htm" | grep -o "http:.*" | grep -E -v "http://compmiscellanea.com|http://www.compmiscellanea.com" > file.txt Найти внешние ссылки, опустить повторяющиеся записи и сохранить результат в файл Lynx выводит список ссылок из содержимого веб-документа на стандартный вывод. Grep ищет только строки, начинающиеся с "http:", перенаправляет результат далее, опять для grep, который выбирает из них строки не начинающиеся с "http://compmiscellanea.com" and "http://www.compmiscellanea.com" (внешние ссылки веб-страницы), sort сортирует их, а uniq удаляет повторяющиеся записи. Результат сохраняется в файл: lynx -dump -listonly "http://compmiscellanea.com/en/elinks.htm" | grep -o "http:.*" | grep -E -v "http://compmiscellanea.com|http://www.compmiscellanea.com" | sort | uniq > file.txt Работа с внутренними ссылками Подсчитать количество внутренних ссылок Lynx выводит список ссылок из содержимого веб-документа на стандартный вывод. Grep ищет только строки, начинающиеся с "http://compmiscellanea.com" and "http://www.compmiscellanea.com" (внутренние ссылки), wc подсчитывает число извлеченных внутренних ссылок и отображает его: lynx -dump -listonly "http://compmiscellanea.com/en/elinks.htm" | grep -E -o "http://compmiscellanea.com.*|http://www.compmiscellanea.com.*" | wc -l Найти внутренние ссылки и сохранить их в файл Lynx выводит список ссылок из содержимого веб-документа на стандартный вывод. Grep ищет только строки, начинающиеся с "http://compmiscellanea.com" and "http://www.compmiscellanea.com" (внутренние ссылки) и сохраняет их в файл: lynx -dump -listonly "http://compmiscellanea.com/en/elinks.htm" | grep -E -o "http://compmiscellanea.com.*|http://www.compmiscellanea.com.*" > file.txt Найти внутренние ссылки, опустить повторяющиеся записи и сохранить результат в файл Lynx выводит список ссылок из содержимого веб-документа на стандартный вывод. Grep ищет только строки, начинающиеся с "http://compmiscellanea.com" and "http://www.compmiscellanea.com" (внутренние ссылки), sort сортирует их, а uniq удаляет повторяющиеся записи.

Распаковать tar.gz

 

Распаковать tar.gz в командной строке Linux: tar zxvf file.tar.gz - z : пропустить архив через gzip [ 1 ] - x : извлечь файлы из архива - v : выводить список обрабатываемых файлов в процессе работы команды - f : распаковывать файл, имя которого указано после команды и модификаторов. То есть, параметр f предписывает использовать следующий аргумент как то, с чем надо работать вместо устройства архивации, указанного в системе по умолчанию, например /dev/rmt0. Команда извлекает содержимое сжатого архива в текущую папку. Tar создает архив из одного или нескольких файлов. Затем используется gzip, чтобы его сжать. Или оба процесса производятся только с помощью tar, используя соответствующие параметры команды. Двойственность природы - упаковано в архив и затем сжато - отражается в расширении имени файла ("tar.gz") и требует, чтобы в процессе извлечения были проведены две процедуры: восстановление из сжатого состояния и распаковка. Отсюда z (восстановить) и x (распаковать) в команде. [ 1 ] Источники для описания параметров команды: OpenNet : MAN tar и Сitforum : TAR(1)